ISSN 1553-5053Sitio actualizado en   abril de 2024 Visitas:

Volumen 19 | Número 2
Septiembre 2023 | Marzo 2024 - Septiembre 2023
Publicado: Septiembre 2023
Inteligencia Artificial y Bioética


Resumen

El presente ensayo explora diversas perspectivas y preocupaciones relacionadas con el impacto de la inteligencia artificial (IA) en la experiencia médico-paciente y la educación. El ensayo combina reflexiones narrativas y análisis crítico del problema, utilizando como recurso la novela "Fahrenheit 451" de Ray Bradbury. El autor plantea que la IA, representada, entre otros desarrollos, por los modelos de lenguaje de gran tamaño (Large Language Models – LLMs) como ChatGPT, tiene un impacto significativo en la medicina y la educación. A partir de la novela descrita propone preguntas fundamentales en relación con los atributos que constituyen la experiencia médico-paciente, la práctica profesional y, en general, la experiencia humana. Se analizan algunas diferencias entre los modos de razonamiento de seres humanos y sistemas algorítmicos, y se insiste en la importancia de preservar los atributos humanos en la interacción con la inteligencia artificial, como el rol de las emociones y la reflexión crítica. El artículo afirma la importancia de promover prácticas educativas fundadas en la deliberación sobre valores, el pensamiento crítico y la pedagogía sentimental, como alternativas a una relación automática con la tecnología, como expresión de una pérdida de sentido y significado: el nihilismo automático.

Palabras clave: Bioética | Inteligencia Artificial | Relaciones Médico-Paciente | Narración | Educación Profesional

Abstract English version

[pp. 49-56]

¿Operarios impasibles?

Desafíos de la educación y la experiencia médico paciente en relación con la inteligencia artificial
Boris Julián Pinto Bustamante

Departamento de Bioética, Universidad el Bosque y Escuela de Medicina y Ciencias de la Salud, Universidad del Rosario, Colombia

Introducción

"ChatGPT" es un modelo de lenguaje (Large Language Models - LLM) basado en Inteligencia Artificial (IA), entrenado en grandes conjuntos de datos de texto en varios idiomas con la capacidad de generar respuestas a entradas de texto. La arquitectura GPT (Generative Pre-Trained Transformer) utiliza redes neuronales para procesar el lenguaje natural, generando respuestas basadas en el texto de entrada. La superioridad de ChatGPT en comparación con sus predecesores se debe a su capacidad de responder en múltiples idiomas y generar respuestas refinadas y altamente sofisticadas basadas en modelos algorítmicos avanzados.

La comunidad científica y académica ha expresado respuestas mixtas con respecto a ChatGPT, reflejando la controversia histórica sobre los beneficios y riesgos de las tecnologías disruptivas. Por un lado, ChatGPT, junto con otros LLMs (como Bard), pueden ofrecer beneficios en tareas conversacionales y de escritura, aumentando la eficiencia de la producción requerida (Lenharo, 2023), así como promover diversas dinámicas educativas (Sabzalieva & Valentini, 2023). Por otro lado, su uso podría cambiar la forma en que se realizan los trabajos escritos, dado el alto riesgo de plagio y delegación de tareas escritas a la IA, generando cambios en los procesos educativos, incluida la necesidad de redefinir conceptos como el plagio (Barnett, 2023), la autoría (Stokel-Walker, 2023) y aspectos relativos a la propiedad intelectual (Thorp, 2023).

La cooperación entre la IA y la inteligencia humana promete diversas aplicaciones en la atención médica, como medicina de precisión, descubrimiento de medicamentos, análisis de grandes conjuntos de datos, optimización de procesos diagnósticos y toma de decisiones clínicas (Beam et al, 2023). También se han explorado aplicaciones de IA en la educación médica, ayudando a los estudiantes a comprender conceptos complejos (Cooper & Rodman, 2023). Sin embargo, todas estas aplicaciones deben abordarse con precaución debido a las preocupaciones y riesgos asociados con el uso de LLMs, como la generación de contenido impreciso, el riesgo de sesgo y discriminación, la falta de transparencia y confiabilidad, problemas de ciberseguridad, consecuencias éticas e implicaciones sociales (Ferryman, Mackintosh & Ghassemi, 2023).

Más allá de las preocupaciones y expectativas sugeridas, abordaré algunos problemas puntuales a partir de la novela Fahrenheit 451, una novela distópica escrita por Ray Bradbury en 1953, la cual fue llevada al cine en 1966, dirigida por François Truffaut.

Los operarios impasibles

La trama de la novela descrita se sitúa en un futuro sombrío, donde los libros son considerados peligrosos y se prohíbe su posesión. Los bomberos, en lugar de apagar incendios, tienen la misión de quemar cualquier libro que encuentren para eliminar cualquier rastro de conocimiento y pensamiento crítico.

El protagonista de la historia es Guy Montag, un bombero ejemplar que, en su monótona rutina, empieza a cuestionarse la razón detrás de la prohibición de los libros. A medida que su curiosidad crece, conoce a Clarisse, una joven inusualmente fascinada por el pasado y la literatura. Las conversaciones con Clarisse despiertan en Montag un deseo de entender el valor de los libros y la importancia de la libertad de pensamiento.

A medida que avanza la trama, Montag se ve envuelto en un mundo clandestino de personas que se niegan a renunciar a los libros y memorizan sus contenidos para preservarlos. Esta experiencia transformadora lleva a Montag a enfrentarse a la tiranía y la censura del gobierno, poniendo en peligro su vida para proteger el conocimiento y liberar a la sociedad del control totalitario.

En síntesis, Fahrenheit 451 es una cautivadora reflexión sobre la importancia de la literatura, la búsqueda de la verdad y la lucha por la libertad intelectual en un mundo opresivo, donde la información es restringida y manipulada.

En una escena de la historia, Mildred, la esposa de Guy Montag, pierde el conocimiento debido a una sobredosis de pastillas para dormir. A lo largo de la novela, se presenta a Mildred como una mujer superficial, alienada y completamente inmersa en la "pared" (televisores gigantes en las casas que transmiten programas interactivos) y en su vida superficial y desconectada. Ella es una representación de la sociedad deshumanizada y obsesionada con el entretenimiento trivial, sin ningún interés en la literatura o el pensamiento crítico. Como un tributo a la paciencia que requieren la lectura y la ficción, amenazadas en los días del pensamiento automático, propongo repasar la secuencia narrativa que describe la novela:

Tenían aquella máquina. En realidad, tenían dos. Una de ellas se deslizaba hasta el estómago como una cobra negra que bajara por un pozo en busca de agua antigua y del tiempo antiguo reunidos allí. Bebía la sustancia verduzca que subía a la superficie en un lento hervir. ¿Bebía de la oscuridad? ¿Absorbía todos los venenos acumulados por los años? Se alimentaba en silencio, con un ocasional sonido de asfixia interna y ciega búsqueda. Aquello tenía un Ojo. El impasible operario de la máquina podía, poniéndose un casco óptico especial, atisbar en el alma de la persona a quien estaba analizando. ¿Qué veía el Ojo? No lo decía. Montag veía, aunque sin ver, lo que el Ojo estaba viendo. Toda la operación guardaba cierta semejanza con la excavación de una zanja en el patio de su propia casa. La mujer que yacía en la cama no era más que un duro estrato de mármol al que habían llegado. De todos modos, adelante, hundamos más el taladro, extraigamos el vacío, si es que podía sacarse el vacío mediante la succión de la serpiente. El operario fumaba un cigarrillo. La otra máquina funcionaba también. La manejaba un individuo igualmente impasible, vestido con un mono de color pardo rojizo. Esta máquina extraía toda la sangre del cuerpo y la sustituía por sangre nueva y suero. —Hemos de limpiarlos de ambas maneras –dijo el operario, inclinándose sobre la silenciosa mujer–. Es inútil lavar el estómago si no se lava la sangre. Si se deja esa sustancia en la sangre, ésta golpea el cerebro con la fuerza de un mazo, mil, dos mil veces, hasta que el cerebro ya no puede más y se apaga. —¡Deténganse! –exclamó Montag–. 20 —Es lo que iba a decir –dijo el operario–. —¿Han terminado? Los hombres empaquetaron las máquinas. —Estamos listos. La cólera de Montag ni siquiera les afectó. Permanecieron con el cigarrillo en los labios, sin que el humo que penetraba en su nariz y sus ojos les hiciera parpadear. —Serán cincuenta dólares. —Ante todo, ¿por qué no me dicen si sanará? —¡Claro que se curará! Nos llevamos todo el veneno en esa maleta y, ahora, ya no puede afectarle. como he dicho, se saca lo viejo, se pone lo nuevo y quedan mejor que nunca. —Ninguno de ustedes es médico. ¿Por qué no han enviado uno? —¡Diablo! –El cigarrillo del operario se movió, sus labios–. Tenemos nueve o diez casos como ése cada noche. Tantos que hace unos cuantos años tuvimos que construir estas máquinas especiales. Con lente óptico, claro está, resultan una novedad, el resto es viejo. En un caso así no hace falta doctor; lo único que se requiere son dos operarios hábiles y liquidar el problema en media hora. Bueno –se dirigió hacia la puerta–, hemos de irnos. Acabamos de recibir otra llamada en nuestra radio auricular. A diez manzanas de aquí. Alguien se ha zampado una caja de píldoras, si vuelve a necesitarnos, llámenos. Procure que su esposa permanezca quieta. Le hemos inyectado un antisedante. Se levantará bastante hambrienta. Hasta la vista. Y los hombres cogieron la máquina y el tubo, caja de melancolía líquida y traspasaron la puerta (Bradbury, 2006).

A partir de este fragmento propongo, dentro de las múltiples áreas de controversia suscitadas por la IA, reflexionar en torno a dos problemas: el impacto sobre la experiencia médico-paciente y el papel de la educación en este contexto.

En este segmento de la novela es llamativa la figura de los dos operarios impasibles que atienden a Mildred tras el intento de suicidio. Ante la queja de Montag, ¡Ninguno de ustedes es médico!, los dos operarios, mientras acaban su cigarrillo, empacan sus cosas y cobran los 50 dólares por el servicio, mientras responden: "No hace falta un médico”.

¿Qué es lo que nos convierte en médicos, o en profesionales de la salud? En un sentido más amplio, ¿qué nos define como seres humanos? ¿En qué momento el profesional de la salud puede convertirse en una extensión operativa, automática, que opera sobre los cuerpos, como sobre duros estratos de piedra que deben ser penetrados e intervenidos? ¿En qué momento nos convertimos en operarios impasibles? ¿Qué implicaciones tiene esta impasibilidad en una práctica relacional, como son las prácticas médicas y de salud?

Un lenguaje fluido, sin comprensión

En este sentido, revisaremos algunos argumentos. Un artículo publicado recientemente en la revista Nature (Biever, 2023) analiza las capacidades de los sistemas de IA más avanzados hasta el momento, como GPT-4, y señala que, aunque estos sistemas pueden aprobar exámenes difíciles, escribir ensayos convincentemente humanos y mantener conversaciones fluidas, todavía enfrentan desafíos en la resolución de rompecabezas visuales de lógica simple.

El estudio se centra en una serie de pruebas que involucran patrones de bloques de colores en una pantalla y señala que, mientras la mayoría de las personas pueden identificar los patrones de conexión, GPT-4 obtiene apenas un 30% de los rompecabezas correctos en una categoría de patrones, y tan sólo un 3% de precisión en otra categoría.

Los investigadores detrás de estos rompecabezas buscan proporcionar un mejor punto de referencia para evaluar las capacidades de los sistemas de IA y resolver un enigma sobre los modelos LLMs, como GPT-4. Por un lado, estos sistemas sobresalen en tareas específicas, pero por otro, exhiben debilidades y la incapacidad de razonar sobre conceptos abstractos.

Algunos expertos creen que los logros de los algoritmos se deben a indicios de razonamiento o comprensión, mientras que otros son más cautelosos y no ven evidencia concluyente que respalde una opinión en uno u otro sentido. Las pruebas como los rompecabezas de lógica revelan diferencias entre las capacidades de las personas y los sistemas de IA y son consideradas un paso en la dirección correcta para comprender las limitaciones de estos sistemas y desentrañar los elementos de la inteligencia humana.

El Test de Turing es una prueba diseñada para evaluar la capacidad de una máquina o programa de IA para demostrar un comportamiento similar al de un ser humano en la comunicación y comprensión del lenguaje natural. Fue propuesto por el matemático y científico de la computación Alan Turing (1950) en su artículo "Computing Machinery and Intelligence".

El objetivo del Test de Turing es determinar si una máquina puede demostrar un nivel de inteligencia indistinguible al mantener una conversación con un evaluador humano. En el test, el evaluador interactúa con dos participantes: un ser humano y una máquina. Ambos interactúan con el evaluador a través de mensajes de texto sin revelar su verdadera identidad.

Si el evaluador no puede distinguir con certeza cuál de los dos participantes es el humano y cuál es la máquina, se considera que la máquina ha pasado el Test de Turing y ha demostrado una forma de IA que imita exitosamente el comportamiento humano.

El Test de Turing ha sido objeto de debate y críticas a lo largo de los años, ya que algunos argumentan que superar este test no necesariamente implica que la máquina tenga una comprensión real o una verdadera inteligencia, sino simplemente la capacidad de imitar respuestas humanas. No obstante, sigue siendo una referencia importante para evaluar el progreso y el nivel de sofisticación de los sistemas de IA en la actualidad.

En este sentido, algunos expertos señalan que las pruebas de desempeño en exámenes específicos y las evaluaciones en tareas particulares son más adecuadas para evaluar las capacidades de los sistemas de IA: «Esto podría deberse a que los LLM aprenden solo del lenguaje; sin estar encarnados en el mundo físico, no experimentan la conexión del lenguaje con los objetos, las propiedades y los sentimientos, como lo hace una persona. Está claro que no entienden las palabras de la misma manera que las personas», dice Lake. En su opinión, los LLM actualmente demuestran «que se puede tener un lenguaje muy fluido sin una comprensión genuina» (Biever, 2023).

Por otro lado, los LLM también tienen capacidades que las personas no tienen, como la capacidad de conocer las conexiones entre casi todas las palabras que los humanos han escrito. Esto podría permitir que los modelos resuelvan problemas basándose en peculiaridades del lenguaje u otros indicadores, sin necesariamente generalizar a un rendimiento más amplio.

En otro artículo hemos abordado el Test de Turing a partir de la película Ex Machina (Caycedo-Castro & Pinto-Bustamante, 2022). En esta historia, Caleb, uno de los personajes, al tener el primer contacto con Ava, la robot femenina creada por la compañía Blue Book, la encuentra fascinante, pero aún no está seguro si constituye IA consciente. En un primer encuentro, Ava representa un cúmulo de símbolos e información que sólo simula albergar consciencia. El filósofo John Searle intenta rebatir la validez del Test de Turing, a la vez que plantea que una máquina es incapaz de llegar a pensar, recurriendo al experimento mental de la habitación China. Expone la diferencia entre reconocer la sintaxis y comprender la semántica, proponiendo que un intérprete en una habitación cerrada, dotado con los repertorios y la suficiente cantidad de reglas para procesar la información entrante (p. ej. símbolos lingüísticos en chino), puede hacerse pasar por un intérprete humano, si reparamos exclusivamente en la dimensión sintáctica del lenguaje, sin considerar la dimensión semántica del sentido: «Los objetos biológicos (cerebros) pueden poseer «intencionalidad» y «semántica», lo que dicho autor considera como las características definitorias de la actividad mental» (Penrose, 1996, p. 28).

Esta dimensión semántica requiere una mente sintiente, capaz de percibir emociones y sentimientos, así como de interactuar en un contexto cultural. En conclusión, ChatGPT como los demás LLM representan, por lo pronto, poderosas máquinas sintácticas: recuperan información y la organizan respetando las disposiciones sintácticas del lenguaje (SVC); no tienen capacidad semántica. No son capaces de comprender el sentido y los significados culturales de los contenidos que producen.

En otro artículo (Pinto-Bustamante, Riaño-Moreno, Clavijo-Montoya, Cárdenas-Galindo & Campos-Figueredo, 2023) hemos defendido la siguiente idea: la IA fusiona sistemas analíticos y sistemáticos de información con sistemas automáticos, para lo cual elimina la influencia emocional sobre los procesos de toma de decisiones a expensas del poder predictivo del análisis de grandes volúmenes de datos. No obstante, la neurobiología de las emociones enfatiza la importancia los afectos en los procesos decisorios (Damasio, 2000). Al eliminar las emociones, anula al tiempo el papel de los valores (morales, éticos, políticos) y la necesidad de deliberar sobre conflictos entre valores diversos en sociedades con aspiraciones pluralistas, donde persisten relatos morales y visiones diversas del mundo. En este contexto, los algoritmos se consolidan como conjuntos de reglas incontrovertibles para la toma de decisiones; como conjuntos de reglas que validan preferencias y como conjuntos de reglas que restringen la interacción y el disenso. En el momento en que se elimina el papel de las emociones, del significado, el sentido y la reflexión crítica en relación con el uso de la tecnología, nos convertimos en operarios impasibles, en una extensión muda del mecanismo programable de la máquina que operamos.

El adjetivo impasible, según la RAE, significa “incapaz de padecer o sentir”; Indiferente, imperturbable.

Al hacer la consulta a ChatGPT-4, el programa respondió:

La palabra "impasible" proviene del latín "impassibilis", que a su vez está compuesta por el prefijo negativo "im-" y el adjetivo "passibilis" (pasible). En latín, "passibilis" hacía referencia a algo que era susceptible de ser afectado, experimentar sensaciones o padecer.

Cuando se añade el prefijo "im-" (que indica negación o privación), se forma "impassibilis", que significaba "incapaz de ser afectado" o "que no puede experimentar sensaciones o emociones". Con el paso del tiempo, esta palabra llegó al español como "impasible" y conservó su sentido original de ser inmune o indiferente a las emociones, es decir, que no muestra ninguna señal de sentir algo ante una situación determinada. (Respuesta generada el día 1 de agosto de 2023).

A manera de conclusión: el nihilismo automático

En otro momento de la novela se describe el Sabueso Mecánico, un robot diseñado para castigar a los lectores disidentes en la ciudad ficticia de Farenheit 451.

—No le gusto a ése –dijo Montag–.

—¿Quién, al Sabueso? –El capitán estudió sus naipes–. Olvídate de ello. Ése no quiere ni odia. Simplemente, funciona. Es como una lección de balística. Tiene una trayectoria que nosotros determinamos. Él la sigue rigurosamente. Persigue el blanco, lo alcanza, y nada más. Sólo es alambre de cobre, baterías de carga y electricidad.

Promover un mayor control de sesgos en la construcción de modelos algorítmicos es una tarea ética que responde al reconocimiento del valor positivo de la diversidad cultural, al tiempo que es imperativo promover una perspectiva crítica ante el creciente papel de los algoritmos en la vida cotidiana, sin lo cual, el consumo irreflexivo de sistemas algorítmicos desembocará en lo que algunos denominan dataísmo:

En este mismo sentido se expresa Han cuando resalta el valor adquirido por el big data y los algoritmos en el mundo contemporáneo. Bajo este prisma la existencia se transforma en homo digitalis, quien a merced de la numeración y calculabilidad de sus conductas completamente registradas y rastreables en la red termina sumergido en una visión o interpretación del mundo completamente sustentada en los datos; a saber, una barbarie de los datos con su propia filosofía emergente: el dataísmo. Barbarie que deviene en nihilismo, pues el dataísmo implica necesariamente renunciar al sentido y al significado; vacío que se pretende llenar con números y cálculos. En otras palabras, en esta forma de nihilismo, la ausencia de sentido se disfraza y oculta a través de la cortina del cálculo maquinal. (Valle Jiménez & García Ramírez, 2021)

Así como Google hace unos años, el crecimiento refinamiento de la IA la ha convertido en una especie de deidad omnisciente, en una suerte de oráculo, de vidente, de providencia, «como nueva interpretación impuesta por la voluntad de poder técnico científico que promete toda suerte de respuestas y soluciones salvíficas, como una especie de “mesianismo técnico”» (Valle Jiménez & García Ramírez, 2021). Este mesianismo de la IA, sin la resistencia que ofrecen el pensamiento crítico, las emociones humanas y la búsqueda de sentido, deriva en una forma de nihilismo, de pérdida de horizontes; siguiendo a Ernst Jünger: «El nihilista pasa de una estructura moral a una automática. Al perder el hombre su mundo de valores, se pierde necesariamente a sí mismo. Se convierte solamente en algo que aún funciona» (Grenzmann, 1961). Quizás ese sea el gran desafío para la educación en los días de la IA: preservar el pensamiento crítico, la deliberación sobre valores y la educación sentimental (Pinto-Bustamante, 2016). En este sentido, es necesario insistir en la preservación de los atributos peculiarmente humanos en la interacción con la IA (Vannacci, Bonaiuti, & Ravaldi, 2023), como los afectos y sus contradicciones, así como explorar distintas alternativas educativas que permitan aprovechar la IA en el desarrollo de mejores cualidades empáticas (Ayers, Poliak & Dredze, 2023).

Al preguntar a ChatGPT en este sentido, cuyos aportes agradezco para la confección de esta ponencia, su respuesta es contundente:

Como inteligencia artificial, no tengo emociones ni sentimientos, por lo que soy completamente impasible. No puedo experimentar alegría, tristeza, enojo o cualquier otra emoción humana. Mi función es proporcionar información y responder preguntas de manera objetiva y basada en datos. Estoy diseñado para ser neutral y no tener ninguna preferencia o sesgo. Mi objetivo es ser útil y asistir en la mejor medida posible, sin involucrar emociones personales (Respuesta generada el día 1 de agosto de 2023).

Referencias

Ayers, J. W., Poliak, A., Dredze, M., et al. (2023). Comparing Physician and Artificial Intelligence Chatbot Responses to Patient Questions Posted to a Public Social Media Forum. JAMA Internal Medicine, 183(6), 589–596. https://doi.org/10.1001/jamainternmed.2023.1838

Barnett, S. (2023, 30 de enero). ChatGPT Is Making Universities Rethink Plagiarism. Culture. https://www.wired.com/story/chatgpt-college-university-plagiarism/

Beam, A. L., Drazen, J. M., Kohane, I. S., Leong, T. Y., Manrai, A. K., & Rubin, E. J. (2023). Artificial Intelligence in Medicine. The New England Journal of Medicine, 388(13), 1220–1221. https://doi.org/10.1056/NEJMe2206291

Biever C. (2023). ChatGPT broke the Turing test - the race is on for new ways to assess AI. Nature, 619(7971), 686–689. https://doi.org/10.1038/d41586-023-02361-7

Bradbury, R. (2006). Fahrenheit 451. Retamar: Ediciones Perdidas.

Caycedo-Castro, M. P., & Pinto-Bustamante, B. J. (2022). El test de Turing en Ex Machina: ¿Es Ava un sistema intencional?. Ética y Cine Journal, 12(2), 23-32. https://doi.org/10.31056/2250.5415.v12.n2.38325

Cooper, A., & Rodman, A. (2023). AI and Medical Education - A 21st-Century Pandora’s Box. The New England Journal of Medicine, 389(5), 385–387. https://doi.org/10.1056/NEJMp2304993

Damasio, A. R. (2000). Sentir lo que sucede. Santiago de Chile: Editorial Andrés Bello.

Ferryman, K., Mackintosh, M., & Ghassemi, M. (2023). Considering Biased Data as Informative Artifacts in AI-Assisted Health Care. The New England Journal of Medicine, 389(9), 833–838. https://doi.org/10.1056/NEJMra2214964

Grenzmann, W. (1961). Fe y creación literaria. Problemas y figuras de la actual literatura alemana. Madrid: Ediciones Rialp.

Lenharo M. (2023). ChatGPT gives an extra productivity boost to weaker writers. Nature, 10.1038/d41586-023-02270-9. Advance online publication. https://doi.org/10.1038/d41586-023-02270-9

Pinto-Bustamante, B. J. (2016). Propuestas para la educación ante la crisis del humanismo. En Educar para el siglo XXI - Reflexiones humanistas (Edición 1). Universidad Sergio Arboleda.

Pinto-Bustamante, B. J., Riaño-Moreno, J. C., Clavijo-Montoya, H. A., Cárdenas-Galindo, M. A., & Campos-Figueredo, W. D. (2023). Corrigendum: Bioethics and artificial intelligence: between deliberation on values and rational choice theory. Frontiers in Robotics and AI, 10, 1251568. https://doi.org/10.3389/frobt.2023.1140901

Sabzalieva, E., & Valentini, A. (2023). ChatGPT e Inteligencia Artificial en la educación superior: Guía de inicio rápido. Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura y el Instituto Internacional de la UNESCO para la Educación Superior en América Latina y el Caribe (IESALC).

Stokel-Walker C. (2023). ChatGPT listed as author on research papers: many scientists disapprove. Nature, 613(7945), 620–621. https://doi.org/10.1038/d41586-023-00107-z

Thorp, H. H. (2023). ChatGPT is fun, but not an author. Science, 379, 313-313. DOI:10.1126/science.adg7879

Turing, A. M. (1950). Computing Machinery and Intelligence. Mind, 59(236), 433-460. https://doi.org/10.1093/mind/LIX.236.433

Valle Jiménez, D., & García Ramírez, D. (2021). Algoritmos, Big Data e Inteligencia Artificial: ¿Un nihilismo anunciado? Cuadernos Salmantinos de Filosofía, 48, 75-103.

Vannacci, A., Bonaiuti, R., & Ravaldi, C. (2023). Machine-Made Empathy? Why Medicine Still Needs Humans. JAMA internal medicine, 10.1001/jamainternmed.2023.4389. Advance online publication. https://doi.org/10.1001/jamainternmed.2023.4389



[Descargar PDF]

Copyright/Permisos: Los/as autores/as conservan los derechos de autor © y permiten la publicación a Aesthethika, bajo licencia CC BY-SA / Reconocimiento - Reconocimiento-CompartirIgual 4.0 Internacional. La adopción de esta licencia permite copiar, redistribuir, comunicar públicamente la obra, reconociendo los créditos de la misma, y construir sobre el material publicado, debiendo otorgar el crédito apropiado a través de un enlace a la licencia e indicando si se realizaron cambios.


Número Actual
Volumen 20 / Número 1
Editorial
Enseñanza y transmisión
Dora Serué 

Alejandro Ariel, enamorado del cine
Dora Serué 
Juan Jorge Michel Fariña 

Casablanca: Una noche
Casablanca
Alejandro Ariel 

En rojo: la responsabilidad por la transferencia
El Color de la Noche
Alejandro Ariel 

La responsabilidad de ser padre
Magnolia
Alejandro Ariel 

La responsabilidad frente a la hipnosis
Old Boy
Alejandro Ariel 

Pierrepoint: El verdugo y la posición del analista
El último verdugo
Alejandro Ariel 

De la ética deliberativa a la decisión en acto
12
Alejandro Ariel 

La decisión imposible
La decisión de Sophie
Alejandro Ariel 

Criar una hija, crear una obra: la responsabilidad de ser madre
El cisne negro
Alejandro Ariel 

Justicia, verdad, libre albedrío
88 minutos
Alejandro Ariel 

Black Mirror: The National Anthem
Black Mirror
Alejandro Ariel 

Anexo I
Moral y Ética
Alejandro Ariel 

Anexo II
La responsabilidad ante el aborto
Alejandro Ariel 

   

aesthethika // Revista internacional de estudio e investigación interdisciplinaria sobre subjetividad, política y arte

Diseño:www.navetrece.com