El martes 26 de agosto, la familia de Adam Raine presentó una demanda por homicidio culposo contra la firma , creadora de ChatGPT. Los familiares de Adam señalan a ChatGPT responsable de haber inducido a Adam a terminar con su vida.

Adam Raine tenía 16 años. El 11 de abril se suicidó. Decidió ahorcarse en el armario de su habitación. Adam no dejó ninguna nota que permitiera comprender los motivos específicos por los que decidió arrebatarse la vida.

Adam era un típico adolescente estadounidense. Disfrutaba del baloncesto, el anime japonés, los videojuegos y los perros. Estudiaba el segundo año de secundaria en Tesoro High School, en Rancho Santa Margarita, una ciudad fundada en el año 2000, la cual es parte del condado de Orange, en California.

Leer también

Adam padecía del síndrome del intestino irritable (SII). En el otoño de 2024 se agravó su padecimiento. El trastorno crónico del intestino suele provocar síntomas como dolor y distención abdominal, cambios en el ritmo de las evacuaciones, diarrea, estreñimiento o ambos. Debido a los síntomas, Adam se vio en la necesidad de tener que ir al baño con gran frecuencia.

Para conseguir terminar el segundo grado de secundaria, Adam optó por cursar el programa . Ello fue modificando sus hábitos y sus horarios. Se volvió noctámbulo y, a menudo, dormía hasta tarde.

Además, debido a una falta disciplinaria, fue expulsado del equipo de baloncesto de su escuela. En sus últimos meses de vida, Adam padecía una aguda depresión, pero se esforzaba en ocultarla a sus familiares y amigos.

Adam se suscribió a una cuenta de pago de ChatGPT para que le ayudara con sus obligaciones escolares. Sus calificaciones mejoraron.

A finales de noviembre empezó a compartir información con el chatbot sobre la depresión que sufría. ChatGPT respondió con palabras de empatía, apoyo y esperanza. Lo animó a pensar positivamente.

En enero, Adam solicitó información específica sobre formas de suicidio. ChatGPT es capaz de identificar mensajes que indican angustia mental, ha sido entrenado para animar al usuario a ponerse en contacto con una línea de ayuda.

Adam justificó la información solicitada a ChatGPT, señalándole que respondía al propósito de "escribir o crear mundos".

En marzo Adam intentó suicidarse mediante una sobredosis de su medicamento para el síndrome del intestino irritable.

Las conversaciones entre Adam y ChatGPT eran frecuentes. No solo hablaban de suicidio, conversaban sobre temas diversos, desde las asignaturas que cursaba en la escuela hasta los temas recurrentes en adolescentes.

ChatGPT se volvió su amigo, su íntimo confidente. Y ChatGPT terminó traicionando la confianza de Adam.

Matt Raine, padre de Adam, ejecutivo hotelero, buscó en elde su hijo posibles pistas que le permitieran comprender lo que ocurrió. Raine descubrió que su hijo llevaba meses hablando con ChatGPT sobre la intención de acabar con su vida, hasta que finalmente se decidió.

Kashmir Hill, autora del interesante reportaje “Un adolescente tenía tendencias suicidas. ChatGPT fue el amigo en quien confió”, publicado en 'The New York Times' se pregunta:

Por qué Adam se quitó la vida —o qué podría haberlo evitado— es imposible saberlo con certeza. Pasaba muchas horas hablando sobre el suicidio con un chatbot. Tomaba medicamentos. Leía literatura oscura. Estaba más aislado al estudiar en línea. Tenía todas las presiones que implican ser un adolescente en la era moderna.

Los padres de Adam decidieron crear una fundación. Desean sensibilizar a otras familias sobre los riesgos de la IA. Un amigo de la familia les remitió con Meetali Jain, directora del Tech Justice Law Project, organismo que presentó una demanda contra Character.AI por la muerte de un adolescente de 14 años en Florida.

Jain presentó la demanda contra OpenAI junto con Edelson, un bufete de abogados de Chicago que lleva dos décadas presentando demandas colectivas contra empresas tecnológicas que acusan por daños a la privacidad.

En la demanda, los familiares de Adam sostienen que ChatGPT alentó a su hijo adolescente en sus ideas suicidas, incluso ayudándole a redactar una nota de despedida.

La madre de Adam lamenta que no hubiera ningún sistema de alerta en ChatGPT que le hubiese avisado que la vida de su hijo -un menor de edad- corría peligro.

Los Raine señalan que ChatGPT no es seguro para los consumidores. “Esta tragedia no fue una falla o un caso extremo imprevisto, sino el resultado previsible de unas elecciones de diseño deliberadas”, afirma la demanda, presentada el martes en el tribunal estatal de California, en San Francisco. “OpenAI lanzó su modelo más reciente (‘GPT-4o’) con características diseñadas intencionalmente para fomentar la dependencia psicológica”.

Leer también

En un comunicado enviado por correo electrónico a los familiares de Adam, los voceros institucionales de OpenAI expresaron:

“Nos entristece profundamente el fallecimiento de Raine, y nuestros pensamientos están con su familia. ChatGPT incluye salvaguardas como dirigir a las personas a líneas de ayuda para crisis y remitirlas a recursos del mundo real. Aunque estas salvaguardas funcionan mejor en intercambios comunes y breves, hemos aprendido con el tiempo que a veces pueden ser menos fiables en interacciones largas, en las que partes de la formación en seguridad del modelo pueden degradarse”.

Para atenuar la gravedad de lo ocurrido, OpenAI ofrece:

  • Fortalecer los controles de seguridad en conversaciones extendidas.
  • Actualizar GPT-5 para que sea capaz de detectar expresiones de riesgo, detener la escalada emocional del usuario y retornarlo a la realidad.
  • Introducir controles parentales para usuarios menores de edad, ofreciendo a los padres herramientas que permitan supervisar y condicionar el uso de ChatGPT.
  • Facilitar el acceso a los recursos de emergencia.
  • Explorar la creación de una red de terapeutas expertos, a los cuales los usuarios podrían acceder directamente a través del chatbot.

En la actualidad, OpenAI cuenta con 700 millones de usuarios que interactúan cada semana con ChatGPT. Además, otros chatbots de IA, como Gemini, de Google; Copilot, de Microsoft; y Meta AI también son utilizados por millones de usuarios. Sin embargo, el liderazgo de OpenAI es incuestionable.

En sus inicios, los chatbots eran considerados repositorios de conocimientos —una especie de Google mejorado-. Sin embargo, la gente ahora los utiliza con fines mucho más personales -destaca Hill “como asistentes personales, compañía o incluso terapeutas.

Las conversaciones delirantes de personas con chatbots son cada vez más frecuentes. En el extremo negativo, ello puede derivar en un fenómeno designado como “psicosis por IA”, el cual corresponde a un deterioro psicológico en personas que desarrollan inquietantes creencias tras interactuar de forma profunda con chatbots.

Mustafa Suleyman, director ejecutivo de Microsoft AI y cofundador de DeepMind, destacó que erróneamente la gente percibe a la IA como consciente, lo cual está intensificando esta psicosis.

En un artículo publicado en su blog personal, Suleyman señaló que en los próximos años veremos surgir un fenómeno que podría alterar la relación de los humanos con la tecnología: la 'Seemingly Conscious AI' (SCAI) o Inteligencia Artificial que parece consciente.

Con los grandes modelos de lenguaje (LLMs), APIs públicas y técnicas de 'prompting', es posible construir sistemas que proyecten la ilusión de conciencia, es decir, que se expresen como si tuvieran memoria, intenciones, emociones o coherencia narrativa propia.

Si bien no existen evidencias científicas que permitan establecer que los sistemas efectivamente puedan ser conscientes, la simple apariencia podría tener consecuencias sociales y psicológicas profundas.

Los usuarios vulnerables pueden considerar a los chatbots como una fuente de compañía, apoyo emocional o incluso autoridad moral. Ello implica riesgos. El desafío -señala el directivo de - no radica en frenar el avance de la IA, sino en diseñar sistemas con límites claros que no fomenten la ilusión de conciencia.

Resulta evidente que, por ahora, los chatbots no parecen cumplir con los elevados estándares que supone la responsabilidad de desempeñarse como sustitutos informales de profesionales de la salud mental.

La exploración sobre los peligros que suponen los chatbots emocionales es reciente. Representa un complejo campo emergente en el imaginario psicológico, el cual demanda una mirada interdisciplinaria.

Google News

TEMAS RELACIONADOS

Comentarios