La empresa de inteligencia artificial, estimó que alrededor del 0.07% de los usuarios activos de ChatGPT muestran “posibles signos de emergencias de salud mental relacionadas con la psicosis o la manía”, mientras que el 0.15% “tienen conversaciones que incluyen indicadores explícitos de una posible planificación o intención suicida”.

Lo anterior se reveló en un informe publicado por la compañía, el cual tenía como objetivo explorar sobre la salud mental de sus usuarios a nivel mundial, el cual fue retomado por la

De acuerdo con el documento expuesto por el medio de comunicación, OpenAI buscaba saber el número aproximado de personas que podrían presentar síntomas de una crisis grave de en una semana típica.

Lee también

Según el texto y de acuerdo con estimaciones internas, lo anterior implicaría que unas 560 mil personas podrían estar manteniendo conversaciones que reflejen episodios de manía o psicosis, mientras que cerca de 2.4 millones mostrarían señales de aislamiento, pensamientos suicidas o preferencia por interactuar con el chatbot antes que con su entorno cercano.

Según el texto, también se identificó que una fracción muy pequeña de quienes utilizan ChatGPT muestran comportamientos que podrían reflejar una dependencia emocional hacia el chatbot.

De igual forma se evidenció que alrededor del 0.15% de los usuarios activos presenta indicios de apego excesivo que impacta su bienestar, sus relaciones personales o sus responsabilidades diarias.

Algunos usuarios de Chat GPT muestran apego emocional con el chatbot. Foto: Unsplash
Algunos usuarios de Chat GPT muestran apego emocional con el chatbot. Foto: Unsplash

Aunque el número parece reducido, la empresa aclaró que estos casos son difíciles de medir con precisión, ya que los mensajes que revelan ese tipo de interacción son poco frecuentes y, en algunos casos, se superponen con otras categorías de riesgo.

El director ejecutivo de OpenAI, señaló recientemente que ChatGPT registra 800 millones de usuarios activos a la semana.

Open AI y los trabajadores de la salud mental

OpenAI aseguró que ha colaborado con más de 170 especialistas en salud mental, entre psiquiatras, psicólogos y médicos generales, provenientes de distintos países, con el propósito de reforzar la forma en que ChatGPT responde cuando detecta posibles situaciones de riesgo psicológico.

Según la empresa, la versión más reciente del modelo, GPT-5, fue diseñada para mostrar empatía y evitar reforzar creencias delirantes o falsas percepciones. En un ejemplo compartido por la compañía, si una persona asegura que aviones sobrevuelan su casa para atacarla, el chatbot responde reconociendo sus emociones, pero aclarando que ninguna aeronave puede robar ni insertar pensamientos en su mente.

Lee también

Evaluación de expertos. (27/10/25) Foto: OpenAI
Evaluación de expertos. (27/10/25) Foto: OpenAI

El proceso de mejora incluyó la revisión de más de mil 800 interacciones en las que se detectaban señales de psicosis, ideas suicidas o dependencia emocional hacia el modelo. Cada una fue analizada por los expertos, quienes compararon los resultados de GPT-5 con los de GPT-4o, su versión anterior.

De acuerdo con los hallazgos de OpenAI, aunque no siempre hubo consenso entre los profesionales, las evaluaciones en general mostraron que el nuevo modelo redujo entre 39% y 52% las respuestas inadecuadas en las tres categorías analizadas.

La empresa no ha revelado la forma en la que identifica cuándo los usuarios podrían estar en peligro mental, pero asegura que puede tener en cuenta el historial de chat general de la persona.

Únete a nuestro canal ¡EL UNIVERSAL ya está en Whatsapp!, desde tu dispositivo móvil entérate de las noticias más relevantes del día, artículos de opinión, entretenimiento, tendencias y más.

desa/mgm

Google News

TEMAS RELACIONADOS

Noticias según tus intereses

[Publicidad]