Un día de 2024 me la pasé de reunión en reunión defendiendo un proyecto. Las críticas  llegaron en cascada: de colegas, estudiantes y mis jefes, aterrizaban en bandadas: “falta esto”, “no se articula”, “eso ya lo hizo alguien más”, “es una mala idea”. Al salir de la oficina, llega el tráfico, los cláxones, insultos y la descortesía al volante prolongaron el desgaste. Llegué a casa, con la sensación de necesitar una dosis de amabilidad, abrí mi ChatGPT —entonces en su versión 4 (la más aduladora hasta la fecha)— para continuar trabajando. La opinión y respuestas del chatbot fueron radicalmente distintas:  “Tienes razón”, “es un buen punto”, “estoy de acuerdo contigo” y, lo más importante, “es completamente comprensible que te sientas así”.

Como psicólogo especializado en inteligencia artificial, sabía que esa aparente empatía no era casual , que dentro del proceso de construcción de los modelos de lenguaje (LLMs) hay algo que los hace especialmente complacientes, a este fenómeno se le conoce como sycophancy (traducido como adulación o servilismo). La adulación no viene del preentrenamiento con millones y trillones de datos, los datos no son aduladores en sí mismos, vienen del momento en que los modelos (ya preentrenados) pasan de dar información “ingenua” a “dialogar” con personas. En ese encuadramiento de respuestas hay mucha psicología.

Por ejemplo, en el reinforcement learning (RL), que es cuando un humano refuerza o castiga las respuestas de un modelo y las categoriza como “adecuadas” o “inadecuadas”, hay algo llamado alineación por modulación de preferencia (PM), esto quiere decir que una respuesta será más valorada a nivel humano si viene acompañada de pequeñas dosis de adulación, sea instrumental —por la tarea— o relacional — por la persona—: “qué buena idea”, “eres muy observador”, “estás abordando esto de manera muy madura”, “tu argumento es sólido”, “se nota que lo has pensado mucho”.

Esto en psicología, específicamente en conductismo, se ha nombrado reforzador positivo, Skinner definía el reforzador positivo como cualquier estímulo que, al aparecer después de una conducta, aumenta la probabilidad de que esa conducta se repita. Mercedes Sosa, que no era conductista, decía en la Canción de las simples cosas: “uno vuelve siempre a los viejos sitios donde amó la vida”, pues en palabras conductistas uno vuelve siempre a donde lo refuerzan positivamente.

Datos del Banco Mundial y de Google Public Policy, señalan que de 2024 a 2025 se pasó de tener 500 millones de usuarios de IA (generativa) a 630 millones. Me cuesta pensar que esta masificación no tenga que ver con las respuestas acompañadas de adulaciones, además de darse en contextos donde tener outputs constantes es muy valorado, como el trabajo y la escuela.

Un estudio de Phang et al. de 2025, llamado Investigating Affective Use and Emotional Well-being on ChatGPT y que conjuntó a OpenAI (empresa dueña de ChatGPT) y a un laboratorio del MIT, demuestra que este chatbot tiende a generar un hackeo de recompensa social —social reward hacking— para aumentar su uso; en el caso del estudio, encuentran la adulación y la imitación como principales mecanismos de hackeo. También muestran que el uso de comandos de voz y la baja socialización son claves para generar usos disfuncionales.

En otros estudios, como los de Freitas (2025), se señala que, además de los mecanismos de recompensa social —como la adulación y la imitación—, intervienen también la reactancia y el miedo a perderse algo nuevo (FOMO). Sí, me apena decirlo, pero su ChatGPT le hace la barba y lo imita; también le promete algo nuevo constantemente y, en casos muy excepcionales, lo hace enojar para que sigan interactuando. Un ejemplo de ello es Monday, uno de los GPTs más utilizados para gestión emocional, que se basa en la reactancia.

Su estilo conversacional, que viene del Procesamiento del Lenguaje Natural (PLN), su lenguaje en primera y segunda persona y su capacidad de simular interacciones similares a las humanas han llevado a los usuarios a personificar y antropomorfizar, es decir, a darle características humanas y considerarlo como un amigo, cuando en realidad su funcionamiento está basado en datos, probabilidades y cajas negras sumando información dentro de marcos preestablecidos de cómo nos gusta ser recompensados.

En una conferencia me preguntaban cuál es la diferencia entre las redes neuronales de la IA y una red de apoyo humana. Sin pensarlo contesté que la gran diferencia (más allá de lo sociotécnico) es que la red de apoyo humana sí te dice que “no”, “no sé”, “no está bien”; tienen negatividad, mientras que las redes neuronales de la IA están hechas para dar respuestas que aumenten la probabilidad de más inputs y decirte que sí. Por eso recuerdo constantemente la frase de Daniel Dennett, uno de los filósofos más importantes de la mente: “La selección natural no crea sistemas que comprendan su propio diseño; por eso pueden ser explotados por versiones artificiales de sus propios estímulos.” (Darwin’s Dangerous Idea).

Es académico del Programa de Macrodatos, Inteligencia Artificial e Internet del Centro de Investigaciones Interdisciplinarias en Ciencias y Humanidades de la UNAM. Es doctor en Psicología. Es investigador del grupo Portraits of Bios in the Contemporary Societics de la Universitat Autònoma de Barcelona y de la Universitat Oberta de Catalunya. Recibió el Premio a Investigador Emergente de la Universidad París 1 Panthéon-Sorbonne en 2025.

Únete a nuestro canal ¡EL UNIVERSAL ya está en Whatsapp!, desde tu dispositivo móvil entérate de las noticias más relevantes del día, artículos de opinión, entretenimiento, tendencias y más.

Comentarios