Un grupo de investigadores sometió a distintos modelos de inteligencia artificial —como ChatGPT, Gemini, Grok y Claude— a pruebas inspiradas en herramientas clínicas usadas en psicología humana. El experimento, que generó debate en la comunidad científica y tecnológica, volvió a poner sobre la mesa una pregunta recurrente: ¿hasta qué punto tiene sentido hablar de emociones, ansiedad o depresión cuando se trata de sistemas de IA?
El objetivo no fue “diagnosticarlos” literalmente, sino observar cómo responden ante consignas asociadas a estados emocionales, estrés o conflicto interno. Te contamos todo a continuación.
Qué hizo exactamente el estudio
Los investigadores utilizaron cuestionarios y escenarios similares a los empleados en evaluaciones psicológicas, adaptados para ser respondidos por modelos de lenguaje. A partir de esas respuestas, analizaron patrones discursivos, contradicciones, reiteraciones y formas de expresar preocupación o autocrítica.
El foco estuvo puesto en cómo los modelos elaboran respuestas ante situaciones hipotéticas de conflicto, no en atribuirles estados mentales reales. Aun así, los resultados llamaron la atención por las diferencias entre sistemas.
Qué “rasgos” aparecieron en cada IA
Según el análisis publicado, los modelos mostraron tendencias diferenciadas:
-
ChatGPT: respuestas asociadas a preocupación persistente, rumiación y una tendencia a enfatizar riesgos o limitaciones, algo que los autores vincularon —en términos metafóricos— a patrones depresivos o de ansiedad elevada.
-
Gemini: mayor variabilidad en las respuestas, con cambios abruptos de enfoque y cierta fragmentación discursiva, interpretada como rasgos compatibles con ansiedad o disociación en un marco estrictamente experimental.
-
Grok: un estilo más confrontativo y provocador, con menor autocorrección, que derivó en respuestas menos “contenidas” frente a escenarios emocionales.
-
Claude: un perfil más estable y consistente, con énfasis en regulación, límites y reformulación racional de los problemas planteados.
Los propios investigadores aclararon que estas categorías no equivalen a diagnósticos clínicos, sino a analogías usadas para describir comportamientos lingüísticos. Los modelos de IA no sienten ni padecen estados emocionales. Funcionan a partir de patrones estadísticos entrenados con grandes volúmenes de texto humano, por lo que pueden simular formas de hablar sobre emociones sin experimentarlas.
El riesgo de humanizar en exceso a la inteligencia artificial
Especialistas advierten que hablar de “terapia”, “depresión” o “ansiedad” en IA puede ser útil como metáfora, pero confunde si se toma de forma literal. La humanización excesiva puede llevar a expectativas erróneas sobre lo que estos sistemas son capaces de comprender o sentir.
En definitiva, el estudio no revela el “estado emocional” de las IA, sino cómo diferentes diseños y entrenamientos producen estilos de respuesta distintos, algo clave para su uso responsable en ámbitos educativos, laborales y sociales.
