OpenAI anunció importantes mejoras en la versión GPT-5 de ChatGPT, enfocadas en reforzar la seguridad y sensibilidad del modelo ante conversaciones relacionadas con salud mental, autolesiones y dependencia emocional. Estas actualizaciones buscan que la inteligencia artificial responda de forma más empática, cuidadosa y responsable ante señales de angustia emocional.
Según la compañía, el desarrollo se realizó en colaboración con más de 170 expertos en salud mental —incluidos psiquiatras, psicólogos y médicos de atención primaria— pertenecientes a la red Global Physician Network, que agrupa a casi 300 profesionales de 60 países. El objetivo fue entrenar al modelo para reconocer con mayor precisión síntomas como ansiedad, psicosis o manía, y guiar a los usuarios hacia el apoyo humano adecuado.
Tres áreas clave de mejora
Las intervenciones de seguridad se centraron en tres dominios críticos:
- Síntomas severos de salud mental, como psicosis y episodios maníacos.
- Autolesión y suicidio, con respuestas diseñadas para evitar afirmaciones peligrosas y redirigir a recursos de ayuda.
- Dependencia emocional de la IA, promoviendo la autonomía del usuario y el contacto con redes de apoyo reales.
Como parte de estas mejoras, ChatGPT ahora sugiere descansos durante sesiones prolongadas, amplía el acceso a líneas de crisis y redirige conversaciones sensibles a modelos más seguros. También evita reforzar creencias infundadas que puedan agravar el malestar emocional.
Resultados medibles
OpenAI reportó una reducción significativa en respuestas que no cumplen con los protocolos de seguridad deseados:
- Dependencia emocional: reducción del 80 % en respuestas no deseadas en producción, y 42 % menos en comparación con GPT-4o.
- Psicosis y manía: disminución del 65 % en producción, con una mejora del 39 % frente al modelo anterior.
- Autolesión y suicidio: caída del 65 % en respuestas inadecuadas, y 52 % menos en evaluaciones clínicas respecto a GPT-4o.
Estas cifras se basan en estimaciones del tráfico global de ChatGPT y en evaluaciones realizadas por expertos clínicos.
OpenAI subrayó que, si bien la IA puede ofrecer un espacio de apoyo inicial, no reemplaza la atención profesional. El propósito es acompañar a los usuarios en momentos difíciles y alentarlos a buscar ayuda en su entorno cercano o con especialistas en salud mental. La inclusión de voces profesionales de 60 países garantiza que las mejoras reflejen una perspectiva global y culturalmente sensible (Fuente: Antonio Manco – Andina).







