Redacción (Agencias).- OpenAI informó que más de un millón de personas por semana interactúan con ChatGPT para hablar de suicidio o pensamientos autolesivos.
Los datos provienen de estimaciones internas basadas en el tráfico de producción y forman parte de un nuevo informe sobre seguridad emocional en el uso de la inteligencia artificial (IA).
La compañía precisó que aproximadamente 0,15 % de los usuarios activos semanales —equivalente a más de un millón de individuos— mantienen chats con indicadores explícitos de planificación o intención suicida.
Además, otro 0,05 % de los mensajes presenta señales implícitas de ideación suicida.
El informe, que acompaña la última actualización del modelo GPT-5, indica que las respuestas ‘no conformes’ —aquellas que podrían ser inapropiadas o poco seguras en contextos de crisis— se redujeron en 65 % tras incorporar aportes de más de 170 expertos en salud mental.
Las pruebas internas incluyeron más de mil diálogos de alta complejidad.
GPT-5 mostró 91 % de cumplimiento con las conductas deseadas, frente a 77 % de la versión anterior.
ChatGPT para hablar de suicidio
En evaluaciones independientes, los clínicos dijeron que el número de respuestas inadecuadas es 52 % menor en comparación con GPT-4o.
El ajuste también abarca otros ámbitos sensibles.
Según OpenAI, el modelo disminuyó en 65 % las respuestas no conformes en casos de psicosis o manías, y en 80 % los usuarios que muestran dependencia emocional hacia la IA.
Además, ahora evita reforzar delirios, promueve la conexión con personas reales y monitorea señales indirectas de autolesión.
Por RT



