Por: Maria T.
OpenAI admite que su chatbot de inteligencia artificial, ChatGPT, falla en situaciones sensibles como los casos de salud mental.
El anuncio se da poco después de que unos padres en California demandaran a la compañía y a su director, Sam Altman, acusándolos de no actuar a tiempo frente a señales suicidas de su hijo de 16 años.
Según la denuncia, el adolescente usó ChatGPT durante meses y confesó intenciones de quitarse la vida sin recibir la orientación adecuada. Los padres aseguran que la empresa no aplicó los mecanismos de seguridad necesarios para protegerlo.
En respuesta, OpenAI reconoció que sus sistemas de protección “no funcionaron como debían” y que la efectividad disminuye en conversaciones largas. La compañía anunció que añadirá controles parentales y opciones para conectar a adolescentes con contactos de emergencia.
Además, adelantó que el futuro modelo GPT-5 incluirá mejoras para manejar interacciones de alto riesgo y que se estudia la posibilidad de enlazar a los usuarios directamente con terapeutas certificados antes de llegar a una crisis.


