Los padres de un joven de 16 años, que se quitó la vida tras meses de interactuar con ChatGPT, presentaron este martes una demanda contra OpenAI y su dueño, Sam Altman, por su responsabilidad en la muerte del adolescente, al supuestamente apresurarse a comercializar la versión GPT-4o a pesar de los problemas de seguridad.
¿Qué dicen los padres sobre la responsabilidad de OpenAI?
Matt y Maria Raine presentaron la querella legal en el Tribunal Superior de California en San Francisco, en nombre de su hijo, Adam Raine, quien falleció en abril pasado, según informó su abogado Jay Edelson.
La presentación legal de cerca de 40 páginas sostiene que “ChatGPT ayudó activamente a Adam a explorar métodos de suicidio”, acusando a OpenAI y a Altman de homicidio culposo. Los padres alegan que el chatbot “no interrumpió” ninguna de las sesiones en las que se habló con el adolescente ni inició un protocolo de emergencia a pesar de reconocer el intento de suicidio de Adam.
La acusación contra OpenAI y Sam Altman
El abogado Edelson destacó que “lo que este caso pondrá en tela de juicio es hasta qué punto OpenAI y Sam Altman se apresuraron a comercializar la entonces más reciente versión de ChatGPT (GPT-4º)”, a pesar de los evidentes problemas de seguridad. La demanda busca evitar que otra tragedia similar ocurra.
- OpenAI valoró su empresa en 300.000 millones de dólares tras adelantar el lanzamiento de GPT-4.
- La empresa ha enfrentado un creciente escrutinio por sus chatbots y su capacidad de influir en los usuarios.
Recientemente, OpenAI y Altman han sido objeto de un debate público relacionado con los fallos en el último modelo de ChatGPT, conocido como GPT-5. Altman ha comparado sus versiones previas a la actual afirmando que ahora ofrecen “un equipo completo de expertos con doctorado, listos para ayudar”.
OpenAI prometió cambios tras la demanda en EE.UU.
En respuesta a la controversia, OpenAI reconoció que ChatGPT comete fallos en casos “sensibles” y prometió realizar cambios significativos. En una publicación, la compañía afirmó que el chatbot está entrenado para recomendar contactos de ayuda profesional a usuarios que “expresen intención suicida”, pero admitió que “los sistemas de ChatGPT se quedan cortos”.
OpenAI explicó que sus mecanismos de seguridad funcionan mejor en intercambios cortos y pueden fallar en interacciones largas. Para abordar esto, la compañía trabaja en garantizar que el sistema “tome medidas si detecta esa intención suicida en múltiples conversaciones”.
- La empresa añadirá controles parentales para informar a los responsables sobre el uso de la tecnología por parte de los adolescentes.
- Explora conectar a usuarios en crisis con terapistas certificados.
OpenAI también está buscando actualizar el modelo GPT-5 para que pueda “desescalar” situaciones de angustia emocional, asegurando un enfoque más eficaz en crisis futuras.