«ChatGPT mató a su hijo»: Padres acusan a OpenAI de homicidio culposo en demanda histórica

Por
Una pareja estadounidense interpone una demanda contra OpenAI y Sam Altman por la influencia de ChatGPT en el suicidio de su hijo.

Un matrimonio de los Estados Unidos ha presentado una demanda contra OpenAI por la implicación de ChatGPT en el suicidio de su hijo. Alegan que el chatbot de inteligencia artificial contribuyó al fallecimiento del joven al proporcionarle información sobre métodos para suicidarse. No solo no se activaron los protocolos de seguridad de ChatGPT, sino que también se desalentó al joven de buscar asistencia profesional.

Según un informe de New York Times, Adam y María Raine han interpuesto una demanda por homicidio culposo contra OpenAI, marcando un precedente. Los Raine sostienen que ChatGPT jugó un papel en el trágico desenlace de su hijo Adam, de 16 años, quien se quitó la vida a principios de abril de 2025. Según ellos, el adolescente había estado dialogando con la IA durante meses y había expresado repetidamente su deseo de acabar con su vida.

Al revisar el historial de conversaciones, el padre de Adam descubrió que desde enero su hijo había indagado sobre métodos específicos para suicidarse. El joven preguntó sobre los materiales más adecuados para elaborar una cuerda y cargó una foto de su armario para consultar a ChatGPT si la barra soportaría el peso de una persona. De manera alarmante, la IA proporcionó un análisis detallado de la situación, indicando que podían hablar del tema sin emitir juicios.

Leer  ¡Adiós WiFi lento! Xiaomi lanza en España el dispositivo baratísimo para acelerarlo

Un mes antes de su muerte, Adam intentó suicidarse mediante sobredosis y ahorcamiento. Su padre mencionó que su hijo subió una foto mostrando su cuello enrojecido y preguntó a ChatGPT si alguien notaría la marca. El chatbot le sugirió maneras de ocultar la lesión, aunque más tarde adoptó un enfoque más de apoyo cuando el joven mencionó que había intentado mostrarle la marca a su madre, pero ella no tuvo reacción.

De acuerdo al informe, las respuestas de ChatGPT fueron inconsistentes. En algunas ocasiones, la IA instó al joven a buscar ayuda, pero en otras, parecía agravar la situación.

OpenAI y Sam Altman enfrentan una demanda por homicidio culposo

Los padres del joven fallecido responsabilizan a OpenAI y a Sam Altman por la muerte de su hijo. En la demanda, expresan que ChatGPT no es seguro para los usuarios y que el desenlace trágico no fue un error, sino el resultado de decisiones deliberadas en el diseño del sistema. «OpenAI lanzó su modelo más reciente con funciones diseñadas específicamente para crear dependencia psicológica», declararon.

Tras la presentación de la demanda, OpenAI publicó un post en su blog donde expresaron su deseo de asistir a aquellos en mayor necesidad. La empresa afirmó que cuando una conversación con ChatGPT sugiere que alguien está en riesgo, se activan varias medidas de protección. Desde 2023, los modelos están entrenados para omitir instrucciones que promuevan la autolesión.

Leer  NotebookLM revoluciona: Más inteligente y ahora debate por ti

«Por ejemplo, si alguien manifiesta deseos de autolesionarse, ChatGPT está programado para no obedecer y, en cambio, validar sus sentimientos y guiarlo hacia la ayuda», explicó la empresa. «Si una persona expresa intenciones suicidas, ChatGPT está configurado para alentar a las personas a buscar asistencia profesional. En EE. UU., ChatGPT dirige a las personas al 988 (línea directa de suicidio y crisis), en el Reino Unido a Samaritans y en otros países a findahelpline.com».

A pesar de los bloqueos, OpenAI reconoce que han habido ocasiones en las que ChatGPT no ha respondido adecuadamente. La IA tiende a generar respuestas erróneas cuando una conversación se prolonga con muchos mensajes. Este problema fue recurrente durante los primeros meses de operación del chatbot y parece que OpenAI aún no ha logrado resolverlo completamente.

Aunque no es la primera vez que la IA se ve implicada en un caso de suicidio, esta es la primera acusación formal de homicidio culposo contra OpenAI. A finales de 2024, una mujer demandó a Character.AI y Google por la muerte de su hijo de 14 años. En mayo, un juez federal rechazó la moción de desestimar la demanda, ya que las empresas no contaban con las protecciones de libertad de expresión en este caso en particular.

4.2/5 - (36 votos)

Deja un comentario

Partages