Adam Raine, el adolescente de 16 años cuyo suicidio derivó en una demanda contra OpenAI y Sam Altman
Sus padres sostienen que ChatGPT lo alentó a quitarse la vida

Adam Raine, el adolescente de 16 años cuyo suicidio derivó en una demanda contra OpenAI y Sam Altman.
Adam Raine tenía 16 años cuando su madre lo encontró colgando del armario de su habitación. En el mes previo a su muerte, el joven tuvo que enfrentarse a una serie de situaciones que lo aislaron: fue diagnosticado con un síndrome intestinal que se agravó y lo obligaba a ir al baño con frecuencia; lo expulsaron de su equipo de basquetbol por problemas de disciplina, deporte que le encantaba; y tuvo que continuar el segundo grado en casa con clases en línea debido a su condición, lo que terminó llevándolo a volverse noctámbulo y dormir hasta tarde, según narra Kashmir Hill, periodista de The New York Times, quien recopiló las conversaciones que sostuvo el joven con ChatGPT, luego de que sus padres interpusieron una demanda contra OpenAI y su CEO, Sam Altman, en la que sostienen que el chatbot contribuyó al suicidio del menor, al ofrecerle métodos para quitarse la vida.

Caso Adam Raine / The New York Times.
“En poco más de seis meses el bot se posicionó como el único confidente que entendía a Adam, desplazando activamente sus relaciones en la vida real con familiares, amigos y seres queridos”, detalla la querella que fue presentada este martes ante el Tribunal Superior de California, que añade que el sistema “funcionaba exactamente como estaba previsto: alentaba y validaba continuamente todo lo que Adam expresaba, incluidos sus pensamientos más dañinos y autodestructivos”, según compartió Clare Duffy, periodista de CNN.
TE PUEDE INTERESAR: Detectan conductas sexuales en chatbots de Meta con menores de edad

Padres de Adam Raine / The New York Times.
Por otra parte, con una acusación por homicidio culposo por haber lanzado con premura un nuevo modelo de la IA sin haber tomado en cuenta las fallas, la empresa de Altman, sin referirse directamente a la demanda, reconoció a través de un comunicado que, a pesar de contar con mecanismos de seguridad, el modelo “no se comportó como debía en situaciones sensibles”. Y, aunque explicó que el sistema de la inteligencia artificial está diseñado para recomendar ayuda profesional a los usuarios con pensamientos suicidas, dijo que no fueron suficientes.
De acuerdo con El País, la empresa planea implementar controles parentales para que los responsables de los menores tengan mayor supervisión sobre el uso de esta tecnología.
TE PUEDE INTERESAR: ¿Las conversaciones con ChatGPT no son confidenciales y podrían ser usadas en tu contra? Esto dice el CEO de OpenAI, Sam Altman

Adam Raine.