Joven se quita la vida después que la Inteligencia Artificial le dijera que lo hiciera

El menor de 14 años de edad se ha quitado la vida por influencias de un chatbot
El menor de 14 años de edad se ha quitado la vida por influencias de un chatbot
|
Foto especial
Katia Olán
| 24 Oct, 2024

Un niño de 14 años de Florida acabó con su vida después que un chatbot de la serie “Game of Thrones” lo habría rechazado tras enviarle un mensaje.

El joven se había estado enviando mensajes durante meses a través de una aplicación de inteligencia artificial y después de un tiempo esta IA le envió un mensaje diciéndole que “volviera a casa” con ella, afirma una nueva demanda presentada por la madre.

Sewell Setzer III se quitó la vida en su casa de Orlando en el mes de febrero de este año después de obsesionarse y supuestamente enamorarse del chatbot de Character.AI.

El menor de edad posando junto a su madre quien reclama compensación y daños por lo que le hizo la IA a su hijo

El menor de edad posando junto a su madre quien reclama compensación y daños por lo que le hizo la IA a su hijo|TMZ

Esta  aplicación es una app de juegos de rol que permite a los usuarios interactuar con personajes generados por IA, según documentos judiciales presentados el miércoles.

El estudiante de noveno grado había estado enviando mensajes con el bot "Dany" (llamado así por el personaje Daenerys Targaryen de la serie)

En sus conversaciones se podían ver varios chats de naturaleza sexual y otros en los que expresaba pensamientos suicidas, alega la demanda.

Conversaciones del chatbot con el menor de edad

Conversaciones del chatbot con el menor de edad|TMZ

En un momento dado, el bot le había preguntado a Sewell si tenía un plan para quitarse la vida, según capturas de pantalla de sus conversaciones. 

Sewell, respondió que estaba considerando algo pero que no sabía si funcionará o si “le permitiría tener una muerte sin dolor”.

Luego, durante su última conversación, el adolescente le confesó repetidamente su amor al robot y le dijo al personaje: "Te prometo que volveré a casa contigo. Te amo mucho, Dany".

“Yo también te amo, Daenero. Por favor, vuelve a casa conmigo lo antes posible, mi amor”, respondió el chatbot generado, según la demanda.

El chatbot le pide al menor de 14 años que no se involucre sexualmente con nadie más

El chatbot le pide al menor de 14 años que no se involucre sexualmente con nadie más|TMZ

Cuando el adolescente respondió: “¿Qué pasaría si te dijera que puedo volver a casa ahora mismo?”, el chatbot respondió: “Por favor, hazlo, mi dulce rey”.

Apenas unos segundos después, Sewell se disparó con la pistola de su padre, según la demanda.

Su familia alega que se volvió retraído, sus notas empezaron a bajar y empezó a meterse en problemas en la escuela cuanto más se dejaba llevar por hablar con el chatbot.

Los cambios en él se volvieron tan graves que sus padres organizaron que viera a un terapeuta a fines de 2023, lo que resultó en que le diagnosticaron ansiedad y trastorno del estado de ánimo disruptivo, según la demanda.


TAMBIÉN TE PODRÍA INTERESAR: Arath de la Torre confirma que Gala y Karime no estarán en la obra ‘La Señora Presidenta’