Herederos de la víctima demandan a OpenAI por reforzar la dependencia al chatbot y alentar la paranoia del asesino.
Stein-Erik Soelberg se suicidó después de matar a su madre Suzanne Adams, de 83 años. Ahora los albaceas del patrimonio de la mujer demandan a la empresa tecnológica OpenAI tras descubrir que Erik sostenía una conversación con ChatGPT.
El jueves de esta semana, los herederos de Suzanne presentaron a la Corte Superior de California en San Francisco, Estados Unidos, la demanda contra la empresa creadora de ChatGPT, OpenAI, y a su socio comercial Microsoft, Sam Altman, por el cargo de homicidio involuntario.
“Stein-Erik no podía confiar en nadie en su vida, excepto en el propio ChatGPT”, era, en resumen, lo que le decían los mensajes con el chatbot de inteligencia artificial (IA).
De acuerdo con la demanda, la herramienta de inteligencia artificial ChatGPT fomentó episodios de paranoia y conspiración al reforzar las ideas paranoides del agresor de amenazas inexistentes. Según el expediente entregado a la Corte, el chatbot había promovido la idea de que la madre de Soelberg lo espiaba y quería atentar contra él mediante envenenamiento, metiendo la idea de que ella era un peligro existencial.
Según el medio Greenwich Free Press, las autoridades comprobaron que Soelberg posteaba de forma habitual sus interacciones con el chatbot a través de sus redes sociales, en las cuales contaban con más de 100 mil seguidores. En estas se podía leer cómo manifestaba creencias sobre persecuciones y supuestos intentos de envenenamiento.
Además, se observa la dependencia que Soelberg había creado hacia la herramienta tecnológica y cómo esta jugaba con su estabilidad mental diciendo que nadie era confiable más que ella.
Herederos exige una indemnización y garantías para prevenir hechos similares, ya que acusan a la compañía de “diseñar y poner en circulación un producto defectuoso que validó delusiones paranoicas acerca de la madre” de Soelberg. Asimismo, señalan a los empleados y financiadores como cómplices en la supuesta falla de protocolos de seguridad del chatbot.
Los hechos del crimen
Stein-Erik se quitó la vida a principios de agosto. El crimen ocurrió en la residencia de la familia y las autoridades locales de Connecticut hallaron los dos cuerpos tras recibir una alerta de los vecinos, quienes solicitaron la revisión de la vivienda por irregularidades.
El cuerpo de la madre de Soelberg presentó varios golpes en el cuerpo, la cabeza y señales de estrangulamiento. La causa de muerte se debe a heridas de arma blanca.
Pronunciación ante la demanda
Uno de los voceros de OpenAI ha declarado hasta el momento que se encuentran revisando los archivos para comprender cada detalle del caso.
Seguimos perfeccionando el entrenamiento de ChatGPT para reconocer signos de sufrimiento mental, reducir tensiones y orientar a los usuarios hacia ayuda real. Fortalecemos las respuestas del sistema en situaciones delicadas en colaboración con profesionales de la salud”, indicó.
Otras demandas contra OpenAI y ChatGPT
Esta no es la primera vez que presentan una demanda contra la empresa tecnológica. Varias personas y organizaciones han puesto sus quejas de que la plataforma guía a los usuarios al suicidio.
- Suicidio de adolescente en California
En noviembre de este año se impuso una demanda por incitar a un adolescente de 16 años del estado de California, Estados Unidos, a suicidarse. De acuerdo con los padres de la víctima, ChatGPT le daba “consejos” al joven de cómo poder tener un suicidio con éxito, le ayudó a ocultar sus planes, así como a redactar una nota de despido para sus familiares y seres queridos.
Ante esta demanda, la empresa negó completa responsabilidad ante el caso y declaró que no se debía “a un defecto del sistema”, sino más bien a un “uso indebido” del sistema de inteligencia artificial.
- La Organización del Centro Legal de Víctimas de Medios Sociales y el Proyecto de Justicia Tecnológica
Ambas instituciones han presentado 7 demandas en contra de OpenAI por asistencia al suicidio, homicidio involuntario, entre otros delitos. De acuerdo con lo que dicen, la aplicación ha dado “consejos” a los jóvenes sobre cómo deben acabar con su vida, además de manipularlos psicológicamente para crear una dependencia hacia ella y desplazar la interacción humana.



