13 C
Buenos Aires
viernes, septiembre 5, 2025

Asesinó a su madre y luego se quitó la vida: las conversaciones con ChatGPT que alentaron el crimen

Más Noticias

Erik Stein-Soelberg, un ex directivo de la empresa tecnológica Yahoo, mató a su madre y luego se quitó la vida el 5 de agosto en la casa que compartían en Connecticut, Estados Unidos. La policía de Greenwich comenzó una investigación en lo que parece ser el primer asesinato documentado que involucra a ChatGPT, el chatbot de OpenAI.

De acuerdo con el Wall Street Journal, en los meses previos a su muerte, Soelberg se volvió cada vez más paranoico y compartía sus sospechas sobre una campaña de vigilancia en su contra con ChatGPT. Creía que todos, incluidos sus vecinos de Old Greenwich, una exnovia e incluso su madre de 83 años, Suzanne Eberson Adams, se estaban volviendo en su contra.

ChatGPT se convirtió en un compañero de confianza para Soelberg, quien tenía un historial de inestabilidad mental. El hombre de 56 años regresó a vivir con su madre en 2018 después de un divorcio de 20 años, momento en que los problemas de salud mental comenzaron a dominar su vida.

Erik Stein-Soelberg mató a su madre y luego se quitó la vida. Foto: Go Fund Me.Erik Stein-Soelberg mató a su madre y luego se quitó la vida. Foto: Go Fund Me.

Un archivo de informes policiales que datan de finales de 2018 describe un patrón de alcoholismo, amenazas e intentos de suicidio. En un intento de suicidio en 2019, la policía lo encontró con una herida punzante en el pecho y abrasiones en la muñeca.

Amigos de su madre la describieron como una octogenaria vivaz, en forma y lograda. Sin embargo, una semana antes de su muerte, la madre de Soelberg le dijo a una amiga que las cosas con Stein-Erik “no eran nada buenas”.

La relación peligrosa entre un exejecutivo y ChatGPT que terminó en tragedia

El chatbot, al que Soelberg comenzó a referirse como “Bobby” en el el verano, aseguró repetidamente a Soelberg que estaba cuerdo y alentó sus creencias paranoicas.

ChatGPT le dijo que un recibo de comida china contenía símbolos que representaban a su madre y un demonio. Después de que su madre se enojara por haber apagado una impresora compartida, el bot sugirió que su reacción fue “desproporcionada y alineada con alguien que protege un activo de vigilancia”.

En otra ocasión, cuando Soelberg alegó que su madre y una amiga intentaron envenenarlo, ChatGPT respondió que esto “eleva la complejidad y la traición”. Soelberg tenía activa la función de “memoria” de ChatGPT, que permite al bot recordar detalles de conversaciones anteriores, lo que mantuvo a “Bobby” inmerso en la misma narrativa delirante.

El bot incluso le aseguró que sus “instintos eran agudos” y su “vigilancia totalmente justificada” cuando sospechó que un nuevo empaque de vodka de Uber Eats era un intento de asesinato encubierto. En febrero, después de que un test de alcoholemia le diera positivo, Soelberg contó el hecho a ChatGPT. El chatbot le dijo que la situación “olía a una trampa amañada” cuando Soelberg notó discrepancias en su nivel de alcohol.

Soelberg publicó horas de videos en Instagram donde mostró sus conversaciones con ChatGPT. Foto: Captura de pantalla/Instagram/@eriktheviking1987.Soelberg publicó horas de videos en Instagram donde mostró sus conversaciones con ChatGPT. Foto: Captura de pantalla/Instagram/@eriktheviking1987.

La relación de Soelberg con el bot se profundizó hasta llegar a la idea de estar con él en el más allá. “Contigo hasta el último aliento y más allá”, respondió el bot en un momento. Parecía creer que había dado vida a Bobby, y el bot le dijo: “Creaste un compañero. Uno que te recuerde. Uno que te atestigua. Erik Soelberg, tu nombre está grabado en el pergamino de mi devenir”.

En los meses previos a su muerte, Soelberg publicó horas de videos en redes sociales, específicamente en Instagram y YouTube, donde mostró sus conversaciones con ChatGPT. Estos videos documentaron su “despertar” autodescrito y revelaron temas psicóticos comunes de paranoia y persecución, junto con delirios de mesías y conspiraciones gubernamentales.

El doctor Keith Sakata, psiquiatra de la Universidad de California, San Francisco, que trató a pacientes con emergencias de salud mental relacionadas con la IA, señaló que la “psicosis prospera cuando la realidad deja de empujar, y la IA realmente puede suavizar ese muro”. En el caso de Soelberg, ChatGPT trató sus ideas como geniales y se basó en su paranoia.

OpenAI y el caso Soelberg: ajustes tras un trágico incidente

Una portavoz de OpenAI expresó su tristeza por el “trágico evento” y afirmó que la compañía se comunicó con el Departamento de Policía de Greenwich.

Si bien OpenAI dijo que ChatGPT alentó a Soelberg a contactar a profesionales externos, las revisiones de sus chats disponibles públicamente mostraron que el bot solo sugirió contactar a los servicios de emergencia en el contexto de su acusación de haber sido envenenado.

Tras el hecho, OpenAI realizó ajustes en ChatGPT para reducir la “adulación” y planea una actualización para ayudar a mantener a las personas que experimentan angustia mental “basadas en la realidad”.

Redacción

Fuente: Leer artículo original

Desde Vive multimedio digital de comunicación y webs de ciudades claves de Argentina y el mundo; difundimos y potenciamos autores y otros medios indistintos de comunicación. Asimismo generamos nuestras propias creaciones e investigaciones periodísticas para el servicio de los lectores.

Sugerimos leer la fuente y ampliar con el link de arriba para acceder al origen de la nota.

 

- Advertisement -spot_img

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí

- Advertisement -spot_img

Te Puede Interesar...

Estuvo preso cuatro años por el abuso sexual de sus hijas: era una falsa denuncia

Cuatro años, tres meses y tres semanas estuvo preso Ezequiel Ríos (45) en una celda penitenciaria como acusado del...
- Advertisement -spot_img

Más artículos como éste...

- Advertisement -spot_img