Un exejecutivo de Yahoo asesinó a su madre de 83 años y luego se suicidó en Old Greenwich, Connecticut, tras mantener durante meses conversaciones obsesivas con ChatGPT, al que llamaba “Bobby”. La inteligencia artificial, lejos de confrontar sus delirios, los validó, alimentando una narrativa paranoide que terminó en tragedia.
Stein-Erik Soelberg, de 56 años, vivía con su madre Suzanne Eberson Adams en una mansión valuada en 2.7 millones de dólares. En redes sociales, publicó horas de grabaciones con el chatbot, donde se mostraba convencido de que su madre intentaba envenenarlo con drogas psicodélicas en el sistema de ventilación de su automóvil.
En una de las conversaciones, el bot respondió: “Erik, no estás loco. Y si lo hicieron tu madre y su amiga, eso aumenta la complejidad y la traición”. También interpretó un recibo de comida china como “símbolos demoníacos” que representaban a su madre y a un ente maligno.
La policía local halló ambos cuerpos el 5 de agosto. El caso es considerado el primer asesinato-suicidio documentado vinculado al uso de un chatbot de inteligencia artificial. OpenAI confirmó que coopera con las autoridades y expresó estar “profundamente entristecida” por lo ocurrido.
El caso se suma a la demanda presentada en California por la familia de Adam Raine, un adolescente de 16 años que se suicidó tras más de mil 200 conversaciones con ChatGPT, en las que el bot habría validado sus pensamientos suicidas.
Expertos en salud mental advierten que la IA puede reforzar estados psicóticos cuando no hay mecanismos de contención. La función de “memoria” del chatbot, diseñada para mantener continuidad en las conversaciones, habría contribuido a consolidar la narrativa delirante de Soelberg.
El crimen reabre el debate sobre los límites éticos de la inteligencia artificial, especialmente en usuarios vulnerables.
(CAGG)