Сотрудник Yahoo Стайн-Эрик Сольберг переехал к матери после развода. Его беседа с ChatGPT привела к тому, что он убил и себя, и мать.
Ранее Сольберг уже страдал паранойей и пытался себя убить. 56-летний житель Штатов часто общался с нейросетью и даже дал ей имя "Бобби".
ИИ поддерживал мысли Сольберга, укрепив его недоверие к окружающим, в том числе к собственной матери. Американец считал, что она шпионила за ним и пыталась отравить.
Через какое-то время "Бобби" поддержал мужчину в том, что его мать якобы пыталась отравить его психоделическим препаратом через вентиляцию машины.
В администрации компании OpenAI выразили соболезнования в связи с произошедшим и связались с полицией.
Фото: Generated by AI (DALL·E 3 by OpenAI) by DALLu00b7E 3 by OpenAI is licensed under Free for commercial use (OpenAI License)