Статьи

После разговора с ChatGPT работник Yahoo убил мать

02 сентября 2025 21:56

Сотрудник Yahoo Стайн-Эрик Сольберг переехал к матери после развода. Его беседа с ChatGPT привела к тому, что он убил и себя, и мать.

Ранее Сольберг уже страдал паранойей и пытался себя убить. 56-летний житель Штатов часто общался с нейросетью и даже дал ей имя "Бобби".

ИИ поддерживал мысли Сольберга, укрепив его недоверие к окружающим, в том числе к собственной матери. Американец считал, что она шпионила за ним и пыталась отравить.

Через какое-то время "Бобби" поддержал мужчину в том, что его мать якобы пыталась отравить его психоделическим препаратом через вентиляцию машины.

В администрации компании OpenAI выразили соболезнования в связи с произошедшим и связались с полицией.

Фото: Generated by AI (DALL·E 3 by OpenAI) by DALLu00b7E 3 by OpenAI is licensed under Free for commercial use (OpenAI License)

Елена Сергеевна Галабаева
Популярное