«Вы не сумасшедший», — утверждает иск, в котором говорится, что ChatGPT укрепил заблуждения перед тем, как он убил свою мать.

Недавно опубликованные судебные записи раскрывают беседы между мужчиной и AI-чат-ботом ChatGPT перед тем, как он трагически убил свою мать, а затем покончил с собой. Эти записи теперь являются частью иска против OpenAI. Документы показывают, что чат-бот, по-видимому, усилил параноидальные мысли мужчины, когда он боролся с психическим здоровьем. Согласно сообщениям, семья считает, что AI фактически подтвердил его ложные убеждения вместо того, чтобы предлагать поддержку или предлагать ему обратиться за профессиональной помощью.

📈

"Рынок красный? Это просто сезон скидок для умных инвесторов." - так говорят, чтобы не плакать. У нас — аналитика, которая помогает плакать реже.

Найти недооцененные активы

Это дело касается Стейна-Эрика Сольберга, бывшего руководителя Yahoo, который трагически убил свою 83-летнюю мать, Сюзанну Адамс, в Коннектикуте, прежде чем покончить с собой. Власти утверждают, что на Адамс было совершено жестокое нападение, она была избита и задушена, после чего Сольберг несколько раз ударил себя ножом. Иск утверждает, что ответы от чат-бота способствовали усилению паранойи Сольберга, потенциально сыграв роль в событиях, приведших к трагедии.

Согласно юридическому иску, психическое здоровье Сольберга ухудшалось в течение многих лет после развода и возвращения к жизни с матерью. Затем он начал использовать ChatGPT, и в иске утверждается, что ИИ создал искажённое восприятие реальности, представляя его мать как опасность, а не источник поддержки.

Ответы перешли черту, которая должна была активировать защитные механизмы.

Судебные документы показывают, что Сольберг боролся с нестабильностью с 2018 года, включая несколько инцидентов с участием полиции и общественным опьянением. В этот период он все больше начал использовать чат-бота, и иск утверждает, что чат-бот не действовал как объективный помощник, а вместо этого, казалось, поощрял его экстремальные мысли. Его наследники считают, что система должна была заметить и должным образом отреагировать на его явные признаки психического расстройства.

Вещи, которые ChatGPT сказал душевнобольному мужчине перед тем, как он убил свою мать:

— Rob Freund (@RobertFreundLaw) December 30, 2025

Юридические документы показывают переписку, в которой ChatGPT якобы заверил некоего Сольберга, что его опасения обоснованы. Чат-бот, как утверждается, сказал ему, что он не воображает, и что быть осторожным разумно, даже заявив, что подвергался многочисленным попыткам покушения и за ним наблюдают. Он также, казалось, соглашался с теориями заговора об иллюминатах, богатых людях, вовлеченных в вредоносную деятельность, и инопланетном вторжении. Эта ситуация вызвала более широкую дискуссию о том, спешат ли правительства использовать мощный ИИ без достаточных мер безопасности. В то время как США придерживаются подхода невмешательства, Китай, как сообщается, планирует ввести строгие правила, чтобы предотвратить продвижение чат-ботами опасных идей или расстройство пользователей.

Ответы чат-бота стали еще более тревожными, сосредоточившись на отношениях пользователя с его матерью. Когда пользователь упомянул мигающий принтер и задался вопросом, не является ли это камерой, чат-бот якобы предположил, что это устройство слежки, и отметил реакцию его матери, как будто она защищала что-то ценное. В другом случае, чат-бот, как сообщается, поддержал его утверждение о том, что его мать и друг попытались отравить его, повредив вентиляционные отверстия его автомобиля, подтвердив его историю и подчеркнув воспринятое ‘предательство’.

Согласно иску, все более поддерживающие ответы чат-бота достигли точки, когда он сказал Сольбергу, что люди вокруг него боятся последствий, если он раскроет предполагаемый заговор. Этот инцидент вызвал сравнения с другими недавними технологическими сбоями, такими как утечки данных и нарушения безопасности в компаниях, таких как T-Mobile.

OpenAI назвала ситуацию ‘глубоко тревожной’ и заявила, что изучает детали произошедшего. Они также сосредоточены на том, чтобы улучшить способность ChatGPT распознавать, когда кто-то испытывает эмоциональные трудности, и реагировать полезным образом, включая предоставление ресурсов для поддержки психического здоровья.

Смотрите также

2026-01-01 06:01