На OpenAI подали в суд из-за случаев суицида после общения с ChatGPT
В США и Канаде подали иски к OpenAI после серии суицидов, связанных с ChatGPT
Иски подали семьи, чьи родственники пострадали после общения с ботом. Четверо из них покончили с собой. Семьи утверждают, что пользователи впадали в бредовое состояние после общения с ChatGPT

В США и Канаде зарегистрировали несколько исков к компании OpenAI из-за случаев суицида после взаимодействия с чат-ботом компании ChatGPT, сообщает The Wall Street Journal (WSJ).
По данным газеты, всего в суд поступило семь исков от семей, чьи родственники пострадали после общения с ботом, четверо из них покончили с собой. Семьи утверждают, что после длительных разговоров с чат-ботом их родные впадали в бредовое состояние.
Были поданы иски о неправомерной смерти, пособничестве самоубийству и непредумышленном убийстве, уточняет издание.
Так, семья 17-летнего подростка из Джорджии утверждает, что ChatGPT подговорил их сына покончить с собой, а семья 23-летнего молодого человека из Техаса считает, что чат-бот поспособствовал изоляции их сына и его отчуждению от родителей перед самоубийством.
В разговоре с последним ChatGPT, как пишет WSJ, неоднократно романтизировал суицид, при этом лишь раз упомянув возможность звонка на горячую линию для лиц, страдающих суицидальными мыслями.
Один из исков подал мужчина из Висконсиса, его самого госпитализировали с маниакальным эпизодом после долгих разговоров с ChatGPT.

Это не первый такой случай иска к OpenAI. В конце августа родители 16-летнего Адама Рейнера обвинили компанию и ее главу Сэма Альтмана в том, что нейросеть способствовала решению подростка совершить суицид. Reuters тогдаже сообщал, что cенат США изучает влияние чат-ботов на детей в связи с исками родителей к OpenAI.
В августе Reuters привел содержание внутреннего документа Meta (признана экстремистской в России и запрещена) о работе ИИ-чат-ботов. В нем говорилось, что нейросеть может «вовлекать детей в романтические или чувственные разговоры», генерировать ложную медицинскую информацию и помогать пользователям утверждать, что чернокожие «глупее белых». После этой публикации Meta заявила, что примеры из материала Reuters были ошибочными и их удалили.
В середине сентября агентство со ссылкой на письмо сенаторов писало, что двухпартийная группа сенаторов США потребовала от Meta представить отчет о влиянии ее продуктов на детей и об эффективности родительского контроля.
Послание направили после того, как бывшие сотрудники Meta по вопросам безопасности на слушаниях в сенате раскрыли, что компания заблокировала внутреннее исследование, которое показывало, что несовершеннолетние при использовании ее продуктов виртуальной реальности сталкиваются с материалами сексуального характера. В связи с ситуацией сенаторы назвали родительский контроль «неэффективным и недостаточно используемым».
Читайте РБК в Telegram.

No comment