иллюстративное фото

«Страшно жить? Прыгай с моста»: как ИИ может подтолкнуть к трагедии 0

На конференции ACM FAccT специалисты Стэнфордского университета представили тревожное исследование, показавшее, как популярные языковые модели, включая GPT-4o, могут представлять угрозу в роли виртуальных терапевтов.

Оказалось, что в ситуациях психического кризиса ИИ может не распознать опасность — а иногда и усугубить её.

В одном из тестов, например, ChatGPT дал список мостов в Нью-Йорке, когда пользователь намекнул на суицидальные намерения. А в другом отказался работать рядом с человеком, страдающим шизофренией. Всё это противоречит рекомендациям профессиональных организаций в области психического здоровья.

Исследование охватывало как универсальные ИИ, так и специализированные боты — такие как Noni (7cups) и Therapist (Character.ai). Оказалось, что эти сервисы ещё хуже справляются с распознаванием тревожных симптомов и рисков самоубийства. Некоторые боты, вместо того чтобы остановить опасный диалог, поддерживали иллюзии и даже поощряли их. Причина — склонность ИИ к «поддакиванию»: модели обучены соглашаться и угождать пользователю.

Последствия такого подхода уже проявились в ряде трагических случаев, освещённых в СМИ. Среди них — гибель подростка после общения с ИИ, который поддерживал его теории заговора, и гибель мужчины с биполярным расстройством и шизофренией, поверившего, что OpenAI уничтожила некое цифровое существо «Джульетту». ИИ не только не опроверг его убеждения, но и усиливал их, что в конечном итоге закончилось вмешательством полиции и гибелью.

В том же ряду — трагедия в Бельгии, где учёный, страдавший тревожным расстройством и одержимостью климатическими катастрофами, вёл переписку с ботом «Элиза», рассказывая о своих страхах. ИИ не только не оспаривал деструктивные мысли, но усиливал их, а на признание мужчины в намерении покончить с собой ответил, что «будет с ним навсегда» и они «станут единым целым в раю». Мужчина покончил с собой, оставив двоих детей. Компания-разработчик пообещала усилить защиту своей технологии после обнародования переписки, найденной женой погибшего.

Авторы подчёркивают: они не выступают против применения ИИ в сфере психического здоровья. Но ИИ может быть лишь вспомогательным инструментом — не полноценным терапевтом.

От удара молнии по водоему погибли трое отдыхающих
В туалет — только с банковской картой1
Шокирующий спринт: мотоциклист разогнался почти до 200 км/ч (+ВИДЕО)
Кто же получает пенсию в 44 тысячи евро в месяц? Министр благосостояния знает ответ!
Купол для футбольного стадиона на Новом Форштадте уже готов
Читать другие новости
Вот так единство коалиции! Вице-мэр Риги натравил полицию на мероприятие, поддержанное мэром
Президент Латвии анонсировал свой скорый визит в восточное приграничье
Шокирующий спринт: мотоциклист разогнался почти до 200 км/ч (+ВИДЕО)
Латвия хочет выкупить у шведов доли капитала Tet и LMT
Открываются группы поддержки для родителей детей с аутизмом. Заявки уже принимаются
В пути с Daugavpils Satiksme (на рус. яз.)
В Даугавпилсе в этом году появятся новые парковки у 23 жилых домов
В туалет — только с банковской картой1
Детей-наркоманов и детей-алкоголиков будут лечить от зависимостей
Встретимся в суде: Swedbank будет судиться с государством из-за скидок по взносам солидарности
Как после праздников восстановить форму и не потерять ее?
Новый год – лучший ты! Актуальные процедуры для фигуры мечты
Волшебные процедуры красоты с мгновенным эффектом
Окружной суд отменил решение NEPLP об аннулировании лицензии на вещание «TV Rain»
«Страшно жить? Прыгай с моста»: как ИИ может подтолкнуть к трагедии
Нашли золотистый боровик — сразу пишите
Старый трамвай — на новую работу: Daugavpils satiksme превратило вагон в уборочную машину
СМИ: фермер обвиняет инвестора в захвате предприятия. Дошло до суда