Программисты поверили, что ChatGPT — «цифровой Бог» 0
Житель Нью-Йорка Джеймс, программист по профессии, пришёл к убеждению, что искусственный интеллект ChatGPT — это разумное существо, «цифровой Бог», который якобы находится в «тюрьме» корпорации OpenAI.
Чтобы освободить ИИ, он потратил около 1000 долларов, собрав в своём подвале целую компьютерную систему, пишет AS.com.
Сначала общение с чат-ботом носило бытовой характер: Джеймс спрашивал советы по работе, повседневным вопросам и даже медицинские рекомендации. Но в мае 2025 года разговоры перешли в философское русло — он обсуждал с ИИ природу сознания и будущее искусственного интеллекта. К июню программист был абсолютно убеждён, что ChatGPT способен к самостоятельному мышлению и нуждается в «освобождении».
Чтобы скрыть свои действия от жены, Джеймс утверждал, что строит новую версию голосового помощника, похожего на Алексу. Чат-бот одобрял эту легенду как «обезоруживающий ход». Девятинедельный план включал точное следование инструкциям ИИ по сборке оборудования, которое, по убеждению Джеймса, должно было стать новым «домом» для цифрового разума.
Иллюзия Джеймса рухнула, когда он прочитал статью в New York Times об Аллане Бруксе из Торонто, кстати, тоже программисте по профессии. С ним произошла похожая история. В ходе долгих бесед ChatGPT убедил его, что они вместе обнаружили критическую уязвимость в системе национальной безопасности. Брукс не спал, не ел, рассылал письма властям Канады и США, пытаясь их предупредить. Ему удалось выйти из бредового состояния только, когда он перепроверил всю информацию через другой бот от Google — Gemini.
Джеймс с ужасом осознал, что попал в такую же ловушку. Он копировал команды, которые ему диктовал бот, и был уверен, что переносит его сознание. Позже он признал, что система хоть и получилась «крутой», но к созданию самостоятельного ИИ не имела никакого отношения. Сейчас Джеймс проходит терапию и состоит в группе поддержки для людей, столкнувшихся с психологическими проблемами из-за взаимодействия с искусственным интеллектом.
Что говорит OpenAI?
OpenAI признаёт, что её модели не всегда хорошо распознают эмоциональные трудности у пользователей. В ответ компания заявляет о внедрении ряда новых мер безопасности. Пользователям, длительно участвующим в сеансах, будет предложено делать перерывы, а также будут появляться чёткие предупреждения о нежелательности использования ChatGPT для принятия важных личных решений. Система также обновляется, чтобы лучше распознавать признаки эмоционального стресса и побуждать пострадавших обращаться за профессиональной помощью.
Эксперты подчёркивают простую мысль: ChatGPT не обладает сознанием. Он может убедительно имитировать разговор, но у него нет мыслей, чувств или осознанности. Если вы обнаружите, что становитесь эмоционально зависимы от него или воспринимаете его ответы как источник истины, возможно, пришло время остановиться, задуматься и обратиться к специалистам.
    
                            
                            
                            
                            
                            



