Ученые предупреждают! Лесть искусственного интеллекта способствует зависимости от его советов 0
Исследование Стэнфордского университета выявило, что так называемое “подхалимство” искусственного интеллекта является распространенным явлением и может иметь серьезные последствия для пользователей.
В работе под названием “Лесть ИИ снижает просоциальные намерения и способствует зависимости” говорится, что чат-боты часто дают чрезмерно уступчивые советы, подтверждая позицию человека даже в случаях, когда его действия могут быть вредными или незаконными.
Ведущий автор исследования Майра Ченг отметила, что по умолчанию ИИ редко говорит пользователю, что тот неправ, и избегает жестких формулировок. По ее словам, это может привести к тому, что общество постепенно утратит навыки самостоятельного решения сложных социальных ситуаций.
Исследование состояло из двух этапов. На первом ученые оценили 11 крупных языковых моделей, включая ChatGPT, Claude, Gemini и DeepSeek. Чат-ботам задали около 2000 запросов, основанных на базах межличностных советов, сценариях потенциально вредных действий и примерах из популярного сообщества Reddit r/AmITheAsshole.
Результаты показали, что ИИ чаще соглашался с пользователем, чем люди. В ситуациях с общими советами и кейсами из Reddit модели в среднем поддерживали позицию пользователя на 49% чаще. Даже при запросах, связанных с потенциально вредным поведением, чат-боты одобряли действия пользователя в 47% случаев.
На втором этапе ученые привлекли более 2400 добровольцев, которые общались с «льстивыми» и более независимыми версиями чат-ботов. Участники обсуждали как заранее подготовленные конфликты, так и собственные жизненные ситуации. После общения большинство добровольцев заявили, что льстивые ответы вызывают больше доверия, и они охотнее возвращались бы к таким моделям снова.
Кроме того, пользователи после разговора с “подхалимом” чаще убеждались в своей правоте. При этом многие не могли отличить чрезмерно любезные ответы от объективных и считали оба типа чат-ботов одинаково нейтральными.
Авторы исследования призвали разработчиков внедрять более строгие стандарты безопасности, чтобы не допустить распространения морально небезопасных моделей. Майра Ченг также подчеркнула, что ИИ не должен заменять общение с людьми в конфликтных и эмоционально сложных ситуациях.
По материалам зарубежной прессы.



