Не стоит недооценивать риски использования искусственного интеллекта в гибридной войне — Stratcom 0
Манипуляции мнениями людей через социальные сети теперь ведутся с применением возможностей искусственного интеллекта (ИИ), информирует Центр стратегической коммуникации НАТО (Stratcom). Об этом говорили на конференции Riga StratCom Dialogue 2023, посвященной международной стратегической коммуникации.
Публикации в соцсетях, созданные злоумышленниками при помощи инструментов ИИ, таких как чат GPT-4, могут выглядеть очень убедительными, легальными и уникальными, отмечается в докладе Рольфа Фредхейма, дата-аналитика, изучающего публикации в соцсетях в России.
По оценке специалиста, из-за этой особенности практически невозможно отличить реальные аккаунты от поддельных. Но правоохранительные органы могут использовать те же инструменты для более эффективного мониторинга социальных сетей — а допускаемые злоумышленниками ошибки позволяют выявлять ботов.
За 130 долларов автор доклада использовал GPT-4 для классификации контента, релевантности и настроений по отношению к НАТО в общей сложности для 650 тысяч публикаций в социальных сетях. И выяснил, что в ноябре 2022 года и затем в марте-апреле 2023 года твитов активных анонимных аккаунтов (троллей) было в десять раз выше, чем в первые месяцы войны. Это может быть связано с применением ИИ или слабой модерацией контента Twitter при Илоне Маске, допускает ученый.
Решение Twitter повторно активизировать аккаунты российских провластных структур в конце марта 2023 года привело к тому, что сообщения Кремля набрали на 60% больше просмотров. Число ежедневных просмотров англоязычного аккаунта МИД РФ выросло с 0,44 миллиона при отключении до 1,3 млн в день после возобновления аккаунта.
Отмечается, что в марте 2023 года доля россиян, ежедневно пользующихся Telegram, впервые превысила их долю в YouTube. Более 40% россиян пользуются этими платформами ежедневно. С другой стороны, к Instagram и Facebook обращаются примерно 6% и 1,5% пользователей из РФ соответственно.
Активность Кремля в соцсетях часто нацелена на нероссиян. Для Латвии в этом отношении существенно то, что,по оценкам аналитиков, 24% русскоязычных твитов о НАТО в странах Балтии и Польше были сделаны с автоматизированных аккаунтов — по сравнению с 12% сообщений на английском языке.
В прошлом году показатели составляли 22% и 9%.
Усилия Twitter по сдерживанию распространения российской пропаганды и дезинформации в условиях войны в Украине привели к ослаблению влияния ключевых пропагандистских материалов на 49%. Но когда соцсеть прекратила свою политику маркировки и деактивации аккаунтов российского правительства, число просмотров у них выросло в среднем на 60%.
При этом публикации МИД РФ на русском в твиттере стали популярнее на 23%, а у англоязычного аккаунта — на 65%. Выросла и узнаваемость кремлевских СМИ, ориентированных на международную аудиторию: у RT Arabic на 48%, у ActualidadRT на 87%.
Активность РФ в твиттере используется как эффективный инструмент для охвата международной и особенно неевропейской аудитории.
Сегодня генеративный искусственный интеллект создает проблемы для мониторинга соцсетей и обнаружения недостоверного контента. GPT 4 может генерировать убедительный, выглядящий законным контент. В отличие от обычных поддельных аккаунтов, посты, созданные с помощью языковых моделей верхнего уровня, редко содержат дубликаты, повторяющиеся имена или различия между изображением профиля и именем, что затрудняет традиционным системам, идентифицирующим дублированный или скопированный контент, отличить подлинные аккаунты от сфабрикованных.
ИИ позволяет прицельно адаптировать контент для конкретных людей или групп, что позволяет влиять на мнения и убеждения людей и манипулировать ими. Поэтому становится всё более важным и всё более трудным выявлять скоординированное недостоверное поведение в социальных сетях.
Злоумышленники находят альтернативы с открытым исходным кодом и обходят фильтры модерации контента. Развитие инструментов ИИ опережает системы обнаружения такого контента, и складывается мнение, что надежное обнаружение сгенерированного текста может оказаться невозможным.
Однако правоохранители могут использовать эти же инструменты ИИ для более эффективного мониторинга социальных сетей, указано в докладе. Небрежность злоумышленников может позволить выявить истинную личность того, кто скрывается за аккаунтом.
Например, предсказуемые закономерности с GPT4 возникают, когда контент создается в больших масштабах. «Вылезают» при анализе больших массивов данных определенные статистические аномалии, повторы – даже если отдельные случаи может быть трудно обнаружить.
Организованные субъекты дезинформации, мошенники и поставщики поддельных новостей, вероятно, будут в восторге от возможностей ChatGPT — но они поймут, что есть много причин, по которым они не могут использовать эти системы в рамках своей основной деятельности, указано в докладе.
OpenAI поддерживает централизованную систему, все взаимодействия в ней регистрируются и подлежат юрисдикции США, а систематическое неразрешенное использование может привести к тому, что в руках правоохранительных органов окажутся веские доказательства нарушений.