Не стоит недооценивать риски использования искусственного интеллекта в гибридной войне — Stratcom

Манипуляции мнениями людей через социальные сети теперь ведутся с применением возможностей искусственного интеллекта (ИИ), информирует Центр стратегической коммуникации НАТО (Stratcom). Об этом говорили на конференции Riga StratCom Dialogue 2023, посвященной международной стратегической коммуникации.

Публикации в соцсетях, созданные злоумышленниками при помощи инструментов ИИ, таких как чат GPT-4, могут выглядеть очень убедительными, легальными и уникальными, отмечается в докладе (*.pdf) Рольфа Фредхейма, дата-аналитика, изучающего публикации в соцсетях в России. По оценке специалиста, из-за этой особенности практически невозможно отличить реальные аккаунты от поддельных. Но правоохранительные органы могут использовать те же инструменты для более эффективного мониторинга социальных сетей — а допускаемые злоумышленниками ошибки позволяют выявлять ботов.

За 130 долларов автор доклада использовал GPT-4 для классификации контента, релевантности и настроений по отношению к НАТО в общей сложности для 650 тысяч публикаций в социальных сетях. И выяснил, что в ноябре 2022 года и затем в марте-апреле 2023 года твитов активных анонимных аккаунтов (троллей) было в десять раз выше, чем в первые месяцы войны. Это может быть связано с применением ИИ или слабой модерацией контента Twitter при Илоне Маске, допускает ученый.

Решение Twitter повторно активизировать аккаунты российских провластных структур в конце марта 2023 года привело к тому, что сообщения Кремля набрали на 60% больше просмотров. Число ежедневных просмотров англоязычного аккаунта МИД РФ выросло с 0,44 миллиона при отключении до 1,3 млн в день после возобновления аккаунта.

Отмечается, что в марте 2023 года доля россиян, ежедневно пользующихся Telegram, впервые превысила их долю в YouTube. Более 40% россиян пользуются этими платформами ежедневно. С другой стороны, к Instagram и Facebook обращаются примерно 6% и 1,5% пользователей из РФ соответственно. Активность Кремля в соцсетях часто нацелена на нероссиян. Для Латвии в этом отношении существенно то, что,

по оценкам аналитиков, 24% русскоязычных твитов о НАТО в странах Балтии и Польше были сделаны с автоматизированных аккаунтов — по сравнению с 12% сообщений на английском языке.

В прошлом году показатели составляли 22% и 9%. 

Усилия Twitter по сдерживанию распространения российской пропаганды и дезинформации в условиях войны в Украине привели к ослаблению влияния ключевых пропагандистских материалов на 49%. Но когда соцсеть прекратила свою политику маркировки и деактивации аккаунтов российского правительства, число просмотров у них выросло в среднем на 60%. При этом

публикации МИД РФ на русском в твиттере стали популярнее на 23%, а у англоязычного аккаунта — на 65%. Выросла и узнаваемость кремлевских СМИ, ориентированных на международную аудиторию: у RT Arabic на 48%, у ActualidadRT на 87%.

Активность РФ в твиттере используется как эффективный инструмент для охвата международной и особенно неевропейской аудитории.

Сегодня генеративный искусственный интеллект создает проблемы для мониторинга соцсетей и обнаружения недостоверного контента. GPT 4 может генерировать убедительный, выглядящий законным контент. В отличие от обычных поддельных аккаунтов, посты, созданные с помощью языковых моделей верхнего уровня, редко содержат дубликаты, повторяющиеся имена или различия между изображением профиля и именем, что затрудняет традиционным системам, идентифицирующим дублированный или скопированный контент, отличить подлинные аккаунты от сфабрикованных.

ИИ позволяет прицельно адаптировать контент для конкретных людей или групп, что позволяет влиять на мнения и убеждения людей и манипулировать ими. Поэтому становится всё более важным и всё более трудным выявлять скоординированное недостоверное поведение в социальных сетях.

Злоумышленники находят альтернативы с открытым исходным кодом и обходят фильтры модерации контента. Развитие инструментов ИИ опережает системы обнаружения такого контента, и складывается мнение, что надежное обнаружение сгенерированного текста может оказаться невозможным.

Однако правоохранители могут использовать эти же инструменты ИИ для более эффективного мониторинга социальных сетей, указано в докладе. Небрежность злоумышленников может позволить выявить истинную личность того, кто скрывается за аккаунтом.

Например, предсказуемые закономерности с GPT4 возникают, когда контент создается в больших масштабах. «Вылезают» при анализе больших массивов данных определенные статистические аномалии, повторы - даже если отдельные случаи может быть трудно обнаружить.

Организованные субъекты дезинформации, мошенники и поставщики поддельных новостей, вероятно, будут в восторге от возможностей ChatGPT — но они поймут, что есть много причин, по которым они не могут использовать эти системы в рамках своей основной деятельности,

указано в докладе. OpenAI поддерживает централизованную систему, все взаимодействия в ней регистрируются и подлежат юрисдикции США, а систематическое неразрешенное использование может привести к тому, что в руках правоохранительных органов окажутся веские доказательства нарушений.

Как писал Rus.LSM.lv, на то, что Россия меняет тактику влияния в информационном пространстве, Stratcom указывал в своем исследовании еще в феврале. Отмечалось, что кремлевская пропаганда активно и избирательно задействует в своих целях социальные сети.

Заметили ошибку? Сообщите нам о ней!

Пожалуйста, выделите в тексте соответствующий фрагмент и нажмите Ctrl+Enter.

Пожалуйста, выделите в тексте соответствующий фрагмент и нажмите Сообщить об ошибке.

По теме

Еще видео

Еще

Самое важное