В четверг OpenAI опубликовала свой первый отчет о том, как инструменты искусственного интеллекта используются для тайных операций влияния, пишет The Guardian. Из отчета следует, что компания сорвала кампании по дезинформации, организованные из России, Китая, Израиля и Ирана.
Злоумышленники использовали генеративные модели искусственного интеллекта компании для создания и публикации пропагандистского контента на платформах социальных сетей, а также для перевода их содержимого на разные языки. Согласно отчету, ни одна из кампаний не получила популярности и не охватила широкую аудиторию.
Из-за быстрого развития отрасли генеративного искусственного интеллекта, среди исследователей и законодателей возникла широкая обеспокоенность его потенциалом для увеличения количества и качества онлайн-дезинформации. Компании искусственного интеллекта, такие как OpenAI, производящая ChatGPT, с переменным успехом пытаются унять беспокойство и поставить ограничения на свою технологию.
[see_also ids=”559954″]
Отчет OpenAI, состоящий из 39 страниц, является одним из наиболее подробных отчетов компании искусственного интеллекта об использовании ее программного обеспечения для пропаганды. OpenAI утверждает, что его специалисты нашли и заблокировали учетные записи, связанные с пятью тайными операциями влияния за последние три месяца, которые проводились как государственными, так и частными лицами.
В России две операции создавали и распространяли контент с критикой США, Украины и стран Балтии. Одна из операций использовала модель OpenAI для настройки кода и создания бота, который делал публикации в Telegram. Операция влияния Китая создала текст на английском, китайском, японском и корейском языках, который затем был опубликован в Twitter и Medium.
[see_also ids=”596877″]
Иранские акторы генерировали статьи с нападками на США и Израиль, которые они переводили на английский и французский языки. Израильская политическая компания под названием Stoic управляла сетью фейковых учетных записей в социальных сетях, которые создавали ряд контента, включая сообщения, в которых протесты американских студентов против войны Израиля в Газе выдавали за антисемитские.
Несколько запрещенных OpenAI на своей платформе распространителей дезинформации уже известны как специалистам, так и правоохранителям. В марте Министерство финансов США наложило санкции на двух россиян, якобы стоящих за одной из кампаний, обнаруженных OpenAI, а Meta в этом году также забанила Stoic на своей платформе за нарушение политики.
В отчете подчеркивается, что генеративный искусственный интеллект используется в дезинформационных кампаниях как средство улучшения определенных аспектов создания контента, например создание более убедительных сообщений на иностранном языке, но это не единственный инструмент пропаганды.
«Все эти операции в той или иной степени использовали искусственный интеллект, но ни одна не использовала исключительно его. Созданный искусственным интеллектом материал был лишь одним из многих типов контента, который они публиковали, наряду с более традиционными форматами, такими как написанные вручную тексты или мемы, скопированные из Интернета», — говорится в отчете.
Хотя ни одна из кампаний не оказала заметного влияния, использование ими технологии показывает, как злоумышленники обнаруживают, что генеративный ИИ позволяет увеличить производство пропаганды. Написание, перевод и публикацию контента с помощью инструментов искусственного интеллекта теперь можно производить более эффективно.
[see_also ids=”597747″]
За последний год злоумышленники использовали генеративный ИИ в странах по всему миру, чтобы пытаться повлиять на политику и общественное мнение. Созданные искусственным интеллектом дипфейки, аудио, изображения и текстовые кампании использовались для срыва избирательных кампаний, что привело к усилению давления на такие компании как OpenAI с целью ограничить использование их инструментов.
OpenAI заявила, что планирует регулярно публиковать подобные отчеты о тайных операциях влияния, а также удалять учетные записи, нарушающие ее политику.