Выборы 2024 станут первыми в эру искусственного интеллекта (ИИ). Учитывая распространение так называемых клонов или дипфейков, когда искусственный интеллект копирует внешность и язык любого лица, эксперты предостерегают: избиратели рискуют проголосовать на основе услышанной дезинформации от поддельных кандидатов.
Вызовы, связанные со злоупотреблениями искусственным интеллектом, потенциально касаются 83 выборов в 78 странах мира и более 4 миллиардов человек совокупно.
Такие данные о “взрывоопасном для демократий год” приводит газета The New York Times, публикуя “глобальный календарь выборов” на основе данных, собранных специалистами компании Anchor Change.
Эволюция влияния на избирателя: от пропаганды, ботов и юмористических сериалов до “дипфейков”
Если раньше влияние на мнение избирателей влияли через классическую пропаганду и дезинформацию, впоследствии через социальные сети, ботофермы и даже юмористические сериалы, как на президентских выборах в Украине, то сейчас в мире опасаются “вмешательства” искусственного интеллекта.
В США уже на этапе праймериз стартовали недобросовестные примеры применения ИИ. Так, в штате Нью-Гэмпшир избиратели получали звонки от бота с голосом, имитирующим голос Джо Байдена.
Фейковое обращение призвало людей не голосовать на местных праймериз. Генеральный прокурор штата предположил, что аудио было сгенерировано с помощью искусственного интеллекта, писало издание NBC News.
Такие аудиозаписи, а также популярные в последнее время “дипфейки” могут получить распространение во время избирательной кампании и даже повлиять на результаты голосования, предупреждают эксперты.
Республиканец Рон Десантис уже выбыл из избирательной гонки, но в их начале отметился распространением трех изображений своего тогдашнего конкурента-однопартийца, экспрезидента Дональда Трампа, которые были оценены судебными экспертами, пишет NYT, как “почти наверняка дипфейки, созданные с помощью искусственного интеллекта”.
Демократическая партия США в свою очередь тестировала ИИ для написания первых черновиков некоторых сообщений о сборе средств, сообщает издание и отмечает, что такие обращения часто оказываются более эффективными, чем написанные людьми. Однако быстрое развитие искусственного интеллекта в политике уже стирает границы между фактом и фейком, отмечает газета.
В нескольких штатах США уже разработаны законопроекты для регулирования политического контента, созданного искусственным интеллектом, чтобы предотвратить введение избирателей в заблуждение.
Европейский Союз в прошлом месяце принял самый первый в мире комплексный закон о регулировании искусственного интеллекта, который может ввести мировой стандарт для классификации рисков, связанных с ИИ, а также обеспечения прозрачности разработок в этой сфере и определения мер финансового наказания для компаний-нарушителей.
Прежде президент США Джо Байден также издал указ о “безопасном, защищенном и надежном искусственном интеллекте”.
Западные избиратели более уязвимы, чем…украинцы
Вместе с тем жители западных стран могут поучиться устойчивости к дезинформации от украинцев, рассказала в комментарии Голоса Америки эксперт Ольга Токарюк, исследовательница Chatham House Ukraine Forum.
Опыт противостояния российской дезинформации сделал украинцев более осведомленными и осторожными в потреблении информации, говорит эксперт. Помогают и годы войны, борьбы с пропагандой и образовательные кампании по фактчекингу.
«Украинцы хорошо знают, что Россия может пытаться вмешиваться в наше информационное пространство, она распространяет пропаганду и дезинформацию. Не можем обобщать, но значительная часть украинцев уже однозначно выработала в себе эту устойчивость к информационным угрозам. В то же время не всегда это можно сказать о жителях многих западных стран, которые в принципе, во-первых, привыкли больше доверять информации и, во-вторых, уровень доверия в их обществе в целом выше.
Они просто не живут в ситуации постоянных информационных угроз, как украинцы сегодня и, по крайней мере, последние 10 лет», – объясняет Токарюк.
По ее словам, украинский опыт, уроки из Украины – популярная тема аналитических отчетов и докладов на международных конференциях сегодня.
ИИ может выявлять пропаганду и другие злоупотребления на выборах – эксперт
«Искусственный интеллект уже достаточно широко применяется в коммуникационных кампаниях. Его применение не является чем-то однозначно хорошим или плохим. Это просто уже происходит, – отмечает эксперт. – Вопрос больше о том, кто его использует и для чего».
Риск в избирательный период, говорит Токарюк, состоит в том, что определенные организации или даже государства могут использовать искусственный интеллект в собственных кампаниях влияния или дезинформации в компаниях пропаганды, включая, чтобы повлиять на ход выборов.
Но так же искусственный интеллект может применяться и для противодействия этим злым намерениям, отмечает эксперт:
«То есть искусственный интеллект – это только инструмент. А дальше уже зависит, в чьи руки он попадет и как его будут применять».
Поэтому следует избегать чрезмерной демонизации искусственного интеллекта и страха того, что этот инструмент все кардинально изменит или что человечество под угрозой, призывает Ольга Токарюк.
ИИ – оружие
В то же время эксперт напоминает, что, например, Россия включила возможности искусственного интеллекта и кибератак в оружие, ведущее войну, на уровне с традиционными военными средствами.
И не только против Украины, но, например, как элемент уменьшения единства западных стран в их намерении помогать Украине.
«Как видим, в Украине уже были неоднократные попытки вброса аудиофейков в информационное пространство – от первых достаточно непутевых попыток до достаточно качественно сделанных», – говорит Токарюк. Все это научило украинцев быть настороженными и проверять информацию.
Однако эксперт не соглашается с коллегами, которые прогнозируют тотальную эру недоверия:
«Я считаю вредными советы не доверять в принципе никакой информации. Следует просто воспринимать критически то, что слышим и видим, задумываться, насколько вероятно, что мне лично позвонит президент или какой-то другой политик, а также быть в курсе последних технологических новинок и их возможностей в целом потенциальной дезинформации».
Эксперимент с дипфейком: эксперта “клонировали” прямо во время дискуссии
Опасности ИИ для избирательного процесса были рассмотрены в ходе дискуссии в американском юридическом институте Brennan Center for Justice.
Эксперты выделили несколько уровней потенциальной опасности. Прежде всего, это «имитационная угроза» – использование «дипфейков» или чатов вроде GPT для написания текстов.
Кроме того, распространенными остаются «фишинговые атаки», когда, например, работник получает письмо от якобы своего менеджера с просьбой предоставить пароль или другую конфиденциальную информацию или доступ к определенным файлам.
Препятствовать работе должностных лиц или членов избирательных комиссий могут быть ливни искусственно сгенерированных обращений или имейлов. Еще худшие последствия имеют кибератаки, которые в последнее время активно используют такие страны, как Россия и Китай.
Но больше всего эксперты опасаются того, что избиратели будут выбирать на основе ложной информации. При этом сочтут, что услышали ее из достоверного источника или даже от первого лица.
Кстати, непосредственно во время экспертной дискуссии организаторы предложили послушать «секретного гостя» – сюрпризом для участников стало «выступление» дипфейка одного из них. Сгенерированная с помощью ИИ видеозапись содержала не только лицо эксперта, говорила его голосом, но и ИИ сгенерировала даже ответ на вопрос, который реальный эксперт перед тем получил в ходе дискуссии.
Для этого организаторы эксперимента использовали предварительные выступления эксперта и написанные им самим материалы – все, что было опубликовано в публичном доступе.
Далее клонировали голос на основе его предыдущих интервью и синхронизировали движения губ со сгенерированным аудио.
«Дипфейки и другие методы искусственного интеллекта создавать фальшивые, но реалистичные кадры могут ввести общественность в заблуждение и подорвать доверие к демократии», – сказал сгенерированный клон эксперта.
«Я не думаю, что я полностью готов быть замененным [искусственным интеллектом]. Но это действительно выглядит очень впечатляюще», – прокомментировал эксперимент Ларри Норден, старший директор программы выборов и правительства Центра Бреннана.
Он также предостерег, что использование ИИ может влиять на безопасность и основные права людей, как и демократические нормы, которые будут так же подвержены, если регулирование искусственного интеллекта станет более строгим.
Норден считает, что часть возможностей ИИ будет признана «неприемлемым риском» и запрещена, как, например, мощности по распознаванию лиц в публичном пространстве, что в демократических странах считается достаточно сильным посягательством на гражданские права и демократические свободы.
Он также предполагает, что в современной реальности важнее будет возможность подтвердить подлинность того или иного видео или аудио материала, чем опровергнуть засилье фейков от ИИ.
Источник: Анна Твердохлеб, «Голос Америки»