ВЭФ назвал дипфейки и ИИ главными угрозами для выборов в разных странах ВЭФ назвал дипфейки главной угрозой для выборов в разных странах в 2024 году Дипфейки в сочетании с фишинговыми атаками могут помешать проведению выборов во всем мире в 2024 году, пришли к выводу эксперты ВЭФ. Примеры подобных манипуляций сознанием избирателей уже есть

Дипфейки могут помешать демократическим процессам, говорится в отчете Всемирного экономического форума (ВЭФ) и компании Accenture, опубликованном в четверг, 11 января.
Что такое дипфейк
Это методика генерации изображения на основе искусственного интеллекта, алгоритмы которого обучены изменять элементы на существующих видео, аудиофайлах и фото.
Вместе со сложными фишинговыми кампаниями дипфейки могут стать оружием для срыва демократических выборов, указывается в документе. В 2024 году более 45 стран собираются провести выборы, в том числе Россия, США, ЕС и Индия. Участие в этих выборах может принять более половины жителей планеты), из-за чего СМИ уже назвали 2024 год «матерью всех избирательных годов» и «демократическим Супербоулом».
Как отмечается в отчете ВЭФ, созданные искусственным интеллектом дипфейковые видео или аудиозаписи могут использоваться для распространения ложной информации о кандидатах или манипулирования общественным мнением. Они приводят в пример выборы в Словакии в сентябре 2023 года, когда был выпущен дипфейковый аудиоклип, из которого следовало, что один из кандидатов якобы обсуждал с представителем СМИ, как проводить манипуляции.

Помимо дипфейков ВЭФ в числе угроз упоминает автоматизированную дезинформацию, когда алгоритмы искусственного интеллекта воспроизводят большие объемы дезинформации, что затрудняет борьбу с ней, а также таргетированную рекламу, которая с помощью искусственного интеллекта может использоваться для манипулирования мнениями или подавления явки избирателей.
Кроме того, авторы отчета указывают на возможные проблемы с конфиденциальностью данных: информация для голосования может быть получена из удостоверяющих документов, записей о месте жительства, автоматическая обработка этих данных может привести к утечкам. Наконец, с помощью алгоритмов искусственного интеллекта злоумышленники могут манипулировать общественным мнением в соцсетях, усиливая эффект одних политических сообщений и подавляя другие.
Программа развития РБК Pro Освойте 52 навыка за год «Анти-тайм-менеджмент»: как научиться все успевать Руководитель, от которого не уходят: как заслужить лояльность подчиненных Отказывайтесь и делегируйте: на какие задачи нельзя тратить свое время Почему ваши подчиненные работают вяло. 11 сильнейших демотиваторов Спасение топ-менеджера: 10 приемов для ответа на каверзные вопросы Как запоминать по 30 страниц — советы шведского Гранд-мастера памяти Какие хитрости легендарных мошенников пригодятся вам во время переговоров Семь правил делегирования: как отдать задачу и не пожалеть об этом «Тоже мне профессионал»: 10 жестких приемов манипуляторов на переговорах Словарик диктатора: какие 6 фраз выдадут авторитарного управленца Бизнес-коуч Мэтт Абрахамс: не пытайтесь выступать «правильно» «Я буду выглядеть глупо»: как преодолеть страх публичного выступления
В августе прошлого года газета The Guardian сообщила, что искусственный интеллект может повлиять на исход выборов президента США в 2024 году. Опрошенные изданием специалисты предупреждали, что благодаря этой стремительно развивающиеся технологии можно будет взять на вооружение тактику дезинформации прошлого и «вдохнуть в нее новую жизнь».

В отчете приводится пример одной из самых продвинутых и сложных атак социальной инженерии, в ходе которой искусственный интеллект использовался для атаки на одну из компаний-разработчиков программного обеспечения. В августе 2023 года ее сотрудник получил дипфейковую аудиозапись, посвященную набору участников программы медицинского страхования, кликнул на ссылку в нем, предоставив свои учетные данные фальшивой системе. Сразу после этого злоумышленник позвонил на телефон сотрудника, чтобы получить код многофакторной аутентификации. Эти действия вызвали подозрения у сотрудника, но поскольку злоумышленник использовал фальшивую аудиозапись знакомого коллеги, сотрудник всеже сообщил код. Используя учетные данные и этот код, злоумышленник смог добавить свое личное устройство к учетной записи сотрудника, что, в свою очередь, позволило пройти аутентификацию в компании. В России со случаями использования сгенерированных аудиосообщений столкнулись пользователи мессенджеров, писал РБК.
Поделиться Поделиться Вконтакте Одноклассники Telegram Авторы Теги Как продавать сразу на всех маркетплейсах из одного кабинета













