Меню
  • USD 77.31
  • EUR 91.33
  • BRENT 41.10

Генераторы «глубоких фейков»: Понятие подлинности и правды может исчезнуть

Иллюстрация: e-news.su

В США специалисты в сфере информационной безопасности ввели понятие «глубокий фейк» (deep fake). Термин «глубокий фейк» впервые появился в 2017 году для обозначения реалистичных фото, аудио, видео и других подделок, созданных с использованием технологии искусственного интеллекта (ИИ). Применение «глубоких фейков» может стать вызовом национальной безопасности в современном мире и вообще подорвать доверие к любой информации.

Между тем технологии ИИ для создания «глубоких фейков» продолжают развиваться. В их создании задействован метод «машинного обучения». В «генерирующей состязательной сети» две системы «машинного обучения» обучаются на соревновании друг с другом. Первая сеть или генератор занимается созданием поддельных данных, таких как фотографии, аудиозаписи или видеозаписи, которые воспроизводят свойства исходного набора данных. Вторая сеть, или дискриминатор, занимается выявлением подделки данных. По результатам каждой сессии генератор сети настраивается для создания все более реалистичных данных. В сети продолжается машинное соревнование часто тысячи или миллионы сессий, пока генератор не улучшит характеристики данных до такой степени, что дискриминатор больше уже не сможет различать настоящие и поддельные данные.

Как можно использовать «глубокие фейки»? Манипуляции в СМИ явление не новое, но применение технологии ИИ для создания «глубоких фейков» выводит ее на совершенно новый уровень. В результате применения ИИ «глубокие фейки» становятся все более реалистичными. Они быстро создаются и становятся все дешевле и дешевле. Скоро их можно будет создавать с помощью свободно распространяемого программного обеспечения и через возможности сдавать в аренду вычислительные мощности посредством цифровых облаков. Даже неквалифицированные операторы смогут скачать программные средства и, используя общедоступные данные, создавать все более и более убедительный поддельный контент.

Технология «глубоких фейков» уже была использована для развлекательных целей. Например, пользователи социальных сетей «вставляли» сгенерированный образ известного актера Николаса Кейджа в фильмы, в которых он не снимался. Была, например, создана интерактивная выставка, которая включала образы картин художника Сальвадора Дали, которые он никогда не писал.

Технологии «глубоких фейков» были задействованы в медицинских целях. Сгенерированные поддельные медицинские изображения использовались для создания самообучающегося алгоритма обнаружения редких заболеваний.

Разумеется, «глубокие фейки» могут быть задействованы в информационной войне, когда, например, на фальсифицированных видеороликах предстанут государственные должностные лица или другие публичные деятели, дающие ущербные комментарии или ведущие себя неподобающим образом. Фальшивки, сгенерированные посредством технологии ИИ, смогут подрывать общественное доверие, негативно влиять на общественный дискурс или даже решать исход голосования.

«Глубокие фейки» могут быть использованы для шантажа должностных лиц или лиц, имеющих доступ к секретной информации. Они могут быть задействованы для создания подстрекательского контента, когда, например, фальшивые видео будут демонстрировать несовершенные военные преступления, несовершенные террористические акты, а также сюжеты, создающие повод для радикализации населения, вербовки террористов или подстрекательства к мятежу и насилию.

Кроме того, «глубокие фейки» создадут ситуацию, когда подлинный контент станут отрицать, утверждая, что все это подделка и «глубокий фейк». С распространением технологий «глубоких фейков» понятие подлинности и правды может исчезнуть вообще.

«Глубокие фейки» требуют специализированных средств их обнаружения. Однако изощренная технология быстро прогрессирует к точке, когда «глубокие фейки» будет очень трудно или совсем невозможно обнаружить. В настоящее время в США Агентство перспективных исследовательских проектов (DARPA) имеет две программы, предназначенные для обнаружения «глубоких фейков», — Media Forensics (MediFor) и Semantic Forensics (SemaFor). Известно, что MediFor развивает алгоритмы автоматической оценки подлинности фотографий. В программе исследуются методы идентификации аудиовизуальных несоответствий в «глубоких фейках», в том числе несоответствие цифровой целостности, несоответствие законам физики и несоответствие семантической целостности, т. е. сравнение с другими источниками информации.

В 2019 году программа MediFor получила $ 17,5 млн финансирования, а в 2020 году — $ 5,3 млн. После завершения создания программы в 2021 финансовом году ожидается «прием ее на вооружение» специальными операционными командами и разведывательным сообществом США.

Аналогичным образом программа SemaFor разрабатывает алгоритмы, которые автоматически будут обнаруживать, атрибутировать и характеризовать как доброкачественные, так и вредоносные контенты, т. е. выявлять «глубокие фейки». Эта программа определяет семантические несоответствия, необычные черты лица или фон для определения «глубоких фейков». На 2020 год программа SemaFor получила $ 9,7 млн, и планируется получить $ 17,6 млн в 2021 финансовом году.

SemaFor и MediFor рассматриваются как средства улучшения защиты против информационных операций вероятного противника.

Вместе с тем эксперты по информационной безопасности полагают, что информационная война уйдет в сферу соревнования с самообучением алгоритмов защиты и алгоритмов нападения с созданием «глубоких фейков». Генераторы «глубоких фейков» будут быстро обновляться для устранения недостатков, позволяющих идентифицировать их средствами обнаружения.

Технологии защиты против «глубоких фейков» планируется задействовать в социальных сетях. Встает вопрос об ответственности участников социальных сетей за распространение «глубоких фейков». По этой причине платформы социальных сетей, возможно, потребуют расширения средств маркировки и аутентификации распространяемого в них контента. Это может включать требование, чтобы пользователи сетей указывали время и место, где и когда был создан или отредактирован их контент.

В результате распространение «глубоких фейков» может наложить чрезмерное бремя на социальные медиа-платформы или приведет к неконституционным ограничениям свободы слова и художественного самовыражения. Некоторые эксперты утверждают, что одного реагирования только с помощью технических средств будет недостаточно и вместо этого следует сосредоточить внимание на необходимости информирования общественности на счет «глубоких фейков». Однако здесь круг замкнется. Ведь подобная мера приведет к подрыву общественного доверия к любой информации вообще.

В США появилась информация о развитии DARPA средств обороны против «глубоких фейков» — программах SemaFor и MediFor. Однако очевидно, что программы эти создаются с использованием ИИ через соревновательный процесс со средствами нападения — генераторами «глубоких фейков». Очевидно, что подобная часть программы остается засекреченной.

Итак, добро пожаловать в настоящий мир постправды.

Постоянный адрес новости: eadaily.com:8080/ru/news/2020/09/18/generatory-glubokih-feykov-ponyatie-podlinnosti-i-pravdy-mozhet-ischeznut
Опубликовано 18 сентября 2020 в 08:27
Добавьте EAD в свои источники:Яндекс-Новости Google News
Все новости

27.10.2020

Загрузить ещё
Опрос
Кто виноват в новой карабахской войне?
Результаты опросов
Актуальные сюжеты
ТОП-10
  • Сутки
  • Неделя
  • Месяц
  1. Затулин: Алиев, решивший «идти до конца» в Карабахе, вошёл во вкус 52239
  2. Путин укрепил свой авторитет в Азербайджане — взгляд из Баку 34352
  3. В Египте акула откусила руку 12-летнему мальчику с Украины 21956
  4. ВВС Украины: Главный летный вуз развален при начальнике-зенитчике 15725
  5. Эксперт предупредил о перекупленности рубля 14055
  6. Впереди война: предсказания афонского старца Паисия Святогорца сбываются? 12176
  7. Тридцать дней боёв, которые потрясли мир: Карабах между войной и перемирием 10561
  8. Русофоб-гроссмейстер: почему Ровшан Аскеров не воюет в Карабахе? 9690
  9. Россия ответила Турции в Сирии на отправку исламистов в Азербайджан 9653
  10. Протурецкий боевик рассказал о «командировке» в Карабах — видео 8741
  1. Русофоб-гроссмейстер: почему Ровшан Аскеров не воюет в Карабахе? 195152
  2. Азербайджан бросил в бой на карабахском фронте чешские «Даны» 170619
  3. «Пожалуйста, пусть Путин нас спасет, пусть нас спасут» — Репортаж из Лачина 165837
  4. Грузия: Вся надежда на Россию, но говорить открыто об этом — измена Родине 158626
  5. Граждан Азербайджана просят не приезжать в Дагестан 148441
  6. Россия может начать операцию в Карабахе, но не с Пашиняном в тылу — мнение 113778
  7. Глава Нагорного Карабаха обратился к Путину с открытым письмом 96304
  8. Bloomberg: В Москве устали — Россия берет курс на конфронтацию с Западом 80906
  9. Родственники Назарбаева вновь вошли в казахстанский список Forbes 75134
  10. Путин укрепил свой авторитет в Азербайджане — взгляд из Баку 71276
  1. Нагорный Карабах: Аэродром ВВС Азербайджана в Гяндже «взлетел на воздух» 565255
  2. Германия не признает Тихановскую лидером Белоруссии 319580
  3. Белорусская оппозиция отказалась от требования отставки Лукашенко 317049
  4. Население Грузии вынуждено постепенно привыкать к голоду — Бесо Барбакадзе 289637
  5. «Мы увидели — кто есть кто»: Ильхам Алиев назвал друзей Азербайджана 283212
  6. У Грузии нет права разговаривать с Россией — Бесо Барбакадзе 268306
  7. Следите за снарядами: Иран сделал предупреждение Армении и Азербайджану 264621
  8. Япония заявила о полном суверенитете над российскими Южными Курилами 235056
  9. Русофоб-гроссмейстер: почему Ровшан Аскеров не воюет в Карабахе? 208158
  10. Бои в Карабахе: Азербайджан бросил в бой новые ударные вертолёты 207194