Меню
  • USD 79.45 +0.59
  • EUR 92.53 +0.47
  • BRENT 37.80 -0.93%

Генераторы «глубоких фейков»: Понятие подлинности и правды может исчезнуть

Иллюстрация: e-news.su

В США специалисты в сфере информационной безопасности ввели понятие «глубокий фейк» (deep fake). Термин «глубокий фейк» впервые появился в 2017 году для обозначения реалистичных фото, аудио, видео и других подделок, созданных с использованием технологии искусственного интеллекта (ИИ). Применение «глубоких фейков» может стать вызовом национальной безопасности в современном мире и вообще подорвать доверие к любой информации.

Между тем технологии ИИ для создания «глубоких фейков» продолжают развиваться. В их создании задействован метод «машинного обучения». В «генерирующей состязательной сети» две системы «машинного обучения» обучаются на соревновании друг с другом. Первая сеть или генератор занимается созданием поддельных данных, таких как фотографии, аудиозаписи или видеозаписи, которые воспроизводят свойства исходного набора данных. Вторая сеть, или дискриминатор, занимается выявлением подделки данных. По результатам каждой сессии генератор сети настраивается для создания все более реалистичных данных. В сети продолжается машинное соревнование часто тысячи или миллионы сессий, пока генератор не улучшит характеристики данных до такой степени, что дискриминатор больше уже не сможет различать настоящие и поддельные данные.

Как можно использовать «глубокие фейки»? Манипуляции в СМИ явление не новое, но применение технологии ИИ для создания «глубоких фейков» выводит ее на совершенно новый уровень. В результате применения ИИ «глубокие фейки» становятся все более реалистичными. Они быстро создаются и становятся все дешевле и дешевле. Скоро их можно будет создавать с помощью свободно распространяемого программного обеспечения и через возможности сдавать в аренду вычислительные мощности посредством цифровых облаков. Даже неквалифицированные операторы смогут скачать программные средства и, используя общедоступные данные, создавать все более и более убедительный поддельный контент.

Технология «глубоких фейков» уже была использована для развлекательных целей. Например, пользователи социальных сетей «вставляли» сгенерированный образ известного актера Николаса Кейджа в фильмы, в которых он не снимался. Была, например, создана интерактивная выставка, которая включала образы картин художника Сальвадора Дали, которые он никогда не писал.

Технологии «глубоких фейков» были задействованы в медицинских целях. Сгенерированные поддельные медицинские изображения использовались для создания самообучающегося алгоритма обнаружения редких заболеваний.

Разумеется, «глубокие фейки» могут быть задействованы в информационной войне, когда, например, на фальсифицированных видеороликах предстанут государственные должностные лица или другие публичные деятели, дающие ущербные комментарии или ведущие себя неподобающим образом. Фальшивки, сгенерированные посредством технологии ИИ, смогут подрывать общественное доверие, негативно влиять на общественный дискурс или даже решать исход голосования.

«Глубокие фейки» могут быть использованы для шантажа должностных лиц или лиц, имеющих доступ к секретной информации. Они могут быть задействованы для создания подстрекательского контента, когда, например, фальшивые видео будут демонстрировать несовершенные военные преступления, несовершенные террористические акты, а также сюжеты, создающие повод для радикализации населения, вербовки террористов или подстрекательства к мятежу и насилию.

Кроме того, «глубокие фейки» создадут ситуацию, когда подлинный контент станут отрицать, утверждая, что все это подделка и «глубокий фейк». С распространением технологий «глубоких фейков» понятие подлинности и правды может исчезнуть вообще.

«Глубокие фейки» требуют специализированных средств их обнаружения. Однако изощренная технология быстро прогрессирует к точке, когда «глубокие фейки» будет очень трудно или совсем невозможно обнаружить. В настоящее время в США Агентство перспективных исследовательских проектов (DARPA) имеет две программы, предназначенные для обнаружения «глубоких фейков», — Media Forensics (MediFor) и Semantic Forensics (SemaFor). Известно, что MediFor развивает алгоритмы автоматической оценки подлинности фотографий. В программе исследуются методы идентификации аудиовизуальных несоответствий в «глубоких фейках», в том числе несоответствие цифровой целостности, несоответствие законам физики и несоответствие семантической целостности, т. е. сравнение с другими источниками информации.

В 2019 году программа MediFor получила $ 17,5 млн финансирования, а в 2020 году — $ 5,3 млн. После завершения создания программы в 2021 финансовом году ожидается «прием ее на вооружение» специальными операционными командами и разведывательным сообществом США.

Аналогичным образом программа SemaFor разрабатывает алгоритмы, которые автоматически будут обнаруживать, атрибутировать и характеризовать как доброкачественные, так и вредоносные контенты, т. е. выявлять «глубокие фейки». Эта программа определяет семантические несоответствия, необычные черты лица или фон для определения «глубоких фейков». На 2020 год программа SemaFor получила $ 9,7 млн, и планируется получить $ 17,6 млн в 2021 финансовом году.

SemaFor и MediFor рассматриваются как средства улучшения защиты против информационных операций вероятного противника.

Вместе с тем эксперты по информационной безопасности полагают, что информационная война уйдет в сферу соревнования с самообучением алгоритмов защиты и алгоритмов нападения с созданием «глубоких фейков». Генераторы «глубоких фейков» будут быстро обновляться для устранения недостатков, позволяющих идентифицировать их средствами обнаружения.

Технологии защиты против «глубоких фейков» планируется задействовать в социальных сетях. Встает вопрос об ответственности участников социальных сетей за распространение «глубоких фейков». По этой причине платформы социальных сетей, возможно, потребуют расширения средств маркировки и аутентификации распространяемого в них контента. Это может включать требование, чтобы пользователи сетей указывали время и место, где и когда был создан или отредактирован их контент.

В результате распространение «глубоких фейков» может наложить чрезмерное бремя на социальные медиа-платформы или приведет к неконституционным ограничениям свободы слова и художественного самовыражения. Некоторые эксперты утверждают, что одного реагирования только с помощью технических средств будет недостаточно и вместо этого следует сосредоточить внимание на необходимости информирования общественности на счет «глубоких фейков». Однако здесь круг замкнется. Ведь подобная мера приведет к подрыву общественного доверия к любой информации вообще.

В США появилась информация о развитии DARPA средств обороны против «глубоких фейков» — программах SemaFor и MediFor. Однако очевидно, что программы эти создаются с использованием ИИ через соревновательный процесс со средствами нападения — генераторами «глубоких фейков». Очевидно, что подобная часть программы остается засекреченной.

Итак, добро пожаловать в настоящий мир постправды.

Постоянный адрес новости: eadaily.com/ru/news/2020/09/18/generatory-glubokih-feykov-ponyatie-podlinnosti-i-pravdy-mozhet-ischeznut
Опубликовано 18 сентября 2020 в 08:27
Добавьте EAD в свои источники:Яндекс-Новости Google News
Все новости
Загрузить ещё
Актуальные сюжеты
Facebook
ТОП-10
  • Сутки
  • Неделя
  • Месяц
  1. Основные различия симптомов Covid-19 от ОРВИ и гриппа — памятка 282153
  2. «Вторжение» в зону России: военный корабль Норвегии следует Севморпутем 56987
  3. Президент Нагорного Карабаха заявил об угрозе захвата НКР Азербайджаном 23556
  4. Пашинян прокомментировал присутствие российских военных на границе Карабаха 17654
  5. Армия Нагорного Карабаха ударила по колонне сирийских наемников 12478
  6. Минобороны Армении: Азербайджанские подразделения отброшены от Шуши 9718
  7. Путин высказался о выборах в Белоруссии и Союзном государстве 7520
  8. На Украине умирают победившие на выборах мэры 7292
  9. Впереди война: предсказания афонского старца Паисия Святогорца сбываются? 6661
  10. В карабахской войне виноваты Пашинян и Турция — опрос EADaily 6536
  1. «Вторжение» в зону России: военный корабль Норвегии следует Севморпутем 379333
  2. Основные различия симптомов Covid-19 от ОРВИ и гриппа — памятка 293174
  3. Грузия: Вся надежда на Россию, но говорить открыто об этом — измена Родине 157835
  4. Россия может начать операцию в Карабахе, но не с Пашиняном в тылу — мнение 118146
  5. В Египте акула откусила руку 12-летнему мальчику с Украины 99545
  6. «Пожалуйста, пусть Путин нас спасет, пусть нас спасут» — Репортаж из Лачина 86243
  7. Глава Нагорного Карабаха обратился к Путину с открытым письмом 84000
  8. «Утеряна связь с Москвой» — почему Армения уступает Азербайджану 79988
  9. Затулин: Алиев, решивший «идти до конца» в Карабахе, вошёл во вкус 79635
  10. Путин укрепил свой авторитет в Азербайджане — взгляд из Баку 78046
  1. Нагорный Карабах: Аэродром ВВС Азербайджана в Гяндже «взлетел на воздух» 565262
  2. «Вторжение» в зону России: военный корабль Норвегии следует Севморпутем 379333
  3. Белорусская оппозиция отказалась от требования отставки Лукашенко 324206
  4. Германия не признает Тихановскую лидером Белоруссии 319589
  5. Основные различия симптомов Covid-19 от ОРВИ и гриппа — памятка 293174
  6. Население Грузии вынуждено постепенно привыкать к голоду — Бесо Барбакадзе 290291
  7. У Грузии нет права разговаривать с Россией — Бесо Барбакадзе 226619
  8. Русофоб-гроссмейстер: почему Ровшан Аскеров не воюет в Карабахе? 220330
  9. Япония заявила о полном суверенитете над российскими Южными Курилами 210113
  10. Бои в Карабахе: Азербайджан бросил в бой новые ударные вертолёты 207379