Подписаться на новости
brand brand
logo logo
Сообщество робототехников

«Цифровое изнасилование»: как с помощью ИИ создают фейковое порно и чем опасна технология

Цифровое-изнасилование-как-с-помощью-ИИ-создают-фейковое-порно-и-чем-опасна-технология
Четверг, 22 Февраля 2018, в 14:27
Искусственный интеллект

Помните, как в конце 2017 года СМИ облетела новость о пользователе Reddit под ником deepfakes, который с помощью ИИ-системы подставлял порноактрисам лица знаменитостей? Он создал убедительные порноролики с Галь Гадот, Мейзи Уильямс, Скарлетт Йоханссон, Тейлор Свифт. Больше двух месяцев Reddit активно наполнялся контентом для взрослых, но теперь его распространение резко решили остановить – ресурсы начали удалять фейковые видео с селебрити.

 

Порно 3.0

Пользователь deepfakes в интервью для СМИ сообщил, что он обычный разработчик, которого интересует машинное обучение. По его словам, генерировать такие ролики может каждый, главное – понимать азы работы нейросетей. Чтобы создать «короткометражку», понадобятся две открытые программные библиотеки для машинного обучения – TensorFlow и Keras.

Для обучения нейросети «порнорежиссер» использовал один фейковый ролик с Гадот. В дальнейшим видео генерировались по готовому шаблону.

Программист построил свой искусственный интеллект на основе алгоритма, похожего на разработку нейросети NVIDIA, которая может изменять времена года – например, зиму на лето. Изначально ИИ практикуется на картинках в поисковиках, в частности Google, и на роликах в YouTube. Алгоритм пробует сопоставлять отрывки подлинных картинок с видеозаписью с целью сгенерировать наиболее правдоподобное видео.

 

Цифровое-изнасилование-как-с-помощью-ИИ-создают-фейковое-порно-и-чем-опасна-технология1

Принцип работы нейросети NVIDIA

 

«Я беру сотни фото и генерирую из них миллионы искаженных изображений, чтобы тренировать сеть. Когда она готова и знает, какое лицо мне нужно слепить, достаточно «скормить» ей чье-то другое лицо. Сеть думает, что это еще одно искаженное изображение, и пытается сделать его похожим на то лицо, с которым она тренировалась», – рассказал deepfakes о процессе обучения своей нейросети.

Эти ролики пользовались популярностью – всего за месяц на блог подписались свыше 90 тысяч человек. Вследствие такого наплывала пользователей модераторам ресурса пришлось разработать ряд специальных правил. Например, администрация сайта запретила выкладывать ролики с лицами несовершеннолетних знаменитостей или с неизвестными людьми.

Но всеобщее увлечение подставным порно со знаменитостями началось после того, как другой пользователь, под ником deepfakeapp, разработал приложение FakeApp, чтобы каждый мог сделать подобные ролики без каких-либо знаний.

Сразу же сотни пользователей начали экспериментировать над своими «короткометражками». В итоге в порно успели «засветиться» такие знаменитости, как Дженнифер Лоуренс, Эванджелин Лилли, Кэти Пэрри, Дейзи Ридли, Блейк Лайвли, Софи Тернер, Кристен Белл, Кара Делевинь, Эмма Уотсон, Натали Портман, Кейт Бекинсейл и Джессика Альба.

 

Цифровое-изнасилование-как-с-помощью-ИИ-создают-фейковое-порно-и-чем-опасна-технология2

 

С чего все начиналось

Впервые технологию «помещения» человека внутрь видеоролика применили в нашумевшем фильме «Форрест Гамп» в 1994 году. Тогда главного героя картины «внедрили» в ряд популярных кадров из кинохроники США. Однако эффект сложно было назвать реалистичным. Зритель невооруженным глазом замечал, что персонаж Тома Хэнкса выделяется из фона. Лучшим специалистам Фабрики грез не удалось неприметно вставить Хэнкса в готовую картину.

Только три года назад технология вышла на новый уровень – вследствие разработки AI и алгоритмов ML. В 2015-м Facebook представил алгоритм DeepFace, который может распознать лицо с точностью 97,25%. Данный показатель почти сопоставим со способностями человека – 97,53%.

 

Цифровое-изнасилование-как-с-помощью-ИИ-создают-фейковое-порно-и-чем-опасна-технология3

Принцип работы алгоритма DeepFace

 

Годом позже технологией заинтересовались сами пользователи. В Snapchat колоссальным спросом пользовался фильтр Face Swap, который может менять лица местами. Каждый день появлялось несколько сотен миллионов роликов с его применением.

В 2016 году экспериментировали с человеческими лицами и разработчики из Стэндфордского университета. Они представили технологию Face2Face, которая с помощью веб-камеры в режиме реального времени способна изменить эмоции человека в ролике – можно наложить свою мимику и манеру разговора.

Принцип технологии основывается на создании виртуальной «маски». Программа рендерит мимику, которая «пересаживается» герою видео. В результате понять, что ролик фейковый, достаточно трудно. Как пример разработчики представили ряд видео, в которых заставили кривляться известных мировых политиков – Джорджа Буша-младшего, Дональда Трампа и Барака Обаму.

 

 

Удали!

Появление простого инструмента для замены лиц считается серьезной проблемой. Нарушаются не только этические и моральные нормы, но и законодательство о защите персональных данных.

По мнению профессора прикладной этики Университета Виргинии Дебора Джонсона, в дальнейшем отличить поддельные ролики от оригинальных будет невозможно. «Весь бизнес правды и доверия будет дестабилизирован из-за этой технологии», – считает специалист.

Юрист Саймон Майлз приравнял появление подобных видео к незаконному вторжению в частную жизнь. Он полагает, что пользователей, которые создают поддельные порноролики со знаменитостями, можно привлечь к уголовной ответственности за незаконную обработку персональной информации.

Вероятно, в дальнейшем понадобится специальное законодательство, которое будет защищать не только неприкосновенность физического тела человека, но и цифровую личность.

Пока вопрос не вышел за просторы Интернета, известные сайты начали самостоятельно принимать меры и блокировать фейковое порно.

Первым очистить ресурс от «голливудской» эротики решил крупный хостинг гифок Gfycat. Администрация сайта удалила все поддельные видео со знаменитостями и назвала такой контент неприемлемым.

Позже объявил бойкот подобным роликам и известный сайт Pornhub. Представители ресурса отметили, что квалифицируют это как форму порно без согласия участника. Сайт такого рода контент всегда блокировал. Однако на практике запрет оказался недееспособным. Каждый день на ресурс заливаются десятки подобных «короткометражек», а отслеживать их появление в ручном режиме достаточно сложно.

 

Цифровое-изнасилование-как-с-помощью-ИИ-создают-фейковое-порно-и-чем-опасна-технология4

 

Нейросеть идентифицирует фейк

Разработчики из Gfycat предложили свой метод борьбы с фейковыми роликами. В компании против искусственного интеллекта решили применить искусственный интеллект. Инициатива AI Gfycat будет использовать уже два имеющихся алгоритма – системы Angora и Maru. Когда пользователь загрузит низкокачественное видео, Angora найдет для замены альтернативную версию с более высоким расширением. Если в ролике не будет указано имя героя, то он будет идентифицирован с помощью Maru.

Человеку сложно увидеть неточности в наложении лиц в фейковых клипах. Нейросеть Maru превосходит человека в плане функциональных возможностей, благодаря чему алгоритм способен более точно распознать подделку. Когда разработчики Gfycat запустили ролик deepfakes, ИИ обнаружил, что лицо героя не в каждом кадре идеально «подрисовано».

Также в Gfycat разработали технологию маскировки, которая работает аналогично с системой Angora. Если Gfycat заподозрит, что лицо на видео было изменено, то нейросеть «замаскирует» голову жертвы и будет искать исходник.

В компании планируют использовать технологию маскировки не только для блокировки лиц, но и для распознавания различного поддельного контента. К примеру, научных или метеорологических материалов.

 

 

Несмотря на то, что Gfycat предлагает потенциальное решение проблемы с подставными роликами, оно не всегда будет работать. Например, если на видео «подрисовали» неизвестного человека, с которым нет кадров в Интернете. Тогда ни Angora, ни Maru ни смогут определить подлинность ролика.

Чем это чревато? Технология с подменной лиц может быть опасным инструментом. Она имеет большой потенциал не только в сфере развлечений, но и может использоваться в криминальной среде или стать оружием в информационных войнах.

Дарина Шварцман

рейтинг

1293

просмотров

0

комментариев

порекомендовать друзьям

комментарии

Нет комментариев

Гость

Дорогие друзья! Помните, что администрация сайта будет удалять:

  • Комментарии с грубой и ненормативной лексикой
  • Прямые или косвенные оскорбления героя поста или читателей
  • Короткие оценочные комментарии ("ужасно", "класс", "отстой")
  • Комментарии, разжигающие национальную и социальную рознь
brand brand