Дип фейк что это

Дипфейки: как трансформируется авторское право на контент

Дип фейк что это. Смотреть фото Дип фейк что это. Смотреть картинку Дип фейк что это. Картинка про Дип фейк что это. Фото Дип фейк что это

Массовый дипфейк: тренд на синтетический контент

Технологии дипфейков развиваются быстрее, чем технологии их обнаружения и законодательная база для регулирования их создания. ИИ скоро достигнет точки, когда будет практически невозможно отличить аудио и видео людей, говорящих то, что они никогда не говорили.

Дипфейк (из двух английских слов «deep learning — глубокое обучение» и «fake — подделка») — это синтетический контент, в котором человек в существующем фото, аудио или видео заменяется на другого. Дипфейки могут использовать любой формат — ваше фото, видео или ваш голос. Дипфейки наиболее часто используют в рекламе, порнофильмах, порномести, фейковых новостях и для финансового мошенничества.

Дип фейк что это. Смотреть фото Дип фейк что это. Смотреть картинку Дип фейк что это. Картинка про Дип фейк что это. Фото Дип фейк что это

Дип фейк что это. Смотреть фото Дип фейк что это. Смотреть картинку Дип фейк что это. Картинка про Дип фейк что это. Фото Дип фейк что это

Технология дипфейков — это не абсолютное зло, она может революционно изменить, например, киноиндустрию. С помощью нее можно искусственно омолодить или состарить актеров, придать дублерам большее сходство с актерами, синхронизировать движения губ при дубляже перевода или даже доснять фильм с изображением внезапно умершего или переставшего участвовать в съемках актера. Как правило, применение таких технологий юридически невозможно без согласия актеров, чьи изображения будут использованы в конечном материале, либо их наследников, если человек уже умер.

Дип фейк что это. Смотреть фото Дип фейк что это. Смотреть картинку Дип фейк что это. Картинка про Дип фейк что это. Фото Дип фейк что это

«В мире уже много проектов коммерческого использования дипфейков (Synthesia, WPP, Rosebud, Rephrase.ai, Canny AI). Технология дипфейков открывает возможность создавать полностью синтетические личности — изображения и голоса людей, которых никогда не существовало. Использование таких изображений практически полностью снимает зависимость бизнеса от моделей и актеров, в том числе от необходимости «очистки» авторских и смежных прав и подписания различных релизов», — считает Вадим Перевалов, старший юрист международной юридической фирмы Baker McKenzie.

Аудиофейки: есть ли авторское право на голос?

Голосовые дипфейки представляют собой самую большую проблему, потому что на голос человека не распространяется право собственности ни в одной стране мира — если только имя человека не зарегистрировано как коммерческий бренд.

Однако в 2020 году был создан прецедент. YouTube-канал Vocal Synthesis делает юмористические дипфейки с использованием голосов политиков и знаменитостей. Команда канала в юмористической манере разместила несколько сгенерированных записей начитки текстов американской рэп-звезды Jay-Z без коммерческой выгоды, четко обозначив все видео как синтез речи.

Тем не менее, концертная компания RocNation, которая принадлежит Jay-Z, подала иск о нарушении авторских прав. Организация выдвинула требование удалить видео, где, по их мнению, незаконно использован ИИ для имитации голоса музыканта.

Только два из четырех видео Jay-Z были удалены было признано, что полученный в результате звуковой продукт является производной работой, не имеющей ничего общего ни с одной из песен рэпера. В США не каждый случай коммерческого использования чужого голоса является нарушением закона.

«Перспективное направление дипфейков — использование изображений или голосов знаменитостей для производства контента без их участия. Например, в России использование чужой речи для создания «похожего» голоса в явном виде не запрещено законодательством. Имитация голоса, например, телефонными пранкерами, тоже не является нарушением и, скорее, зависит от содержания шутки, которая может попасть под уголовную ответственность. А использование технологий дипфейка в рекламе не должно вводить потребителей в заблуждение — например, о том, что известная личность якобы рекомендует какой-либо товар. Помимо этого, остается дискуссионным вопрос, не нарушит ли создание такого «голосового слепка» авторские и смежные права на фонограммы и актерское исполнение», — поделился мнением Вадим Перевалов.

В марте 2019 года в Великобритании произошел инцидент с аудиофейком — ПО на основе искусственного интеллекта было использовано, чтобы сымитировать голос исполнительного директора британской энергетической компании и дать сотруднику этого предприятия поручение о переводе третьим лицам €220 тыс. Работник подумал, что разговаривает по телефону со своим боссом, и отправил деньги мошенникам. Следователи так и не установили подозреваемых.

Защита авторского права исходников дипфейков

Основная проблема в отношении дипфейков — еще ни в одной стране мира не создано законодательной практики, которая могла бы повлиять как на создателей дипфейков, так и на процедуру по их удалению. Закон об авторском праве может действовать как эффективное средство регулирования дипфейков, но для этого его надо доработать. Вопрос защиты прав умерших (например, киноактеров) в отношении использования их голоса и образа остается также открытым.

Дип фейк что это. Смотреть фото Дип фейк что это. Смотреть картинку Дип фейк что это. Картинка про Дип фейк что это. Фото Дип фейк что это

Вероятно, в российском законодательстве дипфейки стоит рассматривать через призму производного произведения, при котором использование исходного произведения без согласия его правообладателя будет незаконно.

«Исключительное право на результат интеллектуальной деятельности возникает изначально у автора (соавторов), а потом может быть передано автором другому лицу по договору (ст. 1228 ГК РФ). Российское законодательство также предусматривает, что для возникновения, осуществления и защиты авторских прав не требуется регистрации или соблюдения каких-либо формальностей. Это главный подход для современной международной системы охраны авторских прав, предусматривающей также возможность подтверждения авторства с помощью презумпции авторства (статья 15 Бернской конвенции об охране литературных и художественных произведений), » — утверждает Дмитрий Игнатенко, руководитель юридической службы компании Rubytech.

Если рассматривать право авторства на дипфейк как результат интеллектуальной деятельности, созданной программой, то по российскому законодательству автором может быть только гражданин, творческим трудом которого создан этот результат (ст. 1228 ГК РФ). А правообладателем может быть лишь человек или юридическое лицо, обладающие исключительным правом на результат интеллектуальной деятельности или на средство индивидуализации (ст. 1229 ГК РФ). Так что за любой машиной должно стоять физическое или юридическое лицо, в противном случае не будет создан объект авторского права.

Дип фейк что это. Смотреть фото Дип фейк что это. Смотреть картинку Дип фейк что это. Картинка про Дип фейк что это. Фото Дип фейк что это

Технологии совершенствования дипфейков развиваются быстрее, чем законы в этой области. Американские Twitter, Facebook и китайский TikTok попытались самостоятельно отрегулировать распространение дипфейков разными способами

Twitter ввел правила по дипфейкам и манипулированию СМИ, которые в основном предусматривают пометку твитов и предупреждение пользователей об измененных новостях, а не их удаление. По заявлению компании, твиты, содержащие фальсифицированные или недостоверные материалы, будут удаляться только в том случае, если они могут причинить вред. В определение вреда также включены любые угрозы конфиденциальности или праву человека или группы лиц свободно выражать свое мнение. Это означает, что политика распространяется на преследование, навязчивое внимание, подавление или запугивание избирателей, а также на контент, содержащий фразы, предназначенные для того, чтобы заставить кого-то замолчать.

Facebook в начале 2020 года анонсировал политику для удаления дипфейков. Сообщения будут удалены, если они соответствуют таким критериям:

TikTok. Новая политика TikTok запрещает любой синтетический или манипулирующий контент, который вводит пользователей в заблуждение, искажая правду о событиях, и который влечет причинение вреда. Политика не столько запрещает конкретную технологию, основанную на ИИ, сколько призвана в большей степени предупредить использование любого вида обманного видео для очернения политических оппонентов в интернете.

Дип фейк что это. Смотреть фото Дип фейк что это. Смотреть картинку Дип фейк что это. Картинка про Дип фейк что это. Фото Дип фейк что это

Основной проблемой для соцсетей являлось отсутствие технологии обнаружения дипфейков. В 2019 году Facebook вместе с Microsoft и другими партнерами запустили конкурс для решения проблемы обнаружения The Deepfake Detection Challenge. Самой успешной стала модель белорусского разработчика Селима Сефербекова. Она достигла точности 65,18% на тестовых дата-сетах. На третьем месте — модель российской компании NTechLab.

Технологические лидеры — «Яндекс», TikTok, Microsoft, IBM, Kaspersky Lab, Reface, FaceApp, Ntechlab, и др. отказались комментировать РБК тренды дипфейков и авторского права.

Подписывайтесь также на Telegram-канал РБК Тренды и будьте в курсе актуальных тенденций и прогнозов о будущем технологий, эко-номики, образования и инноваций.

Источник

Эффект зловещей долины: как распознать дипфейк и не дать себя обмануть

В понедельник, 6 сентября в сети появилось рекламное видео, на котором миллиардер и основатель Тинькофф Банка Олег Тиньков обещал подарить деньги. «Давайте бегом за бонусом. Мы дарим +50% к вашей сумме вложений. Например, вы инвестируете 20 000 рублей, а на счет для работы получаете 30 000 рублей, а там с нашим экспертом и все 70 000 за месяц можно заработать. » — говорит в видео человек с лицом Тинькова. Обращение оказалось подделкой — его записали мошенники с использованием технологии дипфейк. Представитель Тинькофф сообщил тогда Forbes, что видео — подделка и компания работает над его блокировкой.

В тот же день Forbes обнаружил еще одно видео, на котором рэпер Моргенштерн обещал подарить от 10 000 до 100 000 рублей всем, кто перейдет по ссылке. Пройдя по указанному адресу, пользователь попадает на баннер, на котором написано «Осталось три часа. Забирай свои 100 000 рублей скорее». Причем, отсчет в три часа не меняется — даже если зайти через шесть часов. Если подобный трюк с Тиньковым мошенники проделывают впервые, то с Моргенштерном похожая ситуация произошла в марте этого года. Тогда музыкант якобы предлагал получить денежные выплаты, но у тех, кто решил это сделать, начали пропадать деньги с банковских счетов.

Дипфейк (deepfake) — это технология создания и замены элементов на существующих видео при помощи искусственного интеллекта и нейронных сетей. Дипфейк можно использовать в качестве безобидной шутки, например, поместив свое лицо вместо лица любимого актера из фильма, или же использовать в более корыстных целях. Количество дипфейков растет стремительно. Если в декабре 2019 года исследовательская компания Sensity AI обнаружила около 24 000 подделок, то к концу 2020 года — уже 85 047 фейковых видео, созданных с использованием этой технологии.

В России мошенники пока неактивно используют дипфейки для обмана. Во втором квартале 2021 года они украли с банковских счетов россиян более 3 млрд рублей, совершив свыше 236 000 денежных переводов без согласия клиентов, говорится в отчете Центробанка. Для хищения денег злоумышленники в основном использовали телефонные звонки «служб безопасности» банков или создавали поддельные интернет-ресурсы.

Но популярность этой технологии у киберпреступников будет только расти, поскольку она уже широко доступна и продолжает постоянно совершенствоваться и упрощаться, считает руководитель отдела специальных проектов департамента Digital Risk Protection Group-IB Владимир Калугин. Помимо такого мошенничества, как в случае с дипфейком Тинькова, технология может применяться для получения конфиденциальных сведений с помощью распознавания лица, добавляет он.

Как обезопасить себя от дипфейка?

Легко ли сделать дипфейк

Для создания дипфейк-видео могут использоваться развлекательные приложения, например, RefaceAI (более 100 млн скачиваний в Google Store), или более продвинутые программы с готовыми библиотеками, такие как DeepFaceLab и SimSwap, говорит Калугин. SimSwap, по словам эксперта, требует минимальных технических навыков, обладает невысокими требованиями к мощности системы и распространяется с предобученной моделью, позволяя создавать дипфейк-видео на основании одного лишь фото.

Сегодня, чтобы создать дипфейк, не нужно владеть инструментами редактуры видео на очень высоком уровне, соглашается старший исследователь данных в «Лаборатории Касперского» Владислав Тушканов. С другой стороны, по его мнению, самые известные дипфейки — например, «альтернативное поздравление» от королевы Великобритании или дипфейк с Томом Крузом, играющим в гольф, — были сделаны профессионалами в области видеоэффектов, а в последнем случае — еще и с помощью профессионального актера-двойника.

Как распознать дипфейк

Сейчас существуют автоматизированные системы, которые распознают дипфейк. Одну из таких систем разработали в Университете Буффало, она определяет подделку по ошибочным отражениям в глазах.

В целом, мошеннические видео несложно распознать. Как в случае с «поддельным» Тиньковым: человека в ролике, при внимательном изучении, легко отличить от реального, звучит другой голос, качества видео плохое, и распространяется оно в соцсетях — то есть предназначено для просмотра с небольших экранов мобильных устройств, говорит Тушканов. На это и рассчитывают мошенники: в ленте соцсети пользователя убедит даже просто примерно похожий персонаж и логотип известного банка рядом.

Несмотря на то, что технологии становятся все реалистичнее, они пока не смогли преодолеть так называемый эффект «зловещей долины» (uncanny valley) — явление, при котором малейшая неестественность во внешнем виде и поведении робота или объекта, выглядящего и действующего как человек, вызывает у наблюдателя тревогу и неприязнь, говорит Калугин. Он советует обратить внимание на пять основных моментов:

Но самое эффективное действие — обращать внимание на то, кто, где и как распространяет видео, не нужно доверять видео с непроверенных и сомнительных сайтов или видео, опубликованных третьими лицами без подтверждения в официальных источниках, советует Калугин.

Плохая новость в том, что между исследователями, которые создают алгоритмы генерации дипфейков, и теми, кто исследует способы их обнаружения, идет своего рода гонка: когда обнаруживается несовершенство дипфейка, на его основе создают способ обнаружения, но следующее поколение алгоритмов для генерации уже учится обходить этот способ, говорит Тушканов.

Как избежать обмана

Основной способ борьбы со злоумышленниками, использующими дипфейки для зловредных целей — это повышение осведомленности пользователей о подобном явлении и базовых правилах кибербезопасности, говорит Тушканов.

Нужно критически относиться к крайне щедрым предложениям, только мошенники обещают много денег просто так, продолжает он. Не нужно верить предложениями, где известная личность предлагает поучаствовать в беспроигрышной лотерее или совершить какое-либо сомнительное действие в интернете. Нужно проверять данные на официальном сайте компании или организации, от имени которой предлагается выплата, прежде чем предпринимать какие-то действия.

Легко ли найти мошенников, которые делают дипфейки

Дипфейк-видео могут стать дополнительной зацепкой при проведении расследования, например, если в качестве базы используется фотография, доступ к которой имело ограниченное количество людей, или, если было использовано специально отснятое видео, то можно предположить где и когда оно снималось видео, на какую аппаратуру и кто участвовал, говорит Калугин.

Основная проблема в том, что интернет — это сеть, не имеющая границ, и более длительный период времени занимает не сам процесс установления и поиска «создателя», а организация процесса фактического взаимодействия с ним правоохранителей, считает адвокат дистанционного юридического сервиса «Амулекс.ру» Любовь Шебанова.

Руководитель юридической практики компании «Интерцессия» Кирилл Стус считает, что найти создателей дипфейка простому пользователю практически невозможно, так как мало кто знает и может отследить цифровой след создателя файла.

Что делать, если вы стали жертвой мошенников

Пользователь может подать заявление о блокировке информационного ресурса и обратиться с иском к регистратору доменного имени, на котором распространяется дипфейк, либо подать заявку на блокировку интернет-ресурса в Роскомнадзор, сказал Стус.

Создателей дипфейков можно привлечь к ответственности, если будет доказано создание и использование дипфейков для, например, вымогательства или мошенничества, говорит Шебанова. Для таких случаев подходит, к примеру, статья 159 УК РФ (мошенничество) или же статья 152 ГК РФ, позволяющая человеку, чье изображение было использовано в дипфейке, обратиться с иском о защите чести достоинства и деловой репутации, говорит Стус. Правда, сложившейся судебной практики по дипфейкам ни в России, ни в других странах, не существует, громкие случаи из СМИ нельзя назвать массовыми, а решения по ним единообразными, добавила Шебанова.

Источник

Дипфейки: кому и зачем они нужны

Дипфейк (deepfake) – производная от «глубокого обучения» и «подделки»; штука, про которую сегодня большинство говорит с опаской. Само название как бы кричит: «Я зло!». А наша гипотеза в том, что это технология с огромнейшим позитивным потенциалом, которая пока используется в основном как игрушка в руках неразумного человека. Что это и как на самом деле? Давайте разбираться.

Дипфейки используют технологии искусственного интеллекта для синтеза изображений, в результате чего один персонаж как бы накладывается на другого и получается «комбо»: оживает Мона Лиза или Терминатором становится Бред Питт.

Эта технология позволяет легко манипулировать аудио- и видеоконтентом, а по мере того, как она развивается, разобраться, где правда, а где фейк – становится всё сложнее. Так в прогремевшем на весь интернет видео Барак Обама критикует Дональда Трампа, называя его «полным провалом». В США считается, что дипфейки представляют угрозу национальной безопасности. В Калифорнии некоторые виды дипфейков даже запретили законодательно.

Чаще всего дипфейки создаются с помощью генеративно-состязательной сети (GAN), в ней 2 системы: генератор и дискриминатор. Они работают как пара студентов в университетской микрогруппе: один предлагает идеи, другой их критикует. Генератор создаёт изображения, а обученный на реальных фотографиях дискриминатор подсказывает, что нужно исправить.

Заметим, что технология постоянно развивается. Так, например, алгоритм BigGAN от Google и NVIDIA позволяет не просто воссоздавать, а создавать лица несуществующих людей, которые невозможно отличить от настоящих.

Недавно разработчики из Samsung и Сколково представили алгоритм на основе BigGAN, который позволил «оживить» Мону Лизу, то есть для (относительно) хорошего результата нейросети достаточно одного кадра. Нейросеть работает лучше всего, если дать ей несколько изображений человека, снятых под разными углами.

Сейчас на рынке десятки приложений, с помощью которых любой может сделать дипфейк, самые известные – Zao, DeepFaceLab, Deepfakes web β.

Конкурентные преимущества приложений похожи на классический треугольник «цена-качество-скорость»:

– Скорость. Одни выполняют конверсию за секунды, другим нужны часы.

– Необходимое количество исходного материала. Некоторым достаточно одной фотографии.

– Точность итогового результата. Обычно чем больше исходного материала и дольше идёт процесс анализа, тем точнее получается результат.

Год назад NVIDIA представила нейросеть, которая может превращать скетчи в реальные изображения. Технологию назвали GauGAN в честь Поля Гогена. Такую штуку можно использовать в архитектуре, дизайне, создании игр, да где угодно.

Технологию, которая лежит в основе дипфейков, можно использовать и в киноиндустрии, рекламе или при реконструкции исторических событий. Например, с её помощью была сделана социальная реклама, в которой Дэвит Бэкхем рассказывает об опасности малярии на 9и языках.

Музей Сальвадора Дали во Флориде «оживил» художника с помощью всё той же технологии. В результате зрители могли пообщаться с Дали, послушать его истории и даже получить совместное селфи. Для этого потребовалось 6000 фотографий Дали, 1000 часов машинного обучения и 145 видео с актером похожих пропорций, а ещё горы интервью и писем художника, чтобы воспроизвести голос, акцент и манеру речи.

Кстати, алгоритм GAN предлагается использовать и в астрофизике для того, чтобы избавляться от помех и шумов при съёмке космических объектов и получать качественные изображения.

Если вы тоже считаете, что человеческий интеллект создан для творчества, а машинный – для работы, присоединяйтесь к нам на YouTube или в Facebook!

Источник

Дипфейки: что это за технология и почему она опасна

Дип фейк что это. Смотреть фото Дип фейк что это. Смотреть картинку Дип фейк что это. Картинка про Дип фейк что это. Фото Дип фейк что это

Слово deepfake появилось несколько лет назад. Оно объединяет в себе два понятия: глубокое обучение (deep learning), то есть обучение нейросетей, и подделку (fake). Технология дипфейков заключается в синтезе ИИ человеческих изображений: алгоритм объединяет несколько фото, на которых человек изображен с разным выражением лица, и делает из них видео. При этом ИИ анализирует большое количество снимков и учится тому, как может выглядеть и двигаться конкретный человек. Об этом пишет американское издание Forbes.

С распространением дипфейков появились случаи «дискредитации» публичных личностей, чьих изображений много в открытом доступе. Например, весной 2019 года в Сети было опубликовано дипфейк-видео со спикером палаты представителей конгресса США Нэнси Пелоси. Автор ролика с помощью ИИ изменил речь Пелоси так, что она плохо выговаривала слова, и пользователи, посмотревшие видео, посчитали, что политик пьяна. Ситуация вылилась в громкий скандал, и лишь спустя некоторое время было доказано, что речь Пелоси была сгенерирована ИИ.

Этот дипфейк был сделан достаточно просто. Но есть и сложные алгоритмы. Они не просто меняют тембр голоса или замедляют речь, а генерируют такие видео, на которых человек делает то, чего никогда не совершал, или говорит то, чего никогда не говорил. Со временем дипфейки будут становиться все более реалистичными, пишет американское издание Forbes. Уже сейчас технология претендует на то, чтобы влиять на политику, а в дальнейшем такие видео и вовсе смогут стать угрозой национальной безопасности.

Источник

Deepfake: краткая история появления и нюансы работы технологии

Немного истории

Технологии синтезирования видео и аудио нельзя назвать новыми. Они разрабатываются с конца 90-х годов XX века. Конечно, разные попытки делались и до этого, но мы говорим о тех технологиях, которые получили продолжение. Так, в 1997 году компания Video Rewrite представила технологию, которая позволяла сформировать видео, где артикуляция лица совпадала с синтезированной аудиодорожкой. Т.е. моделировалась артикуляционная мимика лица, которая полностью соответствовала синтезированной компьютером аудиодорожкой.

Но это были лишь первые попытки, которые активно развивались в течение двух десятков лет. Сейчас нам доступны технологии обработки голоса, объединения компьютерной графики с реальными видео и многое другое. Не везде применяется ИИ, но все же самые реалистичные системы сформированы на базе машинного обучения.

Появление «настоящих» дипфейков

Технология Deepfake упрощает процесс синтезирования изображения и создания звуковых дорожек с заданными параметрами за счет использования нейронных сетей. Они обучаются на сотнях или даже тысячах примеров лиц и голосов, с ними связанными. После этого ИИ показывает весьма впечатляющие результаты.

Нет сомнения, что с течением времени будут появляться все более реалистичные дипфейки. Уже сейчас они никого не удивляют, а в ближайшем будущем и вовсе станут привычным делом. Но кто отвечает за развитие технологий, где они используются, как работают и чего нам ожидать в будущем?

Современные игроки

Дип фейк что это. Смотреть фото Дип фейк что это. Смотреть картинку Дип фейк что это. Картинка про Дип фейк что это. Фото Дип фейк что это

Большинство крупнейших технологических игроков и развлекательных компаний активно исследуют отрасль «синтетических медиа». Amazon стремится сделать голос Алексы более реалистичным, Disney изучает, как использовать технологию смены лица в фильмах, а производители оборудования, такие как Nvidia, расширяют границы синтетических аватаров, а также услуг для кинопроизводства и телевидения.

Но есть и организации, которые создают технологии, позволяющие отличить подделку от реальности. В их число входят, например, Microsoft и DARPA.

К слову, у большинства ПО по созданию дипфейков открытый исходный код, что дает возможность работать с дипфейками даже небольшим компаниям. Проектов достаточно много. Это, например, Wombo, Аvatarify, FaceApp, Reface, MyHeritage и многие другие.

Дип фейк что это. Смотреть фото Дип фейк что это. Смотреть картинку Дип фейк что это. Картинка про Дип фейк что это. Фото Дип фейк что это

Как создаются дипфейки

Дип фейк что это. Смотреть фото Дип фейк что это. Смотреть картинку Дип фейк что это. Картинка про Дип фейк что это. Фото Дип фейк что это

Классическая компьютерная обработка изображений использует сложные алгоритмы, созданные при помощи традиционного программного обеспечения. Эти алгоритмы чрезвычайно сложны. Как говорилось выше, совсем недавно дипфейки представляли собой контролируемую модель, которой управляют разработчики. Подавляющее большинство элементом артикуляционной мимики жестко прописывалось в алгоритмах.

Правда, для того, чтобы создать убедительный дипфейк, требуются большие объемы видео, статические изображения, голосовые записи, а иногда даже сканирование головы реального актера с последующим анализом в качестве обучающих вводных данных. Например, клиенты Synthesia в течение примерно 40 минут снимают на видео, как они зачитывают заранее подготовленную речь, чтобы потом этот контент использовался для обучения нейронными сетями.

Несмотря на весьма впечатляющие результаты, дипфейки, создаваемые ИИ, не являются идеальными. У дипфейков есть ряд хорошо заметных (не для человека, для специализированного ПО) признаков, которые пока еще позволяют отличить реальность от вымысла. Это, например, нюансы освещения и теней, мигание, артикуляция, выражение и тон голоса. Для создания убедительного дипфейка все это нужно правильно комбинировать.

Изображения и видео

Дип фейк что это. Смотреть фото Дип фейк что это. Смотреть картинку Дип фейк что это. Картинка про Дип фейк что это. Фото Дип фейк что это

Достаточно часть в этом направлении используется Variational Autoencoder – VAE. Это генеративная модель, которая находит применение во многих областях исследований: от генерации новых человеческих лиц до создания полностью искусственной музыки. Что касается видео, то VAE позволяет достаточно быстро перенести особенности мимики и артикуляции определенного человека на сформированную объемную модель. VAE используется достаточно давно, но дипфейк, созданный при помощи этой технологии, несложно выявить.

А вот с 2017 года развиваются генеративные состязательные сети (GAN). Здесь в единое целое объединены, по сути, две нейронные сети. Одна, «дискриминатор», определяет реалистичность модели, созданной другой нейросетью. На выходе получается модель, которая была «одобрена» и является наиболее реалистичной.

Дип фейк что это. Смотреть фото Дип фейк что это. Смотреть картинку Дип фейк что это. Картинка про Дип фейк что это. Фото Дип фейк что это

Что дальше?

Дип фейк что это. Смотреть фото Дип фейк что это. Смотреть картинку Дип фейк что это. Картинка про Дип фейк что это. Фото Дип фейк что это

Дипфейки также поднимают множество вопросов о том, кому какой контент принадлежит, что делать с лицензиями и как наказывать нарушителей. Так, уже сейчас актеры заключают контракты с компаниями, разрешая использовать их образ и голос в рекламе или фильмах. Но, вероятно, некоторые компании будут использовать дипфейки знаменитостей в своих целях без всяких разрешений.

Источник

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *