Дипфейк Синтетические медиа, созданные искусственным интеллектом

0
Аккаунт TikTok с дипфейком Киану Ривза

Мошенничество с дипфейками пришло: фейковые видео распространяются в TikTok и Youtube

Дипфейк синтетические медиа, включая изображения, видео и аудио, созданные с помощью технологии искусственного интеллекта (ИИ) которые изображают нечто, чего не существует в реальности, или события, которые никогда не происходили.

Термин «дипфейк» объединяет в себе «глубокий» взятый из технологии глубокого обучения искусственного интеллекта (тип машинного обучения включающий несколько уровней обработки), и фейковый» указывающий на то, что контент не является реальным. Этот термин стал использоваться для синтетических медиа в 2017 году, когда модератор Reddit создал субреддит под названием «deepfakes» и начал публиковать видеоролики, в которых использовалась технология подмены лиц для вставки изображений знаменитостей в существующие порнографические видеоролики.

Помимо порнографии, примеры дипфейков, получивших широкое распространение, включают изображение Папы Франциска в пуховике, изображение бывшего президента США Дональда Трампа в драке с полицией, видео генерального директора Марка Цукерберга произносящего речь о своей гнусная власть компании а также видео, на котором королева Елизавета танцует и произносит речь о силе технологий. Ни одно из этих событий не произошло в реальной жизни.

Дипфейки создаются с использованием двух разных алгоритмов глубокого обучения искусственного интеллекта: один создает наилучшую возможную копию реального изображения или видео, а другой определяет, является ли реплика поддельной, и, если это так, сообщает о различиях между ней и оригиналом. Первый алгоритм создает синтетическое изображение и получает обратную связь от второго алгоритма, а затем корректирует его, чтобы оно выглядело более реальным; процесс повторяется столько раз, сколько потребуется, пока второй алгоритм не обнаружит ложных изображений.

В дипфейковых видеороликах голос конкретного человека может быть воспроизведен путем подачи в модель искусственного интеллекта реальных аудиоданных от человека, тем самым обучая его имитировать его. Часто дипфейковые видеоролики создаются путем наложения существующих кадров, где человек говорит, на новый звук, сгенерированный искусственным интеллектом, имитирующий голос этого человека.

Дипфейки чаще всего связаны с гнусными мотивами, включая создание дезинформации и путаницу в политически важных вопросах. Их использовали для унижения, запугивания и преследования и они преследовали не только знаменитостей, политиков и руководителей, но и обычных граждан.

Однако появились и некоторые положительные применения дипфейков. Одним из них является распространение информации о социальных проблемах. Например, футболист Дэвид Бекхэм участвовал в кампании по повышению осведомленности о малярии в ходе которой были сняты видеоролики, на которых видно, как он говорит на девяти разных языках, что расширяет охват сообщения. Мир искусства также нашел положительное применение технологии дипфейков. На выставке под названием «Дали жив» в Музее Дали штат Флорида, была представлена ​​видеодемонстрация художника Сальвадора Дали в натуральную величину который цитировал свои интервью и письменную переписку голосом, имитирующим его. Появилось также несколько юмористических дипфейков. Один Тик ТокАккаунт полностью посвящен дипфейкам Киану Ривза с видео от юмористических взглядов на романтические отношения до танцев в TikTok.

Образование и медицина две дополнительные области, которые могут выиграть от технологии дипфейков. В классе преподаватели могут использовать имитации исторических речей, чтобы предложить захватывающие и увлекательные уроки. Использование технологии deepfake в здравоохранении может повысить точность обнаружения опухолей на магнитно-резонансной томографии (МРТ), что облегчит их лечение. Например, поскольку опухоли или аномалии относительно редки среди населения в целом, трудно получить достаточное количество их изображений для передачи в программу искусственного интеллекта. Изображения Deepfake позволяют обучать такие программы искусственного интеллекта распознавать большее количество аномалий, тем самым повышая их долгосрочную точность. Их использование также позволяет проводить исследования с использованием синтезированных данные вместо данных реальных пациентов, что позволяет исследователям избежать проблем с конфиденциальностью.

Loading

25H8d7vbP94SaZhuBGTrmT

About Author

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *