Дипфейк
Дипфейк (deepfake) — современный грамотный фейк, созданный с использованием искусственного интеллекта: программ по генерации изображения, звука и так далее. Например, генерация аудиозаписи от лица влиятельного человека или же подмена лица на видео, где снятые личности занимаются чем-то нехорошим.

Понятие дипфейка стабильно вызывает панику на Западе среди влиятельных лиц, которые требуют от разработчиков нейросетей вводить цензуру, не позволять создавать подобное творчество и так далее. Связано это с весьма гнилой системой протоколирования и репутации публичных лиц, на уничтожение которой работают дипфейки — ведь логично, что оценивать надо каждый поступок человека в вакууме, только так можно добиться подлинной беспристрастности. К сожалению, быдло любит создавать себе кумиров и привить им подобное мышление в отношении публичных диц довольно сложно.
Подробности[править]
С появлением современных моделей ИИ стало возможно изменить изображение лица на каждом кадре видео, создав впечатление того, что на самом деле снят другой человек. Пока ещё многие технологии обновления видео генерируют артефакты, из-за чего может быть заметно, что сделан дипфейк, но технология постоянно совершенствуется. Естественно, что в Интернете многие использовали технологию для того, чтобы сгенерировать прон с известными актёрами или блогерами — робот менял лицо подходящего порноактёра на требуемого. У публичных лиц, чьи лица таким образом использовали, это вызвало бугурт — ведь теперь их можно было пародировать.
Впервые технология была представлена в 2016 году и уже на следующий год очень хорошо распространилась в Интернете. Впрочем, трусливые цензоры решили запретить свободу самовыражения и сгенерированные при помощи ИИ видео оказались запрещены на многих популярных сайтах, что впрочем только подогрело интерес к технологии. Стали создаваться хитрые пранки.
Использовалась технология дипфейка и для того, чтобы исправить несправедливость в некоторых толерастических западных фильмах, где например в сказку про русалочку впукнули уродливую негритянку. В результате вмешательства робота-исправителя получилось заменить образ русалочки на канонический, и тем самым исправить ущерб. Отметились китайские нейросетевые деятели.
Появились и звуковые дипфейки, где робот имитировал чей-то голос.
Недостатки[править]
Недостатками является то, что пока ещё робот не в состоянии 100 % имитировать необходимого человека или голос, и могут возникать хорошо заметные артефакты обработки, которые моментально обращают на себя внимание и показывают, что видео или аудио сгенерировано роботом. Потенциально эти проблемы могут быть исправлены по мере модернизации технологий машинного обучения.
Мошенничество[править]
Однако, дипфейками стали пользоваться и финансовые мошенники, которые с использованием нейросетей стали подделывать голос владельцев банковских счётов, чтобы ввести в заблуждение сотрудников банков — всё из-за надрачивания на биометрию, которую якобы не взломать и под предлогом которой ещё и были собраны обильные личные данные людей. А в результате оказалось, что по крайней мере подтверждение по голосу взломать таки можно:[1]
В августе этого (2019) года было установлено, что кибер-преступник использовал технологию дипфейков для осуществления мошеннических действий в отношении одной из компаний на сумму в 220 тысяч евро. Афера началась в марте 2019 года, когда мошенник создал дипфейк, имитирующий голос руководителя вышестоящей компании по отношению к компании-жертве.Жертва, руководитель энергетической компании, получил звонок, который был от якобы руководителя этой вышестоящей компании. Во время звонка жертву попросили «срочно» перевести 200 000 фунтов стерлингов одному венгерскому поставщику, причем данный перевод чуть позже будет им компенсирован. Жертву обманули, заставив его поверить в то, что с ним разговаривал якобы его руководитель: он имел точно такой же голос и немецкий акцент, как и у его настоящего босса, что сделало эту аферу максимально правдоподобной.
Как только транзакция была подтверждена, мошенники снова перезвонили и попросили сделать еще один перевод. К этому времени обманутый руководитель энергетической компании уже начал подозревать что-то неладное и отказался осуществлять трансфер. Сообщается, что ранее переведенные средства были перечислены из Венгрии в Мексику, а затем они были переведены на другие счета.
Примеры[править]
В мае 2024 года Пескова спросили насчёт дипфейка, в которое его голосом говорится, что он благодарен «Паше Дурову за то, что он предпочёл дать интервью Такеру Карлсону вместо ебучего Юрия Дудя», и сказали, что если бы не мат, то приняли бы голосовое сообщение за реальное. На это Песков посмеялся и посоветовал всем быть бдительными.[2]