Как один ролик в сети может устроить мировой кризис Дипфейк (deepfake) — технология создания фейковых видео с использованием искусственного интеллекта, 3D-моделирования и нейросетей для замены лиц на видео. Таким образом, можно заставить любого человека сказать все, что угодно. Например, в апреле 2018 года в сети появилось видео, где экс-президент США Барак Обама называет нынешнего президента Дональда Трампа “засранцем”. Авторы в этом же видео разоблачили себя, призвав зрителей быть более критичными и не доверять всему, что они видят в сети. Супасорн Суваджанакорн — ученый в области компьютерных наук рассказывает, как создаются такие видео, как работает технология замены лиц на видео, почему они выглядят и звучат так реалистично. “Фейковые видео могут нанести много вреда до того, пока кто-нибудь их проверит. Поэтому мы считаем очень важным предупредить всех о современных технологических возможностях, чтобы мы имели правильное представление и критически относились к тому, что мы видим”, — сказал Суваджанакорн на конференции TED К сожалению, технологии по созданию дипфейков развиваются быстрее чем технологии их разоблачения. Сегодня нет сервиса или технологии, которая смогла бы разоблачить дипфейк. Министерство обороны США работает над искусственным интеллектом, который учится узнавать дипфейки, а сам Суваджанакорн разрабатывает плагин, который будет разоблачать работы ученого и других создателей видео с заменой лиц. Есть несколько признаков дипфейка: люди на таких видео редко или почти не моргают, можно заметить неестественные движения головы или цвет глаз. Тем не менее, эти знания едва ли помогут обычному пользователю понять, что он смотрит дипфейк. Остается лишь полагаться на критическое мышление, чтобы решить, мог ли, например, Обама назвать Трампа “засранцем” (с)