Дипфейки вышли на новый уровень и напугали всех. Почти
Швецова корреспондент ComNews.ru
О дипфейках пользователи сети говорят уже не первый год, но в 2023 году они особенно сильно взволновали россиян. Теперь дипфейки выступают на прямой линии президента, отвечают на вопросы за Жириновского и говорят голосом Елены Блиновской. Кроме этого злоумышленники используют их при мошенничестве и для создания фейков. Депутаты Госдумы уже предложили внести изменения в законы. Но так ли страшна технология.
Предтеча дипфейка существует еще с 1997 года. Тогда
Однако неправильно называть такие ролики дипфейком. Дипфейк - поддельные фотографии, видео и аудиозаписи, которые синтезированы с помощью искусственного интеллекта (ИИ).
Считается, что первые "настоящие" дипфейки появились в 2017 году. Тогда пользователь Reddit с ником Deepfakes опубликовал фальшивые ролики с участием обнаженных звезд, что вызвало большой резонанс в Сети. С тех пор технология развивалась, становилась доступнее, и люди все чаще стали опасаться ее.
Однако в прошлом году случился взрыв популярности дипфейков в связи с бумом интереса к искусственному интеллекту. В мае 2023 года Reuters cо ссылкой на компанию в области ИИ DeepMedia
В прошлом году было сразу несколько громких случаев с дипфейками и близкими к ним технологиями. К примеру, на прямой линии с Владимиром Путиным поговорил его двойник, созданный студентом СПбГУ. Летом на Петербургском международном экономическом форуме "ожил" Владимир Жириновский - цифрового двойника презентовала партия ЛДПР.
В прошлом году произошел громкий случай с актрисой озвучки Аленой Андроновой. В 2019 году она делала проект для банка "Тинькофф", а в 2022-м узнала, что ее голос звучит в порнорекламе, эротических чатах и стримах. Оказалось, ее данные доступны для синтеза речи на сайте организации. Алена Андронова подала в суд на компанию.
Самые популярные дипфейки связаны с эротическим контентом. В 2019 году, по
Согласно
Депутаты Государственной Думы всерьез обеспокоены тенденцией. "Уже сегодня с помощью нейросетей успешно обманывают наших граждан, генерируя их лица как на фото, так и на видео, с помощью которых угоняются личные аккаунты и воруются средства с банковских счетов", - написал в Telegram-канале председатель ИТ-комитета Госдумы Александр Хинштейн.
Александр Хинштейн высказал опасения по поводу дипфейков еще летом прошлого года и пообещал в осеннюю сессию разработать законопроект. Пока видимых подвижек нет, но недавно он
На прошлой неделе об инициативе по защите голоса человека на пресс-конференции в Москве рассказал сенатор РФ, заместитель председателя совета по развитию цифровой экономики при Совете Федерации Артем Шейкин.
https://www.comnews.ru/content/231215/2024-01-29/2024-w05/1008/golosa-b…
Однако дипфейки напугали не всех. Некоторые пользователи Сети даже приветствуют повсеместное распространение "голых" фальшивых видео - чем больше их будет в Сети, тем меньше поводов переживать, ведь любой ролик легко может оказаться подделкой и ценность "компромата" будет практически нулевой.
Знаменитости уже стали оправдывать неудачи словами: "Это не я, это дипфейк". Например, Виктория и Вадим Цыгановы после интервью Юрию Дудю* заявили, что видео фальшивое. Блогер Сергей Косенко, выложивший видео, на котором бросает двухмесячного сына в снег, сказал, что это был дипфейк. Однако пока им никто не поверил, но тенденция ясна.
Все же дипфейки - не зло в чистом виде, их используют и для благих целей. К примеру, музей во Флориде "воскресил" Сальвадора Дали: копия художника пообщалась с посетителями и рассказала о творчестве Дали. Еще один пример позитивного использования технологии - дипфейк футболиста Дэвида Бекхэма, который на девяти языках рассказывал в социальной рекламе об опасности малярии. Дипфейки даже помогают при лечении расстройств: инженеры-исследователи Кейт Глазко и Ивэй Чжэн с помощью дипфейков
Может, и правда не так страшен дипфейк, как его малюют? Все-таки уже много лет существует фотошоп, который тоже может создать фальшивые изображения для мошенничества, шантажа и пропаганды. И научиться делать правдоподобные "фейки" там совсем не сложно. Однако все уже привыкли к фотошопу и страха перед ним нет.
Да, людям все сложнее отличить фейк от реальности, но они уже очень долго (возможно, с зарождения человечества) живут с тем, что их пытаются постоянно обмануть. Способы борьбы с неправдой меняются не сильно: нужно быть внимательнее, не доверять всему, что пишут и показывают (особенно в Сети), черпать информацию из надежных источников.
Однако это не значит, что закон о дипфейках, их маркировка не нужны. Люди должны иметь возможность защитить свои права и знать правду: фейк перед ними или нет. Однако паника из-за дипфейков излишня. Подобное мы проходили, и не раз. Главное - почаще напоминать себе и родным, что не стоит верить всему, что написано в интернете и слышно на другом конце провода.
https://www.comnews.ru/content/222716/2022-10-21/2022-w42/gosduma-vzyalas-za-dipfeyki
* Внесен Минюстом РФ в реестр иноагентов