КроликИИ скачут на батуте

Иванов корреспондент ComNews.ru
Качество сгенерированных искусственным интеллектом видеороликов растет, в скором будущем они станут неотличимы от видео, снятых живыми людьми на камеры. Это приведет к росту скептицизма у обывателей ко всему визуальному контенту, появлению официальных "служб фактчекеров" и проверяющих органов в области ИИ.
Несколько недель назад мне на глаза попался ролик, в котором кролики прыгают на батуте. Он длится не больше десяти секунд, судя по всему, его сняла какая-то камера наружного наблюдения, на одном из американских задних дворов. Шесть кроликов сидят на краю батута, а потом прыгают в его центр и начинают скакать. Ролик собрал миллионы просмотров, тысячи лайков и репостов. Однако есть одна проблема. Он не настоящий.
Это видео появилось в TikTok-аккаунте под названием rachelthecatlovers, и в нем есть пометка "видео создано искусственным интеллектом". Он разошелся по видео-платформам и социальным сетям. В большинстве из них этой пометки не было. Сложно представить разочарование людей, выяснивших правду, но судя по всему, эта ситуация далеко не первая и не последняя.
Искусственный интеллект - технология не самая новая, но модная. И, как это бывает со всеми новыми технологиями примерно со времен промышленной революции, нам обещают и рассказывают, что вот-вот новинка решит все проблемы в жизни. Так было с сотовой связью, радио, телевидением, радио, телеграфом. Если идти дальше, то можно оказаться в XV веке в мастерской Иоганна Гутенберга. Однако я не могу вспомнить ни одного случая, когда технологии сразу же решают все проблемы, как нам обещают их чемпионы и апологеты. Но все технологии, от печатного станка до искусственного интеллекта, просачиваются в жизнь человечества, становясь ее частью.
Мне, как и многим читателям, сложно представить жизнь без мобильной связи, интернета, печатного станка. Хотя и я, и многие читатели, жили в мире без массово доступной мобильной связи и интернета. Такой же сценарий, похоже, ждет и искусственный интеллект. Одни компании уже внедрили искусственный интеллект во внутренние деловые процессы, нейросети отвечают клиентам в банковских приложениях, с разной степенью успеха ИИ-помощники внедряются в процессы разработки, продолжать можно долго. Но особое место в нашей жизни заняли генеративные модели.
Генеративный ИИ, или GenAI, как его называют в англоязычной среде, рисует картинки, пишет тексты, снимает мультики и фильмы. Одна из ИБ-компаний иллюстрирует с его помощью буклеты исследований, авторы контента создают с его помощью комиксы, один из пабликов в ВК перерисовывает (вероятно без согласия авторов) чужие комиксы с его помощью, в интернете без особого труда можно найти десятки картинок в духе "герои Простоквашино в стиле Ghibli", один из моих друзей использует ИИ для иллюстраций DnD-модулей.
Когда-то давно, на заре появления нейросетей, в обществе существовали опасения (весьма обоснованные), что нейросети будут использоваться для faceswap’а (смены лиц) реальных людей и актеров в фильмах для взрослых. Легко можно представить себе расстроенного или озлобленного молодого человека, который загружает подборку фотографий с бывшей девушкой и сцену из порнофильма в нейросеть, а потом в открытый доступ. И так же легко можно представить себе, как эта несчастная девушка, краснея, убеждает родных, близких и семью, что это не она. Со времен тех опасений прошло много лет и, похоже, они преимущественно остались позади. То ли не случилось массовых случаев порно-мести, то ли мы привыкли к возможностям нейросетей и нам проще отличить правду от вымысла, однако новый удар пришел откуда не ждали, ИИ-видео становятся все более и более достоверными.
Давайте вернемся к ролику с прыгающими кроликами. Обращая внимания на детали, внимательный зритель способен понять, что его сгенерила нейросеть. Например, два кролика на батуте сливаются в одного, а ближе к концу видео из пустоты на земле материализуется, буквально теллипортируется, еще один. Чтобы заметить эти детали, нужно быть внимательным и, вероятно, посмотреть ролик ни один и даже ни два раза. Однако результат очевиден, фильмы нейросетей становятся все более и более достоверными.
Вы уже без труда можете сгенерить поздравление с днем рождения другу от Дональда Трампа (он конечно-же пожелает ему не быть такой "размазней", как Джо Байден). Но это не предел, несколько лет назад в Индии разразился скандал. Во время одного из электоральных циклов, по соцсетям вирусился ролик, созданный нейросетью, в котором индийские актеры и ученые выражали поддержку одному кандидату, к вящему удивлению реальных актеров и ученых. До поддержки со стороны Махатмы Ганди, кажется, не дошло. Боюсь представить, сколько по сети гуляет роликов с покойным Владимиром Жириновским, который предсказывает все что можно, от недавних переговоров на Аляске, до дождей в минувшие выходные, и все это с каким-нибудь описанием-заголовком "Жириновский предсказал это еще в 2006 г.". Можно представить, что в будущем такого контента станет только больше и это приведет к массовому падению доверия к визуальной картинке.
В каком-то смысле мы приближаемся к некоей мета-вселенной киберпанка, когда реальное и цифровое сливаются воедино и одно дополняет другое, одно становится неотличимо от другого настолько, что невозможно быть уверенным в аутентичности видеоролика. Моя фантазия рисует ужасающие картинки, когда те или иные корпорации или политические силы манипулируют общественным мнением с помощью роликов, сгенерированных искусственным интеллектом, показывающих события, которых в реальности не было. Но что же с этим можно сделать?
Казалось бы, ответ лежит прямо на поверхности, нужно просто обязать разработчиков нейросетей ставить на любую картинку или ролик их производства водяной знак "AI Generated" по аналогии с "Made in …" на любой современной продукции. Но у этого решения есть несколько сложностей. Во-первых, разработчики генеративных моделей разбросаны по всему миру, получается что все правительства мира в едином порыве должны обязать всех это сделать. Это маловероятно. Во-вторых, даже если подобная законодательная инициатива будет принята одномоментно всеми, то никто не гарантирует, что разработчики не придумают десяток способов ее обходить, как ее обходила немецкая промышленность в начале XX века, ставя Made in Germany на днище станков и продукции (были времена, когда выражение "немецкое качество" было синонимом не лучшей продукции).
Другим решением было бы появление организаций условных фактчекеров, которые будут отсматривать контент, проверять его, а потом выносить вердикт - является ли тот или иной ролик настоящим или сгенерированным. Только сразу же появляется целый ряд вопросов: а кем эти фактчекеры будут? Гражданскими активистами? Госслужащими? Компаниями при корпорациях? Не возникнет ли конфликт интересов? Будет ли считаться их мнение доказательством в суде? Не возникнет ли ситуация, когда фактчекеры-сторонники, условной, деревни Вилларибо будут противостоять фактчекерам-сторонникам деревни Виллабаджо? Только представьте себе интернет- и медиа-баталии между первыми и вторыми. В конце-концов, что делать с общечеловеческим правом на ошибку?
Есть и третий возможный путь - создать ИИ, в чьи функции будет входить просмотр контента и вынесение вердикта. Вопросы возникают примерно те же, что и с фактчекерами, только с поправкой на ИИ и на наше к нему недоверие. Но вообще интересно представить борьбу двух искусственных интеллектов, один генерит контент, а другой пытается найти его в петабайтах видеоинформации. Интересно, через какое время они начнут сходить с ума?
У американского писателя-фантаста Роберта Хайнлайна есть замечательный рассказ "Линия жизни". Это его первое опубликованное художественное произведение, в котором доктор Пинеро изобретает машину, предсказывающую с точностью до секунды время смерти человека, из-за нее рушится бизнес американских страховых компаний. Последние подают на доктора в суд и требуют запретить использовать машину-предсказателя. Во время заседания Пинеро сравнивает все дело с требованием свечного завода запретить производство электрических лампочек. Мысль Хайнлайна в произведении проста - прогресс не остановить, а развитие нейросетей - часть прогресса. Они будут становится лучше, как и их видеоролики и картинки. И возможно, сомнения простого обывателя в аутентичности всякого видео, аудио и картинки - не что-то плохое. Возможно, они приведут к росту роли института репутации в обществе и критического мышления у людей. Ведь сомнение - первый шаг на пути к познанию.
