Знатоки искусственного интеллекта прогнозируют, что вскоре подделки станет невозможно обнаружить
И программное обеспечение для обнаружения фейков, и водяные знаки можно будет обойти.
Интернет сегодня наполнен различными бессмысленными рекламными видео, где например, премьер-министр Великобритании Риши Сунак рассказывает о «необычайно прибыльной» программе, якобы разработанной Илоном Маском, с помощью которой зрители могут регулярно «экономить». Иногда появляется и сам «Маск», чтобы подтвердить эту информацию.
Это лишь одно из множества подобных рекламных объявлений, созданных с помощью искусственного интеллекта. Но не только внешность знаменитостей может использоваться в сомнительных целях. В июне 2023 года Федеральное бюро расследований США предупреждало общественность о злоумышленниках, использующих ИИ для создания фейковых видеороликов и изображений обычных людей на сексуальную тематику с целью вымогательства денег.
Как выявить такие обманы — это является актуальной темой среди исследователей ИИ. Множество фирм, от стартапов до известных технологических гигантов типа Intel и Microsoft, предлагают программное обеспечение, направленное на обнаружение машинно-сгенерированных медиа. Производители больших моделей ИИ тем временем ищут способы «водяного знака» на своей продукции, чтобы можно было легко отличить реальные изображения, видео или текст от сгенерированного машиной.
Но такие технологии пока оказываются не особо надежными. Знатоки ИИ, кажется, мрачно оценивают перспективы. The Economist провел опрос делегатов NeurIPS, одной из крупнейших конференций в области ИИ, состоявшейся в Новом Орлеане в декабре 2023 года. В результате из 23 опрошенных специалистов 17 склонились к мысли, что медиа, созданные ИИ, со временем станет невозможно обнаружить. Только один делегат сказал, что надежное обнаружение будет возможным; остальные пять отказались, предпочтя близкую белорусам стратегию «подождать и посмотреть».
Программное обеспечение для обнаружения фейков опирается на идею, что ИИ-модели оставляют цифровой след. Либо им не удастся корректно передать некоторые аспекты реальных изображений и видео или созданного человеком текста, либо они добавят что-нибудь лишнее — и делать это они будут достаточно часто, чтобы другое программное обеспечение заметило ошибку. Но с каждым днем лучшие ИИ-модели делают все меньше ошибок.
Пока признаки ИИ часто все еще присутствуют в сгенерированном контенте, даже если их становится все труднее заметить людям. И подобно тому, как машины можно научить надежно идентифицировать котов или раковые опухоли на медицинских сканированиях, их также можно научить отличать реальные изображения от тех, которые создаются их ИИ-коллегами.
Но и здесь случаются ошибки. Программное обеспечение для обнаружения фейков склонно к ложным срабатываниям (ошибочно обозначая «человеческий» контент как созданный искусственным интеллектом) и ложным отказам (позволяя материалам, созданным машиной, проходить незамеченными). В одном из недавних исследований было выявлено, что самая эффективная программа не смогла правильно распознать созданные компьютером изображения в 13% случаев (хотя этот результат и лучше человека, которые ошибался в среднем в 39% случаев). Немного лучше обстоят дела с текстом. Один свежий анализ сравнил 14 различных инструментов и обнаружил, что ни один не достиг точности более 80%.
Если попытка выявить созданные компьютером носители постфактум слишком сложна, другой возможный вариант — обозначить их заранее цифровым водяным знаком. Идея состоит в том, чтобы добавить отличительную черту, которая достаточно тонка, чтобы не ухудшать качество текста или изображения, но очевидна каждому, кто будет ее искать.
Так, многие методы нанесения водяных знаков на изображения включают тонкую настройку пикселей, например, сдвиг их цветов. Изменения слишком тонкие, чтобы их заметил человеческий глаз, но их может уловить машина. Однако обрезка изображения, ее поворот или даже размытие и последующее повторное добавление резкости могут удалить такие следы.
Одна из групп исследователей из NeurIPS представила схему водяных знаков под названием «Кольца дерева». Так называемые «диффузионные модели», самый совершенный тип программного обеспечения для генерации изображений, начинают с заполнения своего цифрового полотна случайным «шумом», из которого медленно возникает нужное изображение. «Метод древесных колец» встраивает водяной знак не в готовую картинку, а в этот самый «шум» в самом начале. Если программное обеспечение, создавшее изображение, запускается в обратном порядке, оно проигрывает водяной знак вместе с шумом.
Исследователи отмечают, что эту технику непросто обмануть, но это все же не является невозможным. В гонку вооружений вступают другие исследователи, стремящиеся побороть методы водяных знаков. Так, другая группа представила метод (еще не рецензируемый), который может, по их словам, стирать водяные знаки. Это работает путем добавления элементов нового «шума», а затем использования другой модели ИИ для удаления этого «шума», что удаляет исходный водяной знак в процессе. В сентябре ученые из University of Maryland опубликовали статью (также еще не рецензируемую), в которой утверждалось, что ни один из современных методов водяных знаков на изображениях, включая и выше описанный метод «Кольца дерева», не является надежным.
Тем не менее, в июле 2023 года американское правительство объявило о «добровольных обязательствах» с несколькими фирмами ИИ, включая OpenAI и Google, по увеличению инвестиций в исследования методов водяных знаков. Конечно, иметь несовершенные гарантии и методы лучше, чем не иметь их вообще; однако модели с открытым исходным кодом, которые пользователи могут настраивать самостоятельно, контролировать будет труднее. Пока кажется, что в битве между детективами и создателями фейков преимущество остается на стороне последних.
Комментарии