Наука и технологии11

Знатоки искусственного интеллекта прогнозируют, что вскоре подделки станет невозможно обнаружить

И программное обеспечение для обнаружения фейков, и водяные знаки можно будет обойти.

Фейковый ДиКаприо (справа), сделанный природой, а не ИИ / коллаж: Barnorama 

Интернет сегодня наполнен различными бессмысленными рекламными видео, где например, премьер-министр Великобритании Риши Сунак рассказывает о «необычайно прибыльной» программе, якобы разработанной Илоном Маском, с помощью которой зрители могут регулярно «экономить». Иногда появляется и сам «Маск», чтобы подтвердить эту информацию.

Это лишь одно из множества подобных рекламных объявлений, созданных с помощью искусственного интеллекта. Но не только внешность знаменитостей может использоваться в сомнительных целях. В июне 2023 года Федеральное бюро расследований США предупреждало общественность о злоумышленниках, использующих ИИ для создания фейковых видеороликов и изображений обычных людей на сексуальную тематику с целью вымогательства денег.

Как выявить такие обманы — это является актуальной темой среди исследователей ИИ. Множество фирм, от стартапов до известных технологических гигантов типа Intel и Microsoft, предлагают программное обеспечение, направленное на обнаружение машинно-сгенерированных медиа. Производители больших моделей ИИ тем временем ищут способы «водяного знака» на своей продукции, чтобы можно было легко отличить реальные изображения, видео или текст от сгенерированного машиной.

Но такие технологии пока оказываются не особо надежными. Знатоки ИИ, кажется, мрачно оценивают перспективы. The Economist провел опрос делегатов NeurIPS, одной из крупнейших конференций в области ИИ, состоявшейся в Новом Орлеане в декабре 2023 года. В результате из 23 опрошенных специалистов 17 склонились к мысли, что медиа, созданные ИИ, со временем станет невозможно обнаружить. Только один делегат сказал, что надежное обнаружение будет возможным; остальные пять отказались, предпочтя близкую белорусам стратегию «подождать и посмотреть».

Программное обеспечение для обнаружения фейков опирается на идею, что ИИ-модели оставляют цифровой след. Либо им не удастся корректно передать некоторые аспекты реальных изображений и видео или созданного человеком текста, либо они добавят что-нибудь лишнее — и делать это они будут достаточно часто, чтобы другое программное обеспечение заметило ошибку. Но с каждым днем лучшие ИИ-модели делают все меньше ошибок.

Пока признаки ИИ часто все еще присутствуют в сгенерированном контенте, даже если их становится все труднее заметить людям. И подобно тому, как машины можно научить надежно идентифицировать котов или раковые опухоли на медицинских сканированиях, их также можно научить отличать реальные изображения от тех, которые создаются их ИИ-коллегами.

Но и здесь случаются ошибки. Программное обеспечение для обнаружения фейков склонно к ложным срабатываниям (ошибочно обозначая «человеческий» контент как созданный искусственным интеллектом) и ложным отказам (позволяя материалам, созданным машиной, проходить незамеченными). В одном из недавних исследований было выявлено, что самая эффективная программа не смогла правильно распознать созданные компьютером изображения в 13% случаев (хотя этот результат и лучше человека, которые ошибался в среднем в 39% случаев). Немного лучше обстоят дела с текстом. Один свежий анализ сравнил 14 различных инструментов и обнаружил, что ни один не достиг точности более 80%.

Если попытка выявить созданные компьютером носители постфактум слишком сложна, другой возможный вариант — обозначить их заранее цифровым водяным знаком. Идея состоит в том, чтобы добавить отличительную черту, которая достаточно тонка, чтобы не ухудшать качество текста или изображения, но очевидна каждому, кто будет ее искать.

Так, многие методы нанесения водяных знаков на изображения включают тонкую настройку пикселей, например, сдвиг их цветов. Изменения слишком тонкие, чтобы их заметил человеческий глаз, но их может уловить машина. Однако обрезка изображения, ее поворот или даже размытие и последующее повторное добавление резкости могут удалить такие следы.

Одна из групп исследователей из NeurIPS представила схему водяных знаков под названием «Кольца дерева». Так называемые «диффузионные модели», самый совершенный тип программного обеспечения для генерации изображений, начинают с заполнения своего цифрового полотна случайным «шумом», из которого медленно возникает нужное изображение. «Метод древесных колец» встраивает водяной знак не в готовую картинку, а в этот самый «шум» в самом начале. Если программное обеспечение, создавшее изображение, запускается в обратном порядке, оно проигрывает водяной знак вместе с шумом. 

Исследователи отмечают, что эту технику непросто обмануть, но это все же не является невозможным. В гонку вооружений вступают другие исследователи, стремящиеся побороть методы водяных знаков. Так, другая группа представила метод (еще не рецензируемый), который может, по их словам, стирать водяные знаки. Это работает путем добавления элементов нового «шума», а затем использования другой модели ИИ для удаления этого «шума», что удаляет исходный водяной знак в процессе. В сентябре ученые из University of Maryland опубликовали статью (также еще не рецензируемую), в которой утверждалось, что ни один из современных методов водяных знаков на изображениях, включая и выше описанный метод «Кольца дерева», не является надежным.

Тем не менее, в июле 2023 года американское правительство объявило о «добровольных обязательствах» с несколькими фирмами ИИ, включая OpenAI и Google, по увеличению инвестиций в исследования методов водяных знаков. Конечно, иметь несовершенные гарантии и методы лучше, чем не иметь их вообще; однако модели с открытым исходным кодом, которые пользователи могут настраивать самостоятельно, контролировать будет труднее. Пока кажется, что в битве между детективами и создателями фейков преимущество остается на стороне последних.

Комментарии1

  • lkh
    30.01.2024
    Вельмі цікава! Дадайце, калі ласка, спасылкі на «Метад дрэвавых кольцаў» і іншыя артыкулы. Будзе лепей!

Путин заявил об ударах по Украине новой ракетой, которая «не перехватывается»15

Путин заявил об ударах по Украине новой ракетой, которая «не перехватывается»

Все новости →
Все новости

Вот что Меркель написала о Трампе в своих мемуарах10

Урсула фон дер Ляйен оказала первую помощь пассажиру на борту самолета3

Вышло долгожданное продолжение культовой украинской игры S.T.A.L.K.E.R. В России геймеров припугивают не игровой, а реальной зоной за госизмену4

Россия ударила по Днепру баллистической ракетой нового типа7

Стрижак рассказал, почему Веремейчик не смог легализоваться в Евросоюзе45

Cambridge Dictionary назвал слово 2024 года

В США призывают понизить торговый статус Китая до уровня Беларуси1

В Таиланде женщина методично убила цианидом 14 друзей

Россия наносит массированный ракетный удар по Украине4

больш чытаных навін
больш лайканых навін

Путин заявил об ударах по Украине новой ракетой, которая «не перехватывается»15

Путин заявил об ударах по Украине новой ракетой, которая «не перехватывается»

Главное
Все новости →