16 мая 2024 09:29
читать 13 минут
IT

Пометить нейросеть. В России хотят маркировать весь контент, созданный ИИ

Российские власти разрабатывают законопроект, обязывающий маркировать контент, созданный при помощи нейросетей. Эксперты опасаются, что следовать ему будут только отечественные разработчики в области искусственного интеллекта.

Надежда на контроль

Разговоры о том, что надо бы контент нейросетей взять под контроль, велись в РФ и в прошлом году. Так, Российский технологический университет просил Минцифры ввести обязательную маркировку такого контента, говорили об этом и депутаты Госдумы.

Теперь (14 мая этого года) член комитета ГД по информполитике Антон Немкин заявил, что в Госдуме уже ведется разработка концепции закона о маркировке контента, созданного при помощи нейросетей.

В частности, по его словам, изучается законодательный опыт других стран, идут консультации с экспертами, работа над формулировками базовых дефиниций.

«Если рассматривать отдаленную перспективу, то развитие ИИ-сервисов без необходимого контроля несет опасность появления огромных массивов не только никем не проверенных текстов, но и даже полностью выдуманных фактов, цифр и данных», - цитируют парламентария «РИА Новости».

Немкин считает, что маркировка должна осуществляться при помощи графических или водяных знаков, быть ненавязчивой, но заметной для любого пользователя.

«Чтобы он понимал, какой контент перед ним и мог более тщательно его анализировать», - подчеркнул Немкин.

Так как не ясен механизм, который позволит распознавать степень участия машины и человека в одном и том же тексте, в Госдуме склоняются к тому, чтобы российские ИИ-сервисы автоматически маркировали любые сгенерированные тексты.

«В первую очередь, задуматься над подобными технологиями цифровой маркировки изображений нужно российским компаниям, развивающим компетенции в области генеративных нейросетей - прежде всего, «Сберу» и «Яндексу»», - уточнил Немкин.

СПРАВКА MASHNEWS

  • Нейросеть - это метод в искусственном интеллекте, который учит компьютеры обрабатывать данные таким же способом, как и человеческий мозг: компьютеры учатся на своих ошибках и постоянно совершенствуются, однако память и скорость процессов у них много больше и выше, чем у среднестатистического homo sapiens.
  • По данным аналитической компании Crunchbase, модели естественного языка для различных сфер разрабатывают более 1800 компаний в мире. А аналитики из Statista утверждают, что 314 млн человек будут использовать инструменты ИИ уже в этом, 2024 году. Прошлогодний опрос Forbes при этом показал, что более 75% потребителей контента обеспокоены опасностью распространения дезинформации с помощью ИИ.

 

Фейк на фейке

Нейросети используются и обычными пользователями, и бизнесом, что называется, и в хвост, и в гриву: школьники генерируют сочинения с помощью искусственного интеллекта, а в интернете все чаще появляются тексты, картинки и даже видео, подменяющие реальность на фейк. Не секрет, что технологии используются для создания фейковых новостей - умышленно ложных «новостных» сюжетов, которые целенаправленно распространяются СМИ для дезинформации и воздействия на политические и экономические процессы. Отличить их от контента, основанного на реальных фактах, крайне сложно, если не невозможно. Можно вспомнить хотя бы фейки с Папой Римским и взрывом у Белого дома, или фото фальшивого ареста Дональда Трампа.

При этом, по словам советника генерального директора АНО «Диалог Регионы» Тихона Макарова, социология показывает, что большинство опрошенных (65%) считают, что умеют отличать недостоверную информацию от правды. Однако когда аналитики дополнительно провели тестирование базовых компетенций по верификации фейков среди профильной аудитории, аналитиков, работающих с новостями на постоянной основе, только 52% экспертов справились с заданием. 

По данным АНО «Диалог Регионы», только за 2023 год в российском сегменте интернета было зафиксировано 4 тысячи уникальных фейков и 12 млн случаев их распространения. По прогнозу экспертов, в 2024 году число уникальных фейков вырастет до 4,5 тыс., а их копий - до 15 млн.

 

Разговоры с нейросетями

«Сбер» и «Яндекс» не ответили на вопрос корреспондента о том, будут ли они маркировать контент, создаваемый их нейросетями. Однако за них это сделали, собственно, нейросети.

У «Сбера» есть собственный ИИ – GigaChat. Мы спросили его: «Должны ли твои пользователи маркировать контент, сгенерированный с твоей помощью?»

GigaChat ответил: «Это зависит от контекста и места, где будет опубликован контент. Если он публикуется в социальных сетях или на платформах, где возможно определить, что контент был создан с помощью языковой модели, то маркировка может быть полезной для прозрачности и этичности. Однако, если контент используется в личных целях или в местах, где невозможно явно указать его происхождение, маркировка может быть менее важной».

На вопрос об отношении к тому, что в России появится закон об обязательной маркировке контента, создаваемого нейросетями, GigaChat пояснил:

«Как генеративная языковая модель, я не могу иметь личного мнения о законах или политических вопросах… Однако, я понимаю, что регулирование в области искусственного интеллекта является важным аспектом для обеспечения прозрачности и этичности использования нейросетей. Если такой закон будет принят, то я буду готова работать в соответствии с новыми правилами».

Голосовой помощник «Алиса», встроенная в ИИ «Яндекса», была гораздо лаконичнее. «Боюсь, это вопрос к юристу, а не простому боту», - сказала «Алиса».

Известно, что в России уже разрабатывается система выявления дипфейков (поддельное изображение, видео или звук, созданный при помощи искусственного интеллекта), она была представлена на ПМЭФ в прошлом году. Система «Зефир» умеет в режиме реального времени анализировать аудиовизуальный контент и определять, причастны ли к его созданию нейросети. По данным разработчиков системы, точность «Зефира» составляет 81%.


Зарубежный опыт

Летом 2023 года американские OpenAI, Microsoft, Google, Meta (признана в России экстремистской и запрещена), Amazon, Anthropic и Inflection решили начать разработку технологий, позволяющих наносить водяные знаки на контент, который сгенерировал искусственный интеллект. Белый дом тогда заявлял, что водяной знак позволит «процветать творчеству с использованием ИИ, но при этом уменьшит опасность мошенничества и обмана».

В конце августа прошлого года Google объявил о создании специальных водяных знаков для изображений, сгенерированных нейросетями.  Осенью TikTok объявил о запуске инструмента для маркировки нейросетевого контента. При этом у площадки уже действовала политика, в соответствии с которой надо помечать подобные аудио, видео и фото, а новая функция дала возможность ставить пометки на частично обработанные материалы. Также компания заявляла, что работает над созданием инструмента, который поможет автоматически определять и маркировать контент, созданный нейросетями.

Позже Meta (признана в России экстремистской и запрещена) также объявила, что будет маркировать изображения, созданные ИИ, которые публикуются в соцсетях компании. В феврале 2024 года OpenAI отчиталась, что начала маркировать все изображения, которые создаются в ChatGPT и их API.

Весной этого года YouTube начал маркировать такой контент: у площадки появился инструмент, требующий от авторов каналов сообщать зрителям, когда контент сгенерирован искусственным интеллектом. Это просто пометки в расширенном описании или на самом ролике.

Но первым на планете в деле детекции сгенерированных изображений стал Китай. В январе 2023 года Администрация киберпространства Китая ввела правило о маркировке видео и фото, сделанных с применением технологий глубокого синтеза. При этом Китай сразу ввел ответственность за удаление водяных знаков. А так как граждане страны регистрируют учетные записи в соцсетях только под настоящими именами, найти нарушителей не представляется сложным.

Например, год назад в китайской провинции Ганьсу правоохранители задержали мужчину, который использовал ИИ-бота ChatGPT для написания фейковых новостных статей. За 20 статей его могут посадить на срок от 5 до 10 лет.


Свой путь

По какому пути пойдут российские законодатели в плане наказания на отсутствие маркировки для ИИ-контента, станет ясно позже, однако уже сейчас очевидно, что может возникнуть сложность со «стыковкой» техник маркировки контента. Не факт, что OpenAI согласится использовать российские разработки по внедрению водяных знаков, и даст доступ к своим. Поэтому, помимо технической стороны вопроса, необходимо будет дополнять законы в отношении официальных юрлиц, а это значит, что каких-либо ограничений все же не миновать.

«Без полной блокировки внешнего интернета - это мечты, - рассуждает один из пользователей профессионального ИТ-портала Habr. - В реальности получится только Яндекс и Сбер покошмарить, остальные не заметят этого всего».

Другой эксперт полагает, что с новым законом на территории РФ можно будет сначала штрафовать зарубежные ИИ за несоблюдение местных норм, а затем и блокировать. И, опять же, в плюсе остаются локальные «Сбер» и «Яндекс».

Однако пока гораздо более актуальным остается вопрос, каковы, собственно, могут быть критерии для маркировки.

«Необработанная фотка в RAW когда-то была хорошим показателем подлинности, - рассуждает ИТ-специалист Сергей. - Но сейчас даже смартфон с помощью AI делает Луну четче и красивее. Или дизайнер с помощью нейросетки в существующий интерьер встраивает всякие тумбочки-шкафчики. Сразу получаются красивые тени и т.п. Типа если бы он эту тумбочку поместил в интерьер с помощью фотошопа - это было бы норм, можно не маркировать. И все равно, что в фотошопе уже нейросетка для многих операций используется. Так, что ли? А фильтры -улучшалки повсеместные в соцсетях? На каждой аватарке писать «нейро»?

Маргарита Моржакова для Mashnews

 

Больше новостей:
Производственный холдинг KMZ:
Подписывайтесь на наш канал в Telegram и читайте новости раньше всех!