Пометить нейросеть. В России хотят маркировать весь контент, созданный ИИ
Российские власти разрабатывают законопроект, обязывающий маркировать контент, созданный при помощи нейросетей. Эксперты опасаются, что следовать ему будут только отечественные разработчики в области искусственного интеллекта.
Надежда на контроль
Разговоры о том, что надо бы контент нейросетей взять под контроль, велись в РФ и в прошлом году. Так, Российский технологический университет просил Минцифры ввести обязательную маркировку такого контента, говорили об этом и депутаты Госдумы.
Теперь (14 мая этого года) член комитета ГД по информполитике Антон Немкин заявил, что в Госдуме уже ведется разработка концепции закона о маркировке контента, созданного при помощи нейросетей.
В частности, по его словам, изучается законодательный опыт других стран, идут консультации с экспертами, работа над формулировками базовых дефиниций.
«Если рассматривать отдаленную перспективу, то развитие ИИ-сервисов без необходимого контроля несет опасность появления огромных массивов не только никем не проверенных текстов, но и даже полностью выдуманных фактов, цифр и данных», - цитируют парламентария «РИА Новости».
Немкин считает, что маркировка должна осуществляться при помощи графических или водяных знаков, быть ненавязчивой, но заметной для любого пользователя.
«Чтобы он понимал, какой контент перед ним и мог более тщательно его анализировать», - подчеркнул Немкин.
Так как не ясен механизм, который позволит распознавать степень участия машины и человека в одном и том же тексте, в Госдуме склоняются к тому, чтобы российские ИИ-сервисы автоматически маркировали любые сгенерированные тексты.
«В первую очередь, задуматься над подобными технологиями цифровой маркировки изображений нужно российским компаниям, развивающим компетенции в области генеративных нейросетей - прежде всего, «Сберу» и «Яндексу»», - уточнил Немкин.
СПРАВКА MASHNEWS
- Нейросеть - это метод в искусственном интеллекте, который учит компьютеры обрабатывать данные таким же способом, как и человеческий мозг: компьютеры учатся на своих ошибках и постоянно совершенствуются, однако память и скорость процессов у них много больше и выше, чем у среднестатистического homo sapiens.
- По данным аналитической компании Crunchbase, модели естественного языка для различных сфер разрабатывают более 1800 компаний в мире. А аналитики из Statista утверждают, что 314 млн человек будут использовать инструменты ИИ уже в этом, 2024 году. Прошлогодний опрос Forbes при этом показал, что более 75% потребителей контента обеспокоены опасностью распространения дезинформации с помощью ИИ.
Фейк на фейке
Нейросети используются и обычными пользователями, и бизнесом, что называется, и в хвост, и в гриву: школьники генерируют сочинения с помощью искусственного интеллекта, а в интернете все чаще появляются тексты, картинки и даже видео, подменяющие реальность на фейк. Не секрет, что технологии используются для создания фейковых новостей - умышленно ложных «новостных» сюжетов, которые целенаправленно распространяются СМИ для дезинформации и воздействия на политические и экономические процессы. Отличить их от контента, основанного на реальных фактах, крайне сложно, если не невозможно. Можно вспомнить хотя бы фейки с Папой Римским и взрывом у Белого дома, или фото фальшивого ареста Дональда Трампа.
При этом, по словам советника генерального директора АНО «Диалог Регионы» Тихона Макарова, социология показывает, что большинство опрошенных (65%) считают, что умеют отличать недостоверную информацию от правды. Однако когда аналитики дополнительно провели тестирование базовых компетенций по верификации фейков среди профильной аудитории, аналитиков, работающих с новостями на постоянной основе, только 52% экспертов справились с заданием.
По данным АНО «Диалог Регионы», только за 2023 год в российском сегменте интернета было зафиксировано 4 тысячи уникальных фейков и 12 млн случаев их распространения. По прогнозу экспертов, в 2024 году число уникальных фейков вырастет до 4,5 тыс., а их копий - до 15 млн.
Разговоры с нейросетями
«Сбер» и «Яндекс» не ответили на вопрос корреспондента о том, будут ли они маркировать контент, создаваемый их нейросетями. Однако за них это сделали, собственно, нейросети.
У «Сбера» есть собственный ИИ – GigaChat. Мы спросили его: «Должны ли твои пользователи маркировать контент, сгенерированный с твоей помощью?»
GigaChat ответил: «Это зависит от контекста и места, где будет опубликован контент. Если он публикуется в социальных сетях или на платформах, где возможно определить, что контент был создан с помощью языковой модели, то маркировка может быть полезной для прозрачности и этичности. Однако, если контент используется в личных целях или в местах, где невозможно явно указать его происхождение, маркировка может быть менее важной».
На вопрос об отношении к тому, что в России появится закон об обязательной маркировке контента, создаваемого нейросетями, GigaChat пояснил:
«Как генеративная языковая модель, я не могу иметь личного мнения о законах или политических вопросах… Однако, я понимаю, что регулирование в области искусственного интеллекта является важным аспектом для обеспечения прозрачности и этичности использования нейросетей. Если такой закон будет принят, то я буду готова работать в соответствии с новыми правилами».
Голосовой помощник «Алиса», встроенная в ИИ «Яндекса», была гораздо лаконичнее. «Боюсь, это вопрос к юристу, а не простому боту», - сказала «Алиса».
Известно, что в России уже разрабатывается система выявления дипфейков (поддельное изображение, видео или звук, созданный при помощи искусственного интеллекта), она была представлена на ПМЭФ в прошлом году. Система «Зефир» умеет в режиме реального времени анализировать аудиовизуальный контент и определять, причастны ли к его созданию нейросети. По данным разработчиков системы, точность «Зефира» составляет 81%.
Зарубежный опыт
Летом 2023 года американские OpenAI, Microsoft, Google, Meta (признана в России экстремистской и запрещена), Amazon, Anthropic и Inflection решили начать разработку технологий, позволяющих наносить водяные знаки на контент, который сгенерировал искусственный интеллект. Белый дом тогда заявлял, что водяной знак позволит «процветать творчеству с использованием ИИ, но при этом уменьшит опасность мошенничества и обмана».
В конце августа прошлого года Google объявил о создании специальных водяных знаков для изображений, сгенерированных нейросетями. Осенью TikTok объявил о запуске инструмента для маркировки нейросетевого контента. При этом у площадки уже действовала политика, в соответствии с которой надо помечать подобные аудио, видео и фото, а новая функция дала возможность ставить пометки на частично обработанные материалы. Также компания заявляла, что работает над созданием инструмента, который поможет автоматически определять и маркировать контент, созданный нейросетями.
Позже Meta (признана в России экстремистской и запрещена) также объявила, что будет маркировать изображения, созданные ИИ, которые публикуются в соцсетях компании. В феврале 2024 года OpenAI отчиталась, что начала маркировать все изображения, которые создаются в ChatGPT и их API.
Весной этого года YouTube начал маркировать такой контент: у площадки появился инструмент, требующий от авторов каналов сообщать зрителям, когда контент сгенерирован искусственным интеллектом. Это просто пометки в расширенном описании или на самом ролике.
Но первым на планете в деле детекции сгенерированных изображений стал Китай. В январе 2023 года Администрация киберпространства Китая ввела правило о маркировке видео и фото, сделанных с применением технологий глубокого синтеза. При этом Китай сразу ввел ответственность за удаление водяных знаков. А так как граждане страны регистрируют учетные записи в соцсетях только под настоящими именами, найти нарушителей не представляется сложным.
Например, год назад в китайской провинции Ганьсу правоохранители задержали мужчину, который использовал ИИ-бота ChatGPT для написания фейковых новостных статей. За 20 статей его могут посадить на срок от 5 до 10 лет.
Свой путь
По какому пути пойдут российские законодатели в плане наказания на отсутствие маркировки для ИИ-контента, станет ясно позже, однако уже сейчас очевидно, что может возникнуть сложность со «стыковкой» техник маркировки контента. Не факт, что OpenAI согласится использовать российские разработки по внедрению водяных знаков, и даст доступ к своим. Поэтому, помимо технической стороны вопроса, необходимо будет дополнять законы в отношении официальных юрлиц, а это значит, что каких-либо ограничений все же не миновать.
«Без полной блокировки внешнего интернета - это мечты, - рассуждает один из пользователей профессионального ИТ-портала Habr. - В реальности получится только Яндекс и Сбер покошмарить, остальные не заметят этого всего».
Другой эксперт полагает, что с новым законом на территории РФ можно будет сначала штрафовать зарубежные ИИ за несоблюдение местных норм, а затем и блокировать. И, опять же, в плюсе остаются локальные «Сбер» и «Яндекс».
Однако пока гораздо более актуальным остается вопрос, каковы, собственно, могут быть критерии для маркировки.
«Необработанная фотка в RAW когда-то была хорошим показателем подлинности, - рассуждает ИТ-специалист Сергей. - Но сейчас даже смартфон с помощью AI делает Луну четче и красивее. Или дизайнер с помощью нейросетки в существующий интерьер встраивает всякие тумбочки-шкафчики. Сразу получаются красивые тени и т.п. Типа если бы он эту тумбочку поместил в интерьер с помощью фотошопа - это было бы норм, можно не маркировать. И все равно, что в фотошопе уже нейросетка для многих операций используется. Так, что ли? А фильтры -улучшалки повсеместные в соцсетях? На каждой аватарке писать «нейро»?
Маргарита Моржакова для Mashnews