Компания «Яндекс» совместно с Институтом системного программирования РАН (ИСП РАН) разрабатывает систему скрытой маркировки для фото, видео и аудиоконтента, генерация которого осуществляется искусственным интеллектом. Эта технология обеспечит возможность определения происхождения контента, что станет значимым шагом в борьбе с дезинформацией и фейками.
Разработка маркировки, о которой сообщают «Ведомости», касается контента, созданного с использованием нейросети «Яндекса» под названием «Шедеврум». Представитель компании подтвердил существование проекта, однако сроки его завершения пока не озвучены. Важно отметить, что эта маркировка не будет заметна для человеческого глаза — речь идет о микроскопических артефактах, которые смогут распознавать специальные анализаторы.
Также «Яндекс» работает над созданием сервиса, позволяющего пользователям определить, является ли изображение продуктом искусственного интеллекта. В планах компании сделать эту технологию открытой для участников рынка и стандартизировать подходы к маркировке, что, по словам экспертов, является необходимым условием для эффективной работы подобных сервисов.
Идея обязательной маркировки контента, созданного с помощью искусственного интеллекта, обсуждалась еще в июле текущего года. Тогда в Минцифры России указывали на необходимость проработки механизмов контроля и определения ответственных субъектов, обязанных осуществлять маркировку. Также рассматривался вопрос введения уголовной ответственности за распространение дипфейков, созданных без согласия лиц, изображенных в контенте.
Одним из собеседников издания было отмечено, что маркировка будет распознаваться только при наличии определенных метаданных или открытых API, что затруднит детекцию контента, созданного другими нейросетями без взаимодействия с «Яндексом». Это поднимает вопрос не только о внутреннем регулировании, но и о международных стандартах в данной области.
Разработка системы маркировки от «Яндекса» может стать важным шагом не только для России, но и для мировой практики в вопросах обозначения контента, созданного ИИ. Ожидается, что внедрение таких инструментов позволит повысить уровень доверия к цифровым материалам и снизить риски, связанные с распространением недостоверной информации.
