В эпоху, когда различить контент, созданный человеком и искусственным интеллектом, становится всё сложнее, Google представила важный инструмент в борьбе с дезинформацией и дипфейками.
Анонсированный в мае на Google I/O 2025, SynthID Detector предоставляет централизованный портал для проверки, где пользователи могут загружать медиафайлы, чтобы определить, содержат ли они невидимые водяные знаки SynthID от Google. Система анализирует изображения, текст, аудио и видео, выделяя фрагменты, которые с наибольшей вероятностью были созданы ИИ.
«По мере развития этих технологий и их широкого распространения возникают вопросы подлинности, контекста и проверки», — заявил Пушмит Кохли, вице-президент по науке и стратегическим инициативам Google DeepMind. Новый портал отвечает на эти вызовы, обеспечивая необходимую прозрачность в быстро меняющемся мире генеративных медиа.
Технология SynthID уже пометила водяными знаками более 10 миллиардов единиц контента с момента запуска в 2023 году. Изначально ориентированная на ИИ-изображения, технология теперь охватывает также текст, аудио и видео, созданные моделями Gemini, Imagen, Lyria и Veo.
Хотя SynthID является значительным шагом вперёд в верификации контента, у системы есть ограничения. Она работает преимущественно в экосистеме Google, хотя компания сотрудничает с NVIDIA для маркировки видео, созданных их моделью Cosmos. Кроме того, Google признаёт, что SynthID не является абсолютной защитой и может быть обойдён, особенно при работе с текстом или при сильной модификации изображений.
Исследование Университета Мэриленда показало, что с помощью специальных техник можно удалить ИИ-водяные знаки; учёные пришли к выводу, что «водяные знаки полезны для повышения прозрачности, но не обеспечивают абсолютную защиту от манипуляций с ИИ-контентом».
Для расширения охвата SynthID Google открыла исходный код фреймворка для водяных знаков в тексте и заключила партнёрство с GetReal Security для сторонней верификации. В настоящее время SynthID Detector доступен для ранних тестировщиков — журналисты, медиа-специалисты и исследователи могут записаться в лист ожидания для получения доступа.