Wraz z rosnącą zaawansowaniem i powszechnością treści generowanych przez sztuczną inteligencję, Google wprowadziło nowe, zaawansowane narzędzie, które ma odpowiedzieć na narastające obawy dotyczące autentyczności i transparentności cyfrowych materiałów.
Ogłoszony podczas Google I/O 2025 SynthID Detector to portal weryfikacyjny umożliwiający szybkie sprawdzenie, czy dana treść została stworzona przy użyciu narzędzi AI od Google. System działa poprzez skanowanie przesłanych plików w poszukiwaniu niewidocznych znaków wodnych SynthID, które Google umieszcza bezpośrednio w generowanych przez AI materiałach, nie wpływając przy tym na ich jakość.
Detektor analizuje obrazy, dźwięki, wideo oraz teksty stworzone przez modele AI Google, takie jak Gemini, Imagen, Lyria czy Veo. Po wykryciu znaku wodnego portal podświetla konkretne fragmenty treści, w których najprawdopodobniej się on znajduje – wskazując np. określone segmenty ścieżki dźwiękowej lub obszary na obrazie.
"Wraz z rozwojem tych możliwości i ich szerszą dostępnością pojawiają się pytania o autentyczność, kontekst i weryfikację" – poinformowało Google w swoim komunikacie. Firma podaje, że od 2023 roku SynthID oznaczył już ponad 10 miliardów treści, co świadczy o dużej skali wdrożenia.
Mimo obiecujących możliwości, SynthID Detector ma swoje ograniczenia. Przede wszystkim rozpoznaje treści stworzone przez modele AI Google lub partnerów, takich jak NVIDIA, którzy zintegrowali technologię SynthID. Nie wykryje natomiast materiałów pochodzących z innych systemów AI, np. ChatGPT od OpenAI. System znakowania staje się też mniej skuteczny w przypadku bardzo krótkich tekstów, mocno edytowanych treści lub po przetłumaczeniu ich na inne języki.
Aby poszerzyć ekosystem, Google udostępniło na zasadach open source technologię znakowania tekstów SynthID, umożliwiając deweloperom wdrażanie jej w swoich własnych modelach. Firma nawiązała również współpracę z GetReal Security – platformą do weryfikacji treści – by zwiększyć możliwości detekcji.
Obecnie narzędzie dostępne jest dla pierwszych testerów, a dziennikarze, przedstawiciele mediów i naukowcy mogą zapisywać się na listę oczekujących na dostęp. Szeroka dostępność spodziewana jest w najbliższych tygodniach. W obliczu wzrostu liczby deepfake’ów o 550% w latach 2019–2024 (według niektórych szacunków), narzędzia takie jak SynthID Detector stanowią ważny krok w budowaniu zaufania do cyfrowego świata coraz silniej kształtowanego przez AI.