Koalicja międzynarodowych organów regulacyjnych wprowadziła szeroko zakrojone nowe przepisy dotyczące technologii chatbotów AI, co stanowi przełomowy moment w globalnym zarządzaniu sztuczną inteligencją.
Ogłoszone 11 czerwca wytyczne wprowadzają obowiązkowe wymogi dotyczące transparentności, które zmuszą firmy do jasnego informowania użytkowników, kiedy mają do czynienia z AI, a nie z człowiekiem. Dzieje się to w momencie gwałtownego wzrostu popularności chatbotów AI – tylko ChatGPT osiągnął ponad 400 milionów aktywnych użytkowników tygodniowo na początku 2025 roku.
Regulacje nakładają także standardy etycznego wykorzystania, wymagając od twórców wdrożenia zabezpieczeń przed szkodliwymi treściami, w tym protokołów dotyczących rozmów o samookaleczeniach oraz mechanizmów zapobiegających generowaniu mylących informacji. Firmy muszą również ustanowić ramy odpowiedzialności pozwalające śledzić i minimalizować uprzedzenia w swoich systemach.
Podejście koalicji równoważy innowacyjność z odpowiedzialnym rozwojem, unikając całkowitych zakazów na rzecz klasyfikacji opartej na ryzyku, podobnie jak w unijnym Akcie o Sztucznej Inteligencji, którego częściowa implementacja rozpoczęła się w lutym 2025 roku. Nowe globalne ramy idą jednak dalej, ustanawiając konkretne wymagania dla technologii chatbotów.
Sześciomiesięczny okres wdrożenia wzbudził mieszane reakcje wśród liderów branży. Podczas gdy największe firmy AI generalnie popierają ustandaryzowane regulacje, mniejsi deweloperzy wyrażają obawy dotyczące kosztów zgodności. Przepisy te pojawiają się w złożonym otoczeniu regulacyjnym – podczas gdy USA przyjmują bardziej liberalne podejście pod administracją Trumpa, UE kontynuuje wdrażanie swojego kompleksowego aktu prawnego dotyczącego AI.
Nowe regulacje pojawiają się w kluczowym momencie, gdy AI coraz bardziej integruje się z codziennym życiem. Eksperci sugerują, że mogą one stać się wzorem dla przyszłej międzynarodowej współpracy w zakresie zarządzania sztuczną inteligencją.