menu
close

Anthropic představuje cílený rámec pro transparentnost AI

Po rozhodném odmítnutí navrhovaného moratoria na regulaci AI Senátem na začátku července 2025 představila společnost Anthropic cílený rámec transparentnosti zaměřený na vývoj špičkové umělé inteligence. Tento rámec stanovuje konkrétní požadavky na zveřejňování bezpečnostních opatření, přičemž se vztahuje pouze na největší vývojáře AI, a vytváří tak vyvážený přístup k samoregulaci odvětví. Iniciativa představuje významný posun v tom, jak se odvětví AI staví k odpovědnosti v situaci, kdy chybí komplexní federální legislativa.
Anthropic představuje cílený rámec pro transparentnost AI

Ve strategickém kroku navazujícím na zásadní legislativní události představila společnost Anthropic komplexní rámec transparentnosti pro špičkové systémy AI, který by mohl změnit standardy odvětví v oblasti bezpečnosti a odpovědnosti.

Dne 7. července 2025, jen několik dní poté, co americký Senát poměrem hlasů 99:1 zrušil kontroverzní desetileté moratorium na státní regulace AI z domácího politického návrhu prezidenta Trumpa, představila společnost Anthropic takzvaný „cílený rámec transparentnosti“, jehož cílem je vyvážit inovace s odpovědným vývojem.

Rámec je záměrně zaměřen pouze na největší vývojáře AI, zatímco menší firmy a startupy chrání před potenciálně zatěžujícími požadavky. Anthropic navrhuje konkrétní kritéria – například roční příjmy přesahující 100 milionů dolarů nebo výdaje na výzkum a vývoj nad 1 miliardu dolarů – podle kterých by se určovalo, na které společnosti se povinnost zveřejňování vztahuje.

„Zatímco průmysl, vlády, akademická sféra a další pracují na vytvoření dohodnutých bezpečnostních standardů a komplexních hodnoticích metod – což může trvat měsíce až roky – potřebujeme mezikroky, které zajistí, že velmi výkonná AI bude vyvíjena bezpečně, odpovědně a transparentně,“ uvedla společnost Anthropic ve svém oznámení.

Jádrem rámce je požadavek, aby kvalifikované společnosti vypracovaly a veřejně zveřejnily „Rámec bezpečného vývoje“, v němž podrobně popíší, jak hodnotí a zmírňují závažná rizika, včetně těch souvisejících se zneužitím chemických, biologických, radiologických a jaderných technologií, stejně jako potenciální škody způsobené nesprávně nastavenou autonomií modelů. Společnosti by také musely publikovat systémové karty shrnující testovací postupy a zavést ochranu oznamovatelů.

Návrh si vysloužil pochvalu od skupin prosazujících odpovědný rozvoj AI. Eric Gastfriend, výkonný ředitel organizace Americans for Responsible Innovation, uvedl: „Rámec společnosti Anthropic posouvá vpřed některé základní požadavky na transparentnost, které potřebujeme, například zveřejňování plánů na zmírnění rizik a zajištění odpovědnosti vývojářů za tyto plány.“ Lehký a flexibilní přístup rámce zohledňuje rychle se vyvíjející povahu AI technologií a zároveň stanovuje základní očekávání pro odpovědný vývoj.

Source: Solutionsreview

Latest News