menu
close

Anthropic Onthult Gericht Kader voor Transparantie rond AI

Na de beslissende verwerping door de Senaat van een voorgestelde moratorium op AI-regulering begin juli 2025, heeft Anthropic een gericht transparantiekader geïntroduceerd dat zich richt op de ontwikkeling van geavanceerde AI. Het kader stelt specifieke openbaarmakingsvereisten vast voor veiligheidsmaatregelen en is uitsluitend van toepassing op de grootste AI-ontwikkelaars, wat zorgt voor een evenwichtige aanpak van zelfregulering binnen de sector. Dit initiatief betekent een belangrijke verschuiving in de manier waarop de AI-sector omgaat met verantwoordelijkheid in afwezigheid van uitgebreide federale wetgeving.
Anthropic Onthult Gericht Kader voor Transparantie rond AI

In een strategische zet na belangrijke wetgevende ontwikkelingen heeft Anthropic een uitgebreid transparantiekader onthuld voor geavanceerde AI-systemen, dat de industrienormen voor veiligheid en verantwoordelijkheid zou kunnen herdefiniëren.

Op 7 juli 2025, slechts enkele dagen nadat de Amerikaanse Senaat met 99 tegen 1 stemde om een controversieel moratorium van tien jaar op staatsregulering van AI uit het binnenlands beleid van president Trump te schrappen, introduceerde Anthropic wat het een 'gericht transparantiekader' noemt, bedoeld om innovatie in balans te brengen met verantwoordelijke ontwikkeling.

Het kader is bewust alleen gericht op de grootste AI-ontwikkelaars en ontziet kleinere bedrijven en startups van mogelijk belastende verplichtingen. Anthropic stelt specifieke drempels voor—zoals een jaarlijkse omzet van meer dan $100 miljoen of R&D-uitgaven van meer dan $1 miljard—om te bepalen welke bedrijven onder de openbaarmakingsverplichtingen van het kader vallen.

"Terwijl industrie, overheden, academici en anderen werken aan het ontwikkelen van overeengekomen veiligheidsnormen en uitgebreide evaluatiemethoden—een proces dat maanden tot jaren kan duren—hebben we tussentijdse stappen nodig om ervoor te zorgen dat zeer krachtige AI veilig, verantwoord en transparant wordt ontwikkeld," aldus Anthropic in de aankondiging.

De kern van het kader is de eis dat in aanmerking komende bedrijven een 'Secure Development Framework' ontwikkelen en publiekelijk bekendmaken, waarin zij uiteenzetten hoe zij ernstige risico's inschatten en mitigeren, waaronder risico's rond chemisch, biologisch, radiologisch en nucleair misbruik, evenals mogelijke schade door niet-uitgelijnde modelautonomie. Bedrijven zouden daarnaast systeemkaarten moeten publiceren die testprocedures samenvatten en klokkenluidersbescherming implementeren.

Het voorstel wordt geprezen door AI-belangengroepen. Eric Gastfriend, uitvoerend directeur bij Americans for Responsible Innovation, merkt op: "Anthropic's kader bevordert enkele van de basisvereisten voor transparantie die we nodig hebben, zoals het publiceren van plannen voor risicobeperking en het verantwoordelijk houden van ontwikkelaars voor die plannen." De lichte en flexibele benadering van het kader erkent het snel veranderende karakter van AI-technologie, terwijl het basisverwachtingen vastlegt voor verantwoordelijke ontwikkeling.

Source: Solutionsreview

Latest News