menu
close

Texas Voert Baanbrekende AI-wet In die Innovatie en Toezicht Balanceert

De gouverneur van Texas, Greg Abbott, heeft op 22 juni 2025 de Texas Responsible Artificial Intelligence Governance Act (TRAIGA) ondertekend. Deze wet stelt een uitgebreid kader vast voor AI-regulering dat op 1 januari 2026 van kracht wordt. De wet verbiedt schadelijke AI-toepassingen, creëert een 'regulatory sandbox' voor innovatie en richt een adviesraad op om de implementatie te monitoren. Als een van de meest uitgebreide AI-wetten op staatsniveau in de Verenigde Staten, kan TRAIGA invloed uitoefenen op federale benaderingen van AI-governance.
Texas Voert Baanbrekende AI-wet In die Innovatie en Toezicht Balanceert

In een belangrijke ontwikkeling voor AI-governance in de Verenigde Staten heeft Texas zich gepositioneerd als koploper op het gebied van staatsregulering van kunstmatige intelligentie met de goedkeuring van de Texas Responsible Artificial Intelligence Governance Act (TRAIGA).

TRAIGA, op 22 juni 2025 ondertekend door gouverneur Greg Abbott, creëert een gebalanceerd kader dat zowel het gebruik van AI-technologie door de overheid als door de private sector adresseert. De wet treedt op 1 januari 2026 in werking, waarmee Texas na Colorado de tweede staat is met een allesomvattende AI-wetgeving.

TRAIGA verbiedt de ontwikkeling of inzet van AI-systemen die zijn ontworpen om menselijk gedrag te manipuleren, onrechtmatig te discrimineren tegen beschermde groepen of grondwettelijke rechten te schenden. Voor overheidsinstanties stelt de wet transparantie-eisen, waaronder de plicht om consumenten duidelijk te informeren wanneer zij met AI-systemen te maken hebben.

Een belangrijk innovatief aspect van de Texaanse aanpak is de oprichting van een 'regulatory sandbox'-programma. Dit stelt ontwikkelaars in staat om nieuwe AI-systemen in een gecontroleerde omgeving te testen, met tijdelijke vrijstelling van bepaalde staatsregels. Deze bepaling is bedoeld om innovatie te stimuleren, terwijl het publieke toezicht behouden blijft. Deelnemers moeten elk kwartaal rapporteren over de prestaties van hun systemen, risicobeperkende maatregelen en feedback van belanghebbenden.

De wet richt tevens de Texas Artificial Intelligence Council op, een adviesorgaan van zeven leden ondergebracht bij het Department of Information Resources van de staat. Deze raad zal het gebruik van AI binnen de overheid monitoren, schadelijke praktijken signaleren, wetgevingsupdates aanbevelen en regels identificeren die innovatie mogelijk belemmeren.

De handhavingsbevoegdheid ligt exclusief bij de procureur-generaal van Texas, met civielrechtelijke boetes variërend van $10.000 tot $200.000 per overtreding, plus aanvullende dagboetes bij voortdurende overtredingen. De wet voorziet in een hersteltermijn van 60 dagen voor overtreders en biedt een 'safe harbor'-bescherming voor organisaties die substantieel voldoen aan erkende AI-risicomanagementkaders.

Opvallend is dat TRAIGA zich bij het tegengaan van vooringenomenheid richt op het verbieden van opzettelijke discriminatie, in plaats van het aanpakken van ongelijke uitkomsten. De wet stelt expliciet dat een ongelijke uitkomst (disparate impact) op zichzelf geen bewijs vormt van discriminerende intentie.

Nu federale wetgevers nog debatteren over nationale AI-regulering, zou de allesomvattende aanpak van Texas als voorbeeld kunnen dienen voor andere staten en mogelijk invloed kunnen uitoefenen op de ontwikkeling van federale standaarden in dit snel veranderende domein.

Source:

Latest News