Op 22 juni 2025 heeft de gouverneur van Texas, Greg Abbott, de Texas Responsible Artificial Intelligence Governance Act (TRAIGA) ondertekend, waarmee de staat zich aan de voorhoede van AI-governance in de Verenigde Staten plaatst. Deze wet markeert het slotstuk van een wetsvoorstel dat nationale aandacht trok en tijdens het wetgevingsproces ingrijpend werd aangepast.
De oorspronkelijke versie van TRAIGA, geïntroduceerd in december 2024, stelde een vergaand reguleringskader voor, gemodelleerd naar de Colorado AI Act en de EU AI Act, met de nadruk op "hoog-risico" AI-systemen. In maart 2025 dienden Texaanse wetgevers echter een aangepaste versie in die de reikwijdte van het wetsvoorstel aanzienlijk beperkte. Veel van de strengste eisen uit het oorspronkelijke voorstel—zoals de plicht om consumenten te beschermen tegen voorzienbare schade, het uitvoeren van impactanalyses en het verstrekken van informatie over hoog-risico AI-systemen aan consumenten—werden geheel geschrapt of beperkt tot alleen overheidsinstanties. Toch bevat de aangenomen wet tal van bepalingen die gevolgen kunnen hebben voor bedrijven die in Texas actief zijn.
De wet stelt duidelijke grenzen aan de ontwikkeling en inzet van AI. TRAIGA verbiedt de ontwikkeling en toepassing van AI-systemen voor bepaalde doeleinden, waaronder gedragsmanipulatie, discriminatie, het maken of verspreiden van kinderporno of onrechtmatige deepfakes, en schending van grondwettelijke rechten. In lijn met Executive Order 14281 verbiedt TRAIGA alleen AI-systemen die worden ontwikkeld of ingezet "met de intentie om onrechtmatig te discrimineren tegen een beschermde groep". Alleen een ongelijk effect is onvoldoende om discriminatie-intentie aan te tonen.
Overheidsinstanties moeten individuen duidelijk en opvallend informeren wanneer zij met een AI-systeem te maken hebben, ongeacht of de interactie voor de hand ligt. In de zorgsector moeten zorgverleners het gebruik van AI voorafgaand aan of tijdens de dienstverlening aan patiënten of hun vertegenwoordigers bekendmaken, behalve in noodgevallen, waarbij de melding zo spoedig mogelijk moet plaatsvinden.
Een belangrijke innovatie in TRAIGA is het 'regulatory sandbox'-programma. Het Texas Department of Information Resources zal in overleg met de Texas Artificial Intelligence Council een programma opzetten dat deelnemers juridische bescherming en beperkte markttoegang biedt om innovatieve AI-systemen te testen zonder dat daarvoor een vergunning, registratie of andere regulatoire toestemming nodig is. Het sandbox-programma is bedoeld om het veilige en innovatieve gebruik van AI-systemen in diverse sectoren te stimuleren, met oog voor consumentenbescherming, privacy en publieke veiligheid.
TRAIGA stelt ook de Texas Artificial Intelligence Advisory Council in, bestaande uit zeven gekwalificeerde leden die worden benoemd door de gouverneur, luitenant-gouverneur en voorzitter van het Huis van Afgevaardigden. De Raad is verantwoordelijk voor het verzorgen van AI-trainingen voor overheidsinstanties en lokale overheden en kan rapporten uitbrengen over AI-gerelateerde onderwerpen als gegevensprivacy en -beveiliging, AI-ethiek en juridische risico's en compliance, met als doel het Texaanse parlement te adviseren over effectief beleid. De Raad mag echter uitdrukkelijk geen bindende regels of voorschriften vaststellen.
Gezien de omvang van Texas, het bedrijfsvriendelijke klimaat en de concentratie van technologiebedrijven in de staat, zal de wet een grote nationale impact hebben op de ontwikkeling en uitrol van AI-systemen en bijbehorende regelgeving en wetgeving. Het wetsvoorstel geeft de Texaanse procureur-generaal Ken Paxton bovendien een extra instrument in zijn recente inspanningen rond privacy- en consumentenbescherming, ook ten aanzien van AI-systemen.