Een coalitie van internationale toezichthouders heeft ingrijpende nieuwe regels geïntroduceerd voor AI-chatbottechnologieën, wat een cruciaal moment markeert in het wereldwijde toezicht op kunstmatige intelligentie.
De op 11 juni aangekondigde richtlijnen stellen verplichte transparantie-eisen vast, waardoor bedrijven duidelijk moeten aangeven wanneer gebruikers met een AI in plaats van een mens communiceren. Dit gebeurt op een moment dat het gebruik van AI-chatbots explosief is toegenomen, met platforms als ChatGPT die begin 2025 meer dan 400 miljoen wekelijkse actieve gebruikers bereikten.
De regelgeving verplicht ook tot ethisch gebruik, waarbij ontwikkelaars waarborgen moeten implementeren tegen schadelijke uitkomsten, waaronder protocollen voor het omgaan met gesprekken over zelfbeschadiging en mechanismen om de verspreiding van misleidende informatie te voorkomen. Daarnaast moeten bedrijven verantwoordingskaders opzetten om vooringenomenheid in hun systemen te monitoren en te beperken.
De aanpak van de coalitie zoekt een balans tussen innovatie en verantwoord ontwikkelen, waarbij men afziet van algehele verboden en kiest voor risicogebaseerde classificaties, vergelijkbaar met de EU AI Act die in februari 2025 gedeeltelijk van kracht werd. Het nieuwe wereldwijde kader gaat echter verder door specifieke eisen te stellen aan chatbottechnologieën.
De implementatietermijn van zes maanden stuit op gemengde reacties vanuit de sector. Grote AI-bedrijven steunen doorgaans gestandaardiseerde regelgeving, terwijl kleinere ontwikkelaars zich zorgen maken over de nalevingskosten. De regels komen te midden van een complex regelgevend landschap, waarbij de VS onder de regering-Trump een meer permissieve koers vaart, terwijl de EU haar uitgebreide AI Act verder uitrolt.
Deze regelgeving komt op een cruciaal moment nu AI steeds meer verweven raakt met het dagelijks leven. Experts suggereren dat de regels als model kunnen dienen voor toekomstige internationale samenwerking op het gebied van AI-governance.