De Verenigde Staten zouden wereldwijd nog wel eens veel meer invloed kunnen krijgen op AI dan ze nu al hebben. Deze week behandelt de Senaat (de Amerikaanse Eerste Kamer) een reeks wetsvoorstellen waarmee de overheid veel meer bevoegdheden krijgt wat betreft het reguleren van AI. Vooraan in de rij om een partijtje mee te blazen staat OpenAI, het bedrijf van CEO Sam Altman. Dergelijke techbedrijven, waar miljarden zijn ingestoken, kijken echt niet lijdzaam toe hoe politici over hun toekomst beslissen.
Eén van de belangrijkste wetsvoorstellen op de rol is de Future of AI Innovation Act. Indien aangenomen, voorziet deze wet in de oprichting van een federaal (lees: nationaal bevoegd) instituut dat voorwaarden en richtlijnen opstelt voor ‘verantwoordelijke’ en ‘veilige’ AI. Andere wetten gaan over het gebruik en de regulering van AI voor onderwijs en onderzoek.
Anna Makanju, Vice President of Global Affairs (let op het ‘global’ in de titel) van OpenAI baarde opzien op LinkedIn door te stellen dat het bedrijf waarvoor ze werkt vierkant achter de missie van het nieuw op te richten United States AI Safety Institute staat, evenals de andere wetsvoorstellen die door de Senaat moeten. “We willen dat [dit instituut] wereldwijd een voorloper wordt op dit gebied, en verwelkomen de groeiende samenwerking met vergelijkbare organisaties in andere landen”.
Invloed die verder gaat dan de VS
Eerder deze week ondertekende OpenAI nog een open brief aan senatoren, waaronder de voorzitter van dezelfde commissie die Makanju in haar LinkedIn-bericht bij name noemt en tagt, waarin steun wordt toegezegd aan het AI-instituut-in-oprichting. Andere ondertekenaars waren onder andere Amazon, Cohere, IBM, Meta, Microsoft, Palo Alto Networks en Salesforce. Google, toch niet de minste, ontbrak overigens in het rijtje.
Het is duidelijk dat OpenAI, evenals een heleboel andere Amerikaanse bedrijven, vooraan wil staan om invloed uit te oefenen op de richting en het beleid van het instituut. Begrijpelijk, want het zou weleens in hoge mate de toekomst van (het gebruik) van AI kunnen bepalen. Niet alleen voor de VS, maar ook de rest van de wereld, waar zowel bedrijven als overheden enorm afhankelijk zijn van Amerikaanse technologie. Om van tevoren al hun steun uit te spreken, hopen dergelijke bedrijven goodwill te kweken en zich te presenteren als gesprekspartner in plaats van louter onderzoeksobject.
Tip: Welke visionair maakt van Europa meer dan een digitaal wingewest?
Macht van Big Tech indammen
Hoe dan ook, er is wetgevers in de VS veel aan gelegen om de macht van Big Tech enigszins te beteugelen. Zoals bijvoorbeeld bij Microsoft, dat in het verleden al het ene na het andere antitrustonderzoek voor de kiezen kreeg. Ook de Europese Commissie wil de invloed van innovatieve en potentieel ontwrichtende technologie graag reguleren, of dat nu gaat met behulp van de Digital Services Act, de Digital Markets Act, de AI Act of de NIS2-richtlijn.
Het recent opgerichte AI Office zou je als Europese tegenhanger van het Amerikaanse AI-instituut kunnen zien. Het is nog wat vroeg om beide instituten te vergelijken, ze bestaan nog maar kort of zijn in oprichting, maar de Amerikaanse organisatie lijkt zich in zijn mission statement meer te bekommeren om wetenschappelijke vooruitgang gekoppeld aan het ontwikkelen van standaarden voor veiligheid en verantwoordelijkheid. Een beetje zoals een nucleair agentschap zich zou profileren.
Het AI Office van de EU lijkt een bredere aanpak voor te staan, met alle bureaucratische lagen, onderwerpen en afdelingen al keurig netjes uitgelegd in een organogram. Dat is ook wel de benadering die we van een EU-instituut zouden verwachten.
Miljarden op het spel
Bedrijven voelen er niets voor om dit ballet van wet- en regelmakerij lijdzaam te ondergaan. In het geval van OpenAI staan er miljardeninvesteringen op het spel, en het is al moeilijk genoeg om deze om te zetten in klinkende winst. Ze willen dus graag mede bepalen hoe regulering eruit gaat zien. Daartoe bieden dergelijke instituten ook de ruimte.
Een andere reden dat grote spelers doorgaans graag aanschurken tegen wet- en regelgevende instanties is omdat dit een geijkte methode is om kleinere, beginnende concurrenten op voorhand kansloos te maken. Denk in het geval van AI aan deals met uitgevers, voldoen aan veiligheidschecks op schaal of detectie van gevaarlijke hallucinaties. Alleen partijen met diepe zakken en een leger aan juristen kunnen aan dergelijke regels voldoen. Partijen als zijzelf, met andere woorden.
Tegelijk wachten dergelijke bedrijven wetgeving waarvan ze weten dat die er gaat komen, niet af. Zo richtte OpenAI samen met Microsoft, Google en Anthropic een organisatie op (het Frontier Model Forum) om de ontwikkeling van AI-modellen in goede banen te leiden–de baan die ze zelf voor ogen hebben. De boodschap is hier dat er ook niet téveel regulering moet zijn en dat spelers in het AI-veld graag hun eigen spelregels maken en hiertoe prima in staat zijn.
Lobbywerk achter de schermen
Ook het zogeheten AI-Enabled ICT Workforce Consortium, dat zorgen moet wegmasseren over baanverlies door AI, valt in dat licht te bezien. Deze club is opgericht door Cisco met steun van Google, Microsoft, IBM, Intel, SAP en Accenture. Vaak hoor je na het nieuws over de oprichting niet zoveel meer van dergelijke instellingen, maar je mag aannemen dat achter de schermen het nodige lobbywerk plaatsvindt. In dit geval een poging van voornamelijk Amerikaanse bedrijven om in het gesprek te blijven met instellingen in Europa, waar werknemers aanzienlijk meer bescherming genieten dan in hun thuisland.
Feit is dat wetgevers in Washington D.C. in de meeste gevallen stukken dichter bij het vuur zitten dan hun collega’s in Europa. En daarmee dus inniger kunnen samenwerken (en vooruit: af en toe ook eens botsen) met de tech-entrepreneurs van Silicon Valley. In Europa slaan nationale overheden vooralsnog geen deuk in een pakje boter wat betreft het beteugelen van de ambities van AI-reuzen.
Beperkte resultaten
Waarschijnlijk laten die dit liever over aan de Europese Commissie, dat voor iedere nieuwe wetgeving een blik NGO’s, activisten, lobbyisten, burgergroepen en andere belanghebbenden opentrekt om alle voors en tegens eens goed tegen elkaar af te wegen. Ondanks deze pogingen om zoveel mogelijk maatschappelijke actoren te betrekken bij de totstandkoming van wet- en regelgeving, lijkt onder de streep de invloed van Europese gremia beperkt. Want ondanks dat er bijvoorbeeld talloze privacyschendingen zijn beboet bij Meta, Google en anderen, is het einde van het liedje vaak dat Big Tech net genoeg concessies doet om grotendeels zijn zin te krijgen.
Op het gebied van AI is Mistral een hoop in bange dagen voor Europa-chauvinisten. De Franse startup gooit hoge ogen met zijn modellen, maar als je de investeringen die het bedrijf weet los te krijgen naast die van hun Amerikaanse concurrenten legt die geregeld miljarden binnen harken, dan moeten we erkennen dat Europa in het AI-harmonieorkest op een trompet blaast en Amerika op een tuba. Dat beperkt ongetwijfeld de invloed van Europese spelers op de richting die AI inslaat.
Lees ook: Europese Commissie vraagt input voor regulering ChatGPT en Gemini