4min Analytics

Kapitaal of veiligheid: OpenAI ondergaat de gevolgen van kiezen voor kapitaal

Managers vertrekken doordat veiligheid in gedrang komt

Kapitaal of veiligheid: OpenAI ondergaat de gevolgen van kiezen voor kapitaal

Opnieuw vertrekt er iemand uit de top van OpenAI. Miles Brundage was betrokken bij de veilige ontwikkeling van AGI. Het team dat hij leidde, wordt door OpenAI ontbonden. Hoe komt het dat de top van de AI-ontwikkelaar aan een aardig tempo leegloopt?

De gedwongen transitie naar een for-profit-structuur verandert de missie en doelstellingen waar OpenAI vanaf de oprichting voor stond fundamenteel. Investeerders verwachten geld te zien. Een verwachting die niet te verzoenen is met het verkwisten van geld aan onderzoeksprojecten op lange termijn.

Bij OpenAI volgden er daardoor herstructureringen die gepaard gaan met afschaffingen van teams die niet onmiddellijk resultaten kunnen tonen. Het ‘Superalignment’- team werd reeds opgebroken en nu volgt het ‘AGI Readiness’-team.

Ontevreden management

De belangrijkste veranderingen in het team van OpenAI worden alleen niet door het bedrijf zelf besloten. Steeds meer belangrijke personen aan de top van het bedrijf kondigen zelf aan te vertrekken. Dat komt doordat zij inzien dat het streven naar winsten met een belangrijke kanttekening komt. De focus op snelheid gaat namelijk hand in hand met een verlies aan risicopreventie.

Zo richtte het team dat al eerder werd ontbonden zich op het beperken van AI-risico’s op lange termijn. Het team dat OpenAI nu opdoekt adviseerde het bedrijf of zijzelf en de wereld klaar zijn om AGI te beheren en controleren.

Miles Brundage sluit zich aan bij het team van vertrokken management dat bezorgd is over de mogelijke risico’s van de nieuwe organisatiestructuur. De reden van zijn vertrek deelde hij in een uitgebreide blog op Substack. Brundage spreekt over een steeds kleiner wordende vrijheid in onderzoek en publicatie. Volgens hem zijn er onafhankelijke invloedrijke personen nodig in de discussie rondom AI-wetgeving. Deze mogen niet gebonden zijn aan kapitaalbelangen in de industrie. Buiten de OpenAI-omgeving zou Brundage zich in een betere positie voelen om dat te doen.

Volgens dit afscheidsbericht gaat Brundage een andere weg in dan veel van de eerder vertrokken managers. De expertise die eens allemaal binnen OpenAI zat samengepakt, verspreidt zich namelijk over concurrerende bedrijven (bijvoorbeeld Anthropic). Wie de overstap naar de concurrent niet maakt, probeert dan weer zelf een uitdager te worden voor OpenAI. Ilya Sutskever focust zich met zijn nieuwe bedrijf Safe Superintelligence op de veilige ontwikkeling van superintelligentie (AGI). Van Mira Murati kwam recentelijk aan het licht dat zij een eigen AI-bedrijf zou willen opstarten en de eerste investeringsronde al klaarmaakt.

Lees ook: OpenAI-leegloop: rol van vertrokken CTO wordt ingevuld door twee personen

Geen snelheid, geen investeerders

Kan OpenAI het tij nog keren en terugkeren naar de non-profitorganisatiestructuur? Volgens geruchten over de meest recente investeringsronde niet. Er wordt namelijk gedacht dat er tussen OpenAI en investeerders afspraken zijn gemaakt over een nieuwe organisatiestructuur. Een evolutie naar een organisatie die winst maakt ten bate van maatschappelijke doelen moet binnen de twee jaar worden afgerond. Anders mogen de investeerders hun geld terugvorderen.

Tip! OpenAI haalt recordkapitaal op met voorwaarde: geen steun aan Anthropic

Binnen OpenAI draait de ontwikkelingsmotor in ieder geval verder. Het bedrijf zou van plan zijn in december een nieuw AI-model uit te brengen, dat voorlopig bekendstaat onder de codenaam Orion. Dit meldt The Verge. Het model zou volgens deze tijdlijn drie maanden na de uitgave van o1 volgen, dat eerder bekend stond onder de naam ‘Project Strawberry’. Orion zou alleen wel opnieuw een opvolger zijn van GPT-4. O1 is dat niet doordat het model focust op de redenering bij het formuleren van een antwoord, waardoor output langzamer verschijnt.

‘Niemand is klaar voor AGI’

AGI is met de lancering van o1 niet bereikt. OpenAI-CEO Sam Altman probeert de ontwikkeling van superintelligentie wel zo snel mogelijk rond te krijgen. Het plan daarvoor lijkt nu de combinatie van het GPT-LLM met een reasoning-model zoals o1 te zijn. Op welke termijn dat gebeurt, is onduidelijk.

Het vertrek van Brundage geeft nog wat meer inzicht in de tijdlijn van hoever AGI staat. “Noch OpenAI, noch enig ander grenslab is klaar [voor AGI], en de wereld is er ook niet klaar voor”, merkte hij op. Volgens hem is het management van OpenAI hiervan op de hoogte. Volgens hem zijn er bovendien nog veel andere factoren die de gereedheid van de wereld en bedrijven voor AGI bepalen. Het draait namelijk nog om de verdere ontwikkeling van de algemene veiligheidscultuur en regelgeving.

Kort samengevat moeten we niet verwachten dat de ontwikkling van superintelligentie binnenkort is afgerond. Althans, niet als het veilige AGI zou betreffen.

Lees ook: OpenAI lanceert o1, de slimste krachtbron ooit voor ChatGPT