OpenAI Wijzigt Zijn Principes: Wat Verandert Er?
OpenAI heeft zijn principes veranderd. Dit is wat er verandert.
Wat is er veranderd in bijna een decennium van de missie van OpenAI? Laten we een kijkje nemen naar het nieuwe ‘principes’-document van het bedrijf.
OpenAI is minder gefocust op kunstmatige algemene intelligentie (AGI) dan bijna een decennium geleden en prioriteert nu een bredere uitrol van zijn technologie, volgens een nieuwe missieverklaring van het bedrijf.
Op zondag publiceerde OpenAI een update van het document “Onze Principes”, waarin wordt uiteengezet hoe het bedrijf in de toekomst zijn technologie zal beheren. Er zijn enkele belangrijke verschillen tussen deze nieuwe set principes en wat het bedrijf bijna een decennium geleden prioriteit gaf, toen het een opkomende non-profit organisatie voor kunstmatige intelligentie (AI) was.
Afname van de nadruk op kunstmatige algemene intelligentie
In 2018 was OpenAI sterk gefocust op kunstmatige algemene superintelligentie (AGI): het idee dat hun technologie de menselijke intelligentie zou overtreffen. Nu maakt dit echter slechts deel uit van de bredere AI-uitrol van het bedrijf. Beide versies van de principes stellen dat de missie van OpenAI is om ervoor te zorgen dat deze technologie “alle mensen ten goede komt”, maar in de versie van 2018 wordt expliciet vermeld dat het veilig en nuttig moet worden gebouwd.
“Onze primaire fiduciaire plicht is aan de mensheid,” staat in het document. “We verwachten aanzienlijke middelen te moeten mobiliseren om onze missie te vervullen, maar we zullen altijd zorgvuldig handelen om belangenconflicten tussen onze medewerkers en belanghebbenden te minimaliseren die brede voordelen kunnen ondermijnen.”
In de versie van 2026 wordt echter gesteld dat het bedrijf veilige systemen moet blijven bouwen, maar dat de samenleving moet omgaan met “elke opeenvolgende niveaus van AI-capaciteit, deze begrijpen, integreren en samen de beste weg vooruit vinden.”
De weg vooruit, zoals CEO en medeoprichter Sam Altman het in 2026 ziet, is om AI op alle niveaus te democratiseren door iedereen toegang te geven en te verzetten tegen het idee dat de technologie “de macht in handen van enkelen kan consolideren”.
Het document van de principes van 2026 vermeldt ook dat OpenAI verwacht samen te werken met regeringen, internationale organisaties en andere AGI-initiatieven om “ernstige afstemming, veiligheids- of maatschappelijke problemen voldoende op te lossen voordat verder wordt gegaan” met zijn werk.
Voorbeelden hiervan kunnen zijn het gebruik van ChatGPT om modellen te bestrijden die nieuwe pathogenen kunnen creëren of het integreren van cyber-resiliente modellen in kritieke infrastructuur.
Altman gaf eerder deze maand op zijn persoonlijke blog aanwijzingen voor OpenAI’s afname van de nadruk op AGI. AGI heeft een “ring van macht” die “mensen gekke dingen laat doen,” schreef Altman. Om terug te vechten, zei hij dat de enige oplossing is om “de technologie breed te delen, zodat niemand de ring heeft.”
OpenAI zal niet langer opzij stappen om een veiligheidsproduct te ondersteunen
In 2018 zei OpenAI dat het zich zorgen maakte dat de ontwikkeling van AGI “een concurrentierace zonder tijd voor adequate veiligheidsmaatregelen” aan het worden was. Het was toegewijd om zijn eigen modellen stop te zetten om elk project te ondersteunen dat “waarde-georiënteerd en veiligheidsbewust” was, wat dichter bij het bouwen van AGI kwam.
“We zullen specifieke details uitwerken… maar een typische triggerende voorwaarde zou een ‘betere dan even kans op succes in de komende twee jaar’ kunnen zijn,” staat in het document van 2018.
In 2026 wordt er geen melding gemaakt van het opzij stappen om een groter doel te helpen. In plaats daarvan erkent het document dat OpenAI “een veel grotere kracht in de wereld is dan enkele jaren geleden” en belooft transparant te zijn over wanneer en hoe de operationele principes zouden kunnen veranderen.
Het bedrijf heeft grote concurrentie van verschillende rivalen, waaronder Anthropic. In februari weigerde Anthropic de Amerikaanse president Donald Trump onbeperkte toegang tot zijn AI voor het leger, wat leidde tot het labelen van het bedrijf als een supply chain-risico en het bevelen van federale agenten om in maart te stoppen met het gebruik van Anthropic’s AI-assistent Claude.
Op 28 februari stapte OpenAI vervolgens in om de leegte op te vullen, door een overeenkomst te ondertekenen met het Ministerie van Oorlog, wat leidde tot een boycot van ChatGPT door sommige gebruikers ten gunste van Claude. Anthropic werd deze maand ook gewaardeerd op $800 miljard (€696 miljard), gelijk aan OpenAI.
Vage oproepen tot maatschappelijke veranderingen
In het document van 2026 vraagt OpenAI om verschillende maatschappelijke veranderingen zodat de wereld zich beter kan aanpassen aan AI. “We stellen ons een wereld voor met wijdverspreide bloei op een niveau dat momenteel moeilijk te verbeelden is,” staat in het document. “Veel van de dingen waarvan we ons alleen hebben laten dromen in sciencefiction, zouden werkelijkheid kunnen worden, en de meeste mensen zouden betekenisvollere levens kunnen leiden dan de meesten vandaag de dag kunnen.”
Deze toekomst is niet gegarandeerd, omdat AI ofwel “in handen kan zijn van een klein aantal bedrijven die superintelligentie gebruiken en beheersen,” of “decentrraal kan worden gehouden door mensen,” staat in het document.
Het principesdocument herhaalt ook enkele recente beleidsvoorstellen van OpenAI, zoals het verzoek aan regeringen om “nieuwe economische modellen” te overwegen en nieuwe technologieën te ontwikkelen die de kosten van AI-infrastructuur zullen verlagen. “Veel van de dingen die we doen die vreemd lijken—het kopen van enorme hoeveelheden rekenkracht terwijl onze inkomsten relatief klein zijn… worden gedreven door ons fundamentele geloof in een toekomst van universele welvaart,” staat in het document.
