Advertentie
ad

Een ladder naar de maan

De ontwikkeling van AI wordt gekenmerkt door onvoorspelbaarheid, onze omgang ermee door naïviteit, meent Cognitive AI-docent Micha Heilbron. In een historisch-wetenschappelijk overzicht schetst hij de vaak vergeefse pogingen van diepverdeelde wetenschappers om AI-systemen en hun risico’s in kaart te brengen, te begrijpen en voor te zijn.

Besproken boeken

2023 was het jaar waarin de kunstmatige intelligentie definitief doordrong tot het publieke bewustzijn. We zagen computers die foto’s en schilderijen maakten op basis van slechts een beschrijving, en lazen opiniestukken en Kamervragen die geschreven bleken door ChatGPT. Alexander Klöpping was ineens weer bijna dagelijks op televisie. De sfeer is ambivalent gespannen: sommigen zien een heerlijke nieuwe wereld voor zich, anderen vooral gevaren en bezwaren. Eén ding lijkt zeker: AI zal ons leven radicaal veranderen.

Maar hoewel de techniek zich met de dag vernieuwt, is deze stemming niet nieuw: hooggespannen verwachtingen horen vanaf het vroegste begin bij AI. Dat begin wordt vaak herleid tot een workshop aan de universiteit van Dartmouth in 1956. Het doel was om machines te ontwikkelen ‘die taal gebruiken, abstracties en concepten vormen (…) en zichzelf verbeteren’. Hoewel ook in de zes decennia erna geen van deze doelen werd behaald, hoopten de aanwezigen de klus in één zomer te klaren. Dit viel tegen, en uit de bijeenkomst kwam weinig concreets voort, behalve dan de naam van een nieuwe discipline – Artificial Intelligence (AI). Enkele jaren later, maar met hetzelfde beginnersoptimisme, presenteerde de Amerikaanse psycholoog Frank Rosenblatt het eerste zelflerende neurale netwerk. Hoewel zijn Perceptron slechts met moeite het verschil tussen rechts en links had kunnen leren, verwachtte Rosenblatt dat de machine spoedig zou ‘praten, lopen, zich voortplanten en zich bewust zou zijn van haar bestaan’, noteerde een opgewonden verslaggever van The New York Times. Het was 1958 en een nieuwe wereld kondigde zich aan, waarin geest en computer, mind and machine, zouden samensmelten tot een nieuw soort schepping.

Het beschrijven van een specialistisch AI-systeem als eerste stap naar algemene intelligentie is een categoriefout, stelt Mitchell. Het is alsof je een ladder beschouwt als eerste stap richting de maan.

Zulke periodes van uitzinnige verwachtingen werden in de loop der jaren afgewisseld met teleurstelling, het opdrogen van financiering en algehele stagnatie. In Artificial Intelligence: A Guide for Thinking Humans beschrijft hoogleraar informatica Melanie Mitchell deze cyclus treffend. Volgens Mitchell is de boom-and-bust-dynamiek van AI te wijten aan een aantal misvattingen over natuurlijke intelligentie. Hierdoor wordt de uitdaging van het ontwikkelen van kunstmatige intelligentie structureel onderschat, wat leidt tot overmoed en teleurstelling. Een van die misvattingen is dat ‘intelligentie’ een homogeen concept is, een soort continuüm met een platworm aan het ene uiteinde en Einstein aan het andere. Dit leidt tot de neiging om vooruitgang op een specifiek gebied – zoals beeldherkenning, of schaken – te zien als ‘eerste stap’ naar iets groters: algemene intelligentie. Twijfelachtig, want AI-systemen zijn meestal superspecialisten: gezichtsherkenners kunnen vaak alleen gezichten herkennen, schaakcomputers alleen schaken. Zelfs de AI-triomf AlphaGo, het programma dat Go speelt op bovenmenselijk niveau, is niet algemeen intelligent; het kan niet eens een potje dammen. Het beschrijven van zo’n specialistisch systeem als eerste stap naar algemene intelligentie is daarom een categoriefout, stelt Mitchell. Het is alsof je een ladder beschouwt als eerste stap richting de maan.

The devil in the details

De huidige AI-boom begon in 2012, toen Alex Krizhevsky alle concurrentie verpletterde in de jaarlijkse ImageNet-competitie, een strijd om welk computeralgoritme het beste objecten in foto’s kan herkennen. Het gekke was dat Krizhevsky niet won met een nieuw algoritme, maar met een decennia oude techniek: neurale netwerken. Dit zijn zelflerende systemen, losjes gebaseerd op de werking van het brein. Ze bestaan uit een web van kunstmatige ‘neuronen’ die informatie verwerken door allemaal een kleine transformatie toe te passen, waardoor het web als geheel complexe patronen kan herkennen. De netwerken zijn opgebouwd uit lagen. In het geval van beeldherkenning leert de eerste laag bijvoorbeeld randen en lijnen herkennen, een volgende laag simpele patronen zoals hoeken, weer een verdere laag complexe vormen zoals ogen, en het netwerk als geheel objecten zoals honden of katten.

Door wat technische innovaties wist Krizhevsky zijn netwerk op te schalen naar een model van ongekende omvang: een netwerk met miljoenen parameters (dat wil zeggen ‘neuronen’ en verstelbare connecties) dat hij ‘trainde’ op een enorme dataset. Dit opschalen bleek de sleutel tot succes: Krizhevsky liet zijn concurrentie zo ver achter zich dat iedereen inzag dat er een nieuw tijdperk was aangebroken. Een tijdperk waarin AI zich van een academische curiositeit zou ontwikkelen tot een normaal ingenieursvak – iets wat gewoon werkt.

Krizhevsky’s recept van grootschalige netwerken leidde al snel tot andere successen. In het vakgebied hing de geur van vooruitgang in de lucht: collegezalen stroomden over, professoren stapten massaal over naar het bedrijfsleven. Ook voor buitenstaanders waren de effecten merkbaar: ineens kon Facebook je gezicht herkennen, werd elk YouTube-filmpje automatisch ondertiteld, veranderde Google Translate in iets bruikbaars. Er waren zelfrijdende auto’s op komst, hoorden we.

Ondanks deze successen stelt Mitchell dat AI nog altijd wordt geplaagd door dezelfde misvattingen en neiging tot overschatting. Zelfs systemen die ‘bovenmenselijk’ zouden presteren op objectherkenning, blijken onbetrouwbaar: ze kunnen onverwacht en dramatisch falen, soms is het verwisselen van enkele pixels in een foto daarvoor genoeg. Scherp en vooruitziend is Mitchells analyse van de zelfrijdende auto. Sinds 2013 wordt de komst hiervan beloofd, maar telkens blijkt de AI niet betrouwbaar genoeg. Schrijvend in 2019 suggereert Mitchell dat we ondanks de beloften in de nabije toekomst geen volledig autonome auto’s moeten verwachten. Die analyse was raak. Twee jaar later, in 2021, gaf zelfs Tesla’s Elon Musk toe dat het probleem toch moeilijker was dan hij had gedacht.

Schaal als oplossing

Mitchells boek is niet alleen een toegankelijke en omvattende introductie tot AI, het is ook een krachtig pleidooi tegen het overschatten ervan. Met Mitchells argumenten in de hand is het dan ook verleidelijk om het huidige rumoer over bijvoorbeeld ChatGPT weg te wuiven als een zoveelste oprisping van dit manisch-depressieve vakgebied. Die houding is populair bij AI-critici. Nu zitten we in de gekte, hoor je dan, straks volgt de realitycheck, de teleurstelling, de stagnatie. ‘Na het lezen van dit lucide boek zult u opgelucht ademhalen’, stelt een aanbeveling op het omslag. Een geruststellende gedachte – het is allemaal een hype.

Toch zou het een vergissing zijn dat te denken. Wat het lezen van Mitchells analyses in 2023 enigszins beklemmend maakt, is dat ze met haar geruststellende, nuchtere argumenten om AI niet te overschatten, zelf op veel gebieden de vooruitgang van AI dramatisch heeft onderschat. Want sinds het verschijnen van het boek in 2019 kende AI een reeks grote doorbraken. En de drijvende kracht was telkens hetzelfde: opschalen.

Neem taalmodellen. Deze voorspellen het volgende woord en kunnen zo teksten aanvullen en genereren – zoals autocomplete op je telefoon. Lang waren de modellen beperkt tot simpele correlaties tussen woorden, zonder gevoel voor grammatica of betekenis. Bovendien waren ze nauw en specifiek: een model getraind op Shakespeare kon (onsamenhangende, vaak ongrammaticale) teksten genereren die een klein beetje op Shakespeare leken – maar dan ook alleen op Shakespeare.

Technieken als ChatGPT werken vooral goed bij ‘oververtegenwoordigde’ talen, waardoor de voordelen van AI uiteindelijk ook disproportioneel bij sprekers van diezelfde talen terechtkomen. Op die manier reproduceert AI niet alleen discriminatie maar ook westerse culturele hegemonie.

De GPT-modellen van OpenAI (zoals de meest recente ChatGPT en GPT-4) hebben dit principe simpelweg opgeschaald: netwerken met meer lagen, meer neuronen, meer parameters, kortom. En toen gebeurde er iets vreemds: met elke nieuwe versie – met telkens meer parameters, meer trainingsdata – werd het model algemener. Eerst beheerste het alle registers van het Engels, toen werd het meertalig, nu (met GPT-4) voert het coherente gesprekken over ieder onderwerp in bijna honderd talen. Het schrijft essays en gedichten, beheerst wiskunde op middelbareschoolniveau, en kan behoorlijk goed programmeren. GPT heeft dus precies gedaan wat Mitchell niet voor mogelijk hield: beperkte, specialistische kennis (over correlaties tussen woorden) bleek een eerste stap naar algemene, flexibele intelligentie.

Het idee dat je algemene AI kunt bereiken door ‘gewoon op te schalen’ getuigt volgens Mitchell van een frappante naïviteit – alsof je denkt dat een hogere ladder je ook dichter bij de maan brengt. Toch is het precies dit opschalen dat zo succesvol is gebleken. De huidige AI-revolutie is in die zin een triomf van de naïviteit, waarbij de fanatiekste naïevelingen, de grootste gelovigen in De Kracht van Schaal (de mensen achter OpenAI) als overwinnaars uit de bus kwamen. Wat leek op een ladder naar de maan blijkt nu eerder een ruimtelift – het idee om een kabel naar de ruimte te trekken om objecten te lanceren, meeliftend op het draaien van de aarde. Een idee dat aanvankelijk belachelijk klinkt, maar bij nader inzien in zijn briljante eenvoud theoretisch superieur blijkt aan zelfs de meest geraffineerde raket.

Hoever kunnen we nog opschalen? De grootste AI-modellen slurpen stroom en kosten volgens schattingen al vele tientallen miljoenen dollars om te trainen. Ergens moet een grens zijn, zou je denken. Maar de hoop is dat men, surfend op de wet van Moore (de exponentiële toename in rekenkracht en afname in prijs), kan blijven opschalen, kan blijven bouwen aan de ladder. Of het blijft werken weet niemand, maar er is ten minste één argument dat ervoor pleit. Want vergeleken met het menselijk brein – als je dat zou vatten in een geschat aantal ‘parameters’ en hoeveelheid zintuigelijke ‘trainingsdata’ – zijn zelfs de grootste AI-modellen van nu nog piepklein. Zo bezien is er nog reden genoeg om verder op te schalen. Hoe dan ook resulteert voorlopig elke toename in schaal (in data en parameters) in een kwantitatief voorspelbare toename in modelkwaliteit. Daarvoor bestaan wetmatige relaties, die ook met het verschijnen van GPT-4 weer beklemmend accuraat bleken. Kwantiteit is kwaliteit. Je ziet het in ieder AI-gebied, van beeldherkenning tot taal. Dat maakt de huidige ontwikkelingen voor velen zo spannend en opwindend. En ook een beetje eng – want: waar eindigt dit?

Hegemony in, hegemony out

Moeten we bang zijn voor AI? En zo ja, wat moeten we vrezen?

De risico’s van AI vallen uiteen in twee categorieën. De eerste betreft de risico’s van de huidige AI en die in de nabije toekomst. Het gevaar zit hem hier soms niet eens zozeer in kunstmatige intelligentie, als wel in kunstmatige stompzinnigheid. Vaak gaat het om het onnadenkend inzetten van data en algoritmen (die niet per se ‘intelligent’ hoeven te zijn) in steeds belangrijkere processen, zoals fraudedetectie, sollicitatieprocedures of politie en justitie. Omdat het moeilijk te begrijpen kan zijn hoe een algoritme tot een keuze komt, kunnen zulke algoritmen (onbedoeld) discriminatie reproduceren en versterken. Bekende voorbeelden zijn de cv-scanner van Amazon, die sollicitanten zou beoordelen op ‘kwaliteit’ maar vooral een voorkeur had voor mannen, of de gezichtsherkenner van Google Photos, die alleen voor witte mensen werkte – en zwarte mensen classificeerde als gorilla’s. Maar ook bij de meest geavanceerde systemen van vandaag komen discriminatie, vooroordelen en bias voor. Vooral omdat deze zijn getraind op extreem grote hoeveelheden ongefilterde data van het internet; datasets die bol staan van twijfelachtig materiaal vol vooroordelen en discriminatie. Bovendien is toegang tot het internet zeer ongelijk verdeeld en zijn sommige mensen (mannen, witte mensen, Engelstaligen, etc.) oververtegenwoordigd in de data. Technieken als ChatGPT werken bijvoorbeeld vooral goed bij ‘oververtegenwoordigde’ talen, waardoor de voordelen van AI uiteindelijk ook disproportioneel bij sprekers van diezelfde talen terechtkomen. Op die manier reproduceert AI niet alleen discriminatie maar ook westerse culturele hegemonie.

Het tweede type risico is meer speculatief van aard. Dit gaat om hypothetische, toekomstige AI, die de mens voorbij zou streven en aan onze controle zou ontglippen. Zulke AI zou een concurrent, en daarmee een dreiging kunnen worden voor de mens. Want zoals de mens de grootste bedreiging vormt voor elke andere (minder intelligente) diersoort, zo zou volgens sommigen een slimmere, kunstmatige ‘diersoort’ inherent bedreigend zijn voor onze soort.

Aan het in kaart brengen en beteugelen van deze twee soorten risico’s werken twee groepen mensen. Je zou misschien denken dat dit broederlijke bewegingen zijn, zoals milieuactivisten die strijden tegen aantasting van de ozonlaag (korte termijn) en tegen klimaatverandering (lange termijn). Maar helaas, deze groepen – AI Ethics en AI Safety – zijn gescheiden; ze overlappen niet, communiceren niet, en ja, verachten elkaar. Ook ideologisch zijn het tegenpolen: het ethics-kamp is links en strijdt voor sociale rechtvaardigheid, het safety-kamp is libertarisch en dikwijls anti-‘woke’. Beide verwijten elkaar dat ze de aandacht afleiden van het echte probleem.

Het afstemmingsprobleem

In The Alignment Problem: Machine Learning and Human Values van Brian Christian merk je niets van deze strijd. Het boek gaat over beide risico’s, en de groepen die eraan werken, maar maakt geen woord vuil aan de wederzijdse nijd. Dat is verfrissend en ook eigenlijk wel logisch, want fundamenteel zijn beide risico’s te herleiden tot hetzelfde probleem. De algoritmen die steeds meer invloed krijgen op ons leven werken namelijk op basis van machine learning. De maker formuleert een doel (bijv. het onderscheiden van ‘fraudeurs’ en ‘niet-fraudeurs’ of het uitvoeren van een taak) en het algoritme leert zelf een strategie om dit doel te bereiken. De ontwikkelaar bepaalt dus niet vooraf wat het algoritme leert. Bovendien wordt de geleerde strategie vastgelegd in een vaak ondoorgrondelijk wiskundig model, waardoor ook achteraf meestal niet duidelijk is wat het algoritme heeft geleerd. Dit creëert The Alignment Problem, of het ‘afstemmingsprobleem’: hoe zorgen we dat algoritmen daadwerkelijk leren wat we willen en verwachten dat ze leren? Hoe kunnen we de zelfgeleerde strategieën van algoritmen afstemmen op onze waarden en bedoelingen?

Christian neemt ons mee op een tour door de AI en cognitiewetenschap, waarin veel algoritmen hun wortels hebben. Hij schreef het boek op basis van honderden interviews, wat resulteert in een verbluffende stijl vol sprekende details en anekdotes. Hij combineert deze narratieve vorm, zonder figuren of diagrammen (ter vergelijking: het boek van Mitchell telt er vijftig), met een bijzonder talent voor het uitleggen van technische concepten. Dit maakt het boek uniek: het is breed en diep, literair en technisch, stimulerend voor buitenstaanders en experts.

Summerfields schroom is een goede afspiegeling van de huidige gemoedstoestand in het vakgebied, waarin sommige experts plots de noodklok luiden over bovenmenselijke AI, terwijl anderen beduusd toekijken in de overtuiging dat het zo’n vaart toch zeker niet zal lopen.

Christian behandelt dus zowel risico’s van huidige technieken (AI ethics) als die van mogelijke toekomstige AI (AI safety). Met de rappe vooruitgang van vandaag (en nu sommige AI-pioniers plots de noodklok luiden over de gevaren van toekomstige AI) zou je denken dat de langetermijnrisico’s belangrijker zouden voelen dan ooit. Maar ik had juist het omgekeerde. Wat opvalt is hoezeer de risico’s die zich in 2023 aandienen – bijvoorbeeld van AI-systemen die desinformatie kunnen maken, mensen kunnen manipuleren, goed kunnen programmeren en toegang hebben tot het internet – niet werden geanticipeerd tot 2019, toen het boek verscheen. De AI Safety-onderzoekers waar Christian over schrijft hadden duidelijk verwacht dat de doorbraken uit heel andere hoek zouden komen, en de meeste technieken die hij bespreekt om Safety-risico’s te beperken hebben dan ook weinig nut voor de risico’s van vandaag. Dit toont het dilemma: in een veld dat zich snel ontwikkelt lijkt voorbereiding op toekomstige risico’s belangrijk. Maar juist die snelle verandering maakt AI extreem onvoorspelbaar. De langetermijnrisico’s van AI zijn daardoor heel anders dan andere langetermijnrisico’s, zoals klimaatverandering. Ze zijn beter te vergelijken met het risico op een aanval door kwaadaardige aliens: catastrofaal als het gebeurt, maar of het gebeurt, en in welke vorm, is niet te zeggen. Dat geeft het uitgebreid voorbereiden op zo’n risico iets futiels.

Heel anders is dat met de hoofdstukken over AI Ethics (de kortetermijnrisico’s). Deze voelen ook vandaag, nu de techniek weer een stuk verder is, nog relevant. Relevanter zelfs, nu AI steeds vaker en enthousiaster wordt toegepast. Deze aanhoudende relevantie geeft aan hoe sociale problemen die voortkomen uit technologie meestal zelf geen zuiver technische problemen zijn en dus niet door technologische vooruitgang automatisch gefixt worden. Reflectie op de implicaties van AI vereist daarom zowel kennis van de technische aspecten als van de sociale en ethische kwesties zelf. Zulke reflectie wordt steeds urgenter. Voor iedereen die hier belangstelling voor heeft is The Alignment Problem een absolute aanrader.

Een zeepbel, of toch niet?

Staat de kunstmatige intelligentie op het punt om de menselijke intelligentie te evenaren?

Hierover zijn de deskundigen het niet eens; ze vallen uiteen in twee kampen. Het eerste kamp gelooft van wel of houdt er tenminste serieus rekening mee. Zij denken dat de huidige technieken in principe toereikend zijn om bovenmenselijke AI – AI die in algemene zin slimmer is dan mensen – te ontwikkelen. Wat ons nog scheidt van zulke Artificial General Intelligence (AGI), stellen zij, is misschien slechts schaal, enkel parameters en trainingsdata – een hogere ladder, kortom.

Hiertegenover staat de groep die stelt dat huidige technieken principieel ontoereikend zijn. Zij denken dat cruciale ingrediënten van intelligentie simpelweg nog ontbreken. Opvattingen over welke ingrediënten dat dan zijn, verschillen; vaak heeft het te maken met een intuïtief begrip van de fysieke wereld, systematisch of logisch redeneren, of het vermogen tot generalisatie. Mitchell plaatst zich met haar boek met stip in dit kamp en suggereert dat wie verstandig is – de ‘thinking people’ uit haar ondertitel – zich daar ook zal scharen. Lang was dat ook zo; tot voor kort was dit kamp in de overgrote meerderheid.

Maar in de afgelopen jaren, met het verbluffende succes van het simpelweg opschalen, zijn de verhoudingen gaan schuiven. Veel onderzoekers zijn overgelopen naar het eerste kamp, of nemen tenminste die positie voor het eerst serieus. Het in december 2022 verschenen Natural General Intelligence van Christopher Summerfield is exemplarisch voor deze ontwikkeling. Afgaande op de ondertitel – How Understanding The Brain Can Help Us Build AI – zou je verwachten dat de auteur zich in het eerste kamp schaart; het kamp dat stelt dat we nog veel over het brein te leren hebben voor we daadwerkelijk intelligente AI kunnen ontwikkelen. Maar het eigenaardige aan dit boek is dat hij dat juist niet doet. In een reeks zeer rijke hoofdstukken zet Summerfield uiteen wat hij ziet als de kern van natuurlijke intelligentie. Maar in plaats van de verschillen te benadrukken, alle aspecten waarin natuurlijke intelligentie superieur is aan AI (en dat zijn er nogal wat), benadrukt Summerfield juist de abstracte gelijkenissen achter de vele oppervlakkige verschillen. Hij gaat uitgebreid in op de beperkingen van huidige AI: de onbetrouwbaarheid, de inefficiëntie. Maar in plaats van deze te presenteren als bewijs voor de fundamentele ontoereikendheid van huidige AI, zoals Mitchell doet, toont Summerfield zich uiterst behoedzaam. Misschien tonen ze inderdaad een ontoereikendheid, suggereert hij. Maar wellicht is het slechts een kwestie van tijd, van parameters en trainingsdata, voor ook die beperkingen zijn overwonnen. Eigenlijk is voor beide perspectieven wel wat te zeggen. Het resulterende boek is een goudmijn voor studenten en onderzoekers met interesse voor cognitiewetenschap en AI, maar zal een teleurstelling zijn voor wie zoekt naar houvast, naar een omvattende visie op waar AI nu staat, wat de toekomst brengt, of waar het heen moet met het veld.

Summerfields schroom is een goede afspiegeling van de huidige gemoedstoestand in het vakgebied, waarin sommige experts plots de noodklok luiden over bovenmenselijke AI, terwijl anderen beduusd toekijken in de overtuiging dat het zo’n vaart toch zeker niet zal lopen. Zijn de doorbraken van de laatste jaren te extrapoleren naar een almaar stijgende, exponentiële lijn? Of zal het historische patroon zich herhalen, blijkt AI toch weer moeilijker dan gedacht en volgt op de huidige boom toch weer een bust? Hoewel het laatste scenario misschien waarschijnlijker lijkt, is het eerlijke antwoord dat niemand het weet. Wie verstandig is, erkent die onzekerheid, en houdt met beide mogelijkheden serieus rekening. En dan is het nog maar de vraag op welk scenario we als mensheid moeten hopen.