Dit is mijn derde post horend bij mijn BNR column Ongevraagd Advies! Alle Ongevraagde Adviezen volg je via Spotify, deze editie vind je hier:
Luister deze column op BNR
Luister deze column op Spotify
(na feedback op eerdere posts de links nu bovenaan ipv onderaan)
Tsja, laten we het maar weer eens over AI hebben…
De Europese Commissie sprak afgelopen week over de AI act, en daar zitten een aantal goede punten in, dus tot zo ver, goed. Maar… de insteek is bijzonder, in hun persuitingen, onder andere op Twitter/X:
Mitigating the risk of extinction from AI should be a global priority.
Ehm…. Waarom hebben zij het nu opeens over het risico over uitsterven door AI (en niet over ook andere dingen, waar het eerder over ging zoals deep fakes)? Het is een veelgehoord argument op dit gebied: het extiction risk. Omdat het zoveel genoemd wordt, en omdat AI zo ongrijpbaar is voor veel mensen, leek het mij goed om daar even dieper in te duiken vandaag.
Het risico op uitsterving door AI wordt door een aantal thought leaders steeds genoemd, onder andere Elon Musk, wetenschappen George Hilton, Sam Altman van ChatGPT, maar ook de achter de schermen erg invloedrijke Eliezer Yudkowsky.
Wat is eigenlijk precies de AI waar mensen heel bang van zijn? We hebben het dan niet over een specifieke AI zoals we die wel kennen van Deep Blue voor schaken of voor een zelfrijdende auto, die maar één taakje kunnen, maar algemene (General) inteliggentie, dat noemen ze vaak AGI: Artificial General Intelligence. Over het algemeen wordt aangenomen dat AGI veel moeilijker te maken is dan een specficieke AI voor één taakje. Robots voor stofzuigen met een beetje AI erin hebben we immers al!
Maar de mensen die nu oproepen tot een ban, dat zijn toch experts? Nou, laten we eerst een kijken naar de voorspellingen van bijv. Hilton en Musk. Ze roepen al jaren dat zelfs smalle AI geweldig zal werken. In 2016 zei Hilton wat we kunnen stoppen met het opleiden van radiologen omdat ze binnen 5 jaar overbodig zouden zijn, dat is nog niet gebeurt, en ook Musk’s herhaaldelijke voorspellingen dat de zelfrijdende auto’s en trucks ophanden zijn, blijkt steeds niet te kloppen. Dus goede voorspellers kunnen we ze niet noemen.
Hoe gaat de AI precies het uitsterven van mensen veroorzaken? Het is dus juist opvallend dat er een totaal gebrek aan een realistisch scenario. Het blijft bij vage, hollywood-achtige scenario’s dat de AI on zal uitroeien, maar een echt verhaal komt er niet. Dat is een schril contrast met bijv klimaatactivisten die hun verhalen over risico’s (al dan niet existentieel) onderbouwen met data, of virologen die al lang waarschuwden voor een Covidachtige pandemie door zoönose. Maar, zeggen mensen dan, waaronder ook oud-Kamerlid Kees Verhoeven: “het zou kunnen hoor”. Ja, alles kan, misschien wordt FC Volendam dit jaar wel kampioen en gaat Max Verstappen morgen kunstschaatsen. Maar dat zulke vage niet onderbouwde uitspraken zo veel aandacht krijgen mag je echt opvallend noemen.
Heeft de oproep om te stoppen al effect? Nou, het is ook ”grappig” (tussen dikke aanhalingstekens) om te zien dat de makers van AI dus helemaal niet stoppen met het maken van meer AI. Als ze echt zo bezorgd waren, kunnen ze hun eigen AI’s zo deleten. Maar Alex Karp van Palantir zei juist dat defensie vol in moet zetten op AI, dat klinkt erg tegenstrijdig. Elon Musk werd door wetenschapper Deborah Raji expliciet gevraagd waarom hij AI in zelfrijdende auto’s blijft stoppen als hij het gevaarlijk vindt. Het feit dat hij niet op die vraag reageerde zegt een hoop. Zo gevaarlijk is het niet!
Maar vind jij het dan goed om lekker door te ontwikkelen met die AI? Nee, en dat maakt de zaak ook zo complex. Ik vind ook dat we op moeten letten met AI inzetten! Maar heel veel risico’s waar wetenschappers en journalisten wel op wijzen, worden niet genoemd worden in de gesprekken van de EU, of zoals de afgelopen week ook in het AI insight bij het Congres in Amerika. Een groot risico, door journalist Cory Doctorow ook wel de “enshittification of the internet” genoemd, is dat AIs het internet vol zetten met onzin en dat we waar niet meer van onwaar kunnen onderscheiden. Dat is geen pief-paf-poef, maar het is al aan de gang en het verhindert mensen om betrouwbare informatie te vinden. Of het risico dat Ais veel slechter getraind zijn op data over sommige mensen, niet alleen de bekende “gezichtsherkenning doet het slechter op zwarte mensen” maar ook bijv nieuw onderzoek dat laat zien dat GPT in het Hongaars of Vietnamees veel slechter werkt. Dus als westerse bedrijven dat wereldwijd inzetten hebben sommige mensen meteen veel slechtere kwaliteit van data. Die risico’s (alhoewel ze gelukkig gedeeltelijk wel in de AI act worden afgedekt) komen veel minder in het nieuws, en dat is niet gek want die risico’s raken witte Silicon Valley mannen maar nauwelijks. Eigenlijk is de enige ramp die de top 1% kan raken, een ramp die werkelijk iedereen raakt. Zo bekeken dus eigenlijk logisch dat dat ze zorgen baart.
En dan het advies aan de Europese Commissie, maar ook een beetje aan de Nederlandse overheid waar met de AI petitie iets vergelijkbaars speelt: Laat je breed informeren over de echte risico’s, vraag door, en waai niet mee met de wind van mensen die nee zeggen maar ja doen!