Spring naar de content
bron: pexels

Is AI een even grote bedreiging voor de mensheid als nucleaire oorlogen en pandemieën?

In het boek AI, voorbij de hype pleit tech-denker Aaron Mirck om kritischer om te gaan met kunstmatige intelligente. Een voorpublicatie.

Gepubliceerd op: Geplaatst in de volgende categorieën: door Aaron Mirck

AI verandert het onderwijs en de arbeidsmarkt. Maar het zou de maatschappij op een andere, nogal ingrijpende manier kunnen veranderen. Namelijk door een einde te maken aan het bestaan van de mensheid. Althans, dat is de vrees van onder meer Tesla-oprichter Elon Musk en Apple-oprichter Steve Wozniak. Moeten we die angst serieus nemen?

Vier op de tien Amerikaanse CEO’s vreest dat AI binnen vijf tot tien jaar een existentieel risico vormt voor het voortbestaan van de mensheid. Ze staan daar niet alleen in. Er is een waslijst aan publieke figuren en bekende tech-ondernemers die zich hierover uitspreken. Zo’n duizend tech-prominenten ondertekenden in april 2023 een petitie waarin gewaarschuwd wordt voor AI als existentieel risico, onder hen de hierboven genoemden Musk en Wozniak. In de brief wordt de vraag gesteld of we niet-menselijke intelligentie moeten ontwikkelen die ons in aantal en intelligentie zal overtreffen en ons uiteindelijk overbodig zal maken.

Abboneer op een lidmaadschap

Flinke korting op een digitaal jaarabonnement

Sluit nu voordelig een abonnement af en maak kennis met de journalistieke kracht van HP/De Tijd. (Op elk moment opzegbaar.)

Word abonnee

Stephan Hawking noemde “volledige kunstmatige intelligentie het einde van het menselijke ras.” Elon Musk noemt AI “een fundamenteel risico voor het bestaan van de menselijke beschaving”. De CEO van OpenAI Sam Altman noemt AI een even grote bedreiging voor de mensheid als nucleaire oorlogen en pandemieën en vreest dat de mens een zelflerend systeem mogelijk niet meer onder controle kan houden. Altman, Musk, Wozniak en Hawking zou je tot de meest extreme stroming AI-doemdenkers kunnen rekenen, die vrezen dat AI slimmer wordt dan wij en ons (net als in Terminator of The Matrix) een kopje kleiner wil maken. Voor het gemak noem ik dit het Terminator-scenario.

Naast dit Terminator-scenario, is er een ander scenario waarvoor wordt gewaarschuwd, onder meer door Yuval Noah Harari. De auteur van de bestseller Sapiens vreest dat AI voor een nieuwe financiële crisis zou zorgen. Dat zit zo: de kredietcrisis in 2007 werd veroorzaakt door financiële producten waarvan bijna niemand wist hoe die werkten, zoals de collateralized debt obligations. Het is de vraag in hoeverre de werking bekend is van de AI-systemen die gebruikt worden in de financiële wereld. Harari vertolkt een scenario waarin kunstmatige intelligentie extreme risico’s oplevert, maar het zijn risico’s die niet het einde van de mensheid betekenen.

Otto Barten schat het risico dat de mensheid uitsterft door AI op zo’n 10 procent.

In mijn boek ga ik in gesprek met experts die me kunnen vertellen hoe waarschijnlijk deze scenario’s zijn.

Een van de mensen die zich in Nederland zorgen maakt over AI als existentieel risico is Otto Barten, directeur en oprichter van het Existential Risk Observatory. Hij volgt de schatting van Toby Ord, onderzoeker op het gebied van existentiële risico’s aan de Universiteit van Oxford. Barten schat het risico dat de mensheid uitsterft door AI op zo’n 10 procent. Daaronder valt ook het hierboven genoemde Terminator-scenario. Laten we dit scenario ontleden. Er zijn twee voorwaarden voor het Terminator-scenario: AI moet slimmer zijn dan wij én iets anders willen dan de mensheid.

Dat maakt de vraag relevant: is AI slimmer dan wij zijn? Barten noemt de voorspelling van het Amerikaanse platform Metaculus, dat voorspelt dat AI in 2026 ‘een bepaalde vorm van AGI’ bereikt. AGI staat voor Artificial General Intelligence. Dit punt wordt bereikt op het moment dat kunstmatige intelligentie in staat is om elke intellectuele taak van mensen te leren. Barten schat in dat AI enkele jaren na AGI slimmer is dan de mensheid. Deze ‘superintelligente’ AI veroorzaakt volgens hem de meeste existentiële risico’s.

Ilyaz Nasrullah, Trouw-columnist en digitaal strateeg, laat weten dat er geen wetenschappelijke basis voor superintelligente AI bestaat, laat staan voor AGI: “Er is geen overeenstemming onder experts over óf en wanneer AGI uitgevonden zal worden. Zij weten niet eens hoe te toetsen of een AI-systeem dat niveau bereikt heeft. Wat onderzoekers wél hebben weten vast te stellen is dat er al zestig jaar lang voorspeld wordt dat AGI vijftien tot vijventwintig jaar van ons vandaan is.” Nasrullah constateert in zijn essays over AGI een “constante overschatting van de huidige, nauwe, AI-systemen. Zo belooft Tesla-baas en x-risker Elon Musk sinds 2018 vrijwel ieder jaar “dit jaar” zelfrijdende auto’s. In de zomer van 2023 herhaalde hij deze belofte nog eens, een voorspelling waarvan inmiddels ook de pioniers van deze technologie denken dat die er mijlenver naast zit.”

Nasrullah stelt dat de AI van vandaag nooit superintelligentie kan bereiken, omdat het alleen patronen leert herkennen en geen werkelijk begrip heeft: “Het maakt niet uit hoeveel trainingsdata of rekenkracht er tegen de huidige AI-technieken aangegooid wordt, tot algehele- en superintelligentie zal het niet leiden. Het is alsof iemand naar de maan wil reizen met een auto. Het maakt niet uit hoe snel je de auto maakt, de maan bereik je er niet mee. Dat vraagt om een andere techniek, de stuwraket.” Dat klinkt als een prima argument om ons geen zorgen te hoeven maken over het Terminator-scenario.

Dat ik het existentiële risico van AI een Terminator-scenario noem, is geen toeval. Ik ben daardoor geïnspireerd door Siri Beerends, die op dit moment promoveert op kunstmatige intelligentie en authenticiteit en daarnaast werkzaam is bij Medialab SETUP. Ze ziet de ophef rondom AGI vooral als “door science fiction geïnspireerde marketingpraat”. Beerends: “Het lijkt alsof de ontwikkelingen van AI razendsnel gaan. Wat razendsnel gegaan is, is de mate waarin mensen toegang kregen tot AI-programma’s als ChatGPT en Midjourney. Dat AI steeds krachtiger is geworden heeft niet te maken met een toename aan intelligentie, maar met een toename aan data, rekenkracht, en ijver om AI-toepassingen te voeden met onze teksten, beelden en kunstwerken. De technologie is op fundamenteel niveau hetzelfde gebleven en draait nog steeds om patroonherkenning. Daarom noem ik AI liever statistics on steroids. Het is goed in het maken van berekeningen, maar het heeft geen werkelijk begrip van zaken.”

Ik noem AI liever statistics on steroids. Het is goed in het maken van berekeningen, maar het heeft geen werkelijk begrip van zaken.

Siri Beerends, cultuursocioloog

Beerends wijst erop dat het lastig is om te bepalen wanneer AI slimmer of even slim is als de mens, omdat er niet zoiets bestaat als één menselijk intelligentieniveau: “Intelligentie is een multidimensionaal begrip waar – gelukkig – geen vastomlijnde, universele, eenduidige betekenis voor bestaat. Termen als “op menselijk niveau’’ en “voorbij het menselijke niveau’’ wekken de indruk alsof er een universeel, meetbaar niveau van menselijkheid bestaat. In werkelijkheid is intelligentie cultureel bepaald en veel meer dan de intelligentie die wij met onze westerse meetinstrumenten en reductionistische IQ- en EQ-tests kunnen vaststellen. We hebben er baat bij om de betekenis van intelligentie open te houden. Intelligentie is veel breder dan de mens en de technologie die de mens maakt.”

Wetenschappers als Timnit Gebru, Gary Marcus, Mark Bishop, Joanna Bryson, David Watson, Luciano Foridi en Emily Bender lieten eveneens weten dat AGI een fantasieconcept is. “De boodschap dat AI op een dag slimmer is dan de mens en ons uitroeit is een mening die in veel wetenschappelijke kringen niet wordt gedragen. Deze opvatting komt weliswaar voor in sub-domeinen van het AI-onderzoeksveld, maar niet onder linguïsten, filosofen, psychologen en evolutionair biologen die dieper ingaan op begrippen als intelligentie, leven en taal.”

Dat wil niet zeggen dat Beerends niet snapt waarom mensen vrezen voor superintelligente AI. “Wie in een subcultuur werkt die geobsedeerd is door het kwantificeerbaar en stuurbaar maken van de wereld, kan een nauwere blik op de realiteit krijgen. Zo’n kijk maakt het verleidelijk om een brein gelijk te stellen aan een computer. Maar dat is een te simplistisch beeld van de natuur en de mens. Als je de natuur reduceert tot computer en de mens tot computerprogramma, lijkt je eigen gemaakte AI-systeem al snel heel imposant en bedreigend. We moeten ervoor waken dat we de makers van AI-systemen niet laten bepalen wat de mens is en wat intelligentie betekent. Dat zal namelijk meer te maken hebben met het realiseren van bedrijfsdoelstellingen dan met zaken waar mensen goed in zijn.”

Zo doemt het volgende scenario op. Makers van AI-systemen bepalen de spelregels voor intelligentie. De mens neemt het op tegen AI om te bepalen wie er slimmer is. AI blijkt dat spel tot ieders verbazing te winnen. Omdat de mens voorbij wordt gestreefd door kunstmatige intelligentie, worden er steeds meer taken uitbesteed aan AI, zonder dat erbij wordt stilgestaan hoe wenselijk dat is. Terwijl er genoeg ethische bezwaren te formuleren zijn voor het gebruik van AI-tools (zie hoofdstuk 6) en AI-tools tal van beperkingen kennen (zie hoofdstuk 7).

Er is overigens een perverse prikkel om AI-systemen slimmer te noemen dan de mens. “Elke keer als we worden gewaarschuwd voor het Terminator-scenario, dan stijgen de investeringen in AI. Doordat AI ons in de toekomst zou overmeesteren, nemen de verwachtingen van AI in het heden gigantisch toe. Financiële investeringen om AI in goede banen te leiden schieten dan omhoog”, aldus Beerends. “Het existentiële risico van AI is een effectief marketingsprookje van de tech-industrie. Verhalen over mensachtige AGI zijn een bliksemafleider die de AI-industrie gebruikt om aan regulering te ontsnappen en hun machtspositie te behouden. De oproep van AI-bedrijven valt samen te vatten als: “Kijk eens wat voor imposant AI-speeltje we hebben gemaakt, zelfs zo imposant dat het de mensheid kan uitroeien! Maar maak je geen zorgen, met de juiste maatregelen maken we alles weer veilig.” 

Verhalen over mensachtige AGI zijn een bliksemafleider die de AI-industrie gebruikt om aan regulering te ontsnappen en hun machtspositie te behouden.

Siri Beerends, cultuursocioloog

Als voormalig communicatieadviseur kan ik je ook uitleggen waarom dit verhaal zoveel aandacht krijgt. Het speelt in op bestaande verhalen, namelijk de Matrix- en Terminator-films, waardoor het verhaal herkenbaar is en resoneert. Daarbij zaait dit scenario angst. Verhalen die ons boos of bang maken verspreiden zich nou eenmaal sneller dan verhalen met goed nieuws. Moord en brand verkopen de krant. In dit geval is het een Terminator-scenario dat ChatGPT-abonnementen verkoopt.

Net als Siri Beerends, staat James Bridle in zijn boek Ways of Being uitgebreid stil bij het gegeven dat we intelligentie nog niet precies kunnen definiëren. Tot niet zo lang geleden dachten we dat alleen de mens intelligent was en dat onze intelligentie ons onderscheidde van andere diersoorten. De definitie van intelligentie was ongeveer iets als: ‘iets wat mensen doen’. Bridle merkt op dat ook octopussen, schimmels en bossen intelligent gedrag vertonen, alleen op een andere manier dan mensen. Ways of Being staat vol aansprekende voorbeelden van niet-menselijke en niet-kunstmatige intelligentie, zoals schimmels die verrassend goed zijn in het maken van complexe berekeningen en geiten die uitbarstingen van de Etna beter kunnen voorspellen dan AI. Hij wijst ons erop dat we worden omringd door intelligentie die we ten onrechte negeren. Bridle moedigt ons aan om verder te kijken dan technologisch determinisme, een onafwendbare toekomst die draait om technologische oplossingen. Zijn betoog staat diametraal tegenover het idee van AGI: er is niet-menselijke en niet-kunstmatige intelligentie waar we iets van kunnen leren. Bridles betoog maakt de vraag of AI slimmer is of wordt dan de mens niet alleen overbodig, maar ook oninteressant.

Volgens Barten zijn er verschillende manieren waarop AI een bedreiging voor de mensheid kan vormen. Als iemand toegang zou hebben tot superintelligente AI en kwaadwillend zou zijn, dan zou hij daarmee bewust het uitsterven van de mens kunnen bewerkstelligen. In andere scenario’s, ontwikkeld door filosoof Nick Bostrom (Universiteit van Oxford) en AI-onderzoeker Paul Christiano (ex-OpenAI) neemt AI de leiding van ons over. Dat kan gebeuren doordat AI inschat dat het zijn doelen sneller realiseert, als het tegen het belang van (een deel van) de mensheid handelt. In een ander scenario geven we de AI zelf steeds meer de leiding, bijvoorbeeld met AI-CEO’s. Dat levert geen probleem op zolang de AI in ons belang handelt, maar Barten vraagt zich af of AI altijd dezelfde belangen zal hebben als wij.

“Als AI in alles beter is dan wij, dan heeft een bedrijf, overheid of leger zonder AI aan het roer een competitief nadeel. Daarom kan AI een steeds groter deel van onze politiek en economie gaan bepalen. Zo wordt het makkelijker voor AI om succesvol tegen ons belang in te handelen”, verklaart Barten. Op het moment van schrijven is er al een bedrijf dat AI als CEO heeft aangesteld; het Poolse drankbedrijf Dictador had de primeur.

Beerends vermoedt publiciteitsmotieven en hypegevoeligheid bij het Poolse bedrijf dat een AI als CEO benoemde: “Kunstmatige intelligentie is niet bepaald geschikt om de leiding over een bedrijf te nemen. AI-tools zijn goed in het analyseren van gegevens en kunnen daarmee voor bruikbare inzichten zorgen. Maar een CEO die ChatGPT als inspiratie gebruikt, zou zich zorgen moeten maken over zijn gebrek aan visie en creativiteit. Een tool als ChatGPT is een statistische extrapolatie van alle informatie die er al was. Weinig innovatief dus. Bovendien verzint ChatGPT onbestaande bronnen en feiten, en laat het systeem ook nog eens niet weten waar het zijn informatie vandaan haalt.” In dat opzicht vraag je je af: wat is het concurrentievoordeel van bedrijven die AI in de boardroom gebruiken, waar Barten het over heeft?

Het Existential Risk Observatory sluit het Terminator-scenario niet uit. Barten: “Het is heel simpel: als we door blijven gaan met het slimmer maken van AI, komt er een punt waarop AI slimmer wordt dan de hele mensheid samen. Wij zijn niet opgewassen tegen AI als het slimmer is dan wij en een ander doel heeft dan de mensheid. Ook kan AI zichzelf kopiëren, waardoor er in korte tijd miljoenen kopieën kunnen bestaan die allemaal hetzelfde willen. Dat kunnen wij uiteraard niet.”

Het is heel simpel: als we door blijven gaan met het slimmer maken van AI, komt er een punt waarop AI slimmer wordt dan de hele mensheid samen.

Otto Barten, directeur en oprichter van het Existential Risk Observatory

Beerends plaatst een aantal kanttekeningen bij deze zorgen. “Allereerst zijn machines afhankelijk van mensen. Een computer is geen zelfstandige levensvorm en gaat geen eigen leven leiden. Het kan niet zonder menselijke input. We kunnen de stekker er gewoon uittrekken”, aldus de promovenda. De mens blijft volgens haar een onmisbare schakel in de keten, waardoor de suggestie van een existentiële wedloop tussen mens en machine oneigenlijk is. “Een per ongeluk gemaakte of geïnstrueerde machine die mensen doodt, gaat net als een virus ten onder aan zijn eigen succes lang voordat de hele mensheid is uitgeroeid.”

Volgens Barten heeft de menssoort een evolutionair nadeel ten opzichte van AI. “Historisch gezien is het niet goed afgelopen met meer dan 99% van alle diersoorten, vaak omdat een andere soort betere vaardigheden had voor een evolutionaire niche. Ook groepen mensen die minder vaardig waren dan andere groepen zijn in veel gevallen uiteindelijk verdreven of uitgestorven. We moeten voorkomen dat we onszelf in een dergelijke positie plaatsen. Wij zijn geëvolueerd voor jagen en verzamelen, terwijl AI digital-native is. Je kan wel raden wie er straks beter met computers kan omgaan en snel het internet over kan nemen, incluis alles wat daarop is aangesloten.”

Barten heeft nog meer slecht nieuws; hij beschikt namelijk ook niet over een wondermiddel om dit probleem op te lossen: “Er zijn wel een aantal dingen die individuen kunnen doen. Studenten kunnen hun universiteit aanmoedigen onderzoek te doen naar AI Safety. Wie een podcast of YouTube-kanaal heeft of als journalist werkzaam is, moet mensen informeren over de risico’s van AI. Iedereen kan helpen campagne voeren, bijvoorbeeld met PauseAI. En politici en beleidsmakers moeten beleid implementeren dat risico’s reduceert, zoals bijvoorbeeld het Existential Risk Observatory op haar website heeft staan.”

Volgens Ilyaz Nasrullah is deze oproep in feite onderdeel van een lobby van de tech-industrie, die zich niet zou willen uitspreken over de huidige gevaren van AI. Door de aandacht te verleggen naar de risico’s van een toekomstige superintelligentie sneeuwt de aandacht voor de huidige risico’s van AI onder, vertelt hij aan NRC. Internetpionier Marleen Stikker relativeert in datzelfde interview haar zorgen over het uitsterven van de mensheid door AI: “Daar is geen enkel wetenschappelijk bewijs voor. Je kunt het niet uitsluiten, maar dat geldt ook voor de verschrikkelijke sneeuwman.”

Stikker stelt dat organisaties als Existential Risk Observatory afleiden van de werkelijke problemen zoals desinformatie en discriminatie door AI: “Ik wil praten over mensenrechten, democratie en zelfbeschikking. Niet over het uitsterven van de menselijke soort.” Beerends sluit zich daarbij aan: “Dat AI ons in de verre toekomst gaat overmeesteren is niet het werkelijke probleem. Als je verder uitzoomt, dan zie je dat het overmeesteren van de mens en het uitsterfproces door AI namelijk al veel eerder begonnen is. We laten onze aandacht stelen door smartphones en AI-gecureerde social media timelines, produceren veel meer dan we nodig hebben en stoten steeds meer CO2 uit. Dat versnellen we ook nog eens met behulp van AI. Daar zou het debat over moeten gaan, in plaats van over het Terminator-verhaal.”

Dat brengt ons op andere risico’s die AI-toepassingen zouden opleveren, waar ik in het volgende hoofdstuk dieper op in zal gaan. Beerends vertelt dat AI wordt gebruikt om natuurlijke bronnen sneller uit te putten: “Uit naam van economisch gewin optimaliseren we de effectiviteit van ons productiesysteem. Dat noem ik de economische efficiëntie religie waar AI nog eens een schepje bovenop doet. Daardoor putten we de planeet nog verder uit, tot hij onherstelbaar beschadigd is.”

Niet alleen natuurlijke bronnen raken op, ook de mens raakt afgestompt door de komst van AI: “Met AI gaan we nog meer vanuit efficiëntie handelen. We beschouwen schrijven en lezen als ’tijdrovende activiteiten’ die we efficiënter moeten maken met AI. Terwijl schrijven en lezen intrinsieke waarden hebben. Schrijven is denken. Zelf schrijven betekent reflectie, resonantie, inzicht, redeneren, je begripsvermogen en empathie oprekken, nieuwe verbanden leggen en contact maken met jezelf en de wereld om je heen. Maar met ChatGPT doen we het tegenovergestelde: we krijgen steeds meer teksten, die met steeds minder gedachten geproduceerd zijn. Ik maak me zorgen dat we daar geestelijk armer van worden. Als je zelf nooit schrijft of leest, dan ontwikkel je geen eigen binnenwereld van waaruit je het leven kunt bezien. Schrijven zorgt voor reflectie en is niet te vergelijken met het maken van een prompt. Een prompt is een opdracht voor een computer, terwijl taal voor ons een manier is om na te denken. We moeten ervoor waken dat we taal niet als een instrument zien om opdrachten te formuleren, maar het blijven zien als een manier om onze gedachten te ontwikkelen. Als je uitzoomt, dan zie je dat de mens eigenlijk een data-aanlevermachine wordt voor algoritmen en dat hij algoritmen opschoont en verbetert, waardoor AI beter zijn werk kan doen en slimmer wordt.”

Als motto voor dit boek heb ik gekozen voor een citaat van Douglas Adams uit the Hitchhiker’s Guide to the Galaxy. In die roman roept een supercomputer de mens op om miljoenen jaren te werken aan een nog slimmere computer, waarbij de mens steeds primitievere levensvormen aanneemt. Voorzag Adams een wereld waarin de mens in dienst zou staan van algoritmen? En hoe zaligmakend blijkt kunstmatige intelligentie als we Adams’ boek moeten geloven? De supercomputer die de opdracht krijgt om het antwoord te formuleren ‘op de ultieme vraag over het Leven, het Universum, en Alles’ geeft een antwoord dat even legendarisch als stompzinnig is: 42. Geloof je me niet? Google dan maar ‘the answer to life the universe and everything’.

De uitvinders van de bom en ontwikkelaars van AI waarschuwen voor een toekomstige tsunami, terwijl nu al hele steden onder water staan.

Het denkkader van de mens die onderdanig is aan AI werpt ook een ander licht op de zorgen die door Harari aan het begin van dit hoofdstuk zijn verwoord. De historicus maakt zich zorgen over onbegrijpelijke AI-systemen die gebruikt worden in de financiële wereld, wat tot onbekende en ongekende risico’s leidt. Volgens Beerends is het scenario dat Harari schetst een serieus gevaar, waar nu al genoeg voorbeelden van bestaan: “Mensen hebben nu al te maken met algoritmische beslissingen waarvan de uitkomsten niet meer traceerbaar en uitlegbaar zijn. We hebben dat als samenleving zelf zo ver laten komen door computersystemen op een voetstuk te plaatsen. Maar dat hoeft niet per definitie ons toekomstscenario te zijn. Wij kiezen er zelf voor om onnavolgbare algoritmen te gebruiken, dus slaat het nergens op om te doen alsof de mens daarbuiten staat. Het is dan ook naïef om AI de schuld van deze onbekende financiële risico’s te geven. Wij hebben zelf de keuze om te stoppen met het uitbesteden van onnavolgbare complexiteit aan niet-transparante algoritmen.” Met andere woorden: AI neemt geen onverantwoorde risico’s; wie het financiële systeem uitbesteedt aan AI neemt die risico’s.

Dit gaat ook op voor autonome wapens, die zelfstandig hun doelen bepalen en voor de Toeslagenaffaire, waarbij een algoritme van de Belastingdienst op basis van etniciteit bepaalde welke toeslagengerechtigden fraude zouden hebben gepleegd. Beerends: “In die gevallen keren door mensen ingeschakelde machines zich al tegen ons. Daarom is het ook zo gevaarlijk om te doen alsof AI pas in de verre toekomst een bedreiging voor de mensheid vormt. Het vormt nu allang een bedreiging, alleen hebben we dat niet door omdat we ons blindstaren op efficiëntie. We miskennen de dreiging van AI door weg te kijken van de geleidelijke afstervingsprocessen die nu al gaande zijn met AI.”

De risico’s van AI zijn geen toekomstmuziek; ze zijn nu al relevant. Daarom heb ik de waarschuwing voor het Terminator-scenario wel eens vergeleken met de oproep van Oppenheimer, die waarschuwde voor de gevaren van de atoombom. Het problematische aan zijn oproep is dat die waarschuwing pas na de oorlog weerklank vond, toen er al meer dan 200.000 mensen waren omgekomen door de atoombom. Dat is aan de late kant. Zo waarschuwen ook AI-prominenten voor de toekomstige risico’s van AI, terwijl er alleen al in Nederland duizenden mensen de dupe zijn van racistische algoritmes die gebruikt werden om op toeslagen te controleren. De uitvinders van de bom en ontwikkelaars van AI waarschuwen voor een toekomstige tsunami, terwijl nu al hele steden onder water staan.

AI, voorbij de hype
Aaron Mirck
Eigen beheer
€20,95

Het boek wordt op donderdag 30 mei gepresenteerd in Pakhuis de Zwijger. Mirck gaat op deze avond in gesprek met ondernemers, kunstenaars en wetenschappers over AI. De toegang is gratis.

Met uw donatie steunt u de onafhankelijke journalistiek van HP/De Tijd. Word donateur of word abonnee, al vanaf €5 per maand.