In mijn vorige blogbericht noemde ik al de ongebreidelde mogelijkheden van ChatGTP , en de daaraan gekoppelde risico’s. Het voornaamste risico wat ik noemde was de bedreiging die ChatGTP (en andere vormen van AI) vormen voor iets wat in mijn ogen uniek is voor ons mensen: het vermogen tot creativiteit. Lukraak brokjes informatie bij elkaar gooien tot een schijnbaar kloppend geheel (wat AI in feite doet) is iets fundamenteel anders dan bewuste, ‘bezielde’ keuzes maken om te komen tot het optimale eindresultaat wat een kunstenaar wil bereiken.
Maar er zitten meer risico’s aan AI. Ik beschreef al eerder de workshop waar ik aan deelnam, en die de deelnemers uitdaagde om met behulp van ChatGTP een bestaande serious game om te vormen tot ‘iets nieuws.’ Ik transformeerde de game met een paar eenvoudige opdrachten naar een game-concept waarin de spelers een nieuwe planeet moesten koloniseren. “Voeg een ethisch dilemma toe”, was de 2e opdracht die ik gaf, en vervolgens “Gebruik enkele personages uit het werk van William Shakespeare.” Het algoritme voerde de opdrachten braaf uit, en gaf Hamlet, Portia, lady MacBeth en Prospero een schijnbaar logische rol in het geheel.
Wat me shockeerde was het feit dat het algoritme – zonder dat ik daar een opdracht voor had gegeven – ethische keuzes maakte. Zo stelde hij respect voor de lokale bevolking en de natuurlijke habitat boven economisch gewin. “Lady Macbeth is een ambitieuze en manipulatieve vrouw. Ze kan fungeren als een tegenstander in het spel, die andere spelers probeert te overtuigen om het mineraal te exploiteren en economische groei boven milieubehoud te stellen.” Hierbij is lady MacBeth duidelijk ‘de slechterik’ (“manipulatief” “ambitieus”) en wordt haar insteek (het mineraal exploiteren) duidelijk als ethisch onjuist afgeschilderd. Nou ben ik persoonlijk van mening dat ecologische belangen veruit te verkiezen zijn boven economische belangen, dus in zoverre zitten ChatGTP en ik op één lijn. Maar het fundamentele punt is dat een algoritme geen ethische keuzes moet maken: het mag niet optie A boven optie B zetten, omdat het zich hiermee begeeft op het terrein van iets fundamenteel menselijks, nl. moraliteit. Stel je voor dat het algoritme op ‘logische’ gronden besluit dat de ene mening beter is dan de ander, en dat daarom sommige mensen waardevoller zijn dan anderen. De geschiedenis leert ons welke verschrikkelijke gevolgen zoiets kan hebben.
Moraliteit is per definitie subjectief. Dat wat ik als ethisch juist en verantwoord acht kan door een ander worden bestreden. De moraalfilosofie leert ons dat ‘goed’ en ‘fout’ vaak worden bepaald door de context waarin een handeling wordt bedreven. Stelen is verkeerd, maar als de keuze bestaat uit stelen of de hongerdood kunnen we de dief beter begrijpen. Doden wordt in de meeste culturen afgekeurd, maar wat als je eigen partner, kind of familielid wordt afgeslacht? Wie kan zich dan niet iets voorstellen bij wraak?
Veel serious games gaan verder dan het aanleren van handelingen of technieken. Serious games kunnen mensen helpen om na te denken over ethisch handelen door ze de gevolgen te laten zien van een bepaalde keuze. Die gevolgen zijn zelden zwart-wit. Het is aan de speler om een afweging te maken tussen verschillende belangen en op grond daarvan te handelen. “Er bestaan geen verkeerde keuzes, maar een keus kan soms een gevolg hebben wat je niet wilt”, zei iemand ooit tegen me, een Boeddhistische wijsheid aanhalend. Juist die individuele afweging is wat ons menselijk maakt, en wat ons onderscheidt van een algoritme.
De Amerikaanse science-fiction schrijver Isaac Asimov (1920 – 1992) is beroemd geworden om zijn robotverhalen . Hij formuleerde de ‘Drie wetten van de robotica’, die tot doel hadden een waterdicht beschermsysteem te vormen dat mensen moest beschermen tegen de fysieke en logische overmacht die robots bezitten ten opzichte van mensen:
Eerste Wet: Een robot mag een mens geen letsel toebrengen of door niet te handelen toestaan dat een mens letsel oploopt.
Tweede Wet: Een robot moet de bevelen uitvoeren die hem door mensen gegeven worden, behalve als die opdrachten in strijd zijn met de Eerste Wet.
Derde Wet: Een robot moet zijn eigen bestaan beschermen, voor zover die bescherming niet in strijd is met de Eerste of Tweede Wet.
In principe zou hiermee elke bedreiging door een AI-systeem (wat de robots in Asomov’s verhalen zijn) uit de wereld moeten zijn. Maar het knappe van de verhalen is dat Asimov er steeds weer in slaagt situaties te verzinnen waarbij de drie wetten ontoereikend zijn, en menselijk ingrijpen noodzakelijk is. De drie wetten zijn geen waterdicht systeem, juist vanwege hun meedogenloze logica.
De non-profit organisatie Future of Life pleitte onlangs in een open brief voor een stop van minimaal 6 maanden op het verder ontwikkelen van artificial intelligence, zodat we even een adempauze hebben om ons te bezinnen op de snelle technologische ontwikkelingen. Dit lijkt me juist, al is 6 maanden erg kort. We zijn nog maar net aan het leren omgaan met de effecten van de smartphone (die pakweg 15 jaar geleden werd geïntroduceerd): denk maar aan cyberpesten, groepsdruk via sociale media of de effecten op de werk-privé balans. We lopen continue achter de feiten aan, en komen niet veel verder dan de frase “We moeten het er over hebben…” Maar de fundamentele effecten die AI kan hebben op zaken als creativiteit, humaniteit, ethiek en menselijkheid worden op dit moment onvoldoende ingezien door algoritme-ontwikkelaars en de grote tech-bedrijven.