Kunstmatige Intelligentie vs de mens
Gesprek
Deel III
eyesonsuriname
Amsterdam, 25 februari 2022– Kun je een computer leren dat hij niet mag liegen, behalve als de Gestapo voor de deur staat? En hoe weet een machine dat het dan niet gaat om ‘gewone’ agenten, die in democratische samenlevingen juist je beste vriend heten te zijn?
Nou, dat moet nog wel kunnen, zegt hoogleraar kunstmatige intelligentie Jan Broersen. Het is eigenlijk een vrij simpel voorbeeld van een uitzondering die boven de algemene regel gaat. „Je hebt nu al formele redeneersystemen die kunnen omgaan met regels die je in bepaalde situaties ook moet kunnen overtreden. Er zijn veel ingewikkelder voorbeelden, hele stelsels van regels die op elkaar inwerken. Maar dat is in theorie allemaal in te programmeren.”
In hoeverre dat ‘morele’ computers mogelijk maakt, geautomatiseerde systemen die leren om zelf keuzes te maken – en verantwoordelijkheid te dragen – is de inzet van het onderzoek van Broersen, die eind maart zijn oratie hield aan de Universiteit Utrecht. Opgeleid als wiskundige in Delft, wil hij met logica proberen een morele calculus te ontwikkelen voor AI-systemen.
Zulke ‘deontische logica’ (van het Griekse deon: dat wat passend of verplicht is) is hard nodig, vindt hij, voor een samenleving die steeds meer gebruik maakt van kunstmatige intelligentie. „Iedereen heeft het over AI en ethiek, maar bijna niemand doet er wat aan. Althans, het wordt meestal benaderd als een sociaal of juridisch probleem. Moeten we zelfrijdende auto’s eigenlijk wel op de weg willen? Hoe moeten we dat juridisch inpassen? Wanneer zijn fabrikanten aansprakelijk?”
Allemaal heel belangrijk, zegt Broersen, maar waarom wordt er niet gekeken of morele verantwoordelijkheid in AI-systemen zelf te programmeren is? „Ik wil weten: hoe operationaliseer je bestaande theorieën over ethiek en hoe stop je die in een machine zodat die weet hoe hij moet omgaan met situaties waarin morele overwegingen belangrijk zijn.”
Stel dat je die tien mensen kunt redden door één ander de rails op te dúwen
Legt u maar uit, hoe stop je dan ethiek in machines?
„Het begint er natuurlijk mee dat je sterk uiteenlopende morele theorieën hebt. Filosofen zijn daar al eindeloos mee bezig. Van sommige theorieën kun je je makkelijker voorstellen dat ze te automatiseren zijn dan andere. Neem het utilisme, grof gezegd de opvatting dat je datgene moet doen wat het grootste nut of geluk voor zoveel mogelijk mensen oplevert. Dat is een vrij kwantitatieve benadering die je best goed in een programma kunt vatten. Het sluit aan bij hoe informatici toch al nadenken over intelligentie: als een procedure om acties te kiezen uit een reeks opties met een eenduidig doel.”
Dan doemt wel het ‘trolleyprobleem’ op. Moet je een losgeslagen trolley op tien mensen laten afrazen zodat ze zeker worden doodgereden, of moet je de wissel omgooien naar een andere rails waar maar één mens slachtoffer wordt?
„Ja, daar zijn heel veel varianten van. Je ziet er al aan dat het utilisme voor veel mensen een onbevredigende morele theorie is. Is moraal echt zo’n simpel rekensommetje: tien slachtoffers of één? Mensen maken ook verschil tussen niets doen en actief ingrijpen, zoals die wissel overhalen. Dat heeft gevolgen voor hoe wij verantwoordelijkheid opvatten. En stel dat je die tien mensen kunt redden door één ander de rails op te dúwen. Dat is nog weer iets anders. Dat voelen wij intuïtief aan – en nee, een computer niet.”
Regels geven richting, maar je moet ze ook afhankelijk van de context kunnen overtreden
Wat kan dan wel?
„De morele calculus die ik bepleit denkt niet allereerst in gewenste uitkomsten – zoals: het minste aantal slachtoffers – maar in het volgen van regels. Moreel handelen is regelgeleid gedrag. Welke regels zijn van toepassing in een situatie en welke regel moet boven de andere gaan? Zo leren wij kinderen ook hoe ze zich moeten gedragen. Regels geven richting, maar je moet ze ook afhankelijk van de context kunnen overtreden. Dat moet te operationaliseren zijn in een formeel systeem.”
in mijn ogen zal zo’n systeem altijd iets missen. Wij blijven degenen die bepalen hoe een regel moet worden geïnterpreteerd. Een machine doet uiteindelijk niets anders dan instructies volgen die wij erin hebben gestopt. Overigens, dit geldt voor de machines die we nu gebruiken. Het is niet uitgesloten dat het ooit wél zal kunnen. Neem quantum computing, automatisering met inzichten uit quantummechanica.
Als je intelligentie en morele keuzes gaat opvatten op een quantummanier wordt het andere koek. Maar dat is wel heel speculatief. Dat terrein ligt open, daar begrijpen we nog heel weinig van. Ik ben persoonlijk een niet-determinist, ik denk dat de werkelijkheid ten diepste niet compleet wetmatig vastligt. Maar ik geloof wel dat wij uiteindelijk machines zijn. Alleen niet het soort machines dat we nu computers noemen.”
eyesonsuriname