Als we de populaire cultuur mogen geloven, ziet de toekomst van kunstmatige intelligentie (AI) er ongeveer zo uit: een kwaadaardig superintelligent systeem dat het einde van de mensheid inluidt, of op mensen gelijkende robots die de wereld overnemen. Volgens filosoof Lode Lauwaert is dat voer voor café, niet voor een serieuze discussie.

AI raakt steeds verder ingebed in ons dagelijks leven en in de maatschappij, van algoritmes die bepalen welke muziek we luisteren tot apparaten die slimme technologie gebruiken, zoals gezichtsherkenning. "We zitten in de vierde industriële revolutie," ziet filosoof aan de KU Leuven Lode Lauwaert. "Wat elektriciteit en olie waren voor vroeger, is data voor vandaag."

De invloed van die omwenteling is enorm, want AI reikt veel verder dan onze smartphones en computers. Het is een systeemtechnologie. "Technologie staat nooit op zichzelf, het is ingebed in een groter geheel," licht Lauwaert toe. "Mijn gsm is afhankelijk van elektriciteit en van mijn internetverbinding, die weer afhankelijk is van andere mensen die er ook gebruik van maken. Door AI als systeem te begrijpen, zie je dat technologie niet iets onvermijdelijks is: er zijn groepen, regeringen, vakbonden et cetera die de evolutie van technologie mee vormgeven en implementeren. Wij mensen moeten richting geven aan het gebruik van technologie."

Om richting te kunnen geven hebben we een ethische blik op AI nodig, stelt Lauwaert in zijn boek Wij, Robots. Een Filosofische Blik op Technologie en Artificiële Intelligentie. "Het gebruik van AI-systemen en -technologieën brengt veel morele mogelijkheden en problemen met zich mee. Het is belangrijk om die goed te laten zien en na te denken over hoe we die kunnen aanpakken. Dat is het domein van de ethiek en de filosofie."

Lode Lauwaert is professor Wijsbegeerte aan de KU Leuven. Hij schreef Wij, robots. Een filosofische blik op technologie en artificiële intelligentie.

Bij de morele nadelen van AI kan ik me wel iets voorstellen, maar wat bedoel je precies met morele voordelen?

"Er zijn tal van niet-morele, technologische voordelen: AI kan heel snel en accuraat data verwerken, bijvoorbeeld. Maar er zijn ook voordelen die wel moreel zijn.

Onderzoek heeft bijvoorbeeld uitgewezen dat rechters één en dezelfde casus anders behandelen louter op grond van heel contingente en onnozele zaken zoals vermoeidheid en honger. Rechters zijn strenger voor de lunch dan na de lunch. Dat is onwenselijk. AI kan ons bewustmaken van de parameters in ons lichaam, zoals hongergevoel of toevallende ogen, die aangeven dat het niet het juiste moment is om een beslissing te maken. Dat is een moreel voordeel, denk ik."

In sommige gevallen is het al mogelijk om dit soort beslissingen helemaal over te laten aan AI-systemen.

"Ik denk niet dat dat een goede oplossing is, want AI-systemen hebben problemen met het inschatten van subtiliteiten die het systeem niet kan aanleren. Interpretaties van woorden bijvoorbeeld, of klanken, spreeksnelheid en gezichtsuitdrukking. Die kunnen ons iets vertellen waar een computer overheen kijkt. Tegelijkertijd denk ik dat het wel de moeite waard is om te kijken naar assisterend gebruik van AI, bijvoorbeeld in de rechtsspraak."

Je bent geen techniekoptimist, maar ook geen techniekpessimist, schrijf je.

"Dat klopt. Ik kom veel mensen tegen uit de technologie- en ondernemerswereld die heel positief staan ten aanzien van technologie. Dat is wel terecht, want AI brengt heel veel mogelijkheden met zich mee die we serieus moeten overwegen. Tegelijkertijd merk ik dat bij diezelfde mensen een soort naïviteit of blindheid bestaat voor de risico's en de gevaren van die technologie. Tegenover die techno-optimisten staan de pessimisten of alarmisten, vaak filosofen en ethici.

Ik zit er ergens tussenin: ik geloof in de mogelijkheden van AI-systemen, maar ik wil geen naïeve believer zijn. Ik zal heel hard focussen op de morele en niet-morele risico's die gepaard gaan met het gebruik van technologieën. Risico's van bias, transparantie, ecologische problemen, morele verantwoordelijkheid."

Dat zijn enkele van de 'zeven hoofdzonden' van AI die je in het boek aanwijst. Sommige van die ethische problemen zullen mensen bekend voorkomen, zoals vragen rond privacy, andere minder. Van welke ethische problemen rond AI zijn we ons nog onvoldoende bewust?

"Vooral van morele verantwoordelijkheid, ecologie en bias. Verantwoordelijkheid is een belangrijke kwestie voor autonome technologieën die door AI zijn aangedreven, zoals zelfrijdende auto's of killer robots (ook wel lethal autonomous weapon systems). Er zijn mensen die menen dat dit soort technologieën gepaard gaan met een responsibility gap.

Dat betekent dat wanneer die systemen een fout maken, als een killer robot een burger doodt bijvoorbeeld, het onmogelijk zou zijn om een verantwoordelijke aan te duiden. Ik denk dat dat onjuist is. In mijn ogen kun je in alle gevallen, of bijna alle gevallen, iemand verantwoordelijk houden voor de fouten van zo'n systeem."

Killer robots bestaan al. Ze lijken niet op The Terminator, maar hebben de vorm van bijvoorbeeld drones of kleine tanks. De drone op de foto kan ook autonoom functioneren, gezichten herkennen en doelen identificeren, volgen en aanvallen met explosieven.

"Wat betreft ecologie denk ik dat we ons bewust moeten zijn van de nauwe band tussen technologie, AI in het bijzonder, en duurzaamheid en ecologie aan de andere kant. Het idee dat AI in de cloud zit heeft iets bedrieglijks. Dat suggereert dat het ergens rondzweeft en het immaterieel is, maar dat is natuurlijk niet zo: onze AI resideert in computers, in materialen en hardware. In onze eigen apparaten, maar ook in de computers die algoritmen sturen en trainen vanuit datacentra over de hele wereld.

Die centra zijn enorme energieslurpers omdat al die computers gekoeld moeten worden met airconditioning. Om een idee te geven: de energie die vandaag de dag nodig is om datacentra in gang te houden is gelijk aan de totale hoeveelheid energie die wereldwijd nodig was in 1850.

De schatting is dat, als we zo doorgaan, we rond 2040 evenveel energie nodig hebben om datacentra in gang te houden als de totale hoeveelheid energie die we op dit moment gebruiken, los van datacentra. Je kunt denken: geen probleem, we maken gewoon meer energie. Maar energieproductie gaat vandaag de dag gepaard met heel veel CO2-productie.

Een gemiddelde Europese vlucht stoot 500 kg CO2 uit, het trainen van één eenvoudig algoritme 200.000 kg. Ik wil daarmee geen alarmistisch beeld schetsen, maar wel zeggen dat we na moeten denken over welke AI relevant is en welke niet, en over hoe we AI energiezuinig kunnen maken.

Het derde punt, bias, is bekender maar daarom niet minder belangrijk. Daarbij is het belangrijk om een onderscheid te maken tussen statistische en morele bias. Statistische bias ontstaat bijvoorbeeld als een steekproef niet representatief is. Morele bias betekent dat wanneer je beslissingen moet nemen of beleid maken, je meer waarde toekent aan het ene, ten nadele van het andere – aan een bepaald idee, of een bepaalde groep mensen.

Een bekend voorbeeld zijn de AI-systemen die Amazon gebruikte voor het selecteren van kandidaten. Die systemen selecteerden systematisch vrouwelijke kandidaten weg, wat natuurlijk onwenselijk is omdat het seksistisch en discriminerend is. Dit had alles te maken met de data waarmee het systeem getraind was, die afkomstig was van succesvolle kandidaten uit het verleden. In het geval van Amazon waren dat voornamelijk mannen. Het feit dat het systeem enkel gevoed werd met mannelijke cv's is een voorbeeld van statistische bias die uiteindelijk heeft geleid tot morele bias."

De verantwoordelijkheid om AI op een goede manier te gebruiken kun je op verschillende plekken neerleggen, van ontwerpers tot overheden tot gebruikers. Bij wie ligt die verantwoordelijkheid volgens jou?

"Ik ben filosoof, dus ga eerst kijken wat verantwoordelijkheid eigenlijk is. Aan ene kant heb je morele verantwoordelijkheid, wat betekent dat we mensen aanwijzen voor straf of beloning zodra er iets positiefs of negatiefs gebeurt. Dat we bijvoorbeeld iemand berispen als hij een dier heeft geslagen.

Daarnaast is er rolverantwoordelijkheid, die hoort bij een bepaalde rol of functie. In het geval van AI gaat het erom dat we als gebruiker, overheid, producent en ontwerper allemaal onze eigen rolverantwoordelijkheid opnemen. Ontwerpers moeten bijvoorbeeld nadenken over het al dan niet representatieve karakter van de data waarmee ze hun systeem voeden. Als ik als ontwerper mijn rolverantwoordelijkheid niet opneem, en bijgevolg het systeem gekenmerkt wordt door morele bias en discriminerende beslissingen maakt, dan kan ik daar als ontwerper van het systeem moreel verantwoordelijk voor worden gehouden."

Wat kun je als gebruiker doen om op een verantwoorde manier met AI om te gaan?

"Als gebruikers is het onze plicht om ons te informeren over wat we gebruiken en de mogelijke gevolgen van dat gebruik."

Kan dat betekenen dat je besluit een bepaalde app of technologie niet te gebruiken?

"Natuurlijk. Als je merkt dat er risico's zijn, dan kun je beslissen om een AI-systeem niet te gebruiken."

Heb je dat zelf wel eens gedaan?

"Ja, ik ben gestopt met de sportapp Strava. Omdat die kudo's mij gingen irriteren, maar vooral omdat de winst van het gebruik niet meer opwoog tegen wat Strava met de gegevens over mijn bewegingen doet. Ik gebruik nog wel sociale media zoals Twitter en Whatsapp, die net als Strava gegevens verkopen, al heb ik goede redenen om te overwegen daarmee te stoppen. Toch heb ik dat nog niet gedaan. Het is niet zo dat ik ascetischer zou zijn dan andere mensen, omdat ik filosoof ben. Ook ik ben verslaafd aan sociale media."

Meer interessants