Vorig jaar werden meer dan een miljoen licenties afgegeven voor onbemande vliegtuigen: drones. Ook gebruiken enkele buitenlandse krijgsmachten dit instrument. Een bizarre schets, maar er zijn militairen die vanaf 7000 kilometer afstand drones besturen, een doelwit uitschakelen om vervolgens in de auto te stappen om naar het zwembad te gaan met hun kinderen. Een dankbaar discussieonderwerp: gaan we naar een tijd dat drones zelfstandig bepalen of een doelwit uitgeschakeld dient te worden. Oftewel een volledig zelfstandig opererend apparaat op basis van vooraf ingevoerde parameters. Is dat wenselijk?

Een drone is een machine, gemaakt en bestuurd door de mens. De ontwikkelingen zijn zo ver gevorderd dat een autopilot functie ervoor zorgt dat deze ook volledig zelfstandig een vliegpad kan volgen (inclusief opstijgen en landen). Drones die geproduceerd worden voor commerciële doeleinden worden veelal uitgerust met camera’s. Organisaties in de VS ontwikkelen zelfs een ‘drone freeway’ om zo veilig pakketten te kunnen bezorgen. Moeilijk bereikbare locaties als onderzijden van bruggen of locaties op grote hoogte, kunnen nu makkelijk(er) bereikt worden. Effectiviteit en efficiëntie zijn dé kernwoorden die naadloos aansluiten bij deze uitvinding. Los van dat, is de hoeveelheid verkochte drones ook een indicatie van het feit dat we hier niet te maken hebben met een trend die snel weer overwaait. En dat roept zorgen of in ieder geval vragen op als je bijvoorbeeld kijkt naar het werkgelegenheidsvraagstuk. Nóg meer machines die werken van mensen uit handen nemen. Drones kunnen zelfs beschadigingen detecteren en repareren en zijn zelfs in staat om te rapporteren. Behoorlijk efficiënt dus. Waarom dan nog kosten maken voor ‘dure’ medewerkers?

Sky is the limit
Laatste bekeek ik een filmpje waarin een 15-tal drones geprogrammeerd waren om in een kleine ruimte met tientallen obstakels in formatie te vliegen, zonder dat zij een voorwerp raakten. De drones zijn in staat om vooraf ingestelde commando’s op te volgen,  maar kunnen ook uit het protocol treden zodra een object hen in gevaar brengt. Na de ontwijkingsmanoeuvre keert de drone weer terug in formatie. De toepassingen zijn onuitputtelijk en de machines worden steeds slimmer. Hier geldt letterlijk: The sky is the limit.

Er bestaan inmiddels computers met de kunstmatige intelligentie van een klein kind en drones van het formaat insect of roofvogel tot aan enorme machines van het Amerikaanse leger die zware bombardementen kunnen uitvoeren zonder piloot. Maar we weten niet hoever de intelligentie reikt van deze machines. Zo’n drone of robot is erop geprogrammeerd om een bepaalde taak uit te blijven voeren en zal daarom altijd situaties vermijden die dat in de weg staan. Welke negatieve effecten heeft dat op de mens?

Ethische discussie
En dan nog de ethische discussie. Denk aan het slagveld waar dagelijks jonge mannen en vrouwen omkomen door oorlogsgeweld. Hoe mooi (waarbij mooi relatief is) zou het zijn dat wij onze soldaten zouden vervangen voor wat printplaten, schroeven en aluminium. Aan de ene kant worden vele mensenlevens bespaard door onder meer precisie en worden vijandelijke troepen efficiënter en effectiever bestreden dan ooit. Maar aan de andere kant: willen wij de uitvoer van een keuze over leven en dood laten maken door een emotieloos apparaat. 

Voorstanders zeggen: “Mensen maken meer foute inschattingen dan computers.” Daar ben ik het grotendeels mee eens, maar het zou toch ook bizar zijn als een machine bepaalt of er geweld gebruikt mag worden zonder tussenkomst van een mens. Je verliest de discussie door te beweren dat de mens dat werk beter kan doen.  Computers denken en beslissen 1000x sneller. Daarom beperk ik mij tot de ethische discussie. Hoeveel vrijheid geven we aan onze ‘killer drones’? Dé voorwaarde voor het gebruik ervan is een waterdichte beveiliging tegen hacking zodat het apparaat niet in verkeerde handen kan komen. Maar stel nu dat we de computer met wapens implementeren en het systeem moet opnieuw geprogrammeerd of gedeactiveerd worden. Zal de drone/robot dan in staat kunnen zijn zich te wapenen tegen handelen van buitenaf? Oftewel, kan een machine op den duur bepalen dat de mens hem niet meer in een ‘off’ modes kan zetten? Wat zou dat dan betekenen? Een gevaar voor de mensheid?

Volgens Stephan Hawking kunnen zelfdenkende computers het einde van de mensheid betekenen. De vrees leeft dat computers zichzelf op den duur gaan verbeteren, zo ontsnappen aan de menselijke controle en de mensheid op termijn gaan onderwerpen. Hij geeft aan dat de wetgeving rondom kunstmatige intelligentie daarin een belangrijke rol speelt. Denk aan de zelfrijdende auto’s die gebruik maken van zelflerende systemen. Dit soort auto’s rijden weliswaar nog niet rond op de openbare weg, maar het is belangrijk om nu al na te denken over kwesties zoals aansprakelijkheid om een toename in rechtszaken te voorkomen.

Terminator-praktijken
De ‘killer drone’ raakt zoveel onderwerpen en roept nog zoveel onduidelijkheden op beslissingen over gewenste mogelijkheden en bijbehorende verantwoordelijkheden nog niet kunnen maken. Maar we moeten er wel over nadenken en scenario’s bedenken. De techniek staat voor niets, maar zijn we er als mensen al klaar voor?  Er bestaan al initiatieven die het uitgangspunt hanteren dat “beslissingen over het toepassen van geweld niet aan machines moet worden overgelaten”. Zij voorzien een maatschappij die wij allemaal kennen uit de Terminator-serie.  Bij risicomanagement kijken we naar de kans dat een risico zich manifesteert en de gevolgen daarvan. Beslissingen nemen we op basis van feiten en omstandigheden. De vraag ‘Is dit nu een reële dreiging voor de mensheid of gaat het ons leven verrijken?’, ligt daaraan ten grondslag.