De titel van
dit stuk heeft niet zozeer te maken met de angst voor de technologie als wel
die voor de overheid en politiek. Hier zal worden bepaald hoever we gaan. Zoals professor Harari stelt in het boek Homo
Deus zullen om beslissingen te nemen steeds meer data moeten worden
geproduceerd, die uiteindelijk de capaciteit van de menselijke hersenen te
boven gaan. Dus zullen algoritmes dat voor ons kunnen doen. Op dat moment zal
in feite de huidige structuur om tot een conclusie te komen irrelevant worden
en daarmee ook voor een deel de mensen die ons besturen. Maar er komen ook
ongekende mogelijkheden voor de ‘bewaking’ van de onderdanen.
De
Frankfurter Allgemeine keek op 6 mei met een indringende blik naar de
toekomst. ‘De testen die in China gaande
zijn in verband met een sociaal kredietsysteem maken grote vorderingen. Vanaf
2020 moeten alle burgers, firma’s en bestuurders in de Volksrepubliek een
centraal beschikbaar puntensysteem krijgen, dat hun financiële-, morele-,
politieke-, of in één woord gezegd hun maatschappelijke betrouwbaarheid
weergeeft. Hierin zullen zoveel mogelijk facetten van het dagelijks leven
betrokken worden, zoals verkeersovertredingen, belastingontduiking en zelfs
verwaarlozing van bejaarde ouders.
Dit alles om de stabiliteit van de
maatschappij te vergroten. Er wordt al
gesproken over een quasi-automatische zelfregulering. Als de totale strategie
in één systeem kan worden gevat hoeft de regering in principe niet meer in te
grijpen. In feite zou de politiek hiermee overbodig kunnen worden voor het
bestuur. Burgers hier willen zelf natuurlijk niet van individuele vrijheid naar
totale ‘bewaking’. Bijna niemand zou zomaar instemmen met een systeem als in
China, voor zover we daar iets over te zeggen hebben. Maar kunnen we het eigenlijk wel voorkomen? Denk
aan de sleepwet.
Hierin zitten al verdacht veel 'Chinese ' elementen door het massaal afluisteren van alle online communicatie. Alle geautomatiseerde apparaten mogen worden gehackt. Het is vrij eenvoudig om in de toekomst andere zaken als gezichtsherkenning toe te voegen. Men zou dus het 'veiligheidssysteem' verder kunnen uitbreiden. Dezelfde bron als hierboven meldt tevens dat de technologie om gedachten te lezen in opmars is. Er is een proef gedaan met een 'hersenbewakingssysteem' onder leiding van de universiteit van Ningbo. Hierbij worden in 12 fabrieken de arbeiders van kleine helmen op het hoofd voorzien die verschillende effectiviteitsremmende signalen kunnen opvangen. Denk aan depressie, angst of woede. Het vroegtijdig opsporen van 'rotte appels' in het systeem als ik het zo oneerbiedig mag zeggen.
Hierin zitten al verdacht veel 'Chinese ' elementen door het massaal afluisteren van alle online communicatie. Alle geautomatiseerde apparaten mogen worden gehackt. Het is vrij eenvoudig om in de toekomst andere zaken als gezichtsherkenning toe te voegen. Men zou dus het 'veiligheidssysteem' verder kunnen uitbreiden. Dezelfde bron als hierboven meldt tevens dat de technologie om gedachten te lezen in opmars is. Er is een proef gedaan met een 'hersenbewakingssysteem' onder leiding van de universiteit van Ningbo. Hierbij worden in 12 fabrieken de arbeiders van kleine helmen op het hoofd voorzien die verschillende effectiviteitsremmende signalen kunnen opvangen. Denk aan depressie, angst of woede. Het vroegtijdig opsporen van 'rotte appels' in het systeem als ik het zo oneerbiedig mag zeggen.
Het motief
om de grenzen op te rekken zal altijd kunnen worden aangeleverd. De
veiligheid verbeteren in het belang van het land, criminaliteit bestrijden en
bijvoorbeeld de moraal van de burgers opkrikken. Er zijn argumenten genoeg.
Sommigen vinden het ook een prettig idee dat het land zo veilig zou worden.
Criminelen krijgen geen kans meer hun slag te slaan. Maar er zijn uiteraard ook
levensgevaarlijke kanten. De beslissingen ten aanzien van burgers zullen worden
genomen zonder bewustzijn of emotie, want deze eigenschappen zijn bij de nieuwe
intelligentie niet aanwezig.
Wij zien nu al dat mensen in de knel raken als de
gedigitaliseerde overheid hen door een fout verkeerd behandelt. Wat gebeurt er
als een machine op de een of andere manier zelf zaken begint te interpreteren?
Het zijn immers zelflerende systemen. In een
tanende liberale democratie zou een en ander kunnen worden gebruikt door een
nieuwe machthebber die korte metten zal maken met de individuele vrijheid. Voor
Hitler zou het ongekende ‘mogelijkheden’ hebben geboden. We staan aan de vooravond van grote
veranderingen die niemand eigenlijk goed kan overzien.
Burgers zouden echter nu
al meer tegengas moeten gaan geven als zij ongewenste ontwikkelingen niet willen. Het lijkt een moeilijke opgave. Toch weten we dat dit bijna niet meer
mogelijk zal zijn als een nieuwe ‘Big Brother’ eenmaal is ingevoerd. Een gesloten
systeem waarvan uiteindelijk een elitegroep het meest zal profiteren, hoewel
ook die gepasseerd zou kunnen worden. Machines zullen immers steeds sneller 'begrijpen' waar het om gaat.....
Wim Verhoeven
verhoevenkoffiekring@tele2.nl