Zoals de Eerwaarde Moeder treffend uitlegt in de sciencefiction klassieker Dune: ‘Ooit vertrouwden mensen hun denken toe aan machines, in de hoop dat dit hen zou bevrijden. Maar dat gaf andere mensen met machines alleen maar de kans om hen tot slaaf te maken.’
Eind tachtiger jaren kreeg ik een therapieprogramma onder ogen dat werkte via de computer. Je kon schriftelijk vragen stellen of een conversatie aangaan met de virtuele therapeut, en die gaf dan op het scherm een schriftelijke reactie, waarop jij weer kon reageren. Zo kon een hele therapiesessie ontstaan gebaseerd op de Rogeriaanse therapie methode. Ik, toentertijd gelicenseerd psychotherapeut, heb dat zelf bij wijze van proef gedaan, en was getroffen door de schijnbare authenticiteit van de reacties door de ’therapeut’. Onderzoek toonde aan dat het ook bleek te werken voor de meeste ‘echte’ hulpvragers, die dan vaak geen therapeut in vivo meer nodig hadden. Het programma voelde als aandacht, en dat bleek vaak voldoende.Toch is het programma uit de praktijk verdwenen – waarschijnlijk omdat er sindsdien meer verfijnde therapeutische chatboxen zijn ontwikkeld die ook heden ten dage worden gebuikt met wisselend resultaat (mede afhankelijk van de kwaliteit van de chatbox); soms in combinatie met een therapeut van vlees en bloed en maar zelden met schadelijke gevolgen.
Toen AI en ChatCTP verschenen was ik dus niet echt onder de indruk – we hadden zoiets al in ’88. Ook was ik niet zo bevreesd voor eventuele schadelijke effecten – ik dacht daar zijn we zelf bij, en we hoeven ons er niet aan over te leveren. Maar na het verschijnen van DeepSeek heb ik mijn mening herzien. Het grote verschil tussen DeepSeek en eerdere programma’s is dat het betaalbaar is, en werkt met open source software, die dus voor iedereen toegankelijk is. Maar dat betekent ook dat iedereen de algoritmen waarmee het werkt kan beïnvloeden.
De nieuwste AI systemen creëren hun eigen virtuele werkelijkheid, van waaruit ze reageren. Ik citeer: In plaats van te vertrouwen op gecontroleerd leren met menselijke feedback, hebben de technici van het bedrijf gekozen voor een techniek die ‘reinforcement learning’ wordt genoemd. Bij deze methode leert het model zelfstandig, waarbij het positieve feedback krijgt wanneer het een correct antwoord geeft. Pure reinforcement learning (versterkingsleren) wordt gezien als de heilige graal van machine learning, omdat het echte inzichten mogelijk maakt in plaats van simpelweg aangeleerde patronen te reproduceren.*)
De interne werkelijkheid die dusdoende wordt gecreëerd kan subtiel afwijken van de echte werkelijkheid. Bovendien kan een kwaadwillig iemand – en zoals we weten zijn die volop aanwezig – daar feiten in smokkelen die in feite niet bestaan. Ik noem een voorbeeld: er kan in staan dat het schadelijk is als een land asielzoekers toelaat. Het probleem is dat je die afwijking van de werkelijkheid niet direct ziet, maar dat die wel de antwoorden beïnvloedt die door bijvoorbeeld ChatGTP gegenereerd worden. Dat is nog wat anders dan complottheorieën! Die kun je altijd nog relatief gemakkelijk ontzenuwen, maar in dit geval zie je niet dat het antwoord door een complottheorie wordt gekleurd. Voor de meer uitgebreide beschrijving van wat AI te weeg kan brengen verwijs ik naar de voetnoot.
Als mensen massaal AI gaan gebruiken kan zodoende een hele cultuur beïnvloed worden. Is het niet fantastisch dat Frank Herbert, de science-fiction auteur van Dune, dat al in 1965 voorzag?
In het vorige blog beschreef ik hoe we financieel gemanipuleerd worden, maar nu gaat het om geestelijke manipulatie. Dat vind ik nog veel schadelijker. Wat kunnen we daartegen doen? Wordt vervolgd.
*) Bruno Maçães, De race naar de God-modus, De Groene Amsterdammer, 19 februari 2025. Dit artikel heeft me geïnspireerd tot dit blog.