In Caliban and the Witch : Women, the Body and Primitive Accumulation toont Silvia Federici hoe de overgang naar het kapitalisme geen natuurlijke evolutie was, maar een proces van onteigening: van land, van lichamen, van kennispraktijken die te traag, te lokaal of te zorgend waren voor een systeem dat vooruitgang definieerde als groei. Die verschuiving vond niet alleen plaats in wetten of economie, maar in taal, in denkbeelden, in de manier waarop waarheid georganiseerd werd.
Die onteigeningsgedachte spookt al een tijdje door mijn hoofd, meer en meer nu academische bibliotheken AI-geletterdheid als deel van informatiegeletterdheid omarmen. Mijn vorige essay (META 2023/4) eindigde met de vraag hoe we in een tijd van hallucinaties en hype nog waarheid kunnen herkennen: wie we worden als we verhalen te snel geloven omdat ze efficiënt en overtuigend klinken. Dit essay zet die denklijn verder, maar we zijn ondertussen om en nabij twee jaar verder en het perspectief vraagt om een verschuiving: niet langer hoe wordt waarheid vervormd, maar welke infrastructuur maakt die waarheid mogelijk, wie draagt de kosten en welke kennisvormen verdwijnen in de schaduw van efficiëntie?
Bibliotheken zijn van oudsher plekken waar we onze gebruikers leren omgaan met informatie. In academische bibliotheken ontwerpen we cursussen, begeleiden we studenten, waken we over integer bronnengebruik. Sinds de opkomst van ChatGPT en Gemini is daar een nieuwe opdracht bijgekomen: we moeten onze gebruikers leren ‘verantwoord’ met AI om te gaan. Het klinkt logisch. Maar ik vraag me steeds vaker af: kan AI binnen onze huidige ecologische en sociale context wel op een verantwoorde manier gebruikt worden? En wat bedoelen we eigenlijk wanneer we dat woord gebruiken? In het huidige beleidsdiscours wordt AI-geletterdheid voorgesteld als iets vanzelfsprekends: een basisvaardigheid die iedereen nodig heeft om te functioneren. De EU AI Act verplicht organisaties om hun gebruikers en werknemers ‘voldoende AI-geletterd’ te maken. Wat bedoeld is als bescherming, werkt in de praktijk als adoptiedruk: meedoen wordt de norm, niet meedoen een risico. Het lijkt alsof de vraag of we AI op deze schaal willen inzetten al vooraf beantwoord is. Deze vanzelfsprekendheid is niet neutraal. Ze normaliseert gebruik en minimaliseert twijfel. Het beleidsjargon rond AI-geletterdheid is opvallend consistent: innovatie, transformatie, efficiëntie. De Koninklijke Bibliotheek van Nederland beschouwt AI als “een vorm van automatisering” en koppelt het aan een missie om haar burgers “slimmer, creatiever en vaardiger” te maken.
Het zijn woorden die passen in een groeidiscours waarin vooruitgang gelijkstaat aan snelheid, optimalisatie en schaalvergroting. Wat opvalt is wat er níét gezegd wordt: welke ecologische voetafdruk kleeft hieraan, wie onderhoudt de ecosystemen waarin datacenters gebouwd worden, welke stemmen gaan verloren in de haast?
Ondertussen wordt de verantwoordelijkheid steeds meer bij het individu gelegd: jij moet leren prompten, jij moet AI efficiënt leren inzetten, jij moet vaardigheden ontwikkelen om in deze toekomst te passen. Dat is exact het neoliberale mechanisme waarin structurele problemen zoals automatisering, energiehonger en ecologische schade verkocht worden als persoonlijke vaardigheidstekorten. AI-geletterdheid wordt zo een zelfhulpproject: hoe jij jezelf optimaliseert zodat je kunt functioneren binnen een systeem dat al bepaald heeft wat waardevol is. Maar AI is geen lichtgewicht cognitieve partner of ‘je slimme, vriendelijke assistent’; het is een industrieel systeem dat draait op materiële input. Eén zoekopdracht voelt gewichtloos, maar achter elke gegenereerde zin ligt een infrastructuur die water, energie, land en arbeid verbruikt. Het Google-datacenter in Saint-Ghislain wordt geprofileerd als economische motor, maar de vragen naar waterverbruik of chemische risico’s blijven opvallend stil. Een datacenter koelt, loost en vraagt meer energie dan een kleine stad. De gemeenschap die de kosten draagt, is niet noodzakelijk de gemeenschap die voordeel haalt. Daar komt bij dat toxische stoffen opnieuw in beeld komen. The Guardian rapporteerde dat PFAS, de chemische stoffen die in Zwijndrecht een gezondheidscrisis veroorzaakten, ook deel uitmaken van koelsystemen in datacenters. Dat is geen eenmalig accident, het is een patroon: bedrijven beloven innovatie, overheden verwelkomen investeringen, en lokale gemeenschappen blijven achter met de residu’s van vooruitgang. De geschiedenis van industriële vervuiling herhaalt zich, alleen de technologie verandert.
Naast ecologische extractie is er ook epistemische extractie. Taalmodellen homogeniseren taal: ze verkiezen dominante registers en neutraliseren wat afwijkt. Wie veel met AI werkt, merkt hoe eigen taalritmes opschuiven richting de logica van het model: zinnen worden gladder, neutraler, efficiënter. De pluraliteit die bibliotheken historisch bewaren, van lokale publicaties tot minder dominante stemmen en taalvormen, past niet in de probabilistische logica waarmee een taalmodel betekenis berekent. Het resultaat is geen brute censuur, maar een subtiele normalisering: een verschuiving naar een taal die steeds minder ruimte laat voor het trage, het lokale en het relationele. Wanneer technologische groei de boventoon voert en de kosten van infrastructuur verborgen blijven, wordt het moeilijk om nog te spreken van ‘verantwoord gebruik’. De voorwaarden van dat gebruik worden al bepaald door de extractielogica (zoals Federici laat zien dat de voorwaarden van arbeid en kennis in de vroegmoderne tijd al hertekend waren voor mensen beseften wat ze kwijt waren) van een systeem dat zijn eigen kaders legitimeert door ze vanzelfsprekend te maken. Als we AI-geletterdheid willen herdenken, hebben we een ander kader nodig.
Ecofeminisme biedt dat kader door een verschuiving te maken van efficiëntie naar zorg, van snelheid naar aandacht, van extractie naar relationele verantwoordelijkheid. Het stelt dat kennis niet iets is wat je bezit, maar iets wat ontstaat in situering, ontmoeting en zorg. Het is precies wat bibliotheken al generaties lang doen: waken over het geschreven woord, gemeenschappen ondersteunen, waarheid behandelen als iets dat context nodig heeft. Vanuit dat perspectief ziet verzet er anders uit dan we gewend zijn. Het is geen groot gebaar, maar een kleine weigering: weigeren om sneller te werken dan je denkt, weigeren om je taal te laten gladstrijken, weigeren om aandacht te laten versnipperen, weigeren om te denken dat adoptie een verplichting is. Zulke kleine epistemologische daden hebben een grote reikwijdte. Ze bepalen hoe we betekenis maken en welke kennisvormen we waarderen. Ze tonen dat verzet niet begint in het spektakel, maar in ritme, in stilte, in het bewaken van eigen denksnelheden.
Bibliotheken kunnen dat concreet maken door AI-geletterdheid niet te reduceren tot een set vaardigheden, maar te benaderen als een bewustwordingspraktijk. Ze kunnen laten zien waarop AI draait: water, energie, arbeid. Ze kunnen het verband leggen tussen technologie en lokale ecosystemen. Ze kunnen stemmen bewaren die dreigen te verdwijnen in de homogeniserende logica van modellen. Wij willen bibliotheken graag zien als safe havens, vaak positioneren we onszelf ook zo: de derde plek, de veilige plek. Ecofeminisme helpt dat begrip te verdiepen: veiligheid betekent niet alleen privacy, maar ook aandacht voor ecologische grenzen, voor tijd als waarde, voor taal als levend ecosysteem. Grenzen worden in de techwereld vaak gezien als hinderlijk, maar in de natuur zijn grenzen voorwaarden voor leven. Ecosystemen floreren door onderlinge begrenzing: wat te snel groeit, sterft; wat te veel neemt, put zichzelf uit. Bibliotheken kunnen die gedachte concreet maken door ruimte te creëren voor traagheid, kritische reflectie en lokale kennis. Dat is misschien de radicaalste vorm van AI-geletterdheid: leren dat niet alles grenzeloos hoeft te zijn om waardevol te zijn.
Systemen veranderen zelden door grote heroïsche daden, het zijn juist de kleine weigeringen die dat teweegbrengen: het in stand houden van andere ritmes, het beschermen van commons, het blijven denken vanuit zorg. In mijn vorige essay vroeg ik me af hoe we waarheid kunnen bewaren in tijden van hallucinatie; dit essay komt tot de conclusie dat waarheid pas mogelijk is wanneer we ook de infrastructuur erachter durven bekijken. Verantwoord AI-gebruik begint daarom niet bij adoptie, maar bij bewustzijn: bij het weigeren om onze aandacht, ons tempo en onze ecologie in te leveren voor een systeem dat vooral sneller wil gaan. Misschien is dat onze grootste opdracht vandaag: niet technologie verheerlijken of demoniseren, maar om de logica ervan in vraag te stellen door ons denken te verbreden en zorg, grenzen en relationele kennis als even essentieel te beschouwen als informatie zelf.
Wil je meer lezen over Wikipedia als Digitaal Publiek Goed, Netwerk Tegen Armoede en Bookaplace?