
Waar gaat dit over:
Je houdt je hart vast bij de razendsnelle groei van AI in 2026. Achter de imposante technofaçade schuilt een enorm labyrint van ecologische, economische en maatschappelijke bedreigingen. Van escalerend energieverbruik tot toenemende ongelijkheid en een mogelijke investeringsbubbel: de huidige AI-hausse vertoont alle tekenen van een systeem dat te hard groeit zonder voldoende sturing.
Waarom wil je dit lezen:
Omdat AI niet alleen over technologie gaat, maar ook over onze grondstoffen, de economie, het klimaat en de democratie. Dit artikel laat zien waarom de risico’s niet los van elkaar te zien zijn, en waarom tijdige regulering cruciaal is om te voorkomen dat we in een totale crisis belanden.
Geen remmen
De ontwikkeling van AI-systemen verloopt grotendeels ongereguleerd. Dat zorgt voor een systeem zonder remmen, en met een hele reeks onderling samenhangende risico’s. Ecologische schade ondermijnt maatschappelijke stabiliteit, terwijl economische en ethische gevolgen invloed hebben op beleid, infrastructuur en machtsverhoudingen. Gecontroleerd door een handjevol bedrijven die worden aangestuurd door een paar autoritaire miljardairs.
Welke AI?
Nu is de ene AI de andere niet. Er is inmiddels een heel landschap ontstaan van toepassingen van ‘intelligente’ software, waarvan eigenlijk nog maar een klein deel echt met intelligentie vergeleken kan worden en dat nog in ontwikkeling is. Het overgrote deel van de operationele toepassingen analyseert grote hoeveelheden data, herkent patronen en imiteert die, zoals in ChatGPT en soortgelijke. En er is verschil in de reikwijdte van toepassingen. Er zijn systemen die het open internet afstruinen en gebruik maken van beschikbare data, en er zijn systemen die afgebakende datasets analyseren, wat onder andere in de wetenschap gebeurt. Wat ze gemeen hebben is de ontoegankelijkheid van de algoritmes: zelfs de ontwerpers ervan weten niet wat zo’n programma uiteindelijk kan gaan doen. En hoe opener het domein waarin dat wordt toegepast, hoe gevaarlijker dat is. De ultieme angst is dat zelflerende algoritmes, AGI ofwel Artificial General Intelligence die voorbij de grenzen van menselijk denken moet gaan, de grenzen van menselijke ethiek negeren en hun eigen prioriteiten gaan stellen en volgen, zonder dat mensen nog kunnen ingrijpen.
Technische risico’s en menselijke grenzen
De groei van AI gaat sneller dan de veiligheidsmaatregelen kunnen bijhouden. De capaciteit van modellen groeit exponentieel, wat de kans vergroot op fouten en misbruik. In kritieke sectoren als zorg, infrastructuur en financiële markten kan dat grote gevolgen hebben. Denk aan zogeheten jailbreaks (het omzeilen van veiligheidsbeperkingen door het algorithme) of promptinjecties waarmee kwaadwillenden AI-systemen kunnen manipuleren.
Daarnaast overspoelen generatieve modellen het internet met synthetische content: deepfakes, nepnieuws en automatisch gegenereerde teksten die nauwelijks nog van echt te onderscheiden zijn. Volgens recente beveiligings- en traffic‑analyses is inmiddels al meer dan de helft van al het wereldwijde internetverkeer geautomatiseerd botverkeer, waarvan het grootste deel kwaadaardig is. Detectie van misbruik en beveiliging worden zo een eindeloos kat-en-muisspel.
Een ander risico ligt bij de machtsconcentratie: de rekenkracht en kennis zijn geconcentreerd bij een handvol bedrijven als OpenAI en Google, wat het ecosysteem kwetsbaar maakt voor storingen, misbruik en monopolievorming. Bewuste desinformatie heeft al merkbare invloed op meningsvorming en politiek.
Op systeemnivo is het onwaarschijnlijk dat menselijke controle nog mogelijk is. Immers, de complexiteit neemt met de minuut toe en gaat te snel, en is al te groot, om nog door menselijk inzicht te overzien. En hoe analyseer en controleer je algoritmes waarvan de makers zelf niet eens weten hoe ze werken of wat ze doen?
De waarheid onder druk
Generatieve AI maakt het eenvoudiger dan ooit om overtuigende desinformatie te produceren. Algoritmes zijn niet transparant en ontwikkelaars weten vaak zelf niet hoe een AI uiteindelijk werkt. Deepfakes, microtargeted propaganda en synthetische nieuwsberichten kunnen verkiezingen beïnvloeden en het vertrouwen in media en instituties ondermijnen. Amerika liet al eerder een atoombom ontploffen zonder de gevolgen te kennen. AI lijkt dezelfde weg te volgen.
Vooroordelen in trainingsdata dragen bij aan structurele ongelijkheid. Wanneer algoritmes worden ingezet bij sollicitaties, kredietverstrekking of politiewerk, kunnen bestaande biases ongemerkt worden versterkt, vaak onder het mom van objectiviteit.
De combinatie van manipulerende aanbevelingssystemen en machtsongelijkheid tussen platformen en gebruikers leidt bovendien tot psychologische schade en polarisatie. Gezondheidsexperts spreken inmiddels van een “infodemie”, een overdaad aan misleidende informatie die het publieke oordeel vertroebelt.
De energie- en grondstofhonger van een revolutie
AI verbruikt enorme hoeveelheden energie en grondstoffen. Alleen al in de Verenigde Staten kan het stroomverbruik van AI-datacenters rond 2028 groter zijn dan dat van alle huidige datacenters samen, vergelijkbaar met tientallen miljoenen huishoudens. Daar komen het energieverbruik van de productie van de noodzakelijke hardware bij: chips, randapapratuur waarin massa’s grondstoffenb worden gebruikt, waaronder aluminium, waarvan de productie energie-intensief is, en aardmetalen, met hun mijnbouw en beperkte beschikbaarheid.
Veel van die energie komt uit fossiele bronnen. Daardoor stijgt de CO₂-uitstoot snel. Grote technologiebedrijven rapporteren inmiddels forse toename van hun emissies door AI-activiteiten. Daarbovenop komt de waterverslindende koeling van datacenters en het groeiende elektronisch afval door verouderde chips. De ecologische voetafdruk van AI groeit dus veel sneller dan de winst in efficiëntie. En waar AI wel gebruik maakt van hernieuwbare energie, concurreert ze met maatschappelijke vraag.
Winst voor enkelen, onzekerheid voor de rest
Volgens recente schattingen kan AI tussen de 30 en 40 procent van de werkuren in hogerinkomenslanden raken. Vooral routinematige kantoorfuncties staan onder druk. Zonder gericht beleid profiteren vooral de bedrijven die de technologie bezitten, terwijl werknemers geconfronteerd worden met loondruk, baanonzekerheid en verslechterde arbeidsomstandigheden. Samen met de concentratie van de technologie in handen van een paar spelers, groeit de ongelijkheid steeds sneller en zal op enig moment tot kritieke maatschappelijke onrust leiden. AI-gedreven herstructureringen kunnen ook regionale ongelijkheid, tussen landen, regio’s en sectoren, vergroten.
Concentratie van macht
Een van de grootste structurele risico’s is gebrek aan transparantie. Veel bedrijven publiceren nauwelijks informatie over hun datagebruik, emissies of modelkeuzes, terwijl ze tegelijk actief lobbyen voor subsidies en gunstige regelgeving. De concentratie van technologische macht bij een klein aantal Amerikaanse en Chinese bedrijven bemoeilijkt soeverein beleid in andere landen. Daardoor dreigt een digitale afhankelijkheid die vergelijkbaar is met die van fossiele energie in de vorige eeuw. Of data-kolonialisme.
Wanneer ploft de AI-bubbel?
Naast technische en ecologische risico’s groeit een ander gevaar: een financiële bubbel. Steeds meer kapitaal jaagt achter dezelfde belofte van “oneindige groei” aan, terwijl de opbrengsten nog niet volgen.
Chipmakers en cloudbedrijven investeren miljarden in AI-startups, die dat geld vrijwel direct weer uitgeven aan hun chips en rekenkracht. Zo ontstaat een kringloop: investeringen drijven de vraag op, die de omzet van hardwarebedrijven vergroot, wat op zijn beurt weer meer kapitaal aantrekt. Inmiddels ontstaat er een grote overcapaciteit in datacenters, zonder dat er zicht is of die ooit benut gaat worden.
Zolang het geld blijft stromen lijkt alles te groeien, maar zodra de investeringsstroom stokt, door hogere rente, strengere regels of een eerste faillissement, kan de bubbel snel leeglopen. Omdat dezelfde grote spelers aan meerdere kanten van de keten financieel verweven zijn, kan zo’n correctie zich razendsnel door het hele ecosysteem verspreiden.
Een duurzame toekomst met AI?
AI biedt ongekende kansen, maar zonder regie dreigt het systeem zichzelf te ondermijnen. De combinatie van ecologische druk, machtsconcentratie en financiële oververhitting vraagt om scherp toezicht en internationale samenwerking. En die zijn er allebei nog steeds niet.
Het barsten van de bubbel zal niet het einde van de ontwikkeling betekenen, net zomin als de internetbubbel van 2000 het internet lam legde. De concentratie bij enkele grote spelers die daarna begon legde wel de basis voor de AI revolutie en dominantie van nu. En beide hebben vooral geleid tot meer misbruik, meer desinformatie, en meer problemen, ondanks de vooral positieve verwachtingen.
De uitdaging is nu niet om de vooruitgang te stoppen, maar om haar te sturen: naar transparante, energiezuinige en sociaal rechtvaardige toepassingen die waarde creëren zonder de basis van onze samenleving uit te hollen. Het ziet er niet naar uit dat daar ook maar een begin mee kan worden gemaakt in 2026. Misstanden uit het verleden zijn helaas al te vaak een vingerwijzing voor de toekomst.
Blijf op de hoogte met de nieuwsbrief. Meld je hier aan.
( Je kunt ons ook steunen door lid te worden of te doneren )

