Blog 14 oktober 2025

Geschreven door: JT

 

De algoritmische bubbel: jongeren, identiteit en de zoektocht naar echtheid

We leven in een tijd waarin technologie ons leven tot in het diepste van ons bestaan beïnvloedt. Wat ooit begon als een hulpmiddel, lijkt nu een sturende kracht te zijn geworden — vooral voor jongeren die opgroeien in een digitale wereld waarin algoritmes bepalen wat ze zien, voelen en misschien zelfs denken.

 

Als iemand - zoals ik - die is opgegroeid zonder internet, zonder smartphone en zonder constante online prikkels, kijk ik met een mengeling van verbazing en zorg naar deze ontwikkelingen. Vroeger kwamen gesprekken over identiteit en thema’s als genderdysforie nog voorbij op televisie of radio, in talkshows waar artsen en ervaringsdeskundigen aan het woord kwamen. Menselijke verhalen, door mensen in de studio verteld. Nu halen we onze informatie van het internet — snel, ongeremd, en steeds vaker gestuurd door kunstmatige intelligentie.

 

A.I als spiegel – of als masker?

In onze digitale zoektocht naar antwoorden stuiten we steeds vaker op een onzichtbare tussenpersoon: kunstmatige intelligentie. Wat ooit begon als een hulpmiddel om informatie sneller te vinden, is inmiddels een filter geworden dat bepaalt wát we vinden – en hóe we het begrijpen.

 

Het internet belooft ons een wereld vol kennis, maar tegelijkertijd schuilt daar een risico: mind-kaping. Informatie stroomt constant op ons af, en zonder dat we het altijd doorhebben, worden onze gedachten en overtuigingen beïnvloed. In plaats van vrij te zoeken, worden we geleid – of gestuurd – door algoritmes en AI-systemen die bepalen wat ‘relevant’ is voor ons.

 

Maar hoe weet je eigenlijk of die informatie klopt? En belangrijker nog: met welk doel is die content online gezet?

 

Van neutraal naar gestuurd

Steeds meer bedrijven en overheden gebruiken AI-tools om informatie te produceren, te verspreiden of zelfs te sturen. Wat je leest, ziet of hoort, kan dus gevormd zijn door technologie die niet neutraal is. Het internet wordt zo niet alleen een spiegel van onze interesses, maar ook een masker dat de intenties van de afzender verhult.

 

Daarom is het vandaag belangrijker dan ooit om kritisch te blijven. AI kan ons helpen inzichten te krijgen, maar het is aan ons om te bepalen of die inzichten eerlijk zijn – of slechts slim verpakte sturing.

 

De mens achter het scherm

We lijken te vergeten dat technologie slechts een hulpmiddel is — geen vervanging van menselijk contact, gevoel of intuïtie. Hoe meer we naar naar schermen kijken, algoritmes, filters en forums — hoe verder we onszelf kwijtraken. De echte antwoorden liggen niet op Google, het echte leven vinden we niet op social media of in een AI-chatbot. Ze liggen namelijk in onszelf. In stilte. In contact met ons lichaam, onze geest, onze omgeving in real-life. Het wordt tijd dat we als samenleving — en vooral jongeren — weer leren om naar binnen te keren, elkaar in de ogen durven kijken en met elkaar in real-life verbinding te staan i.p.v voor een scherm te zitten scrollen. Niet om technologie af te wijzen, maar om haar niet te laten bepalen wie we zijn als mens. 

 

Verdeeldheid als wapen: Hoe geschiedenis zich herhaalt in het digitale tijdperk

 

Door de eeuwen heen zien we steeds opnieuw hetzelfde mechanisme terugkomen: verdeel en heers. Of het nu ging om religie, ras, klasse of geslacht — keer op keer werd de samenleving in hokjes geplaatst. Katholieken tegenover protestanten. Rijk tegenover arm. Hoogopgeleid tegenover laagopgeleid. Man tegenover vrouw. Hetero tegenover homo. Links tegenover rechts. En telkens weer werd die verdeling gevoed, uitvergroot en benut om controle te houden.

 

Vandaag de dag zijn de technieken moderner, maar het spel blijft hetzelfde.

 

We leven nu in het digitale tijdperk, en hoewel het lijkt alsof we meer verbonden zijn dan ooit, zitten we paradoxaal genoeg steeds vaker opgesloten in onze eigen bubbel. Een A.I.-bubbel, om precies te zijn.

 

Of je nu urenlang door Instagram scrollt, YouTube-video's bekijkt of simpelweg iets opzoekt via Google — alles wordt gestuurd door algoritmes. Slimme systemen die precies weten wat jij interessant vindt, en je vervolgens vooral dát voorschotelen. Het klinkt handig, maar in werkelijkheid worden onze overtuigingen versterkt, onze verschillen uitvergroot, en onze wereld kleiner.

 

We denken zelf te kiezen, maar ondertussen worden we gestuurd. Niet met harde hand, maar met zachte manipulatie. Informatie die bevestigt wat je al denkt, emoties die worden uitgelokt, en ideeën die steeds meer gepolariseerd raken.

 

Zijn we werkelijk vrij in hoe we denken? Of zijn we opnieuw pionnen in een oud spel, dit keer met technologie als speerpunt?

 

De geschiedenis herhaalt zich, maar dit keer met een smartphone in onze hand.

 

Inclusieve AI? Meer dan techniek

Ondertussen wijst een recent rapport terecht op het gebrek aan kennis en onderzoek naar de relatie tussen kunstmatige intelligentie en lhbti+ emancipatie. Want als AI systemen niet bewust worden ontwikkeld met diversiteit en inclusie in gedachten, worden vooroordelen en uitsluiting simpelweg geautomatiseerd.

Daarom pleiten experts voor een multi-stakeholder aanpak: betrek lhbti+ gemeenschappen vanaf het begin bij de ontwikkeling van deze systemen. Alleen dan kunnen we bouwen aan technologie die dient in plaats van stuurt, die verbindt in plaats van vervreemdt.

 

Conclusie: terug naar binnen

De grote uitdaging van deze tijd is niet om alles te weten, maar om te leren voelen wat wel en wat niet klopt. Dat lukt alleen als we technologie met een kritische blik gebruiken, zonder onszelf erin te verliezen. Want wie je bent, vind je niet in een algoritme. Dat vind je in jezelf.

 

Pas op voor ondervertegenwoordiging

Ondervertegenwoordiging is iets waarover veel onderzoekers zich zorgen maken. Het systematische uitsluiten van mensen die leven op de rand van de ‘big data’-samenleving, zorgt ervoor dat hun leven minder ‘datafied’ is – er worden simpelweg systematisch eenzijdig en misinformatie d.m.v AI op het net verspreid en verzameld. Met als gevolg dat een groepering buitengesloten wordt d.m.v discriminatie en een negatief beeld naar voren komt vanwege samengestelde analyse aan foutieve datasets conclusie door algoritmes waardoor discriminatie op de loer ligt. 

 

Uitsluitingsrisico: experts waarschuwen voor discriminerende algoritmes AI-systemen

 

Artikel 

Data van kunstmatige intelligentie zijn nog onvoldoende inclusief waardoor er een groot risico is op uitsluiting en discriminatie. Experts waarschuwen voor een gebrek aan data-inclusiviteit die tot discriminerende algoritmes kunnen leiden in het onderwijs, de arbeidsmarkt, de gezondheidszorg en in (online) veiligheid. Dit blijkt uit een nieuw rapport van kennisinstituut Movisie in opdracht van het ministerie van OCW.

 

Kunstmatige intelligentie wordt veelvuldig ingezet op de vier onderzochte terreinen (onderwijs, arbeidsmarkt, gezondheidszorg en veiligheid), maar de data waarop AI-systemen getraind worden, zijn onvoldoende inclusief. Bij het trainen van AI-systemen wordt veelal gebruik gemaakt van onvoldoende diverse datasets, waarin onder andere lhbti+ personen ondervertegenwoordigd zijn. Zo kunnen er in de data vooroordelen zitten, waardoor systemen in elk domein kunnen discrimineren. Daarnaast is er een gebrek aan toegankelijke informatie over lhbti+ personen, omdat algoritmes dit foutief classificeren.

 

Gebrek aan bescherming en privacy

 

AI kopieert processen uit de maatschappij en neemt daarmee ook stereotypen en vooroordelen van de ontwikkelaar over, wat kan leiden tot discriminatie. Dat is een groot aandachtspunt benadrukken deskundigen, omdat AI-systemen zichzelf trainen waardoor discriminatie zelfs versterkt kan worden. Verder wordt gewaarschuwd voor het gebrek aan bescherming tegen online geweld en de onduidelijkheid over het opslaan en gebruiken van gegevens over lhbti+ personen. Dit kan in strijd zijn met het recht op privacy. Zo kan een niet beveiligde opmerking in een dossier van een lhbti+ persoon over de seksuele oriëntatie zichtbaar zijn, terwijl dit gegeven niet altijd relevant is.

 

Lees meer...

https://persportaal.anp.nl/artikel/79442fd3-4f7d-4264-9d09-95026bfd3a68/uitsluitingsrisico-experts-waarschuwen-voor-discriminerende-algoritmes-ai-systemen