De Wereld Vandaag 🇧🇪

_id 67dd98b90a59ce37f2346466
datetime 2025-03-21 00:00:00
url https://www.vrt.be/vrtmax/luister/radio/d/de-wereld-vandaag~11-10/de-wereld-vandaag~11-31004-0/fragment~bb2326da-649e-41cb-a35e-94ec705901ef/

 

Statements

idx statement score
0 Het waren schokkende verhalen denk ik toch deze week over de jongeren die filmpjes hebben gemaakt waarin ze ouderen in hun woonzorgcentrum kleineren, soms zelfs mishandelen. 36.97
1 En nog vandaag moest in Kortrijk een meisje van zestien voor de jeugdrechter verschijnen omdat ze naaktbeelden zou hebben verspreid van een schoolgenoot, een jongen die een tijd later uit het leven is gestapt. 0.03
2 Weten ouders nog wat hun kinderen online zien en doen? 0.01
5 U bent substituutprocureur des Konings bij het Parket van Antwerpen en ook professor aan de universiteit in Antwerpen gespecialiseerd in cybergeweld. 0.01
6 Deze week verschillende gevallen van schokkende beelden op gsm's van jonge mensen. 0.02
9 Het zijn dossiers die letterlijk op mijn bureau komen en die ik ook in mijn cijfers van onderzoek zie. 0.04
10 Dus uitzonderlijk is het niet, maar het is ook weer niet iets dat elke dag voorkomt. 0.03
12 We kunnen niet zeggen dat dit hier een algemene trend is. 0.01
13 Wel, enerzijds hebben ze wel hetzelfde element in zich. 0.01
15 Dat jongeren alles in hun leven gaan vertalen in beelden. 0.01
21 Wat je dan doet met die naaktbeelden te verspreiden. 0.01
23 Denk dan inderdaad aan die mishandelingen die je in beelden gaat vatten. 0.01
24 En dat is eigenlijk wel hetzelfde in die twee verhalen. 0.02
28 Als het eigenlijk bewijs kan zijn van hun misdrijven daar. 0.01
31 Kan je zeggen dat jongeren losser omgaan met die online beelden dan andere generaties? 0.01
34 En dat heeft te maken met dat die jongeren zijn opgegroeid met die smartphones. 0.06
35 En door die smartphones drukken ze alles dus letterlijk in beelden uit. 0.02
38 Dan is daar een zekere tolerantie ten opzichte van wat je daar constant ziet. 0.01
39 Dat wil niet zeggen dat het dan ook geldt voor het merendeel van de jongeren. 0.03
40 Want heel veel jongeren krijgen daar ook wel digitale wijsheid bij. 0.06
41 Of hebben ook hun moreel kompas dat ze mee krijgen van thuis. 0.01
42 En dus we hebben een onderzoek gedaan waar dat we een voorbeeld gaven van online pesten, online haatspraak, verspreiden van naaktbeelden. 0.02
43 En dan zegt de grote meerderheid van de jongeren, en dat moet ons geruststellen, nog steeds, ja, dit vind ik schadelijk, dit vind ik eigenlijk niet kunnen. 0.06
44 Maar je hebt ook natuurlijk die kleinere groep die daar veel kwetsbaarder voor is, zowel om slachtoffer te worden, maar ook om dader te gaan worden. 0.45
45 Het is natuurlijk die kleinere groep die heel veel dan uiteindelijk toch in onze dossiers of bij jullie in de media terechtkomt. 0.01
47 Jongeren krijgen veel te zien, zegt u. Er wordt veel opzijgeschoven, weggeswiped, dat merk ik thuis soms ook. 0.02
48 Maar als we een stapje verder gaan, als het bijvoorbeeld gaat over gewelddadige beelden, naaktbeelden, weten we dat hoeveel jongeren daarmee geconfronteerd worden. 0.7
49 Wij denken misschien altijd, wat zijn wat onschuldige filmpjes, maar dat is niet altijd zo, hè? 0.03
51 Waar wij vaak naar gaan kijken, dat zijn natuurlijk die slachtoffers. 0.2
54 Eén op vier zegt dat er ooit naaktbeelden van hem verspreid zijn. 99.99
55 Eén op drie zegt dat ze die al eens verspreid hebben, dat zijn de daders. 0.02
56 Maar daartussen zit die restcategorieën, diegenen die die beelden hebben gezien. 0.63
57 En dan hoor je toch wel op scholen, dat er heel veel jongeren zeggen, bij ons zijn er ook beelden rondgegaan. 0.02
58 En ik heb die soms ook buust niet willen zien, of ik heb die niet gekregen. 0.01
60 Nu, dat heeft ook te maken, dat is wat je zegt, wegswijpen. 0.05
62 Als iemand wegswijpt, dan gaat jouw kind minder geconfronteerd worden met die beelden. 0.01
63 Een kind dat wel die beelden dan echt gaat bekijken, die gaat door die algoritmes meer naar die beelden gestuurd worden. 0.02
64 En zo zien we natuurlijk dat sommige kinderen wel, en wij noemen het konijnenhol en de rabbit hole, wat terechtkomen. 0.02
65 En naar bepaalde beelden worden gezogen en boodschappen worden gezogen die al toxisch zijn. 12.86
66 Neem daar ook nog bij, dat diegenen die een smartphone krijgen, ook steeds jonger worden. 0.02
68 Ja, die echt jonge kinderen, die hebben nog niet dat moreel kompas dat we hopen dat onze adolescenten wel hebben. 1.01
69 Ja, de gemiddelde leeftijd waarop een kind vandaag zijn eerste smartphone krijgt, is acht jaar. 99.72
70 Ja, en die evolutie, want die beelden, die geweldige beelden, dat is niet zozeer iets nieuws, maar dat is echt wel een zeer bijzondere evolutie. 0.03
71 Ja, als je dan gaat vergelijken, er is een onderzoek van Mediawijs, het expertisecentrum van Vlaanderen, over mediawijsheid, en daar zie je 2022, dan is dat nog geen één op drie van de kinderen die een smartphone heeft. 99.99
73 Ja, dat is dan wel een heel snelle evolutie, Terwijl bij die adolescenten is dat stabiel gebleven. 4.23
74 Ja, en u zegt, er is een groot verschil tussen inderdaad kinderen van acht, adolescenten van zestien bijvoorbeeld. 0.05
75 Kan je als ouder vandaag nog weten waarmee je kind online wordt geconfronteerd? 0.01
77 Zoals je vroeger iemand zijn brief niet opendeed, zitten ouders ook vaak niet graag te snuisteren in die gsm van hun kind. 15.18
78 Ja, en daar denk ik dat die leeftijd weer een heel belangrijke is. 0.01
79 Van die jongere kinderen moet je als ouder op de hoogte zijn. 0.01
80 En dat wil zeggen, als je toch je kind een smartphone geeft, één, zorg echt dat die privacy-instellingen daar heel goed over zijn. 0.02
82 Ja, en het belangrijkste, praat er ook over met je kind. 0.02
83 Maar voor die adolescent, ja, er gaat een leeftijd komen dat je ook die privacy van jongeren gaat moeten respecteren. 0.01
84 Dat je ook, ja, eigenlijk verantwoordelijkheid moet durven geven. 0.01
85 Maar praat er dan opnieuw over met je kind, maak het bespreekbaar. 0.01
87 Als je dan gaat vragen aan tieners, hoe vaak spreek je eigenlijk over sociale media, of over wat je meemaakt op sociale media, of op je gsm. 0.01
89 En dan is dat ook weer maar één op de drie jongeren die zegt, ja, wij praten daar thuis over. 0.03
90 En het heeft ook te maken met ouders die dan zeggen, ja, het is zo complex, of het is niet van mijn generatie. 0.17
92 Maar dan moet je er eigenlijk, ja, naar vragen om in die wereld te komen, of iets dat in de media is aangrijpen, of samen naar zo'n serie kijken. 0.01
93 Zoals, er wordt heel veel reclame gemaakt voor die adolescents. 8.53
95 Ja, want Mia, die stuurt ons inderdaad die vraag, wordt daar thuis over gepraat met jongeren? 47.46
97 En je leert dat, nee, zeggen dat dat soms ook belangrijk is. 0.01
98 Dat dat niet alleen in de echte wereld is, maar ook in de virtuele wereld. 0.02
99 Dat is anders om daar met kinderen over te spreken, dan daar met tieners over te spreken. 0.02
100 Hoe pak je dat aan als ouder, als je inderdaad het gevoel hebt van, goh, ja, dat is niet echt mijn wereld. 0.01
101 Want wat je dan vaak te horen krijgt van kinderen is, al mijn vrienden zitten op die app, bijvoorbeeld. 0.02
102 Ja, en dat is iets wat de meeste ouders dan uiteindelijk gaan overtuigen. 0.05
104 Wat je dan toch het beste doet, is duidelijke afspraken maken met je kind. 0.01
105 Dat is één, als je er niet veel van kent, ga dan toch eens te raden bij iemand die er iets meer van kent voor die veiligheidsinstellingen, of kijk een YouTube-filmpje daarover. 0.01
106 Maar het derde, ja, echt ervoor zorgen dat je de ouder bent, bij wie dat ze wel terecht zouden komen als er een probleem is, en er actief naar vragen van, leg het mij uit. 0.01
107 En die jongeren ga je dan wel op hun manier kunnen betrekken in het verhaal. 0.01
108 Maar los daarvan, ja, ook een beetje, en dat kan ik dan zeggen, zelfs als expert, mea culpa, het is ook hoe we zelf omgaan met die smartphones. 0.03
109 Als wij als volwassenen, ja, daar constant, ook tijdens het eten, of daar rond mee rondlopen, wat te veel van ons doen, geven ook aan die jongeren een signaal van hoe belangrijk dat het is. 0.01
111 Het lijkt zo'n eenvoudige oplossing, maar het is wel een heel belangrijke in het geheel. 0.01
112 Want laten we niet vergeten, technologiebedrijven, daar zit de hoofdverantwoordelijkheid. 0.01
113 Maar ja, wij als ouders, wij als volwassenen, als opvoeders, ja, wij hebben ook een belangrijke verantwoordelijkheid om onze jongeren sterker te maken en een thuis te geven als ze daar met vragen zitten. 0.01
114 En dat gesprek aan te gaan, die technologiebedrijven, u verwees al naar die algoritmes, daar ligt ook een stuk van die verantwoordelijkheid voor wat onze jongeren, wat onze tieners, onze kinderen te zien krijgen. 0.15
115 Enorm groot, want je vroeg daar al naar van, ja, komt het meer voor? 1.79
116 En dan, ja, dus er zijn meer mensen online, dus het komt meer voor. 0.03
117 Maar vooral, we hebben de laatste maanden veel meer plots chockerende beelden gezien die jongeren ook te zien kregen. 36.93
119 In Amerika, doordat daar een nieuwe cultuur is, zijn ze wat terug aan het experimenteren met algoritmes en welke beelden ze toelaten en niet. 0.01
120 En plots krijg je daaraan gaan de poorten van de held terug open. 0.03
121 En dan zie je pas echt hoe makkelijk of hoe moeilijk dat het is om die regulering te doen. 0.01
122 En dat je merkt, ja, als die algoritmes goed zitten, dan krijgen onze jongeren minder van die beelden te zien en worden ze gestuurd naar gezonde content. 34.19
123 En als die slecht zitten, ja, dan plots krijgen ze de grootste gruwelijkheden op hun scherm. 0.01
125 Ja, we krijgen een bezorgdheid binnen ook van Rob, die leerkracht is. 0.02
126 Hij zegt, vandaag op school hebben we verschillende ouders moeten inschakelen om drie lasteraccounts op TikTok te rapporteren, in de hoop om die dan ook weg te krijgen. 0.03
127 Enkel regulatie door de overheid zal werken, want niet elke ouder is sterk genoeg, onderlegd genoeg, om te weten wat er moet gebeuren. 0.01
128 Neemt, ja, ons land, maar dan ruimer uiteraard Europa, voldoende verantwoordelijkheid daarin? 0.01
129 Ja, ik denk dat Rob daar volledig gelijk in heeft, want wat we vooral ook zien, het is echt bij die kwetsbare kinderen, die vaak het meeste van dat soort fenomenen over zich heen krijgt. 0.01
133 Ik denk dat we daar zo hard verschillen van bijvoorbeeld Amerika. 0.01
134 We hebben daar een digitale dienstenwet nu, waar dat, ja, ze verplicht worden, de techbedrijven om, zeker op platformen waar er veel kinderen komen, die inhoud echt, ja, te gaan monitoren, en ervoor te zorgen dat dat kids' proof is, om het zo te zeggen. 0.01
135 En dan moet het niet verbazen dat de Musks van deze wereld, de Europese Unie, ook als desduivels zien. 0.01
136 En ja, een nieuw Europees, maar ook een Belgisch verhaal natuurlijk, daarin zitten van een ander soort omgaan met sociale media, waar kinderen, omdat we weten dat ze daar aanwezig zijn, ook veilige plaatsen hebben. 0.02
137 Ja, dat moet wel de doelstelling zijn van onze regering, maar ook van Europa. 0.01
138 Ja, en dan zelf proberen om de juiste waarden mee te geven, zodat kinderen ook weten wat ze met beelden wel of niet kunnen of moeten doen. 0.01
140 Vanaf welke leeftijd vindt u een smartphone voor een kind? 0.01
142 Ja, ik heb zelf kindjes, en mijn dochter van tien heeft geen smartphone. 0.02
143 Dat zal pas een verhaal zijn bij mij, voor het middelbaar. 0.01
144 En dat heeft inderdaad te maken, ja, mijn dochter weet natuurlijk daar wel heel veel van, omdat daar thuis over wordt gepraat, omdat het mijn expertise in is. 28.78
145 Maar ik ben gewoon vooral bang dat het een deel van haar creativiteit ook wegneemt. 0.01
147 Ik merk het zelf, hoe makkelijk ik daar verslingerd aan geraak. 0.01
148 En ik denk dat dat ook, ja, naar dat middelbaar toe werken, en daarvoor eerder de klappertelefoontjes, voor toch nog contact met mama of papa of een vriendje te hebben, dat dat gezonder is, zonder enige ouder eigenlijk daar te willen in responsabiliseren. 0.04
149 Want er zijn heel veel situaties waar ik het absoluut begrijp. 0.01
150 Aaneens dan ouders bijvoorbeeld, die wel die smartphone geven, om juist heel veel contact met een kind te kunnen hebben. 0.01
153 Katerien van de Heining, u bent substituutprocureur, dus konings bij het Parket van Antwerpen, professor ook aan de Universiteit van Antwerpen, gespecialiseerd in cybergeweld. 0.01