Amendement Six Dijkstra/Kathmann over het toezicht op de naleving van artikel 27 van de ACM naar de AP overbrengen - Uitvoering van verordening (EU) 2022/2065 van het Europees Parlement en de Raad van 19 oktober 2022 betreffende een eengemaakte markt voor digitale diensten en tot wijziging van Richtlijn 2000/31/EG (Uitvoeringswet digitaledienstenverordening) - Hoofdinhoud
Dit amendement i is onder nr. 8 toegevoegd aan wetsvoorstel 36531 - Uitvoeringswet digitaledienstenverordening i.
Inhoudsopgave
Officiële titel | Uitvoering van verordening (EU) 2022/2065 van het Europees Parlement en de Raad van 19 oktober 2022 betreffende een eengemaakte markt voor digitale diensten en tot wijziging van Richtlijn 2000/31/EG (Uitvoeringswet digitaledienstenverordening); Amendement; Amendement van de leden Six Dijkstra en Kathmann over het toezicht op de naleving van artikel 27 van de ACM naar de AP overbrengen |
---|---|
Documentdatum | 03-10-2024 |
Publicatiedatum | 03-10-2024 |
Nummer | KST365318 |
Kenmerk | 36531, nr. 8 |
Externe link | origineel bericht |
Originele document in PDF |
Tweede Kamer der Staten-Generaal
Vergaderjaar 2024-2025
36 531 |
Uitvoering van verordening (EU) 2022/2065 van het Europees Parlement en de Raad van 19 oktober 2022 betreffende een eengemaakte markt voor digitale diensten en tot wijziging van Richtlijn 2000/31/EG i (Uitvoeringswet digitaledienstenverordening) |
Nr. 8 |
AMENDEMENT VAN DE LEDEN SIX DIJKSTRA EN KATHMANN Ontvangen 3 oktober 2024 De ondergetekenden stellen het volgende amendement voor: I |
In artikel 2.2, eerste lid, vervalt «27,». II In artikel 3.2, eerste lid, wordt na «26, derde lid,» ingevoegd «27». Toelichting De Digitaledienstenverordening (DSA) vereist dat online platforms transparant zijn over de werking van hun aanbevelingsalgoritmes (artikel 27 DSA). Dat zijn algoritmes die bepalen op welke wijze inhoud van online platforms gepersonaliseerd wordt voorgeschoteld aan gebruikers. Daarnaast kunnen gebruikers onder de DSA ervoor kiezen om op specifiek de aangewezen Very Large Online Platforms (VLOPs) gepersonaliseerde inhoud uit te schakelen (artikel 38 DSA). Aanbevelingsalgoritmes kunnen een «konijnenhol»-effect teweegbrengen waarbij (schadelijke) content zichzelf steeds frequenter aandient bij gebruikers naarmate zij deze een aantal keer bekeken hebben. In de ogen van indieners is de grootste potentiële schade van manipulatieve aanbevelingsalgoritmes eerder maatschappelijk dan financieel van aard. We moeten niet naïef zijn voor de potentieel verstrekkende gevolgen van de manier waarop het gedrag van gebruikers online door grote platforms gestuurd wordt om onder meer gebruikersinteractie te maximaliseren. Steeds meer onderzoeken maken het aannemelijk dat dergelijke manipulatie uiteindelijk resulteert in verslaving, angststoornissen en radicalisering bij grote groepen gebruikers. Zeker bij minderjarigen lijkt dit effect aanzienlijk. Mede hierom is onder de DSA een artikel opgenomen om VLOPs te verplichten mitigerende handelingen te treffen |
kst-36531-8 ISSN 0921 - 7371 's-Gravenhage 2024 |
Tweede Kamer, vergaderjaar 2024-2025, 36 531, nr. 8 1 |
daar waar het betreft de algoritmisch gestuurde verspreiding van risicovolle content (artikelen 34 en 35 DSA).
De Autoriteit Consument en Markt (ACM) hanteert momenteel de volgende drie criteria in haar prioriteringsbeleid bij de inzet van onderzoekscapaciteit naar aanleiding van handhavingsverzoeken:
-
1)Hoe schadelijk het gedrag waarop het verzoek of het signaal ziet is voor de consumentenwelvaart,
-
2)hoe groot het maatschappelijk belang is bij het optreden van de ACM en
-
3)in hoeverre de ACM in staat is doeltreffend en doelmatig op te treden.
Indieners zijn de opvatting toegedaan dat specifiek wat betreft het naleven van artikel 27 DSA, te weten transparantie van aanbevelingsalgo-ritmes, het maatschappelijk belang als criterium zou moeten prevaleren boven de bescherming van consumentenwelvaart. Het perspectief van de mens als burger, niet als consument, moet centraal staan in de manier waarop uitvoering wordt gegeven aan deze wet.
Indieners vinden om die reden dat de Directie Coördinatie Algoritmes (DCA) van de Autoriteit Persoonsgegevens (AP) een passendere toezichthouder zou zijn op aanbevelingsalgoritmes dan de ACM. De DCA/AP is namelijk vanuit haar rol en positie de aangewezen partij om het gebruik van algoritmes te onderzoeken met een focus op het beschermen van fundamentele waarden en grondrechten.
Dit alles overwegende, stellen indieners voor om de AP te laten toezien op naleving van artikel 27 DSA.
Six Dijkstra Kathmann
Tweede Kamer, vergaderjaar 2024-2025, 36 531, nr. 8