Contexte et objectifs de l’Union européenne
La Commission européenne a exercé une pression renouvelée sur les acteurs du secteur technologique en matière de protection des mineurs, en fin de semaine, en demandant des informations à quatre plateformes majeures : Apple, Google, Snapchat et YouTube. Parallèlement, certains États membres plaident pour une interdiction des réseaux sociaux aux enfants.
Selon la Commission, l’objectif est de vérifier la conformité des services concernés avec les obligations prévues par le règlement sur les contenus numériques, le Digital Services Act (DSA). «Nous devons nous assurer que les contenus auxquels nos enfants accèdent en ligne sont appropriés à leur âge, et c’est pourquoi nous avons mis en place le DSA», a précisé Henna Virkkunen, commissaire européenne chargée du Numérique, lors d’un point de presse précédant une réunion ministérielle tenue au Danemark, à Horsens.
La commissaire a ajouté que le DSA «prévoit clairement que lorsque les enfants utilisent des services en ligne, de très hauts niveaux de protection de la vie privée et de sécurité doivent s’appliquer, et ce n’est pas toujours le cas». C’est dans cet esprit que la Commission a durci l’application de la loi et a envoyé des demandes d’information à ces quatre plateformes.
Premières préoccupations et domaines ciblés
Détails importants : la Commission s’inquiète de la possibilité pour des mineurs de télécharger des applications potentiellement nuisibles ou illégales via l’App Store d’Apple ou Google Play. Parmi les cas évoqués figurent des applications de paris en ligne et des outils permettant de créer du contenu à caractère sexuel en « dénudant » des photos, ce qui pourrait exposer des mineurs à des risques.
Concernant Snapchat, l’institution européenne souhaite comprendre comment le réseau vérifie l’âge de ses utilisateurs et quelles mesures il met en œuvre pour empêcher l’accès des mineurs à certaines pratiques ou produits, comme des vapoteuses et autres consommables, ou même des drogues.
Pour YouTube, filiale de Google, l’exigence porte sur les mécanismes d’assurance de l’âge des internautes et sur l’intégration de ce facteur dans les recommandations de contenus, afin d’éviter des contenus inappropriés pour les plus jeunes.
Cadre juridique et portée des démarches
Ces démarches s’inscrivent dans le cadre du DSA, un ensemble d’instruments juridiques qui vise à réguler la sphère numérique et à protéger les utilisateurs européens contre la désinformation, la haine en ligne, les contrefaçons ou des produits dangereux. Il ne s’agit pas à ce stade d’enquêtes formelles, mais de demandes d’information destinées à évaluer la conformité des plateformes avec les obligations imposées par le texte.
En cas de manquement, les autorités peuvent infliger des amendes atteignant jusqu’à 6% du chiffre d’affaires mondial annuel des entreprises concernées. Cette puissance répressive illustre l’objectif de l’UE de renforcer la supervision des acteurs majeurs du numérique.
Élargissement du champ d’action et contexte politique
Dans le même temps, Bruxelles poursuit d’autres enquêtes liées au DSA et a déjà ouvert des procédures sur Meta (Facebook et Instagram), TikTok, X et AliExpress, pour diverses infractions prévues par le règlement.
La Commission a annoncé ces nouvelles demandes d’information lors d’une réunion des ministres européens des télécoms organisée au Danemark, où la question d’une éventuelle interdiction des réseaux sociaux pour les mineurs était à l’ordre du jour. Le pays hôte, le Danemark, qui assure la présidence tournante de l’UE, et plusieurs États membres soutiennent l’idée soutenue par la présidente Ursula von der Leyen, qui a indiqué en septembre son ouverture à une interdiction des réseaux sociaux pour les mineurs et envisage même la possibilité d’établir un âge de majorité numérique à l’échelle européenne.
Perspectives et enjeux futurs
Si ces échanges ne constituent pas une décision définitive, ils illustrent la volonté de l’Union européenne de renforcer les mécanismes de contrôle sur les grandes plateformes et d’harmoniser les exigences de protection des jeunes internautes à l’échelle du territoire communautaire.