Interdiction des réseaux sociaux : la France choisit le contrôle plutôt que l’éducation

5 MIN

Partager :

L’Assemblée nationale vient d’interdire les réseaux sociaux aux moins de 15 ans. Derrière l’intention louable de protéger les enfants se cache une fuite en avant : plutôt que de réguler les plateformes et d’éduquer les citoyens, la France opte pour la surveillance et l’interdiction. Un paternalisme numérique qui risque de produire l’inverse de ses objectifs.

« Le cerveau de nos enfants n’est pas à vendre. Ni aux plateformes américaines, ni aux réseaux chinois. » Par ces mots, Emmanuel Macron a fait de l’interdiction des réseaux sociaux pour les moins de 15 ans une priorité de fin de mandat. Le 27 janvier 2026, l’Assemblée nationale a adopté la proposition de loi par 130 voix contre 21. Septembre 2026 pour les nouveaux comptes, janvier 2027 pour la vérification généralisée : la France s’apprête à devenir le deuxième pays au monde, après l’Australie, à bannir TikTok, Instagram et Snapchat pour ses adolescents.

Le diagnostic est juste. Les algorithmes exploitent l’attention des jeunes, la santé mentale des 11-24 ans se dégrade, Amnesty International documente comment TikTok encourage l’automutilation et les idées suicidaires. Personne ne conteste la nocivité de certains contenus ni la prédation des plateformes. Mais le remède choisi révèle une logique troublante : face à un problème structurel, la réponse est individuelle ; face à des géants technologiques incontrôlés, la cible est l’utilisateur ; face à un défi éducatif, la solution est l’interdit.

L’illusion technique de la vérification d’âge

Comment distinguer un adolescent de 14 ans et 6 mois d’un autre de 15 ans ? Bastien Le Querrec, de la Quadrature du Net, pose la question qui dérange : c’est « physiologiquement impossible ». Les systèmes de reconnaissance faciale se sont déjà ridiculisés au Royaume-Uni en validant des avatars de jeux vidéo. Les VPN permettent de contourner les géo-restrictions. Le mensonge sur l’âge reste l’arme la plus simple : en Australie, 80 % des 8-12 ans utilisaient déjà les réseaux sociaux avant l’interdiction.

Qu’importe, rétorqueront les partisans de la loi : l’Australie a bien supprimé 4,7 millions de comptes en un mois. Certes. Mais à quel prix ? Des adolescents poussés vers le dark web, une collecte massive de données biométriques via des « tiers de confiance », et des jeunes contraints de mentir systématiquement pour accéder à des espaces numériques devenus centraux dans la socialisation contemporaine. Comme le résume Camille Alloing : « C’est comme l’éducation sexuelle axée sur l’abstinence : interdire pour interdire, ça n’a jamais fonctionné. »

Cibler les utilisateurs plutôt que les plateformes

Voilà le cœur du problème. Cette loi déplace la responsabilité. Au lieu d’imposer aux géants technologiques des contraintes structurelles — algorithmes transparents, interdiction des techniques addictives, modération efficace —, elle fait porter le fardeau sur les familles et les adolescents eux-mêmes. Au lieu de s’attaquer à la racine du mal, elle en traite les symptômes.

Stéphanie de Vanssay résume cette absurdité : « C’est comme interdire aux enfants de sortir dans la rue parce qu’elle est dangereuse. » La rue n’est pas le problème ; ce sont les voitures qui roulent trop vite, les trottoirs absents, l’urbanisme hostile. De même, les réseaux sociaux ne sont pas intrinsèquement toxiques : ce sont leurs modèles économiques fondés sur la captation de l’attention, leurs algorithmes opaques, leur impunité face aux contenus dangereux.

L’Institut Montaigne le constate : « Nous avons légiféré sur la modération, la transparence mais sans penser la partie plus positive ni penser politiquement la forme du réseau. » Autrement dit, la France multiplie les rustines juridiques sans jamais s’attaquer au modèle économique qui produit la toxicité. Interdire l’accès aux moins de 15 ans est plus simple politiquement que d’imposer à Meta ou TikTok une refonte de leurs algorithmes. Mais c’est aussi plus inefficace.

Le précédent liberticide de la surveillance biométrique

Pour vérifier l’âge de millions d’utilisateurs, il faudra bien collecter des données. Reconnaissance faciale, scan de documents d’identité, passage par des « tiers de confiance » : toutes ces méthodes impliquent un fichage généralisé. La Quadrature du Net alerte sur les « risques de censure et de fichage ». Car une fois l’infrastructure de surveillance en place, rien ne garantit qu’elle ne sera pas étendue à d’autres usages.

C’est le grand impensé de cette loi : elle normalise l’idée qu’accéder à un espace numérique nécessite une identification biométrique. Demain, pourquoi ne pas exiger la même chose pour consulter certains contenus politiques, accéder à des sites d’information, ou participer à des forums ? Le précédent est posé. Et il est d’autant plus inquiétant qu’il se pare des atours de la protection de l’enfance, rendant toute critique suspecte.

Ajoutons que cette loi entre potentiellement en conflit avec le Digital Services Act européen. La loi Marcangeli, adoptée en juillet 2023, n’a jamais été appliquée précisément pour cette raison. Colin Reydellet le rappelle : ces questions doivent être réglées « sur la base du droit européen ». Mais la France, dans son hubris souverainiste, préfère légiférer d’abord et négocier ensuite.

L’éducation sacrifiée sur l’autel de l’interdit

Le véritable scandale de cette loi est ce qu’elle ne fait pas. Elle n’accompagne pas les parents dans l’éducation au numérique. Elle ne forme pas les enseignants à décrypter les mécaniques algorithmiques avec leurs élèves. Elle ne développe pas d’alternatives éthiques aux réseaux sociaux dominants. Elle n’impose pas aux plateformes de créer des versions réellement sécurisées pour les adolescents.

Elle interdit. Point final.

Cette facilité est typique du progressisme paternaliste : face à un problème complexe, on édicte une règle simple, on se donne bonne conscience, et on laisse aux acteurs de terrain — familles, écoles, jeunes eux-mêmes — le soin de gérer les conséquences. Les 73 % de Français favorables à cette mesure applaudissent une action spectaculaire. Mais dans cinq ans, quand on constatera que les adolescents continuent d’accéder aux réseaux sociaux via VPN, que le dark web s’est développé, et que la surveillance biométrique s’est banalisée, qui en portera la responsabilité ?

L’exemple australien comme avertissement

L’Australie, laboratoire de cette expérience, offre déjà un aperçu du futur. En un mois, 4,7 millions de comptes supprimés. Des adolescents privés brutalement d’espaces de socialisation. Nicholas Oreb, 14 ans : « C’est injuste, je l’utilisais juste pour poster des vidéos de fitness. » Zoe Nunes, 14 ans : « Je ne voulais pas donner mes données personnelles. » Des jeunes qui ressentent l’interdiction comme une infantilisation, une défiance à leur égard, une négation de leur capacité à naviguer dans le monde numérique avec accompagnement.

Et surtout, des contournements massifs. Car les adolescents ne sont pas passifs. Ils apprennent à mentir sur leur âge, à utiliser les comptes de leurs parents, à passer par des VPN. L’interdiction ne les protège pas : elle les rend clandestins. Exactement comme la prohibition de l’alcool aux États-Unis n’a pas supprimé la consommation mais l’a rendue plus dangereuse, cette loi risque de pousser les jeunes vers des espaces moins contrôlables, où ils seront encore plus vulnérables.

La question de fond : quelle société numérique voulons-nous ?

Derrière cette loi se profile une vision de la société : celle où l’État décide pour les citoyens, où la régulation passe par l’interdiction plutôt que par l’autonomisation, où la méfiance l’emporte sur l’éducation. C’est la même logique qui sous-tend les politiques prohibitionnistes en matière de drogues, les interdictions alimentaires, les restrictions de liberté d’expression au nom de la protection.

Or, aucune société n’a jamais progressé en infantilisant ses membres. Les adolescents de 14 ans vivent dans un monde numérique. Ils y développent des amitiés, des compétences, une identité. Plutôt que de les en exclure brutalement, ne serait-il pas plus pertinent de les accompagner ? De leur apprendre à reconnaître les manipulations algorithmiques, à protéger leurs données, à construire une présence numérique saine ?

La députée Laure Miller affirme : « Ces réseaux avaient promis de relier, ils ont fragmenté. » Elle a raison. Mais sa solution — interdire — ne relie pas davantage. Elle fragmente autrement : entre ceux qui respecteront la loi et seront exclus, et ceux qui la contourneront et seront criminalisés. Entre les adultes qui croient protéger et les jeunes qui se sentent méprisés. Entre une génération qui rêve de contrôler le numérique et une autre qui doit l’habiter.

L’alternative existait

Il aurait été possible de faire autrement. D’imposer aux plateformes des versions réellement sécurisées, sans algorithmes addictifs, avec modération humaine renforcée. De former massivement parents et enseignants à l’éducation numérique. De financer des alternatives éthiques, des réseaux sociaux à but non lucratif, des espaces numériques conçus pour l’épanouissement plutôt que l’exploitation.

Mais ces solutions exigent du temps, de l’investissement, du courage politique face aux lobbies technologiques. Elles supposent de faire confiance aux citoyens plutôt que de les surveiller. Elles impliquent de penser le numérique comme un bien commun à civiliser plutôt qu’un territoire à interdire.

La France a choisi la facilité. Elle l’appellera « protection de l’enfance ». L’histoire la jugera sur ses effets : surveillance généralisée, jeunes infantilisés, problème déplacé plutôt que résolu. Laure Miller promettait de protéger le cerveau des enfants. Elle vient surtout de leur apprendre que l’État préfère contrôler plutôt qu’éduquer. C’est peut-être la leçon la plus dangereuse.

Partager :

COMMENTAIRES

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *