Loading news...
Publications
Retour aux articles
Chat Control : vers une architecture européenne de surveillance systémique
FR EN ZH

Chat Control : vers une architecture européenne de surveillance systémique

Le projet européen qui transforme chaque appareil en sentinelle de surveillance

Chat Control : vers une architecture européenne de surveillance systémique

Le projet Chat Control (officiellement le Règlement pour prévenir et combattre les contenus pédosexuels en ligne, ou CSAM Regulation) est une initiative de l'Union européenne visant à imposer aux services de messagerie — tels que WhatsApp, Signal, Telegram, iMessage ou ProtonMail — l'obligation d'analyser automatiquement les contenus échangés afin de détecter les abus sexuels sur mineurs.

Le dispositif central repose sur le client-side scanning (CSS) : les messages — textes, images, vidéos — sont analysés avant chiffrement, directement sur l'appareil de l'utilisateur, puis signalés aux autorités ou plateformes concernées. Ce mécanisme transforme chaque terminal en un point de contrôle préventif. Le vote final du Conseil de l'UE est prévu pour le 14 octobre 2025 (TechRadar, European Crypto Initiative, Compliance Hub Wiki).

Le contexte politique et réglementaire

Proposé initialement en 2022, le règlement n'avait pas obtenue la majorité qualifiée. Il est désormais relancé sous la présidence danoise du Conseil de l'UE. La position des États membres doit être finalisée avant le 12 septembre 2025, en vue d'un vote possible le 14 octobre (TechRadar, European Crypto Initiative).

Quinze États membres — dont la France, l'Espagne, l'Italie — soutiennent le texte, mais cela ne représente pas (encore) 65 % de la population européenne. L'Allemagne reste décisive et indécise, aux côtés de l'Estonie, la Grèce, le Luxembourg, la Roumanie et la Slovénie (TechRadar, Cointelegraph, euronews).

Une fuite a révélé que le Parlement européen aurait menacé de bloquer l'extension d'un régime de scanning volontaire si le Conseil n'acceptait pas la version obligatoire — dénoncée comme du "chantage politique" (TechRadar).

Technologie sous-jacente : le client-side scanning

Le CSS contourne le chiffrement de bout en bout — il ne l'affaiblit pas techniquement, mais opère avant chiffrement. Cette stratégie compromet les fondations de la sécurité numérique. Les algorithmes mis en œuvre s'appuient sur le hachage perceptuel et le machine learning, mais présentent d'importantes limites : taux de faux positifs/fausses alertes, faux négatifs, erreurs de contexte.

Le principal risque réside dans l'extensibilité : une fois implanté, le code peut évoluer progressivement vers la surveillance d'autres contenus (politiques, religieux, financiers...) sans débat démocratique.

Apple comme précurseur discret

Apple a déjà déployé une pratique similaire avec sa fonctionnalité Sensitive Content Warning, activable (facultativement) sur macOS Sonoma ou iOS 17 et ultérieurs (Messages, Photos). Elle détecte les images contenant de la nudité et les floute localement, sans que les données soient transmises à Apple (Apple Support).

Cette mesure constitue une instance concrète de CSS intégré à grande échelle. L'appareil personnel devient un point de filtrage automatisé. Si cela est appliqué à la nudité aujourd'hui, il est techniquement envisageable de l'étendre à d'autres catégories. Apple formalise ainsi une infrastructure prête à la surveillance élargie (OWC).

Paradoxes et contradictions

L'objectif affiché — protéger l'enfance — est incontestable, mais la logique technologique transforme cette intention en un levier de surveillance purement opératoire. Le système est extensible, introduit des vulnérabilités et affaiblit la sécurité numérique. Des acteurs malveillants peuvent exploiter ces mécanismes, compromettre les systèmes, détourner les flux de signalement, ou introduire des backdoors.

Capitalisme de surveillance et contrôle des masses

Shoshana Zuboff, dans The Age of Surveillance Capitalism, décrit comment les données comportementales sont extraites pour être transformées en outils de manipulation prédictive. Chat Control, bien que public et étatique, s'inscrit dans cette dynamique : signalements automatisés, bases de données comportementales, utilisation privée ou publicitaire, évaluation de la crédibilité des individus.

Perspective philosophique et sociopolitique

Michel Foucault présentait le Panoptique comme un modèle où la potentialité de surveillance suffit à discipliner. Chat Control institue un espace numérique où la menace perçue de surveillance modifie les comportements — sans qu'un humain n'intervienne nécessairement.

David Lyon souligne que de tels systèmes induisent une conformité anticipée. Les citoyens ajustent leurs actions en croyant qu'ils sont surveillés, réduisant l'espace de la dissidence.

ChatGPT comme exemple de filtrage algorithmique

Le modèle ChatGPT illustre déjà cette logique : il est conçu pour bloquer ou filtrer les contenus dangereux ou illégaux, et, dans certains environnements réglementés, pour transmettre des alertes aux autorités ou plateformes lorsqu'un contenu est manifestement illicite.

Cela reflète le double rôle potentiel des technologies linguistiques modernes : assistance cognitive et relais technique d'une surveillance automatisée.

Scénarios de dérive possibles

  1. Inversion de la présomption d'innocence : un faux positif entraîne un signalement, imposant à l'utilisateur de prouver son innocence.
  2. Extension fonctionnelle : nouveaux critères de détection ajoutés sans débats démocratiques.
  3. Exploitation malveillante : piratage, corruption des systèmes, usage pour surveillance politique ou commerciale.
  4. Affaiblissement du chiffrement : conception forcée d'exceptions affaiblissant la sécurité globale.

Arguments favorables — et leurs limites

Les défenseurs du texte évoquent le besoin d'une réponse structurée face à la pédopornographie, l'existence d'outils déjà opérants (mais volontaires), et l'intérêt de détecter précocement des contenus illicites.

Ces arguments reposent toutefois sur une confiance en l'encadrement étroit de ces outils. Or, l'histoire des technologies de surveillance montre que les mécanismes implantés sont souvent réutilisés, élargis, voire institutionnalisés hors du cadre initial.

Enjeux juridiques et droits fondamentaux

La Cour européenne des droits de l'homme a déjà jugé que certaines méthodes de surveillance de masse violaient l'article 8 (droit au respect de la vie privée). L'imposition d'un «scan local» sans contrôle judiciaire ni recours effectifs franchit une ligne rouge.

Le texte actuel ne prévoit ni audit indépendant, ni transparence suffisante, ni restrictions temporelles claires. Les garanties restent éparses.

Évaluation critique

  • Méthode : intrusive, disproportionnée.
  • Objectif : légitime, socialement urgent.
  • Risque principal : surveillance normalisée, étendue, durable.
  • Effets systémiques : affaiblissement du chiffrement, inversion de principes juridiques, perte de confiance numérique, dégâts en termes de cybersécurité.

Cryptographes, juristes et défenseurs des droits numériques alertent sans relâche — hélas, leur message peine à infléchir le processus législatif (TechRadar).

Le vote du 14 octobre 2025 est un moment décisif pour l'Europe. Elle devra choisir : établir une architecture de surveillance préventive sur les communications privées ou préserver les principes fondamentaux de confidentialité et d'autonomie numérique.

Apple a déjà amorcé la logique technique. ChatGPT en constitue un exemple opérationnel. Le véritable enjeu est politique et philosophique : jusqu'à quel point une démocratie accepte-t-elle de transformer chaque terminal personnel en sentinelle d'État ?

La vigilance est impérative. Il convient d'éviter que la lutte légitime contre un fléau social ne serve de justification à une normalisation durable de la surveillance généralisée.