Par Patrick Breyer
En faisant une concession mineure, les gouvernements européens espèrent trouver la semaine prochaine une majorité pour approuver le projet de loi controversé sur le « contrôle des discussions ». Selon le projet de règlement sur les abus sexuels sur enfants (CSAR), les fournisseurs de services de messagerie, de courrier électronique et de chat seront obligés de rechercher automatiquement dans tous les messages et photos privés tout contenu suspect et de le signaler à l’ UE. Afin de trouver une majorité en faveur de cette surveillance de masse sans précédent, la présidence du Conseil de l’UE a proposé mardi que les scanners recherchent dans un premier temps uniquement les CSAM précédemment classés, et que les technologies encore moins fiables de classer les images ou les conversations inconnues seront réservées à un stade ultérieur. L’« accord » proposé sera discuté par les ambassadeurs demain et pourrait être adopté par les ministres la semaine prochaine.
Patrick Breyer, député du Parti Pirate au Parlement européen et co-négociateur de la proposition, mis en garde contre les conséquences d’un tel « accord » :
« Premièrement, le texte proposé exigerait la mise en œuvre de bugs de surveillance et de vulnérabilités dans les applications de messagerie cryptées de bout en bout actuellement sécurisées telles que Whatsapp ou Signal. Cela signifierait la fin du cryptage sécurisé, car nous ne serons jamais assurés que nos messages ou nos photos seraient transmises à des personnes que nous ne connaissons pas et en qui nous ne pouvons pas faire confiance. Soit l’analyse dite côté client rend nos communications fondamentalement non sécurisées, soit les Européens ne pourraient plus du tout utiliser Whatsapp ou Signal, comme l’envisageaient leurs fournisseurs.
Deuxièmement, le projet d’analyse massive et aveugle des communications privées de millions de citoyens qui n’ont aucun lien, même lointain, avec la criminalité serait inévitablement invalidé par les tribunaux, trahissant ainsi complètement les espoirs des enfants ou des victimes. Tous les experts juridiques indépendants et même le service juridique du Conseil de l’UE conviennent que l’analyse aveugle des contenus ne respecte pas les droits fondamentaux et la jurisprudence de la Cour de justice de l’UE. Le désastre provoqué par l’échec de la directive sur la conservation des données allait se répéter.
Troisièmement, l’analyse massive et aveugle criminalise nos enfants : 40 % des suspects de possession de CSAM sont des mineurs rien qu’en Allemagne. Les jeunes ne sont généralement pas conscients de la nature criminelle des contenus apparemment drôles, qu’ils reçoivent souvent par inadvertance via les canaux de discussion.
Quatrièmement, rechercher des documents connus, donc anciens, ne permet pas d’identifier et de secourir les victimes, ni de prévenir les abus sexuels sur enfants. Cela rendra en fait plus difficile la protection des victimes en poussant les criminels vers des canaux de communication sécurisés et décentralisés, impossibles à intercepter même avec un mandat. Bien que certaines sociétés américaines telles que Meta analysent déjà les messages européens à la recherche de « CSAM » précédemment classés, jusqu’à 80 % des messages signalés sont classés par la police comme non pertinents sur le plan pénal, impliquant ainsi des citoyens innocents. La Commission estime que le nombre de messages signalés va se multiplier en raison de l’analyse obligatoire, ce qui inonderait les forces de l’ordre et surchargerait les ressources qui font déjà défaut pour les enquêtes ciblées ou secrètes sur les producteurs organisés de ce type. de matériel et sur les abus sexuels sur enfants en cours.
Cinquièmement, ouvrir la porte à une surveillance aveugle nous mettrait sur une pente glissante, Europol appelant déjà à rechercher d’autres types de contenus.
Le « compromis » proposé n’aborde même pas d’autres problèmes fondamentaux du projet de loi, notamment la fin des communications anonymes et des dénonciations à la suite de la vérification obligatoire de l’âge, et l’interdiction des applications courantes de messagerie , de réseaux sociaux, de jeux et de vidéoconférence pour les adolescents. de moins de 16 ans, même si leurs parents y consentent.
Cette proposition nécessite de toute urgence un nouveau départ axé sur la sécurité dès la conception plutôt que sur la surveillance de masse, le paternalisme et la violation de la sécurité informatique. L’avenir de notre vie privée et de notre sécurité, ainsi que celui de nos enfants, est en jeu ! »
Chat Control : la proposition de scanner CSEM de l’UE
La fin de la confidentialité de la correspondance numérique
La Commission européenne propose d’obliger les fournisseurs à rechercher automatiquement dans tous les chats, messages et e-mails privés les contenus suspects – de manière générale et sans discernement. L’objectif affiché : poursuivre les matériels d’exploitation sexuelle d’enfants (CSEM). Le résultat : une surveillance de masse grâce à une surveillance en temps réel entièrement automatisée des messageries et des chats et la fin de la confidentialité des correspondances numériques.
D’autres aspects de la proposition incluent le blocage inefficace du réseau, le contrôle du stockage cloud personnel, y compris les photos privées, la vérification obligatoire de l’âge entraînant la fin des communications anonymes, la censure des magasins d’applications et l’exclusion des mineurs du monde numérique.
Contrôle du chat 2.0 sur chaque smartphone
Le 11 mai 2022, la Commission européenne a présenté une proposition qui rendrait la recherche par chat obligatoire pour tous les fournisseurs de messagerie et de messagerie et s’appliquerait même aux services de communication cryptés de bout en bout, jusqu’à présent sécurisés. Avant cette proposition, une consultation publique avait révélé qu’une majorité de personnes interrogées, tant citoyens que parties prenantes, s’opposaient à l’imposition d’une obligation d’utiliser le contrôle du chat. Plus de 80 % des personnes interrogées s’opposent à son application aux communications cryptées de bout en bout.
Actuellement, une réglementation est en vigueur autorisant les fournisseurs à analyser volontairement les communications (appelée « Chat Control 1.0 »). Jusqu’à présent, seuls certains services de communication américains non cryptés tels que GMail, Facebook/Instagram Messenger, Skype, Snapchat, la messagerie iCloud et X-Box appliquent volontairement le contrôle du chat (plus de détails ici ). Suite à la proposition obligatoire de Chat Control 2.0, la Commission s’attend à une multiplication par 3,5 des rapports d’analyse (de 354 % ).
La proposition Chat Control 2.0
Voici ce qu’implique réellement la proposition actuelle :
Proposition de contrôle des discussions dans l’UE | Conséquences |
Sont envisagés le contrôle du chat, le blocage du réseau, la vérification obligatoire de l’âge pour les messages et les chats, la vérification de l’âge pour les magasins d’applications et l’exclusion des mineurs de l’installation de nombreuses applications. | |
Tous les services normalement fournis contre rémunération (y compris les services financés par la publicité) sont concernés, sans aucun seuil de taille, de nombre d’utilisateurs, etc. | Seuls les services non commerciaux qui ne sont pas financés par la publicité, comme de nombreux logiciels open source, sont hors de portée. |
Les prestataires établis en dehors de l’UE seront également tenus de mettre en œuvre le règlement. | Voir l’article 33 de la proposition |
Les services de communication concernés comprennent la téléphonie, le courrier électronique, la messagerie instantanée, les chats (également dans le cadre de jeux, dans le cadre de jeux, sur des portails de rencontres, etc.), la vidéoconférence. | Les textes, images, vidéos et discours (par exemple réunions vidéo, messages vocaux, appels téléphoniques) devraient être numérisés |
Les services de messagerie cryptés de bout en bout ne sont pas exclus du champ d’application | Les fournisseurs de services de communications cryptées de bout en bout devront analyser les messages sur chaque smartphone (analyse côté client) et, en cas de réponse positive, signaler le message à la police. |
Les services d’hébergement concernés incluent l’hébergement Web, les réseaux sociaux, les services de streaming vidéo, l’hébergement de fichiers et les services cloud. | Même le stockage personnel qui n’est pas partagé, comme iCloud d’Apple, sera soumis au contrôle du chat. |
Les services susceptibles d’être utilisés pour du matériel illégal ou pour le toilettage d’enfants sont tenus de rechercher le contenu des communications personnelles et les données stockées (contrôle du chat) sans suspicion et sans discernement. | Étant donné que tous les services sont probablement également utilisés à des fins illégales, tous les services seront obligés de déployer un contrôle de chat. |
L’autorité du pays d’établissement du fournisseur est tenue d’ordonner le déploiement du contrôle du chat. | Il n’y a aucune discrétion quant au moment et à la mesure dans laquelle le contrôle du chat est ordonné |
Le contrôle du chat implique des recherches automatisées d’images et de vidéos connues du CSEM, les messages/fichiers suspects seront signalés à la police. | Selon la police fédérale suisse, 80 % des signalements qu’elle reçoit (généralement basés sur la méthode de hachage) n’ont aucune pertinence pénale. De même, en Irlande, seuls 20 % des signalements reçus par le NCMEC en 2020 ont été confirmés comme étant de véritables « matériels pédopornographiques ». |
Le contrôle du chat implique également des recherches automatisées de photos et de vidéos inconnues du CSEM, les messages/fichiers suspects seront signalés à la police. | La recherche automatique de représentations d’abus inconnues est une procédure expérimentale utilisant l’apprentissage automatique (« intelligence artificielle »). Les algorithmes ne sont pas accessibles au public et à la communauté scientifique, et le projet ne contient aucune exigence de divulgation. Le taux d’erreur est inconnu et n’est pas limité par le projet de règlement. Vraisemblablement, ces technologies entraînent une quantité massive de faux rapports. Le projet de loi permet aux prestataires de transmettre des rapports automatisés de concordance à la police sans que des humains ne les vérifient. |
Le contrôle du chat implique des recherches automatiques pour d’éventuelles manipulations d’enfants, les messages suspects seront signalés à la police. | La recherche automatique d’enfants potentiels est une procédure expérimentale utilisant l’apprentissage automatique (« intelligence artificielle »). Les algorithmes ne sont pas accessibles au public et à la communauté scientifique, et le projet ne contient pas non plus d’exigence de divulgation. Le taux d’erreur est inconnu et n’est pas limité par le projet de règlement ; on peut supposer que ces technologies entraînent une quantité massive de faux rapports. |
Les services de communication qui peuvent être utilisés à mauvais escient pour le toilettage des enfants (donc tous) doivent vérifier l’âge de leurs utilisateurs | En pratique, la vérification de l’âge implique une identification complète de l’utilisateur, ce qui signifie que les communications anonymes par courrier électronique, messagerie, etc. seront effectivement interdites. Les lanceurs d’alerte, les défenseurs des droits humains et les groupes marginalisés comptent sur la protection de l’anonymat. |
Les magasins d’applications doivent vérifier l’âge de leurs utilisateurs et empêcher les enfants/jeunes de moins de 17 ans d’installer des applications susceptibles d’être utilisées à mauvais escient à des fins de sollicitation. | Tous les services de communication tels que les applications de messagerie, les applications de rencontres ou les jeux peuvent être utilisés à mauvais escient pour soigner les enfants (selon des enquêtes ) et seraient bloqués pour leur utilisation par les enfants/jeunes. |
Les fournisseurs d’accès Internet peuvent être obligés de bloquer l’accès aux images et vidéos interdites et inamovibles hébergées en dehors de l’UE au moyen d’un blocage de réseau (blocage d’URL). | Le blocage des réseaux est techniquement inefficace et facile à contourner, et il aboutit à la construction d’une infrastructure technique de censure. |
Analyse du projet de rapport par le rapporteur Javier Zarzalejos (PPE) (19 avril 2023)
• Contrôle du chat : la recherche aveugle et obligatoire de la correspondance privée et des données de citoyens insoupçonnés est toujours d’actualité. L’exigence de « limiter l’ordre de détection à une partie ou un composant identifiable d’un service », comme par exemple des canaux ou des groupes spécifiques (AM 128), va dans le bon sens. mais ne garantit pas que les recherches soient ciblées/limitées à des personnes spécifiques vraisemblablement liées au CSEM, comme cela est nécessaire pour éviter l’annulation des dispositions de détection par la Cour de justice. Les conclusions du service de recherche du Parlement européen n’ont pas encore été prises en compte.
• Contrairement à la Commission, le rapporteur ne souhaite pas que les utilisateurs soient informés que leur correspondance a été (faussement) signalée (AM 138).
• « Détection volontaire »/Contrôle du chat : nouveau pouvoir proposé pour les fournisseurs de rechercher de leur propre initiative la correspondance privée et les données de citoyens insoupçonnés, même lorsque les conditions d’un ordre de détection ne sont pas remplies (AM 99). Encore une fois, non ciblé/limité à des personnes spécifiques vraisemblablement liées au CSEM, comme cela est nécessaire pour éviter l’annulation par la Cour de justice.
• Chiffrement de bout en bout : l’affaiblissement du chiffrement est exclu (AM 106), bien que la formulation ne soit pas encore suffisante pour exclure avec certitude l’analyse côté client obligatoire (certains affirment que l’analyse côté client n’interférerait pas avec le processus de chiffrement en tant que tel).
• Contrôle des métadonnées : proposition d’un nouveau pouvoir pour la conservation et l’analyse automatisées des métadonnées des modèles de communication prétendument suspects par les fournisseurs (AM 106). Une telle technologie est encore une fois de source fermée et n’a pas été évaluée de manière indépendante, probablement peu fiable avec d’innombrables faux positifs. La Commission prévient que « les prestataires de services ne considèrent pas les métadonnées comme un outil efficace pour détecter les CSAM » et que « les métadonnées sont généralement insuffisantes pour lancer
des enquêtes » (p. 29). Surtout, la disposition proposée ne garantit pas non plus que le traitement soit ciblé/limité à des personnes spécifiques présumées liées au CSEM, comme l’exige l’arrêt La Quadrature de la Cour de justice (paragraphe 172 pp.).
• Ordonnances de blocage d’accès/radiation des moteurs de recherche : Le blocage d’accès inefficace au CSEM est toujours d’actualité. Proposition d’un nouveau pouvoir pour déréférencer le CSEM des moteurs de recherche et de « l’intelligence artificielle ». Les deux sont inefficaces car le matériel n’est pas supprimé à sa source.
• Censure des applications pour enfants : l’obligation pour les magasins d’applications d’empêcher les mineurs d’installer des applications de communication telles que Whatsapp, des jeux ou des chats est toujours d’actualité. Un projet de rapport propose d’étendre cette censure des applications (AM 101 pp.).
• Interdiction des communications anonymes : l’obligation imposée aux services de communication de vérifier l’âge des utilisateurs est toujours d’actualité, les systèmes de vérification excluant effectivement l’utilisation anonyme. Ce serait la fin des comptes de messagerie ou de messagerie anonymes dont ont besoin les lanceurs d’alerte, les militants politiques, etc.
• Prometteur : Proposition visant à créer un forum consultatif des victimes (AM 273)
• Prometteur : Les services peuvent garantir un « niveau élevé de confidentialité, de sûreté et de sécurité dès leur conception et par défaut » (AM 79)
Mes amendements
J’ai soumis les amendements suivants au projet de règlement au nom de mon groupe:
- Pas de contrôle aveugle des discussions : au lieu de contrôler les discussions, le pouvoir judiciaire devrait être en mesure d’ordonner des recherches dans les messages et les téléchargements de suspects à la recherche de représentations suspectes d’exploitation sexuelle d’enfants (et non de rechercher des textes à des fins de manipulation). C’est le seul moyen d’éviter qu’une réglementation disproportionnée soit annulée devant les tribunaux et n’aboutisse à rien pour les enfants.
- Protéger le cryptage : l’analyse dite côté client visant à contourner le cryptage sécurisé doit être explicitement exclue. Nos appareils personnels ne doivent pas être transformés en scanners. Pas non plus de « contrôle volontaire des discussions » ou d’« analyse des métadonnées » non ciblées par l’industrie, que même la Commission déconseille car elles sont inefficaces.
- Protégez l’anonymat : supprimez les contrôles d’âge obligatoires et la censure des applications pour les jeunes afin de protéger le droit de communiquer de manière anonyme et d’éviter la censure des applications pour la jeune génération.
- Nettoyer le net : nous proposons plutôt que le futur Centre de protection de l’enfance de l’UE analyse (explore) systématiquement les documents accessibles au public sur Internet et le darknet à la recherche de représentations exploitantes.
- Montrer sa présence : Afin de contrer le risque d’approches sexuelles envers les enfants, le Centre de protection de l’enfance de l’UE doit être autorisé à créer et à gérer des comptes (apparents) d’enfants sur des services populaires. Les tentatives de toilettage punissables doivent être poursuivies.
- Des services plus sûrs : Dans un esprit de réelle prévention, nous proposons des dispositions obligatoires de conception sûre pour les services de communication et d’hébergement. Si le service d’un prestataire fait l’objet d’abus, celui-ci devrait être obligé d’y remédier par les mesures de son choix. Comme mesures possibles que nous proposons,
- Permettre aux utilisateurs de bloquer et de signaler d’autres utilisateurs
- définir les services pour qu’ils soient aussi sécurisés et respectueux de la vie privée que possible, par exemple en ne les rendant pas visibles et accessibles publiquement sans demande explicite de l’utilisateur
- afficher des images nues uniquement à la demande de l’utilisateur, sans que les informations sur l’événement ne quittent l’appareil de l’utilisateur
- informer et rappeler, si nécessaire, aux utilisateurs ce qu’est l’abus sexuel sur enfant, quel est le comportement typique de l’auteur, comment se comporter en toute sécurité et quelles sont les conséquences d’un comportement illégal
- avertir les auteurs potentiels et les victimes lorsqu’il existe une raison spécifique de le faire, par exemple lorsque des personnes tentent de rechercher du matériel abusif en utilisant certains mots de recherche sans quitter leur appareil avec des informations sur le processus
- offrir des services externes d’information et de soutien dans la région de l’utilisateur pour la prévention des abus sexuels sur enfants, le conseil, le soutien aux victimes et l’éducation
- Supprimer au lieu de bloquer : Au lieu d’essayer et d’échouer à bloquer les représentations exploitantes via les fournisseurs d’accès ou les moteurs de recherche, nous souhaitons rendre obligatoire pour les hébergeurs et les forces de l’ordre de supprimer ou de faire supprimer à la source les représentations exploitantes signalées.
- Prévention plutôt que suspicion générale : le projet de centre européen devrait se concentrer à nouveau sur la prévention, l’aide aux victimes, la recherche et les meilleures pratiques en matière d’application de la loi.
- Impliquer les victimes : Nous proposons un forum consultatif des victimes d’abus.
Les négociations : une chronologie
2020 : la Commission européenne a proposé une législation « temporaire » autorisant le contrôle du chat
La législation « temporaire » proposée autorise la recherche dans tous les chats, messages et courriels privés de représentations illégales de mineurs et de tentatives d’établissement de contacts avec des mineurs. Cela permet aux fournisseurs de Facebook Messenger, Gmail, etc., d’analyser chaque message à la recherche de texte et d’images suspects. Cela se déroule dans le cadre d’un processus entièrement automatisé, utilisant en partie une « intelligence artificielle » sujette aux erreurs. Si un algorithme considère un message suspect, son contenu et ses métadonnées sont divulgués (généralement automatiquement et sans vérification humaine) à une organisation privée basée aux États-Unis, puis aux autorités policières nationales du monde entier. Les utilisateurs signalés ne sont pas avertis.
6 juillet 2021 : Le Parlement européen a adopté la législation autorisant le contrôle du chat .
Le Parlement européen a voté en faveur de la dérogation ePrivacy, qui permet un contrôle volontaire du chat pour les fournisseurs de messagerie et de courrier électronique. En conséquence, certains fournisseurs de services américains tels que Gmail et Outlook.com effectuent déjà de tels contrôles automatisés de messagerie et de chat.
9 mai 2022 : le député européen Patrick Breyer a porté plainte contre la société américaine Meta.
Selon la jurisprudence de la Cour européenne de justice, l’analyse automatisée permanente et complète des communications privées viole les droits fondamentaux et est interdite (paragraphe 177). L’ancienne juge de la Cour européenne de justice, le professeur Ninon Colneric, a analysé en profondeur les projets et conclut dans une évaluation juridique que les projets législatifs de l’UE sur le contrôle des chats ne sont pas conformes à la jurisprudence de la Cour européenne de justice et violent les droits fondamentaux de tous les citoyens de l’UE au respect de la vie privée, à la protection des données et à la liberté d’expression. C’est sur cette base que le procès a été intenté.
11 mai 2022 : la Commission a présenté une proposition visant à rendre le contrôle du chat obligatoire pour les fournisseurs de services.
Le 11 mai 2022, la Commission européenne a présenté une deuxième proposition législative dans laquelle elle oblige tous les fournisseurs de services de chat, de messagerie et de courrier électronique à déployer cette technologie de surveillance de masse en l’absence de tout soupçon. Cependant, une enquête représentative menée en mars 2021 montre clairement qu’une majorité d’Européens s’opposent au recours au contrôle du chat ( Résultats détaillés du sondage ici) .
- 8 mai 2022 : Réunion du groupe de travail du Conseil sur l’application des lois
- 22 juin 2022 : Réunion du groupe de travail du Conseil sur l’application des lois
- 5 juillet 2022 : Réunion du groupe de travail du Conseil sur l’application des lois
- 20 juillet 2022 : Réunion du groupe de travail du Conseil sur l’application des lois ( texte de compromis )
- 6 septembre 2022 : Réunion du groupe de travail du Conseil sur l’application des lois
- 22 septembre 2022 : Réunion du groupe de travail du Conseil sur l’application des lois (Texte de compromis : Art. 1-2 , 25-39 )
- 28 septembre 2022 :Atelier du Conseil sur les technologies de détection
- 5 octobre 2022 : Réunion du groupe de travail du Conseil sur l’application des lois
- 10 octobre 2022 :La proposition a été présentée et discutée au Parlement européendiriger la Commi LIBEtte ( enregistrement vidéo )
- 19 octobre 2022 : Réunion du groupe de travail du Conseil sur l’application des lois
- 3 novembre 2022 : séance du Conseil
- 24 novembre 2022 : atelier du Conseil sur la vérification de l’âge et le cryptage
- 30 novembre 2022 : Première réunion LIBE Shadows
- 14 décembre 2022 : Réunion LIBE Shadows (Auditions)
- 10 janvier 2023 : Réunion LIBE Shadows (Auditions)
- 19 et 20 janvier 2023 : réunion du groupe de travail « Application de la loi » du Conseil sur la police
- 24 janvier 2023 : Réunion LIBE Shadows (Auditions)
- 7 février 2023 : LIBE Shadows meeting (Entreprises Tech)
- 27 février 2023 : Rencontre LIBE Shadows
- 7 mars 2023 : Réunion LIBE Shadows
- 16 mars 2023 : Groupe de travail du Conseil sur l’application des lois ( projet de compromis discuté )
- 21 mars 2023 : Rencontre LIBE Shadows
- 29 mars 2023 : Réunion du groupe de travail du Conseil sur l’application des lois
- Fin mars : une évaluation d’impact de substitution sera soumise
- 13 avril 2023 : Déclaration du gouvernement fédéral allemand
- 13 avril 2023 : Présentation de l’analyse d’impact dans LIBE
- 19 avril 2023 : le rapporteur LIBE soumet un projet de rapport
- 26 avril 2023 : Présentation du projet de rapport dans LIBE
- 25 avril 2023 : Groupe de travail du Conseil « Application de la loi » ( Projet de compromis discuté )
- 8-19 mai 2023 : date limite de soumission des amendements
- 25-26 mai 2023 : Groupe de travail du Conseil sur l’application des lois ( projet de compromis discuté )
- 31 mai 2023 : Réunion du Coreper I
31 mai 2023 : Rencontre des ombres- 7 juin 2023 : Rencontre des ombres
- 8 et 9 juin 2023 : le Conseil Justice et Affaires intérieures adoptera une orientation générale partielle ( projet de compromis discuté )
- 28 juin 2023 : Rencontre des ombres
- 5 juillet 2023 : Rencontre des ombres
- 12 juillet 2023 : Rencontre des ombres
- 19 juillet 2023 : Rencontre des ombres
- 5 septembre 2023 : Rencontre des ombres
- 14 septembre 2023 : Groupe de travail du Conseil « Application de la loi »
- 17 septembre 2023 : Groupe de travail du Conseil sur l’application des lois ( projet de compromis discuté )
- 20 septembre 2023 : Réunion du Coreper
- Les réunions fantômes voient les entrées du calendrier « CSAM »
- 19/20 octobre 2023 :Adoption envisagée d’une orientation générale partielle par le Conseil de l’UE(à confirmer)
- 25 octobre 2023 : audition LIBE du commissaire Johansson sur les allégations de lobbying (à confirmer)
- 26 octobre 2023 : vote en commission LIBE, y compris mandat de trilogue
- Février 2024 : Accord de trilogue envisagé
- Mars ou avril 2024 : adoption envisagée de l’accord par le Parlement
Les négociateurs
Les acteurs impliqués au Parlement européen :Rapporteuret rapporteurs fictifs
Comment cela vous affecte-t-il ?
Analyse du contrôle de la messagerie et du chat :
- Toutes vos conversations de chat et e-mails seront automatiquement recherchés pour détecter tout contenu suspect. Rien ne reste confidentiel ou secret. Il n’est pas nécessaire d’obtenir une ordonnance du tribunal ou un premier soupçon pour rechercher vos messages. Cela se produit toujours et automatiquement.
- Si un algorithme classe le contenu d’un message comme suspect, vos photos privées ou intimes peuvent être vues par le personnel et les sous-traitants d’entreprises internationales et des autorités policières. De plus, vos photos de nu privées peuvent être consultées par des personnes que vous ne connaissez pas et entre les mains desquelles vos photos ne sont pas en sécurité.
- Les flirts et les sextings peuvent être lus par le personnel et les sous-traitants des sociétés internationales et des autorités policières, car les filtres de reconnaissance de texte recherchant le « toilettage des enfants » signalent souvent à tort les discussions intimes.
- Vous pouvez être faussement dénoncé et faire l’objet d’une enquête pour avoir prétendument diffusé du matériel d’exploitation sexuelle d’enfants. Les algorithmes de messagerie et de contrôle du chat sont connus pour signaler par exemple des photos de vacances tout à fait légales d’enfants sur une plage. Selon la police fédérale suisse, 80 % de tous les rapports générés automatiquement s’avèrent sans fondement. De même, en Irlande, seuls 20 % des signalements reçus par le NCMEC en 2020 ont été confirmés comme étant de véritables « matériels pédopornographiques ». Près de 40 % de toutes les procédures d’enquête pénale engagées en Allemagne pour « pédopornographie » visent des mineurs.
- Lors de votre prochain voyage à l’étranger, vous pouvez vous attendre à de gros problèmes. Les rapports générés automatiquement sur vos communications peuvent avoir été transmis à d’autres pays, comme aux États-Unis, où la confidentialité des données n’est pas assurée – avec des résultats incalculables.
- Les services de renseignement et les pirates informatiques peuvent espionner vos discussions et vos e-mails privés. La porte sera ouverte à toute personne disposant des moyens techniques pour lire vos messages si le cryptage sécurisé est supprimé afin de pouvoir filtrer les messages.
- Ce n’est que le début . Une fois la technologie de messagerie et de contrôle du chat établie, il devient très facile de les utiliser à d’autres fins. Et qui garantit que ces machines d’incrimination ne seront plus utilisées à l’avenir sur nos smartphones et nos ordinateurs portables ?
Verification de l’AGE:
- Vous ne pouvez plus créer de comptes de messagerie ou de messagerie anonymes ou discuter de manière anonyme sans avoir besoin de présenter une pièce d’identité ou votre visage, ce qui vous rend identifiable et risque de fuite de données. Cela inhibe par exemple les discussions sensibles liées à la sexualité, les communications médiatiques anonymes avec des sources (par exemple les lanceurs d’alerte) ainsi que l’activité politique.
- Si vous avez moins de 17 ans, vous ne pourrez plus installer les applications suivantes depuis l’App Store (raison invoquée : risque de toilettage) : applications de messagerie comme Whatsapp, Snapchat, Telegram ou Twitter, applications de réseaux sociaux comme Instagram, TikTok ou Facebook, des jeux comme FIFA, Minecraft, GTA, Call of Duty, Roblox, des applications de rencontres, des applications de vidéoconférence comme Zoom, Skype, Facetime.
- Si vous n’utilisez pas de boutique d’applications, le respect de l’âge minimum du fournisseur sera quand même vérifié et appliqué. Si vous avez moins de 16 ans, vous ne pouvez plus utiliser Whatsapp en raison des exigences de vérification de l’âge proposées ; il en va de même pour les fonctions en ligne du jeu FIFA 23. Si vous avez moins de 13 ans, vous ne pourrez plus utiliser TikTok, Snapchat ou Instagram.
Ce que tu peux faire
Craignez-vous que cette loi cause des dommages massifs aux droits fondamentaux et constitue une mauvaise approche ?
Rejoignez l’une des manifestations européennes contre le contrôle des chats : 19, 21, 22 septembre : Suède, Stockholm, Mynttorget 23 septembre : Privacy Pride : Italie, Rome & Milan & Turin & Venise 1er octobre : Pays-Bas, Amsterdam, Dam Amsterdam |
Signez la pétition « Les enfants méritent un internet sécurisé et sécurisé » et partagez-la |
Ce qui est important maintenant, c’est d’ augmenter la pression sur les négociateurs : 1) Contactez votre gouvernement qui négocie au Conseil. Contactez la représentation permanente de votre gouvernement ou votre ministère de l’intérieur. 2) Prenez contact avec vos députés européens ! Les soi-disant rapporteurs fictifs mènent les négociations. Ici, vous trouverez les coordonnées : Javier Zarzalejos– rapporteur pour le groupe PPE Paul Tang – rapporteur fictif pour le groupe S&D Patrick Breyer – rapporteur fictif pour le groupe Verts/ALE Hilde Vautmans – rapporteur fictif pour le groupe Renew Annalisa Tardino – rapporteur fictif pour le groupe ID Vincenzo Sofo – rapporteur fictif pour le groupe ECR Cornelia Ernst – rapporteur fictif du groupe de gauche Faites-leur part poliment de vos préoccupations concernant le contrôle du chat ( arguments ici ). L’expérience montre que les appels téléphoniques sont plus efficaces que les e-mails ou les lettres. Le nom officiel de la loi sur le contrôle obligatoire des discussions en ligne est « Proposition de règlement fixant des règles visant à prévenir et à combattre les abus sexuels sur enfants ». |
Parler de ça! Informez les autres des dangers du contrôle du chat. Ici, vous pouvez trouver des modèles de tweet, partager des photos et des vidéos . Bien entendu, vous pouvez également créer vos propres images et vidéos. |
Générez de l’attention sur les réseaux sociaux ! Utilisez les hashtags #chatcontrol et #secrecyofcorrespondence |
Générez l’attention des médias ! Jusqu’à présent, très peu de médias ont couvert les projets de contrôle de la messagerie et du chat de l’UE. Contactez les journaux et demandez-leur de couvrir le sujet – en ligne et hors ligne. |
Demandez à vos fournisseurs de services de messagerie, de messagerie et de chat ! Évitez Gmail, Facebook Messenger, Outlook.com et la fonction de chat de X-Box, où un contrôle aveugle du chat a déjà lieu. Demandez à vos fournisseurs de messagerie, de messagerie et de chat s’ils surveillent généralement les messages privés à la recherche de contenu suspect, ou s’ils envisagent de le faire. |
Informations complémentaires et arguments
- Démystifier les mythes
- Informations complémentaires et arguments
- Alternatives
- Pool de documents
- Commentaire critique et lectures complémentaires
Démystifier les mythes
Lorsque le projet de loi sur le contrôle des chats a été présenté pour la première fois en mai 2022, la Commission européenne a défendu ce projet controversé avec divers arguments. Dans ce qui suit, diverses affirmations sont remises en question et démystifiées :
1. « Aujourd’hui, des photos et des vidéos montrant des abus sexuels sur des enfants circulent massivement sur Internet. En 2021, 29 millions de cas ont été signalés au Centre national américain pour les enfants disparus et exploités.
2. « Rien qu’en 2021, 85 millions d’images et de vidéos d’abus sexuels sur des enfants ont été signalées dans le monde. »
3. « Augmentation de 64 % des signalements d’abus sexuels confirmés sur des enfants en 2021 par rapport à l’année précédente. »
4. « L’Europe est la plaque tournante mondiale pour la plupart des documents. »
6. « Les moyens existants de détection et de suppression du matériel d’exploitation sexuelle d’enfants ne seront plus disponibles lorsque le règlement provisoire actuel expirera en 2024. »
7. métaphores : Le contrôle du chat est « comme un filtre anti-spam » / « comme un aimant cherchant une aiguille dans une botte de foin : l’aimant ne voit pas le foin. » / « comme un chien policier qui flaire les lettres : il n’a aucune idée de ce qu’il y a dedans. » Le contenu de votre communication ne sera vu par personne s’il n’y a pas de réponse. « Des détections à des fins de cybersécurité ont déjà lieu, comme la détection de liens dans WhatsApp » ou des filtres anti-spam.
8. « En ce qui concerne la détection de nouveaux contenus abusifs sur le net, le taux de réussite dépasse largement les 90 %. … Certaines technologies de détection de toilettage existantes (telles que celles de Microsoft) ont un « taux de précision » de 88 %, avant examen humain.
La surveillance de masse n’est pas une bonne approche pour lutter contre la « pédopornographie » et l’exploitation sexuelle
- L’analyse des messages privés et des chats ne permet pas de contenir la propagation du CSEM. Facebook, par exemple, pratique le contrôle des discussions depuis des années et le nombre de rapports automatisés augmente chaque année, atteignant récemment 22 millions en 2021.
- Le contrôle obligatoire du chat ne détectera pas les auteurs qui enregistrent et partagent du matériel d’exploitation sexuelle d’enfants. Les agresseurs ne partagent pas leur matériel via des services commerciaux de courrier électronique, de messagerie ou de chat, mais s’organisent via des forums secrets autogérés sans algorithmes de contrôle. Les agresseurs téléchargent également généralement des images et des vidéos sous forme d’archives cryptées et ne partagent que les liens et les mots de passe. Les algorithmes de contrôle du chat ne reconnaissent pas les archives ou les liens cryptés.
- La bonne approche serait de supprimer le CSEM stocké là où il est hébergé en ligne. Cependant, Europol ne signale pas les éléments connus du CSEM.
- Le contrôle du chat nuit aux poursuites pour maltraitance d’enfants en inondant les enquêteurs de millions de rapports automatisés, dont la plupart n’ont aucune pertinence pénale.
Le contrôle des messages et du chat nuit à tout le monde
- Tous les citoyens sont soupçonnés, sans motif, d’avoir commis un crime. Les filtres texte et photo surveillent tous les messages, sans exception. Aucun juge n’est tenu d’ordonner une telle surveillance – contrairement au monde analogique qui garantit le secret des correspondances et la confidentialité des communications écrites. Selon un arrêt de la Cour européenne de justice, l’analyse automatique permanente et générale des communications privées viole les droits fondamentaux (affaire C-511/18, paragraphe 192). Néanmoins, l’UE a désormais l’intention d’adopter une telle législation. Pour que le tribunal l’annule, cela peut prendre des années. C’est pourquoi nous devons en premier lieu empêcher l’adoption de cette législation.
- La confidentialité de la correspondance électronique privée est sacrifiée. Les utilisateurs de services de messagerie, de chat et de courrier électronique risquent de voir leurs messages privés lus et analysés. Les photos et contenus textuels sensibles peuvent être transmis à des entités inconnues dans le monde entier et tomber entre de mauvaises mains. Le personnel de la NSA aurait déjà fait circuler des photos nues de citoyens, hommes et femmes. Il a été signalé qu’un ingénieur de Google traquait des mineurs.
- Les messages aveugles et le contrôle du chat incriminent chaque jour à tort des centaines d’utilisateurs. Selon la police fédérale suisse, 80 % des contenus signalés automatiquement ne sont pas illégaux, comme par exemple les photos de vacances inoffensives montrant des enfants nus jouant sur une plage. De même, en Irlande, seuls 20 % des signalements reçus par le NCMEC en 2020 ont été confirmés comme étant de véritables « matériels pédopornographiques ».
- Les communications sécurisées et cryptées sont menacées. Jusqu’à présent, les messages cryptés ne peuvent pas être recherchés par les algorithmes. Pour changer cela, il faudrait intégrer des portes dérobées au logiciel de messagerie. Dès que cela se produit, cette faille de sécurité peut être exploitée par toute personne disposant des moyens techniques nécessaires, par exemple par les services de renseignement étrangers et les criminels. Les communications privées, les secrets d’affaires et les informations gouvernementales sensibles seraient dévoilés. Un cryptage sécurisé est nécessaire pour protéger les minorités, les personnes LGBTQI, les militants démocrates, les journalistes, etc.
- La justice pénale est en train d’être privatisée. À l’avenir, les algorithmes d’entreprises telles que Facebook, Google et Microsoft décideront quel utilisateur est suspect et lequel ne l’est pas. La législation proposée ne contient aucune exigence de transparence concernant les algorithmes utilisés. En vertu de l’État de droit, les enquêtes sur les infractions pénales relèvent de la compétence de juges et de fonctionnaires indépendants, sous le contrôle des tribunaux.
- Les messages aveugles et le contrôle du chat créent un précédent et ouvrent la voie à des technologies et à des législations plus intrusives . Le déploiement d’une technologie permettant de surveiller automatiquement toutes les communications en ligne est dangereux : il peut très facilement être utilisé à d’autres fins à l’avenir, par exemple pour violation du droit d’auteur, abus de drogues ou « contenu préjudiciable ». Dans les États autoritaires, cette technologie sert à identifier et à arrêter les opposants au gouvernement et les militants pour la démocratie. Une fois la technologie déployée de manière globale, il n’est plus possible de revenir en arrière.
Le contrôle de la messagerie et du chat nuit aux enfants et aux victimes d’abus
Les partisans affirment que les messages aveugles et le contrôle du chat facilitent les poursuites en cas d’exploitation sexuelle d’enfants. Cependant, cet argument est controversé, même parmi les victimes d’abus sexuels sur enfants. En fait, le contrôle de la messagerie et du chat peut nuire aux victimes actuelles et potentielles d’exploitation sexuelle :
- Les espaces sûrs sont détruits. Les victimes de violences sexuelles ont particulièrement besoin de pouvoir communiquer en toute sécurité et en toute confidentialité pour rechercher des conseils et du soutien, par exemple pour échanger en toute sécurité entre elles, avec leurs thérapeutes ou avocats. L’introduction de la surveillance en temps réel leur éloigne ces salles sécurisées. Cela peut décourager les victimes de rechercher de l’aide et du soutien.
- Des photos nues de mineurs auto-enregistrées (sexting) finissent entre les mains des employés de l’entreprise et de la police où elles n’ont pas leur place et ne sont pas en sécurité.
- Les mineurs sont criminalisés. Les jeunes, en particulier, partagent souvent des enregistrements intimes entre eux (sexting). Avec le contrôle de la messagerie et du chat en place, leurs photos et vidéos peuvent finir entre les mains des enquêteurs criminels. Les statistiques allemandes sur la criminalité démontrent que près de 40 % de toutes les enquêtes pour pédopornographie ciblent des mineurs.
- Les messages aveugles et le contrôle des discussions en ligne n’empêchent pas la circulation de matériel illégal mais rendent en réalité plus difficile la poursuite en justice pour exploitation sexuelle d’enfants. Cela encourage les délinquants à entrer dans la clandestinité et à utiliser des serveurs privés cryptés qui peuvent être impossibles à détecter et à intercepter. Même sur les canaux ouverts, les messages aveugles et le contrôle du chat ne contiennent pas le volume de matériel circulé, comme en témoigne le nombre sans cesse croissant de rapports de machines.
Alternatives
Renforcer les capacités des forces de l’ordre
Actuellement, la capacité des forces de l’ordre est si insuffisante qu’il faut souvent des mois, voire des années, pour suivre les pistes et analyser les données collectées. Le matériel connu n’est souvent ni analysé ni supprimé. Les responsables de ces abus ne partagent pas leurs contenus via Facebook ou des canaux similaires, mais sur le darknet. Pour retrouver les auteurs et les producteurs, la police doit travailler sous couverture au lieu de gaspiller ses rares capacités en vérifiant des rapports automatiques souvent non pertinents. Il est également essentiel de renforcer les unités d’enquête responsables en termes de personnel et de ressources financières, afin de garantir des enquêtes à long terme, approfondies et soutenues. Des normes/directives fiables pour le traitement par la police des enquêtes sur les abus sexuels doivent être élaborées et respectées.
S’attaquer non seulement aux symptômes, mais aussi à la cause profonde
Au lieu de tentatives techniques inefficaces pour contenir la diffusion du matériel d’exploitation diffusé, tous les efforts doivent se concentrer en premier lieu sur la prévention de tels enregistrements. Les concepts de prévention et la formation jouent un rôle clé car la grande majorité des cas de maltraitance ne sont même pas connus. Les organisations de protection des victimes souffrent souvent d’un financement instable.
Assistance rapide et facilement disponible pour les victimes (potentielles)
- Mécanismes de signalement obligatoires au niveau des services en ligne : afin de parvenir à une prévention efficace des abus en ligne, et en particulier du toilettage, les services en ligne devraient être tenus de placer bien en évidence les fonctions de signalement sur les plateformes. Si le service est destiné et/ou utilisé par des jeunes ou des enfants, les prestataires devraient également être tenus de les informer des risques liés au toilettage en ligne.
- Lignes d’assistance téléphonique et centres de conseil : de nombreuses lignes d’assistance téléphonique nationales traitant des cas d’abus signalés sont aux prises avec des problèmes financiers. Il est essentiel de garantir qu’il existe une capacité suffisante pour assurer le suivi des cas signalés.
Améliorer l’éducation aux médias
Enseigner la culture numérique dès le plus jeune âge est un élément essentiel de la protection des enfants et des jeunes en ligne. Les enfants eux-mêmes doivent disposer des connaissances et des outils nécessaires pour naviguer sur Internet en toute sécurité. Ils doivent être informés que des dangers se cachent également en ligne et apprendre à reconnaître et à remettre en question les schémas de toilettage. Cela pourrait être réalisé, par exemple, grâce à des programmes ciblés dans les écoles et les centres de formation, dans lesquels du personnel qualifié transmettrait ses connaissances et mènerait des discussions. Les enfants doivent apprendre à s’exprimer, à réagir et à signaler les abus, même si les abus proviennent de leur sphère de confiance (c’est-à-dire de la part de leurs proches ou d’autres personnes qu’ils connaissent et en qui ils ont confiance), ce qui est souvent le cas. Ils doivent également avoir accès à des canaux sûrs, accessibles et adaptés à leur âge pour signaler les abus sans crainte.
Pool de documents
Observatoire législatif du Parlement européen (état d’avancement continuellement mis à jour)
Commission européenne
- Projet de règlement sur les abus sexuels sur enfants et évaluation d’impact (11 mai 2022)
- Commentaires officieux des services de la Commission sur certains éléments du projet final d’analyse d’impact complémentaire (17 mai 2023)
- Briefing de la commissaire Ylva Johansson pour une rencontre avec un ministre français (27 septembre 2022)
- Consultations publiques de la Commission (clôturées le 12 septembre 2022), voir aussi cette analyse des réponses
- Non-document Équilibrer les droits des enfants et les droits des utilisateurs (16 mai 2022)
- Deuxième avis du comité d’examen de la réglementation (28 mars 2022)
- Avis du comité d’examen de la réglementation (15 février 2022)
- Liste de contrôle qualité pour le comité d’examen de la réglementation (6 novembre 2021)
Parlement européen
- Amendements 277 à 544 (30 mai 2023)
- Amendements 545 à 953 (30 mai 2023)
- Amendements 954 à 1332 (30 mai 2023)
- Amendements 1333 à 1718 (30 mai 2023)
- Amendements 1719 – 1909 (30 mai 2023)
- Projet de rapport du rapporteur (25 avril 2023)
- Analyse d’impact complémentaire réalisée par le service de recherche EPRS du Parlement européen (avril 2023)
- Présentation des résultats : Analyse d’impact de substitution ciblée sur la proposition de la Commission (25 janvier 2023)
Conseil de l’Union européenne (Conseil)
- Documents du Conseil (continuellement mis à jour)
- Rapports sur les réunions du groupe « Application de la loi » (mis à jour en permanence, en allemand)
- Réunion du groupe de travail du Conseil sur l’application de la loi (17 septembre 2023)
- Texte de compromis Groupe « Application de la loi » du Conseil (8 septembre 2023)
- Réunion du groupe de travail du Conseil sur l’application de la loi (14 septembre 2023)
- Réunion publique du Conseil Justice et affaires intérieures avec déclarations de la présidence suédoise et de la commissaire Ylva Johnson (8 juin 2023)
- Réunion du Coreper I (31 mai 2023) (allemand)
- Texte de compromis Groupe « Application de la loi » du Conseil (25-26 mai 2023)
- Position commune du groupe de partage des vues (LMG) des États membres (27 avril 2023)
- Avis Service juridique du Conseil (26 avril 2023)
- Texte de compromis Groupe « Application de la loi » du Conseil (25 avril 2023)
- Positions des États membres sur le chiffrement (12 avril 2023)
- Positions des États membres sur les articles 12 à 15 (12 avril 2023)
- Réunion du groupe de travail du Conseil sur l’application de la loi (29 mars 2023)
- Réunion du groupe de travail du Conseil sur l’application de la loi (16 mars 2023)
- Texte de compromis Groupe « Application de la loi » du Conseil (16 mars 2023)
- Réunion du groupe de travail du Conseil sur l’application de la loi (police) (19/20 janvier 2023)
- Réunion du groupe de travail du Conseil sur l’application de la loi (police) (24 novembre 2022)
- Réunion du groupe de travail du Conseil sur l’application de la loi (3 novembre 2022)
- Texte de compromis Groupe de travail du Conseil sur l’application des lois (articles 1-2 , 25-39 ) (22 septembre 2022)
- Réunion du groupe de travail du Conseil sur l’application de la loi (20 juillet 2022)
- Texte de compromis Groupe « Application de la loi » du Conseil (20 juillet 2022)
Déclarations et évaluations
- Avis Service juridique du Conseil (26 avril 2023)
- Résumé de la déclaration de l’association de protection de l’enfance (Der Kinderschutzbund Bundesverband eV) lors de l’audition publique de la commission des affaires numériques sur le « Contrôle des discussions » (1er mars 2023)
- Résumé de la déclaration du commissaire fédéral à la protection des données et à la liberté d’information lors de l’audition publique de la commission des affaires numériques du Bundestagon allemand sur le thème « Contrôle des chats » (1er mars 2023)
- Résumé de la déclaration du ministère public, centrale et point de contact Cybercriminalité (ZAC) sur l’audition publique de la commission des affaires numériques du Bundestag allemand sur le « Contrôle des chats » (1er mars 2023)
- Briefing EPRS (décembre 2022)
- Avis juridique du service de recherche du Bundestag allemand (7 octobre 2022)
- Avis du Comité économique et social européen (13 septembre 2022)
- Avis conjoint EDPB-CEPD 4/2022 (28 juillet 2022)
Contrôle volontaire du chat
- Rapport 2021 sur le contrôle volontaire du chat par Meta , Twitter et Google
- La fuite d’un avis de la Commission déclenche la sonnette d’alarme en faveur d’une surveillance massive des communications privées (23 mars 2022)
- Réponse de la Commission à une lettre multipartite contre le contrôle obligatoire du chat (9 mars 2022)
- Règlement sur le contrôle volontaire du chat
- Avis juridique du service de recherche du Bundestag allemand (4 août 2021)
- Réponses d’Europol sur les statistiques concernant les poursuites judiciaires en ligne concernant les matériels pédopornographiques (28 avril 2021)
- Avis juridique sur la compatibilité de Chatcontrol avec la jurisprudence de la CJCE (mars 2021)
- Analyse d’impact réalisée par le Service de recherche du Parlement européen (5 février 2021)
- Réponses données par la Commission aux questions des députés (27 octobre 2020)
- Réponses données par la Commission aux questions des députés (28 septembre 2020)
- Solutions techniques pour filtrer les communications cryptées de bout en bout (septembre 2020)
Commentaire critique et lectures complémentaires
- Haut-Commissariat aux droits de l’homme : « Rapport sur le droit à la vie privée à l’ère numérique » (4 août 2022)
« Les gouvernements cherchant à limiter le chiffrement n’ont souvent pas réussi à démontrer que les restrictions qu’ils imposeraient étaient nécessaires pour répondre à un intérêt légitime particulier, étant donné l’existence de divers autres outils et approches fournissant les informations nécessaires à des fins spécifiques d’application de la loi ou à d’autres fins légitimes. Ces mesures alternatives comprennent une police traditionnelle améliorée et mieux dotée en ressources, des opérations d’infiltration, une analyse des métadonnées et une coopération policière internationale renforcée.
- Comité des droits de l’enfant des Nations Unies , Observation générale n° 25 (2021) :
« Toute surveillance numérique des enfants, ainsi que tout traitement automatisé associé de données personnelles, doivent respecter le droit de l’enfant à la vie privée et ne doivent pas être effectués de manière routinière, sans discernement ou à l’insu de l’enfant… »
- Fondation Prostasia : « Comment la guerre contre le matériel de maltraitance des enfants a été perdue » (19 août 2020)
- Droits numériques européens (EDRi) : « La surveillance des enfants les protège-t-elle vraiment ? Nos inquiétudes sur le règlement intérimaire CSAM » (24 septembre 2020)
- Organisations de la société civile : « Lettre ouverte : Opinions de la société civile sur la défense de la vie privée tout en prévenant les actes criminels » (27 octobre 2020)
« nous suggérons que la Commission donne la priorité à ce travail non technique et à un retrait plus rapide des sites Web incriminés plutôt qu’au filtrage côté client […] »
- Contrôleur européen de la protection des données : « Avis sur la proposition de dérogations temporaires à la directive 2002/58/CE aux fins de lutter contre les abus sexuels sur enfants en ligne » (10 novembre 2020)
« En raison de l’absence d’analyse d’impact accompagnant la proposition, la Commission n’a pas encore démontré que les mesures envisagées par la proposition sont strictement nécessaires, efficaces et proportionnées pour atteindre l’objectif visé. »
- Alexander Hanff (victime de maltraitance sur enfants et professionnel de la vie privée) : « Pourquoi je ne soutiens pas les mesures portant atteinte à la vie privée pour lutter contre la maltraitance des enfants. » (11 novembre 2020)
« En tant que survivant d’abus, moi (et des millions d’autres survivants à travers le monde) comptons sur des communications confidentielles à la fois pour trouver du soutien et signaler les crimes contre nous – supprimer nos droits à la vie privée et à la confidentialité, c’est nous soumettre à un préjudice supplémentaire et franchement, nous avons assez souffert. […] peu importe les mesures que nous prenons pour trouver les agresseurs, peu importe le nombre de libertés ou de droits constitutionnels que nous détruisons pour réaliser ce programme – cela n’empêchera PAS les enfants d’être maltraités, cela poussera simplement le les abus sont encore plus clandestins, rendent leur détection de plus en plus difficile et, en fin de compte, conduisent à ce que davantage d’enfants soient victimes d’abus.
- Irlandaise victime d’abus sexuels sur des enfants (5 juin 2022) :
« Utiliser le voile de la moralité et le prétexte de protéger les plus vulnérables et les plus aimés de nos sociétés pour introduire ce monstre potentiel qu’est une initiative est méprisable. »
- Victime allemande d’abus sexuel sur enfant (25 mai 2022) :
« Étant particulièrement victime d’abus sexuels, il est important pour moi qu’une communication fiable soit possible, par exemple dans les groupes d’entraide et avec les thérapeutes. Si le cryptage est compromis, cela affaiblit également les possibilités pour les personnes victimes d’abus sexuels de demander de l’aide.»
- Française victime d’abus sexuels sur enfant (23 mai 2022) :
« Ayant moi-même été victime de violences sexuelles étant enfant, je suis convaincue que la seule façon d’avancer sur cette question passe par l’éducation. La surveillance généralisée des communications n’aidera pas les enfants à cesser de souffrir de cette violence inacceptable.
- AccessNow : « Les préoccupations liées aux droits fondamentaux au cœur des nouvelles règles de l’UE sur le contenu en ligne » (19 novembre 2020)
« En pratique, cela signifie qu’ils confieraient à des entreprises privées la responsabilité d’une question qui relève des pouvoirs publics »
- Fédération fédérale des avocats (BRAK) (en allemand) : « Stellungnahme zur Übergangsverordnung gegen Kindesmissbrauch im Internet » (24 novembre 2020)
« L’évaluation des faits liés à la maltraitance des enfants fait partie de la compétence de la profession juridique. Ainsi, les communications échangées entre avocats et clients contiendront souvent des mots-clés pertinents. […] Selon les propositions de la Commission, il est à craindre que dans toutes les constellations susmentionnées, il y ait régulièrement une violation de la confidentialité en raison de l’utilisation inévitable de termes pertinents.»
- Alexander Hanff (Victime d’abus sur enfants et militant pour la protection de la vie privée) : « Le Parlement européen est sur le point d’adopter une dérogation qui entraînera la surveillance totale de plus de 500 millions d’Européens » (4 décembre 2020)
« Je n’avais pas d’outils de communication confidentiels lorsque j’ai été violée ; toutes mes communications étaient surveillées par mes agresseurs – je ne pouvais rien faire, je n’avais aucune confiance. […] Je ne peux m’empêcher de me demander à quel point ma vie aurait été différente si j’avais eu accès à ces technologies modernes. [Le vote prévu sur la dérogation à la confidentialité électronique] va conduire les abus à la clandestinité, les rendant beaucoup plus difficiles à détecter ; cela empêchera les groupes de soutien d’être en mesure d’aider les victimes d’abus – CELA DÉTRUISERA DES VIES.
- Contrôleur allemand de la protection des données (en allemand) : « BfDI kritisiert versäumte Umsetzung von EU Richtlinie » (17 décembre 2020)
« Une surveillance générale et non provoquée des canaux de communication numériques n’est ni proportionnée ni nécessaire pour détecter les abus sur enfants en ligne. La lutte contre la violence sexuelle contre les enfants doit être abordée par des mesures ciblées et spécifiques. Le travail d’enquête relève des autorités chargées de l’application des lois et ne doit pas être sous-traité à des opérateurs privés de services de messagerie.»
- Droits numériques européens (EDRi) : Écoutes téléphoniques des communications privées des enfants : quatre séries de problèmes liés aux droits fondamentaux des enfants (et de tous les autres) (10 février 2021)
« Comme pour d’autres types d’analyse de contenu (que ce soit sur des plateformes comme YouTube ou dans des communications privées), l’analyse de tout et de tout le monde à tout moment crée d’énormes risques de conduire à une surveillance de masse en échouant au test de nécessité et de proportionnalité. De plus, cela crée une pente glissante où nous commençons à rechercher des cas moins préjudiciables (droit d’auteur), puis nous passons à des problèmes plus difficiles (abus sexuels sur des enfants, terrorisme) et avant de réaliser ce qui s’est passé, tout scanner tout le temps devient la nouvelle norme.
- Association des avocats allemands (DAV) : « L’analyse aveugle des communications est disproportionnée » (9 mars 2021)
«Le DAV est explicitement favorable à la lutte contre la préparation et la commission d’abus sexuels sur des enfants ainsi que leur diffusion via Internet par des mesures efficaces au niveau de l’UE. Toutefois, le règlement intérimaire proposé par la Commission permettrait des violations manifestement disproportionnées des droits fondamentaux des utilisateurs de services de communication sur Internet. En outre, le règlement provisoire proposé ne dispose pas de garanties procédurales suffisantes pour les personnes concernées. C’est pourquoi la proposition législative doit être rejetée dans son ensemble.»
- Lettre du président de l’Ordre des avocats allemands (DAV) et du président de l’Ordre fédéral des avocats (BRAK) (en allemand) (8 mars 2021)
« Des résultats positifs, suivis d’une divulgation ultérieure aux agences gouvernementales et non gouvernementales, seraient redoutés non seulement par les accusés, mais surtout par les victimes d’abus sexuels sur des enfants. Dans ce contexte, la confidentialité absolue des conseils juridiques est indispensable dans l’intérêt des victimes, notamment dans ces affaires souvent pleines de honte. Dans ces cas en particulier, le client doit conserver le pouvoir de décider quel contenu du mandat peut être divulgué à qui. Dans le cas contraire, il est à craindre que les victimes d’abus sexuels sur enfants ne demandent pas d’avis juridique.»
« Dans le cadre de l’initiative « Lutte contre les abus sexuels sur enfants : détection, suppression et signalement des contenus illégaux », l’Union européenne envisage d’abolir le secret numérique des correspondances. Afin de détecter automatiquement les contenus illégaux, tous les messages de chat privés doivent à l’avenir être examinés. Cela devrait également s’appliquer aux contenus qui étaient jusqu’à présent protégés par un cryptage fort de bout en bout. Si cette initiative était mise en œuvre selon le plan actuel, elle porterait énormément atteinte à nos idéaux européens et aux fondements incontestables de notre démocratie, à savoir la liberté d’expression et la protection de la vie privée […]. L’initiative nuirait également gravement à l’autonomie stratégique de l’Europe et donc aux entreprises basées dans l’UE.
- Article dans « Welt.de : Des scanners criminels sur chaque smartphone – L’UE prévoit une attaque de surveillance majeure » (en allemand) (4 novembre 2021)
Les experts de la police et du monde universitaire sont plutôt critiques à l’égard du projet de l’UE : d’une part, ils craignent de nombreux faux rapports des scanners et, d’autre part, une fonction d’alibi de la loi. Daniel Kretzschmar, porte-parole du Conseil fédéral de l’Association des enquêteurs criminels allemands, déclare que la lutte contre les représentations d’abus sur des enfants est « extrêmement importante » pour son association. Il reste néanmoins sceptique : des personnes insoupçonnées pourraient facilement faire l’objet d’enquêtes. Dans le même temps, dit-il, privatiser ces enquêtes d’initiative signifie « rendre les forces de l’ordre dépendantes de ces entreprises, ce qui est en réalité une tâche étatique et souveraine ». «
Thomas-Gabriel Rüdiger, directeur de l’Institut de cybercriminologie de l’Université de police de Brandebourg, se montre également plutôt critique à l’égard du projet européen. «En fin de compte, cela touchera probablement à nouveau principalement les mineurs», a-t-il déclaré à WELT. Rüdiger se réfère aux chiffres des statistiques de la criminalité, selon lesquels 43 pour cent des délits enregistrés dans le domaine de la pédopornographie seraient imputables aux enfants et aux adolescents eux-mêmes. C’est le cas, par exemple, du « sexting » et de la « pornographie de cour d’école », lorsque des jeunes de 13 et 14 ans s’envoient des images obscènes.
Les véritables auteurs de crimes, que vous souhaitez réellement arrêter, préféreraient probablement ne pas être arrêtés. « Ils sont conscients de ce qu’ils ont fait et utilisent des alternatives. Il est probable que les clés USB et autres supports de données seront alors de nouveau de plus en plus utilisés », poursuit Rüdiger.
- Droits numériques européens (EDRi) : Contrôle du chat : 10 principes pour défendre les enfants à l’ère numérique (9 février 2022)
« Conformément au droit fondamental de l’UE en matière de droits fondamentaux, la surveillance ou l’interception de communications privées ou de leurs métadonnées aux fins de détection, d’enquête ou de poursuites concernant des contenus pédopornographiques en ligne doivent être limitées aux véritables suspects contre lesquels il existe des soupçons raisonnables, doivent être dûment justifiées et spécifiquement justifiées, et doivent respecter les règles nationales et européennes en matière de maintien de l’ordre, de procédure régulière, de bonne administration, de non-discrimination et de garantie des droits fondamentaux.
- European Digital Rights (EDRi) : Une fuite d’un avis de la Commission déclenche la sonnette d’alarme en faveur d’une surveillance massive des communications privées (23 mars 2022)
À l’approche de la proposition officielle prévue plus tard cette année, nous exhortons tous les commissaires européens à se rappeler de leurs responsabilités en matière de droits de l’homme et à veiller à ce qu’une proposition qui menace le cœur même du droit à la vie privée et la pierre angulaire de la société démocratique, n’est pas mis en avant.
- Conseil des sociétés professionnelles européennes d’informatique (CEPIS) : L’Europe a le droit à des communications sécurisées et à un cryptage efficace (mars 2022)
« De l’avis de nos experts, universitaires et professionnels de l’informatique, tous les efforts visant à intercepter et à surveiller de manière approfondie les communications par chat via l’analyse des sites clients ont un impact négatif considérable sur la sécurité informatique de millions d’utilisateurs Internet et d’entreprises européens. Par conséquent, le droit européen à des communications sécurisées et à un cryptage efficace pour tous doit devenir une norme.»
Source : Patrick Breyer
Traduction RV7 NEWS
———- ANNONCES ———-