Pièces complète 2 euro commémorative et accessoires protection pièces

Lutte contre les abus sexuels sur des enfants : le futur règlement … – Next INpact

« Responding to incidents of child sexual abuse material », le projet de règlement CSAM (pour « Child sexual abuse material ») est enfin disponible dans sa version officielle en français. Next INpact vous propose une explication ligne par ligne du texte, qui suscite de nombreuses réactions. Premier volet de notre long format. 
« Avec 85 millions de photos et de vidéos représentant des abus sexuels commis sur des enfants signalés à l’échelle mondiale pour la seule année 2021, sachant que bien d’autres ne le sont pas, les infractions sexuelles contre les enfants sont très répandues » indiquait la Commission européenne le 11 mai dernier, lorsqu’elle a dévoilé son projet de règlement.
Elle promettait alors des règles « claires » accompagnées « de garanties solides » afin de lutter contre « l’utilisation abusive des services en ligne à des fins de commission d’abus sexuels sur des enfants ».
Ces règles « obligeront les fournisseurs de certains services à détecter, signaler et retirer les matériels relatifs aux abus sexuels commis sur des enfants dans le cadre de leurs services », résumait-elle encore avant de dévoiler sa copie.
Détecter, signaler, bloquer et retirer ces contenus, voilà en quelques verbes décrit l’objectif poursuivi par ce futur règlement, texte qui sera d’application directe dans l’ensemble des États membres.
La Commission refuse en effet de laisser ce sujet épineux entre les mains des seuls États membres. Un tel scénario accentuerait à ses yeux les risques de « forum shopping » consistant à créer des parenthèses juridiques dans certaines zones européennes. Autant d’enclaves peu en phase avec la nécessaire concurrence, obligeant de surcroit les prestataires à adapter leur système à une série de réglementations fragmentées.  
Le texte compte pour l’instant 84 considérants. Des propos introductifs précieux non seulement pour comprendre les 89 articles suivants, mais aussi lors des recours devant la Cour de justice de l’Union européenne. Et pour cause, le juge du droit de l’UE y puise une aide en cas de difficultés d’interprétation.
Le législateur européen mesure combien est sensible le sujet de la détection des contenus. Pas étonnant qu’à 35 reprises, reviennent l’expression « proportionnel » et ses digressions. « Équilibré » et ses variantes sont cités 18 fois. Quant à « ciblé » et ses autres ramifications, on les retrouve près d’une quinzaine de fois dans le corps. Autant de références qui pèseront quand viendront le temps des querelles juridictionnelles.
Dans sa philosophie, le règlement veut « contribuer au bon fonctionnement du marché intérieur en fixant des règles claires, uniformes et équilibrées afin de prévenir et de combattre les abus sexuels sur enfants d’une manière efficace et respectueuse des droits fondamentaux de toutes les parties concernées », expose le considérant n°4.
Les objectifs sont détaillés au premier article, accompagné d’un résumé des obligations qui pèseront sur les « fournisseurs des services », selon l’expression un peu désuète, mais consacrée. Derrière, on retrouve les plateformes, les hébergeurs, les fournisseurs d’accès, les « boutiques » d’apps avec une distribution des nouvelles règles que la Commission veut leur imposer.
Comme le DSA, le DMA et avant, le RGPD, ce texte est d’application extraterritoriale. Pour éviter le contournement par délocalisation, il s’applique à l’ensemble des prestataires qui fournissent leurs services dans l’Union, peu importe le lieu de leur établissement principal.
Que le fournisseur soit à Breuschwickersheim en Alsace, à Amsterdam aux Pays-Bas, ou dans la Silicon Valley outre-Atlantique, il devra respecter le futur règlement CSAM.
L’article 2 donne, classiquement, les définitions des expressions utilisées dans chacun des articles, avec parfois un sentiment d’enfonçage de porte ouverte comme lorsqu’ « utilisateur » est défini par « toute personne physique ou morale qui utilise un service de la société de l’information pertinent », et d’autres choix des nuances alchimiques.
Ainsi, « enfant », dans le règlement, vise « toute personne physique âgée de moins de dix-huit ans », alors qu’« enfant utilisateur » est « une personne physique qui utilise un service de la société de l’information pertinent et qui est une personne physique âgée de moins de dix-sept ans ».
Les obligations, décrites à partir du chapitre 2, sont de différents ordres. Les premières concernent l’évaluation et l’atténuation aux risques, objets de la section 1. L’hébergeur comme les services de messagerie devront en effet identifier, analyser et évaluer le risque que leur « service soit utilisé à des fins d’abus sexuels sur enfants en ligne » (article 3).
Comment faire ? Plusieurs poids et mesures devront peser pour cette évaluation : les cas précédents d’abus sexuels sur mineurs, les mentions dans les CGU et les mesures prises pour appliquer ces règles, les « fonctionnalités permettant la vérification de l’âge » et celles permettant de signaler des cas d’abus sexuels sur les enfants en ligne…
Autre évaluation à mener, celle sur le risque de sollicitation des enfants (ou « pédopiégeage »). Les voyants devront clignoter quand des adultes ont la possibilité de rechercher des « enfants utilisateurs » ou d’entrer en contact par communications privées avec échange de photos et vidéos à la clef.
Le fournisseur pourra étayer son évaluation en étant accompagné par le Centre de l’UE, un organe installé par le texte « chargé de prévenir et de combattre les abus sexuels sur enfants ».
Il pourra aussi, mais à ses frais sauf s’il est une PME, solliciter une « analyse d’échantillons de données représentatives et anonymisées » afin d’identifier « tout abus sexuel potentiel sur enfants en ligne ».
Le calendrier est contraint : cette phase d’évaluation devra intervenir dans les trois mois de l’entrée en vigueur du règlement, puis au moins une fois tous les trois ans. Ce calendrier sera beaucoup plus accéléré lorsque le fournisseur sera visé par une injonction de détection, une arme prévue par le règlement (voir infra, nous y reviendrons) : l’évaluation devra intervenir dans les deux mois suivant l’expiration d’une période déterminée.
L’évaluation terminée, l’article 4 exige des intermédiaires la mise en œuvre de « mesures d’atténuation raisonnables, adaptées » et donc proportionnelles. Dans un inventaire à la Prévert, elles passeront par une « dotation en personnel » suffisante, des « systèmes de modération des contenus ou de recommandation du fournisseur », ou encore des mesures de coopération avec les concurrents, la société civile ou les autorités, et des solutions de contrôle parental ciblées.
Si le fournisseur identifie un risque d’utilisation à des fins de sollicitation d’enfants, il devra adopter tout autant des « mesures d’évaluation et de vérification de l’âge nécessaires pour identifier de manière fiable les enfants utilisateurs sur leurs services, leur permettant ainsi de prendre les mesures d’atténuation ». 
Cette évaluation des risques et l’adoption de mesures d’atténuation seront retranscrites dans un rapport. Un document transmis à une autorité de coordination installée dans l’État membre du fournisseur et au Centre de l’UE. Selon l’article 5, cette autorité de coordination pourra au besoin exiger des mises à jour, par exemple une extension des mesures d’atténuation si celles décrites sont jugées trop restreintes. 
Les boutiques d’applications, les fameux « Stores », ne sont pas en reste. Selon l’article 6, ces boutiques devront évaluer conjointement avec les fournisseurs d’apps le niveau de risque. Elles devront elles aussi prendre des mesures préventives et « raisonnables » pour empêcher les « enfants utilisateurs d’accéder aux applications logicielles pour lesquelles ils ont identifié un risque important ».
Ces fournisseurs de boutiques prendront des « mesures d’évaluation et de vérification de l’âge nécessaires pour identifier de manière fiable les enfants utilisateurs de leurs services ». Autant dire que les évolutions à venir sur le terrain de la pornographie en ligne pourraient servir de tube à essai dans le sillage de ce futur règlement.
Au besoin, la Commission pourra guider ces acteurs par des lignes directrices qui, au passage, devront tenir compte des « évolutions technologiques ».
La section 2 est relative aux obligations de détection, deuxième série de règles que devront respecter les fournisseurs, peu importe leur pedigree.
Selon l’article 7, l’autorité de coordination pourra saisir le juge ou une autorité administrative indépendante (comme l’Arcom, en France) pour qu’une injonction de détection soit émise. Pour l’aider dans cette tâche, l’autorité de coordination établira un projet de demande d’injonction et plusieurs échanges en amont sont prévus avec le fournisseur, avec notamment l’édition d’un plan de mise en œuvre « contenant les mesures qu’il projette de prendre pour exécuter l’injonction ».
Cette injonction visera aussi bien des contenus « connus » que des contenus « nouveaux », non encore identifiés comme tels. Elle sera décidée lorsqu’ « il existe des éléments probants indiquant un risque important que le service soit utilisé à des fins d’abus sexuels sur enfants en ligne ».
Un « risque important » sera réputé vrai dès lors que, malgré des mesures d’atténuation, le service reste utilisé pour diffuser du contenu « relatif à des abus sexuels sur enfants » et qu’il y a eu des précédents dans les 12 derniers mois. Conditions facilement vérifiées pour les services en ligne où transitent des millions de messages… chaque jour.
Des mesures de détection sont programmées pour lutter aussi contre la sollicitation d’enfants, dans les logiciels de messagerie en ligne.
Pratiquement, l’injonction ordonnera à l’hébergeur ou au fournisseur de messagerie de prendre durant un délai déterminé des mesures pour détecter des abus sexuels sur des mineurs. Ces injonctions seront prises pour une période de 24 mois s’agissant de la diffusion de matériel connu ou nouveau, ou 12 mois pour le pédopiégeage.
La détection se fera par des outils technologiques, décrits à l’article 10 sur lequel nous reviendrons.
Il y aura donc nécessairement une atteinte au secret des correspondances, à la protection de la vie privée pour assurer la protection de l’enfance. Les considérants insistent néanmoins pour souligner le caractère « ciblé » de ces outils.
L’injonction de détection devra être limitée au strict nécessaire… sachant que cette limitation ne s’envisagera que si elle ne nuit pas au critère d’efficacité. En guise d’exemples de « limitations », le considérant 23 imagine une détection concentrée « à des types spécifiques de canaux d’un service de communications interpersonnelles accessible au public, ou à des utilisateurs ou groupes d’utilisateurs spécifiques ». Soit de belles marges de manœuvre et consécutivement un risque d’atteintes à d’autres droits et libertés.
Mieux encore. À la lecture du considérant 25, on découvre que les autorités pourront se fonder « sur des éléments de preuve découlant de services comparables pour déterminer s’il y a lieu de demander l’émission d’une injonction de détection pour un nouveau service ».
L’article 8 ajoute des règles de formalisme sur ces injonctions et les éventuelles demandes d’éclaircissements. Des modèles sont d’ailleurs prévus en annexe. L’article 9, enfin, organise le droit au recours effectif du fournisseur visé par une injonction.
L’article 10, central, esquisse les technologies de détection des contenus pédopornographiques et de sollicitation d’enfants.
Pour mettre en œuvre l’injonction, l’hébergeur ou le fournisseur d’une solution de messagerie aura une liberté de moyens, mais il est aussi « autorisé à acquérir, à installer et à exploiter gratuitement des technologies mises à disposition par le Centre de l’UE ». Plus loin, l’article 50 charge en effet ce pôle d’établir des listes d’outils de détection. 
La Commission essaye de ménager les intérêts en présence, pas nécessairement compatibles. Ainsi, « les fournisseurs devraient prendre toutes les mesures de sauvegarde nécessaires pour garantir que les technologies qu’ils utilisent ne puissent être utilisées, par eux-mêmes ou par leurs employés, non plus que par des tiers, à des fins autres que la mise en conformité avec le présent règlement, et éviter ainsi de compromettre la sécurité et la confidentialité des communications des utilisateurs » implore le considérant 26. Ce dernier exige que soient respectées plusieurs autres exigences, dont « l’utilisation d’une technologie de chiffrement de bout en bout ».
Ces technologies devront en outre être « efficaces », avec un taux d’erreurs le plus bas possible. Toujours dans une logique de proportionnalité, elles seront le moins intrusives et ne permettront d’extraire des communications que les « schémas révélateurs de la diffusion de matériel connu ou nouveau relatif à des abus sexuels sur enfants ou la sollicitation d’enfants ».
Ces schémas connus seront définis par avance et devront révéler par exemple « la possibilité d’un pédopiégeage », préviennent les propos introductifs, assez nuageux sur ces expressions.
Pour être plus explicite, le considérant 28 prévient que « lorsqu’il est question de détection de la sollicitation d’enfants dans des communications interpersonnelles accessibles au public, les fournisseurs de services devraient assurer un contrôle humain régulier, précis et détaillé ainsi qu’une vérification humaine des conversations dans lesquelles les technologies ont détecté une potentielle sollicitation d’enfants ». En somme, des solutions d’IA doublées de vérifications humaines.
Dans le même temps, le fournisseur devra proposer un mécanisme de plainte, « adapté » et « convivial » permettant aux utilisateurs de contester les décisions de retrait ou de blocage. Le traitement de ces plaintes devra se faire « de manière objective, efficace et rapide ».
De même, les utilisateurs seront informés de l’exploitation de technologies destinées à détecter des abus sexuels sur mineurs dans le cadre de ces injonctions, outre que tous les abus potentiels seront signalés au Centre de l’UE.
Le point 5 de l’article 10 demande ceci dit au fournisseur de ne transmettre aux utilisateurs « aucune information susceptible de réduire l’efficacité des mesures prises pour exécuter l’injonction de détection ».
Les utilisateurs concernés seront informés avoir été pris dans le filet de ces outils de détection, seulement si Europol ou les autorités nationales ont confirmé que « les informations communiquées aux utilisateurs n’entraveraient pas les activités de prévention et de détection des infractions sexuelles contre les enfants, ni les activités d’enquêtes et de poursuites en la matière ».
L’article 11 donne pour sa part compétence à la Commission d’émettre d’autres lignes directrices sur ces derniers articles.
La section 3 traite des obligations en matière de signalement. L’article 12 évoque la situation où l’hébergeur ou l’éditeur d’une solution de messagerie a connaissance, autrement que par une injonction, d’un abus sexuel potentiel sur mineur via son service. Un mécanisme « accessible, adapté à l’âge et convivial » sera installé pour permettre à chacun de lui adresser des signalements.
Le cas échéant, le fournisseur devra signaler ces faits au Centre de l’UE. L’article 13 traite du contenu de ce signalement : adresse IP, éléments d’identification de l’utilisateur, des images, vidéos et textes le cas échéant, etc.
L’utilisateur concerné en sera en principe informé pour pouvoir déposer plainte auprès de l’autorité de coordination. De même, il sera informé si le Centre de l’UE a considéré le signalement comme manifestement infondé. Un silence après trois mois équivaudra à la même solution.
La section 4 se concentre sur les « obligations de retrait ». L’autorité de coordination du lieu d’établissement pourra demander au juge ou à l’autorité administrative indépendante d’émettre une injonction visant à retirer ou rendre inaccessible un contenu pédocriminel dans toute l’UE.
Le fournisseur devra exécuter cet ordre dans les 24 heures. Comme le décrit l’article 14, l’injonction comportera « une motivation suffisamment détaillée expliquant (…) les raisons pour lesquelles le matériel constitue du matériel relatif à des abus sexuels sur enfants ». Elle devra contenir l’URL exacte, le service visé, etc. Le formalisme est détaillé par le même article.
Le fournisseur pourra ne pas y donner suite en cas de force majeure ou « d’impossibilité de fait », qui ne lui est pas imputable. En cas d’erreurs manifestes dans cette injonction, il devra toutefois solliciter des éclaircissements auprès de l’autorité de coordination.
L’article 15 concerne les voies de recours et la « fourniture d’information ». Le droit au recours effectif est ouvert aux intermédiaires comme aux utilisateurs qui ont partagé le contenu ciblé par une injonction de retrait. Voilà pourquoi, lorsqu’un contenu est retiré dans un tel cadre, le fournisseur de service doit en informer l’auteur, avec explication des motifs et de son droit à contester la décision. Ce principe connaît une exception lorsque les autorités demandent le secret. L’enjeu est évidemment d’éviter de mettre à plat des procédures pénales, en révélant cette attention.
Les obligations en matière de blocage font l’objet de la section 5. De telles injonctions pourront être prises suivant les mêmes formes que les injonctions de retrait, dixit l’article 16. L’initiative appartiendra à l’autorité de coordination du lieu d’établissement qui devra solliciter là encore cette décision de l’autorité judiciaire ou de l’autorité administrative indépendante.
La cible change cette fois puisque le blocage sera imposé au FAI. Dans les 24 heures, il devra prendre « des mesures raisonnables pour empêcher les utilisateurs d’accéder au matériel connu relatif à des abus sexuels sur enfants ». Le site à bloquer figurera parmi les adresses figurant sur une liste noire prévue par l’article 44 et fournie par le Centre de l’UE.
La force majeure ou l’impossibilité de fait pourra empêcher le blocage, mais là encore l’intermédiaire devra s’empresser de signaler la moindre difficulté aux oreilles de l’autorité de coordination.
Plusieurs mesures sont prises pour tenter de limiter le risque de faux positifs. L’autorité de coordination, avant de réclamer le blocage d’accès, devra ainsi vérifier un « échantillon représentatif » d’URL et ces travaux seront doublés par des échanges avec le Centre de l’UE.
La décision de blocage sera prise quand :
L’article 17 décrit le formalisme de la demande d’injonction de blocage. L’article 18 détaille quant à lui le droit au recours du FAI et des éditeurs de site.
L’article 19, de la section 6, pose un principe d’exemption des fournisseurs (hébergeurs, FAI, etc.) pour les infractions sexuelles contre les enfants qui pourraient lui être reprochés en application du droit pénal national, quand l’intermédiaire se contente de mettre en œuvre le règlement.
Un droit à l’information des victimes est prévu par l’article 20. Les victimes d’abus sexuels sur enfants peuvent recevoir des informations sur les contenus où elles apparaissent. La demande se fera via l’autorité de coordination et le Centre de l’UE.
Les hébergeurs leur apporteront une « assistance raisonnable » pour retirer ou rendre un tel contenu inaccessible, pose l’article 21. L’autorité de coordination apportera son coup de main au besoin, qui ira de l’accompagnement jusqu’à une injonction de retrait adressée au fournisseur récalcitrant.
L’article 22 impose la conservation des « informations » ainsi traitées, à l’égard des hébergeurs et des services de messagerie. Les données de contenus et les données à caractère personnel devront être conservées pour plusieurs finalités, en particulier en cas de procédure pénale.
Fait notable, les intermédiaires pourront aussi conserver ces contenus (vidéos, images, etc.) pour aiguiser leurs propres outils de détection. Le règlement leur interdit toutefois de conserver de données à caractère personnel dans un tel cadre (donc pas d’images du visage, de voix…).
Chaque fournisseur, prévient l’article 23, devra en tout cas avoir un point de contact pour la mise en œuvre du règlement. Son rôle ? Fluidifier les communications avec les autorités impliquées.
L’article 24 traite d’une situation particulière, celle de fournisseurs installés dans des pays tiers à l’UE. Ils devront désigner dans un État membre une personne (physique ou morale) comme « représentant légal ».
C’est ce représentant qui servira de courroie de transmission avec les autorités, notamment pour les injonctions de détection, de retrait et de blocage. Il devra à cette fin être doté des pouvoirs et ressources « nécessaires », sachant qu’il pourra être reconnu coresponsable des violations reprochées au fournisseur. 
Il a été produit grâce au soutien de nos abonnés, l’abonnement finance le travail de notre équipe de journalistes
2000 – 2022 INpact MediaGroup – SARL de presse, membre du SPIIL. N° de CPPAP 0326 Z 92244.
Marque déposée. Tous droits réservés. Mentions légales et contact
Vous n’avez pas encore de notification
Vous n’êtes pas encore INpactien ?
ABONNÉS
7603

source

http://fragua.org/otdr-pour-detecter-un-point-de-blocage-dans-un-cable-a-fibre-optique/

https://netsolution.fr/detection-dun-point-de-blocage-dans-un-cable-a-fibre-optique/

A propos de l'auteur

Avatar de Backlink pro
Backlink pro

Ajouter un commentaire

Backlink pro

Avatar de Backlink pro

Prenez contact avec nous

Les backlinks sont des liens d'autres sites web vers votre site web. Ils aident les internautes à trouver votre site et leur permettent de trouver plus facilement les informations qu'ils recherchent. Plus votre site Web possède de liens retour, plus les internautes sont susceptibles de le visiter.

Contact

Map for 12 rue lakanal 75015 PARIS FRANCE