Le Commissaire à la protection de la vie privée : « Attention à l'IA en tant qu'oracle. Les mineurs sont en danger ; une alliance entre les institutions est nécessaire. »

Nous nous précipitons aveuglément vers les promesses de l'intelligence artificielle. Ses immenses avantages sont contrebalancés par d'extraordinaires dangers pour nos vies. La vie privée et la protection des données, matière première de cette révolution, constituent un rempart contre le pouvoir excessif des géants du numérique et, plus généralement, de tous ceux qui exploitent la transformation numérique à leur avantage. Mais ce n'est pas tout : Pasquale Stanzione, président de l'Autorité italienne de protection des données, dans son discours pour le rapport annuel 2025 du 15 juillet, où il a exposé ces concepts, a appelé à une collaboration étroite de la société, y compris des parents, afin de protéger ce qu'il appelle « le côté humain » de la révolution numérique. C'est-à-dire nous.
L'année 2024, que le rapport passe en revue, mais avec un regard tourné vers 2025 et l'avenir, a été une autre année difficile, au cours de laquelle l'Autorité italienne de protection des données (en collaboration avec ses homologues européens) a relevé les nombreux défis posés par le numérique. Prenons par exemple le problème toujours non résolu du télémarketing illégal. Les amendes elles-mêmes ne représentent qu'une infime partie des problèmes rencontrés. En 2024, l'Autorité a perçu 24 millions d'euros d'amendes. 835 mesures collégiales ont été adoptées, dont 468 mesures correctives et punitives. L'Autorité a répondu à 4 090 plaintes et 93 877 signalements concernant, entre autres, le marketing et les réseaux télématiques ; les données en ligne des administrations publiques ; la santé ; la justice, le cyberharcèlement et le revenge porn ; la cybersécurité ; le secteur bancaire et financier ; et l'emploi.
Confiance excessive dans l'IALes questions les plus complexes concernent l’intelligence artificielle, qui est le sujet du discours du président.
« Aujourd'hui, chacun d'entre nous peut utiliser l'IA pour n'importe quelle recherche, même si cela comporte le risque de l'effet d'ancrage, c'est-à-dire la tendance à s'y fier sans esprit critique ni désir d'investigation plus approfondie, avec une approche quasi-oraculaire », a déclaré Stanzione. « Des recherches récentes montrent que 66 % des employés qui utilisent l'IA générative à des fins professionnelles font confiance à ses résultats sans en évaluer l'exactitude. »
L'oracle ne s'attaque pas seulement aux problèmes professionnels, personnels et de santé. L'IA « s'immisce dans les tactiques de guerre, alimentant la guerre algorithmique dans le domaine cognitif, avec manipulation de contenu, dissuasion numérique et discours polarisants ». « Des casques intégrant la réalité augmentée et l'IA sont développés pour améliorer les capacités sensorielles des soldats. » « En Ukraine, le système Delta fournit une analyse stratégique prédictive utile pour guider les actions défensives, tandis qu'en Israël, Red Alert développe des modèles prédictifs pour anticiper les temps d'évacuation et protéger les civils. »
L'IA n'a pas encore remplacé les humains, mais « elle guide leurs décisions, même dans un domaine aussi profondément humain que la guerre, un champ de bataille qu'aucun algorithme ne peut effacer ». Le Garant énumère les nombreux avantages offerts par l'IA, notamment dans les domaines de la santé et de la thérapeutique. Cependant, ces avantages incomparables peuvent engendrer des dangers intolérables en l'absence de la prise de conscience nécessaire à son utilisation.
Les dangers ne doivent pas être perçus comme le revers de ces avantages. En réalité, ces deux aspects ne font qu'un, étroitement liés et toujours présents ensemble. Protéger les droits et les individus revient donc à orienter l'intelligence artificielle dans son ensemble, en veillant à ce que son pouvoir soit bien réparti et bénéficie à la communauté.
Le problème apparaît plus clairement chez les plus vulnérables. « C'est particulièrement vrai pour les mineurs qui, en tant que « natifs du numérique », entretiennent une relation quasi-osmosée avec les nouvelles technologies, avec des avantages indéniables (il suffit de penser à la richesse des informations accessibles en un seul clic), mais aussi, parfois, des risques importants », explique Stanzione.
Les algorithmes sont souvent utilisés pour produire des deepfakes , généralement au détriment des femmes ou des minorités, celles qui sont considérées, par nature, par représentation ou par circonstances, comme plus vulnérables.
Par ailleurs, les cas de pédopornographie générée par l'intelligence artificielle se multiplient, rendant le travail des autorités extrêmement complexe. « En seulement deux ans, on a constaté une augmentation de 380 % du recours à l'IA pour créer de la pédopornographie, parfois à partir d'images réelles fournies sous la pression des mineurs eux-mêmes. L'exposition des adolescents a augmenté de 35 % pour les garçons et de 67 % pour les filles sur la même période. »
« Le Garant est intervenu, au cours de l’année, en réponse à des demandes de protection relatives à la diffusion redoutée d’images artificielles utilisant l’IA, exprimant une forme d’abus allant au-delà de la sextorsion et du revenge porn , qui ont impliqué l’Autorité dans 823 procédures en 2024 », explique Stanzione.
Mineurs manipulésOn observe également une augmentation des cas de mineurs ou d'autres personnes vulnérables manipulés par des chatbots, allant jusqu'à les pousser à l'extrême. « Pour de nombreux adolescents, les chatbots sont devenus de véritables figures de référence (Replika se qualifie d'“ami empathique”). » « Certains développent même une sorte de lien émotionnel et empathique avec ces chatbots, notamment en raison de leur ton souvent excessivement flatteur, absolvant et consolant, et de leur apparence de refuge où ils peuvent se réfugier, à l'abri du jugement d'autrui. » « C'est ce qu'on appelle la boucle de l'empathie infinie, qui génère une dépendance, conduit à une dévalorisation des relations humaines (qui paraissent trop complexes et insatisfaisantes), conduisant ainsi à l'isolement. L'enquête sur la disparition tragique d'une très jeune fille est actuellement en cours, et elle a posé des questions à ChatGpt sur la “toxicité” de l'amour et des relations amoureuses », explique le Garant.
Le travail est un domaine dans lequel les avantages de la technologie numérique s’accompagnent de risques, notamment lorsqu’il s’agit d’accroître la productivité des travailleurs.
Attention au gangmastering numériqueLa numérisation du travail exige en outre des précautions essentielles pour éviter que les garanties durement acquises par le droit du travail pour remédier à la vulnérabilité des salariés ne soient contournées par de simples raccourcis technologiques. La protection des données joue un rôle central pour concilier les besoins des employeurs et la liberté des travailleurs, notamment au vu des innovations apportées par l'économie des petits boulots, qui ne doivent pas dégénérer en une forme de domination numérique.
« À cet égard, la mesure adoptée contre une entreprise de livraison de repas qui a organisé le travail via une plateforme, en l'absence des garanties nécessaires pour les travailleurs, est particulièrement significative », déclare Stanzione. Selon l'Autorité, la protection des données est un rempart des droits dans la révolution numérique, « protégeant la composante la plus profondément humaine de l'innovation ». « L'absence de réglementation », ajoute l'Autorité, « ne produit pas d'égalité, mais une subordination aux impératifs du marché. »
Le risque d'un « effet de distorsion, d'abord démocratique, que la régulation numérique européenne, malgré d'inévitables aléas, vise à contrer en redessinant le périmètre du pouvoir privé et en mettant la technologie au service de l'individu. »
« Nous avons besoin de pédagogie numérique »Mais comment y parvenir ? Le Garant souligne la nécessité d'une action concertée, impliquant les différentes autorités européennes compétentes (garants, forces de l'ordre en premier lieu) et la société civile. Prenons par exemple ce qu'il dit à propos des mineurs : « Il est important que l'accès à ces appareils, et plus généralement à internet, ne se fasse pas seul. » Ce qu'il appelle la « pédagogie numérique » est nécessaire. Il s'agit d'« une alliance commune des institutions et des communautés éducatives pour promouvoir la sensibilisation numérique des mineurs. Les écoles sont très actives ; le Garant est à leurs côtés dans cet effort de développement de la citoyenneté numérique. »
« Nous avons besoin d’une culture de protection des données »La sensibilisation au numérique est pourtant une nécessité pour tous, en particulier pour les professionnels de la santé, où les données sont extrêmement sensibles, souligne l'Autorité. « Il est de plus en plus nécessaire que les personnels des secteurs public et privé inculquent une culture globale de la protection des données », affirme-t-elle. « Chacun doit être conscient de l'importance de ses actions pour garantir la sécurité de la "frontière numérique" du pays : elle fait partie intégrante de cette culture numérique sans laquelle aucune stratégie de protection n'est possible. » « Cette sensibilisation est la condition préalable essentielle à des réformes qui ne se limitent pas à des innovations techniques, mais qui constituent de véritables avancées en termes de liberté et de garanties démocratiques », conclut l'Autorité.
La Repubblica