«Les fournisseurs d'IA exploitent la facilité d'utilisation des interfaces»

Cette semaine, deux événements ont été consacrés à la protection et à la violation des données personnelles : la Journée du RGPD, organisée à Bologne, axée sur la conformité réglementaire (de la loi sur l’IA à la norme NIS2), et la Semaine de la protection de la vie privée (jusqu’au vendredi 31 octobre 2025), un rassemblement à Milan réunissant plusieurs experts pour discuter de la collaboration potentielle entre humains et intelligence artificielle dans le respect de la vie privée, de l’éthique et de la réglementation. Le sujet est à la fois sensible et complexe, car de nombreux facteurs influencent notre vie numérique, des avantages liés à l’utilisation de nos données numériques aux risques encourus lorsque nous acceptons (sans les lire) les conditions d’utilisation d’une application ou utilisons des appareils connectés de manière négligente à la maison ou en voiture – des contextes où la conscience des dangers (et par conséquent des moyens de défense) diminue, laissant ainsi le champ libre aux personnes malveillantes.
Les risques auxquels nous sommes exposés sont divers, allant des menaces bien connues comme les rançongiciels et les logiciels espions aux menaces plus sophistiquées telles que les deepfakes et la voix profonde , qui sont des montages photo et audio avancés capables d'usurper l'identité d'une autre personne. S'y ajoute le « sharenting », le partage de contenus appartenant à des mineurs par leurs parents. Paradoxalement, la maison connectée devient un lieu où nous pouvons être espionnés via les appareils mêmes (caméras de surveillance en premier lieu, mais aussi assistants numériques, téléviseurs et autres objets connectés) censés nous garantir une sécurité accrue, ou du moins un meilleur confort de vie. Se pose ensuite la question de la reconnaissance faciale dans les lieux publics et des systèmes de police prédictive basés sur l'intelligence artificielle : la loi sur l'IA, sauf revirement spectaculaire, devrait empêcher leur utilisation dans l'UE pendant longtemps.
Guido Scorza, membre du panel de l'Autorité italienne de protection des données (Garante della Privacy), était l'un des intervenants lors de l'événement de Bologne et, dans une interview accordée à Il Sole 24 Ore, il a dressé le bilan de deux cadres réglementaires clés en matière de protection de la vie privée : la loi sur l'intelligence artificielle et le RGPD. « Bien qu'ils convergent », a-t-il expliqué, « ces deux réglementations couvrent des domaines différents et visent à garantir le respect des droits et libertés fondamentaux des citoyens européens dans une société de données et d'algorithmes. Malheureusement, nous n'avons pas encore atteint notre objectif et, par conséquent, nous ne pouvons pas parler de protection totale de la vie privée, car l'existence de règles est une condition nécessaire, mais non suffisante, pour encadrer l'impact de l'intelligence artificielle sur la société. »
Les questions cruciales liées à ce sujet ne manquent donc pas, et il est clair que le chemin est encore long pour éviter le risque, souligné par Scorza, de voir la technocratie l'emporter sur la démocratie. En effet, il ne fait aucun doute que les géants de la tech, les fournisseurs de services d'IA et les fabricants de domotique collectent des milliards de données sur les comportements numériques des individus, ouvrant la voie à la surveillance, voire à la complicité, dans un système de profilage dont les objectifs peuvent dépasser le simple profit. Comment résoudre ce problème ? « L'outil le plus efficace pour résister au capitalisme de surveillance et à la surveillance du capitalisme », explique l'expert, « est d'investir dans l'éducation à une utilisation responsable de ces technologies et de sensibiliser chacun à ses droits et aux règles en vigueur. Or, même dans ce domaine, nous sommes à la traîne, et l'Italie plus que le reste de l'Europe, se classant parmi les derniers pays en matière de culture numérique de base. »
Scorza souligne un autre point essentiel concernant les fournisseurs de services d'IA : « Ces derniers abusent de la facilité d'utilisation de leurs interfaces, nous persuadant qu'elles sont si simples que nous pouvons les utiliser de manière désinvolte et négligente, sans trop nous soucier des conséquences sur notre vie privée. » Il fait explicitement référence à OpenAI et à d'autres acteurs de l'IA générative, un outil grâce auquel « chaque utilisateur révèle de nombreuses informations personnelles aux entreprises qui fournissent ces services. »
ilsole24ore
%2520Is%252075%2525%2520Off%2520at%2520The%2520Home%2520Depot.png&w=3840&q=100)



