L'UE adopte de nouvelles règles à partir d'aujourd'hui pour les modèles d'IA à usage général

© Lusa

Ce qui est en jeu, ce sont des modèles d’intelligence artificielle généralement accessibles, c’est-à-dire des systèmes développés en mettant l’accent sur l’accessibilité, la transparence et l’utilisation généralisée, c’est-à-dire une IA qui peut être utilisée par beaucoup, contrairement aux modèles fermés ou restreints.
Ils sont désormais soumis à de nouvelles règles en matière de documentation, de transparence, de sécurité, de respect du droit d’auteur et d’évaluation des risques dans l’UE.
Parmi les exemples, on peut citer les modèles entraînés ou capables de générer du langage, tels que ChatGPT d'OpenAI, Google Gemini, Claude d'Anthropic et les modèles génératifs de Mistral . Ces modèles sont considérés comme polyvalents, car ils peuvent effectuer diverses tâches, comme écrire du texte, traduire, répondre à des questions, générer des images, aider à la programmation, etc.
Par conséquent, à partir d’aujourd’hui, les nouveaux fournisseurs vendant des modèles d’IA couverts par ce régime devront se conformer aux nouvelles règles, et ceux exploitant des modèles à risque systémique devront en informer l’office créé par la Commission européenne à cet effet et atténuer ces risques.
Les modèles existants sur le marché auront jusqu'au 2 août 2027 pour s'adapter.
Dans le cas de ChatgGPT, tel qu'il existe déjà sur le marché, l'entreprise aura encore deux ans pour s'adapter complètement , et pour l'instant l'UE recommande fortement aux fournisseurs tels qu'OpenAI d'adopter le code de conduite actuel, servant de préparation à une conformité totale d'ici 2027.
En août 2024, la loi européenne sur l'IA est entrée en vigueur. Il s'agit de la première législation mondiale relative à cette technologie. Elle vise à protéger les droits fondamentaux au sein de l'UE, mais seules certaines dispositions y sont actuellement applicables.
Le règlement établit des obligations pour l’IA en fonction de ses risques potentiels et de son niveau d’impact, stipulant l’interdiction de certaines applications, des limitations à l’utilisation des systèmes d’identification biométrique par les autorités chargées de l’application de la loi, des exemptions applicables aux forces de l’ordre, des obligations pour les systèmes à haut risque et des exigences de transparence.
Elle prévoit également des amendes en cas d’infraction.
Lire aussi : Google lance une IA qui évalue différentes hypothèses avant de donner une réponse
noticias ao minuto