Nuevas normas de la UE sobre modelos de IA a gran escala están en marcha

Intercambio de información, cumplimiento de derechos de autor y transparencia: estas son las nuevas obligaciones que las empresas que desarrollan modelos de IA de propósito general (IAPG) deberán cumplir en Europa a partir de hoy. Un año después de la entrada en vigor de la Ley de Inteligencia Artificial , tras la prohibición de prácticas prohibidas de IA y la introducción de la formación obligatoria , ahora es el turno de las normas sobre los grandes modelos de IA.
¿Qué es un GPAI?Se trata de modelos entrenados con grandes cantidades de datos y capaces de realizar una amplia gama de tareas, a menudo integrados en otros sistemas de IA. En las directrices de GPAI , la Comisión aclaró que un algoritmo entra en esta categoría si ha sido entrenado con recursos computacionales superiores a 10^23 FLOPs y es capaz de generar lenguaje (en forma de texto o audio), imágenes o vídeos a partir de texto.
El modelo también debe exhibir una generalidad significativa y ser capaz de realizar una amplia gama de tareas distintas con competencia. Por lo tanto, las IAGP incluyen modelos de lenguaje entrenados con la potencia de cálculo indicada, no aquellos diseñados para jugar ajedrez, videojuegos o mejorar la resolución de fotos.
También existen los modelos de riesgo sistémico, para los cuales la Ley de IA establece obligaciones adicionales. Se trata de algoritmos capaces de tener un impacto significativo en el mercado europeo. En este caso, el umbral a considerar es de 10^25 FLOP, y la Comisión tiene la facultad de designarlos de oficio.
Obligaciones de transparenciaAnte todo, se exige a los proveedores mayor transparencia. La Ley de IA les exige preparar y mantener la documentación técnica del modelo, incluyendo detalles del proceso de entrenamiento, que posteriormente podrán proporcionar a las autoridades si así lo solicitan.
Las empresas también tendrán que proporcionar información y documentación a los proveedores posteriores (aquellos que pretenden integrar una GPAI en un sistema de IA) para ayudarlos a comprender las capacidades y limitaciones del modelo y cumplir con sus obligaciones legales.
La Ley de IA establece la información mínima que debe recopilarse. Además, el Código de Conducta de GPAI publicó una plantilla estándar y fácil de usar para cumplir con estos requisitos.
Protección de derechos de autorLa ley también exige que los proveedores implementen políticas efectivas para cumplir con la legislación europea de derechos de autor, utilizando tecnologías de vanguardia para detectar y hacer cumplir las reservas de derechos.
El Código de Conducta también enumera una serie de soluciones prácticas para cumplir con esta nueva obligación.
Informe de entrenamiento del modeloLas empresas de IA también deben publicar un resumen suficientemente detallado del contenido utilizado para entrenar el algoritmo. Para ayudar a los proveedores a cumplir con este requisito, la Comisión ha publicado una plantilla que las empresas pueden usar como referencia y que también permitirá a los ciudadanos y titulares de derechos de autor informarse y protegerse.
Normas en caso de riesgo sistémicoA partir de hoy, también se deben cumplir requisitos adicionales para los modelos con riesgo sistémico. Los proveedores deben realizar una evaluación del modelo utilizando protocolos estandarizados y herramientas de vanguardia. También deben evaluarse y mitigarse los posibles riesgos sistémicos derivados de estos modelos, y los incidentes graves deben notificarse a las autoridades.
Estas empresas también están obligadas a garantizar una protección adecuada en materia de ciberseguridad, tanto del modelo como de su infraestructura física, para evitar robos, usos indebidos o consecuencias generalizadas derivadas de fallos de funcionamiento.
El Código de Conducta dedica un capítulo entero a los modelos de IA con riesgo sistémico y enumera prácticas concretas para gestionar estos riesgos.
La Repubblica