La lección de Trump sobre la inteligencia artificial


Imágenes Getty
La carrera de la IA
Algunos ven la IA como un recurso, mientras que otros la temen. Dos tendencias opuestas surgen de las regulaciones adoptadas en Estados Unidos y la UE. Bruselas debería tomar ejemplo de Estados Unidos para adoptar un enfoque liberal.
Sobre el mismo tema:
Hace cuatro semanas, toda la atención en Europa se centraba en las etapas finales de las negociaciones arancelarias con Estados Unidos, que concluyeron tras arduas semanas con la reunión informal en un campo de golf en Escocia entre Trump y Ursula von der Leyen. Hasta ayer, estas negociaciones carecían de detalles esenciales sobre los productos y las cadenas de suministro incluidos en la lista de exenciones, dado que apenas ayer la Comisión Europea anunció el acuerdo final sobre una declaración conjunta que describe cómo se aplicará el arancel del 15 % en EE. UU. a la gran mayoría de los productos europeos, incluyendo productos farmacéuticos, vehículos y semiconductores. Cuando se anunció el acuerdo escocés, muchos observadores y políticos europeos lo calificaron de rendición ignominiosa, como si acabaran de descubrir la montaña de debilidades europeas acumuladas frente a EE. UU.: debilidades en tecnología, energía y defensa. Un descubrimiento singular, dado que esas debilidades hoy constituyen un garrote blandido con dureza chantajista por la intimidación trumpiana, pero en realidad se han acumulado durante las últimas tres décadas mientras Europa observaba con los ojos cerrados .
Estas brechas ahora corren el riesgo de agravarse aún más. Hace un mes, en medio de una desatención generalizada provocada por la ansiedad en torno a los aranceles, Estados Unidos aprobó una serie de regulaciones profundamente innovadoras sobre un tema ahora esencial para la competitividad y la productividad europeas: la inteligencia artificial. Las nuevas regulaciones estadounidenses representan un cambio radical con respecto al enfoque de la Administración Biden, y lo más interesante es que van en la dirección exactamente opuesta al enfoque europeo adoptado con la Ley de IA , que, al ser un reglamento europeo y no una directiva, ahora está entrando en vigor, para entidades individuales y tamaños de empresa, en todos los países de la UE. Es hora de plantear una pregunta seria: ¿estamos seguros de que el enfoque europeo sobre la IA es el adecuado para cambiar las cosas, o el nuevo paquete de regulaciones estadounidenses también ofrece a Europa información valiosa para una introspección muy necesaria? Para responder a esta pregunta, debemos tener claros tres puntos: en qué consiste el cambio estadounidense, en qué se diferencia del enfoque de la UE y, por último, qué deberíamos hacer los europeos.

El plan de Trump, publicado el 23 de julio, es agresivo, empezando por su nombre: Ganando la Carrera, el Plan de Acción de IA de Estados Unidos. Deroga formalmente la Orden Ejecutiva 14110 de noviembre de 2023, con la que el gobierno de Biden definió el propósito, las responsabilidades y la supervisión de las autoridades federales sobre los desarrollos de IA. El enfoque del gobierno demócrata fue en ciertos aspectos similar al europeo, con el objetivo principal de mitigar los riesgos de la IA , proteger los derechos civiles y la equidad, y garantizar la supervisión de los modelos avanzados de IA por parte de autoridades como las responsables de aplicar la Ley de Producción de Defensa.
En contraste, el plan de Trump cambia radicalmente su enfoque: prioriza la desregulación, el desarrollo de infraestructura y la competitividad global, considerando el liderazgo estadounidense en IA como un imperativo estratégico nacional que debe promoverse y defenderse vigorosamente en todo el mundo. En consecuencia, el Plan de Acción deja de lado el énfasis en la regulación preventiva. La prioridad se centra en facilitar la innovación del sector privado, agilizar los procedimientos de autorización y establecer normas federales de contratación pública centradas en la neutralidad ideológica, no en decisiones dictadas políticamente sobre este o aquel límite a la próxima frontera de la IA generativa.
El Plan se estructura en torno a tres pilares clave. El primero es "Acelerar la Innovación en IA" y se centra en promover modelos de código abierto y de peso abierto (aquellos en los que los parámetros numéricos del aprendizaje automático son públicos, aunque los parámetros del modelo original no lo sean), las colaboraciones público-privadas en investigación, la rápida adopción de la IA en sectores específicos como la salud, la manufactura y la agricultura, y la inversión en infraestructura científica.
El segundo pilar, "Construir la infraestructura de IA de Estados Unidos", se centra en acelerar los permisos para centros de datos, fábricas de semiconductores y sistemas de energía de apoyo; modernizar la red eléctrica; mejorar la resiliencia física y cibernética; y ampliar la fuerza laboral calificada.
El tercer pilar, "Liderazgo en IA en Seguridad Global y Geopolítica", busca expandir el alcance global de la IA de fabricación estadounidense mediante la promoción de las exportaciones de soluciones de IA verticalizadas, el fortalecimiento de los controles de exportación y la revisión de las inversiones en el extranjero, así como la participación más activa posible en organismos normativos y su alineación con los países aliados militares de EE. UU. en materia regulatoria. Las medidas clave incluyen nuevos requisitos de contratación que exigen el cumplimiento de los "Principios de IA Imparcial" para los modelos de lenguaje de gran tamaño utilizados por las agencias federales; un mayor financiamiento, liderado por los Departamentos de Trabajo y del Tesoro, para el desarrollo y la capacitación de la fuerza laboral en IA; inversiones en recursos de datos públicos e infraestructura de evaluación; y la implementación y facilitación de entornos de pruebas regulatorios para apoyar la experimentación y la innovación privadas en todos los sectores. Se espera que el énfasis en la infraestructura del plan catalice importantes gastos de capital (potencialmente $90 mil millones en inversiones en centros de datos durante los próximos años) con proyecciones de que las cargas de trabajo de IA podrían representar hasta el 9 por ciento del consumo de electricidad de EE. UU. para 2030. También se están facilitando casos de uso específicos de la industria, incluido el descubrimiento y diagnóstico de fármacos basados en IA en la atención médica, el mantenimiento predictivo en la fabricación respaldado por la modernización de la red eléctrica y las herramientas exportables para la agricultura de precisión .
El Plan también concluye con algunos principios rectores para evitar litigios y retrasos en la implementación de la IA debido a posibles conflictos sobre regulaciones, contrataciones federales y la alineación con estándares internacionales en otros países, o la supervisión de las importaciones y exportaciones de IA por parte de las agencias federales pertinentes. Es fundamental actuar con rapidez, razón por la cual las regulaciones europeas e italianas prácticamente nunca contemplan disposiciones antilitigantes ex ante, sino que las proliferan sin abordarlas con antelación .
Tres órdenes ejecutivas: autorizaciones rápidas, sobre ideología y exportaciones à gogoEl Plan de IA de Trump estuvo acompañado de tres órdenes ejecutivas presidenciales para comenzar a implementar de inmediato elementos clave. El primero busca acelerar la tramitación de permisos federales para infraestructura de centros de datos. En concreto, esto acelerará la finalización de proyectos privados con una inversión de capital de al menos 500 millones de dólares, una producción eléctrica comprometida de al menos 100 MgW o que hayan sido designados como "proyectos elegibles" por los Secretarios de Defensa, Interior o Comercio. Se aprobará el uso de terrenos federales y se establecerá un fondo específico en el Departamento de Comercio para brindar apoyo financiero en todas las fases de la construcción de centros de datos. Se eliminará la gran cantidad de permisos ambientales requeridos por la legislación vigente . Las empresas que pretendan construir centros de datos se verán liberadas de la molestia de buscar permisos, al instruir directamente a los Departamentos del Interior y de Energía para que consulten con el Departamento de Comercio para obtener los permisos de emplazamiento correspondientes, de conformidad con las leyes federales aplicables.
La segunda orden ejecutiva es la que genera mayor controversia. En teoría, exige una "IA imparcial", lo que significa que sus modelos están libres de sesgos ideológicos de cualquier tipo y no son propensos a respaldar las falsificaciones profundas que dominan internet y las plataformas digitales. Sin embargo, en realidad, la orden presidencial, además de exigir a las autoridades federales que prohíban cualquier modelo de IA que no se base en verdades históricas y científicas incontrovertibles, ataca explícitamente la cultura progresista, con una prohibición explícita de los modelos de IA que ofrecen "respuestas manipuladoras que favorecen los criterios divinos", es decir, los objetivos de diversidad, equidad e inclusión. Desde esta perspectiva, la orden es en sí misma profundamente ideológica, coherente con todo el marco cultural y social de la presidencia de Trump, pero en completa contradicción con la premisa de una IA "no ideológica". Se trata de regímenes autoritarios, aquellos que definen únicamente la ideología de sus adversarios políticos como "ideología peligrosa".
Finalmente, la tercera orden ejecutiva de Trump tiene como objetivo garantizar que Estados Unidos lidere el desarrollo de tecnologías de IA y que estas tecnologías, estándares y modelos estadounidenses de gobernanza de IA se adopten ampliamente en todo el mundo, para fortalecer las relaciones con los aliados de EE. UU. Ordena al Secretario de Comercio establecer e implementar un Programa de Exportación de IA estadounidense dentro de 90 días, con una invitación para participar extendida a todos los principales grupos estadounidenses activos en cada sector relacionado con la IA, y se lanza una convocatoria pública inmediata de propuestas de consorcios liderados por la industria. Cada propuesta debe identificar países objetivo específicos para la exportación e identificar los incentivos federales apropiados requeridos . El Secretario de Estado está a cargo de coordinar la participación de EE. UU. en iniciativas multilaterales y asociaciones específicas para cada país, mientras que el Grupo de Acción de Diplomacia Económica (EDAG) federal coordinará la movilización de herramientas de financiamiento federal para respaldar los paquetes de exportación de IA.
Hay que cambiar el contramodelo de la UESe pueden tener los peores juicios posibles sobre Trump. Este escritor, por ejemplo, tiene un juicio pésimo. Pero este juicio no me impide creer personalmente que las decisiones que su administración acaba de tomar con respecto a la IA deberían considerarse un ejemplo a seguir en Europa. Con la obvia excepción del fuerte sesgo contra la inclusión social, étnica y de género. La Ley Europea de IA ha sido acusada durante mucho tiempo, con razón, por la gran mayoría de las empresas de adoptar una lógica errónea . De hecho, está fuertemente e ideológicamente (en este caso, el adverbio parece correcto) impulsada por una estrategia de regulación preventiva: define categorías de riesgo (inaceptable, alto, limitado, mínimo) e impone estrictos requisitos ex ante a los sistemas de IA considerados "en riesgo" antes de que puedan comercializarse o utilizarse. Esto exige que los proveedores demuestren a priori el cumplimiento de numerosas obligaciones (evaluación de riesgos, transparencia, supervisión humana, calidad de los datos, etc.) para cualquier sistema que se encuentre dentro de las numerosas áreas consideradas sensibles (no solo salud, transporte, educación y medios de comunicación).

El profesor Carlo Alberto Carnevale Maffé , hablando con los estudiantes de Bocconi matriculados en un programa de maestría en emprendimiento que tienen la intención de trabajar en IA, mostró una hermosa diapositiva que lo dice todo. Si desea desarrollar una aplicación de IA en la UE, primero debe: crear un sistema de gestión de riesgos riguroso e integral; asegurar a las autoridades que el sistema está entrenado en datos con propiedades estadísticas apropiadas; redactar documentación técnica detallada antes de cualquier lanzamiento; crear un registro automático de eventos durante la vida útil del sistema; construir un sistema que garantice la interpretación completa de la salida por parte de las autoridades supervisoras; crear un sistema que incluya la instalación, implementación y mantenimiento del monitoreo posterior a la comercialización; mantener todo esto operativo durante los próximos 10 años; designar un representante autorizado establecido en la UE; someterse a una evaluación de conformidad previa por parte de la autoridad designada; obtener una evaluación de impacto en los derechos fundamentales ; redactar una declaración oficial de conformidad de la UE; y registrarse en la base de datos pertinente de la UE. En caso de errores o incumplimiento, la multa es de hasta 15 millones de euros o el 3 por ciento de la facturación total.
Así concebida, la Ley Europea de IA frena la innovación y la inversión, multiplica las cargas organizativas y administrativas no solo para las empresas proveedoras, sino también para cualquier empresa que adopte modelos y software de IA, y logra el efecto contrario a la aceleración y experimentación masiva de la IA en la industria y los servicios, que debería ser la máxima prioridad de Europa, que avanza a toda velocidad. Mientras tanto, China genera 40 veces más solicitudes de patentes de IA que la UE (y cinco veces más que EE. UU.), y considerando que en 2023 se habían desarrollado 109 modelos fundamentales de IA generativa en EE. UU., en comparación con solo siete en la UE, y que EE. UU. ya ha construido seis veces más centros de datos que Alemania, Italia y Francia juntos.
Ha llegado el momento de decirlo. El enfoque que considera la IA un riesgo que debe evitarse, en lugar de un poderoso impulsor de la productividad y el empleo, debe ser revocado . Si Europa estuviera verdaderamente liderada por liberales, desmantelaría la evaluación de riesgos ex ante que está destruyendo la IA en las pymes y la revocaría con un enfoque que reduzca los costes en lugar de aumentarlos, impulse los entornos de pruebas experimentales en lugar de obstaculizarlos y traslade la carga de la evaluación de riesgos ex post, en lugar de ex ante, no a las empresas, sino a los reguladores vigilantes. En esto, sin duda, Trump tiene mucho que enseñarnos.
Más sobre estos temas:
ilmanifesto