A lição de Trump sobre inteligência artificial


Getty Images
A corrida da IA
Alguns veem a IA como um recurso, enquanto outros a temem. Duas tendências opostas emergem das regulamentações adotadas nos Estados Unidos e na UE. Bruxelas deveria seguir os passos dos Estados Unidos para uma abordagem mais liberal.
Sobre o mesmo tema:
Há quatro semanas, toda a atenção na Europa estava voltada para os estágios finais das negociações tarifárias com os Estados Unidos, que concluíram, após árduas semanas, com o encontro informal em um campo de golfe na Escócia entre Trump e Ursula von der Leyen. Até ontem, essas negociações careciam de detalhes essenciais sobre os produtos e cadeias de suprimentos incluídos na lista de isenções, visto que somente ontem a Comissão Europeia anunciou o acordo final sobre uma declaração conjunta descrevendo como a tarifa de 15% nos EUA será aplicada à grande maioria dos produtos europeus, incluindo produtos farmacêuticos, veículos e semicondutores. Quando o acordo escocês foi anunciado, muitos observadores e políticos europeus o chamaram de rendição inglória, como se tivessem acabado de descobrir a montanha de fraquezas europeias acumuladas em relação aos EUA — fraquezas em tecnologia, energia e defesa. Uma descoberta singular, visto que essas fraquezas hoje constituem um porrete brandido com dureza chantagista pela intimidação trumpiana, mas, na realidade, acumularam-se ao longo das últimas três décadas enquanto a Europa assistia passivamente .
Essas lacunas agora correm o risco de piorar ainda mais. Há um mês, em meio à desatenção generalizada provocada pela ansiedade em relação às tarifas, os Estados Unidos aprovaram uma série de regulamentações profundamente inovadoras sobre um tópico agora essencial para a competitividade e a produtividade europeias: a inteligência artificial. As novas regulamentações americanas representam um afastamento radical da abordagem do governo Biden, e o aspecto mais interessante é que elas vão exatamente na direção oposta da abordagem europeia adotada com o AI Act , que, sendo uma regulamentação europeia e não uma diretiva, está agora efetivamente se tornando, para entidades individuais e tamanhos de empresas, já em vigor em todos os países da UE. É hora de fazer uma pergunta séria: Temos certeza de que a abordagem europeia para a IA é a correta para reverter a situação, ou o novo pacote de regulamentações americanas também oferece à Europa insights valiosos para uma tão necessária introspecção? Para responder a essa pergunta, precisamos ser claros em três pontos: em que consiste a mudança americana, como ela difere da abordagem da UE e, finalmente, o que nós, europeus, devemos fazer.

O plano de Trump foi lançado em 23 de julho e é agressivo, a começar pelo nome: Vencendo a Corrida, Plano de Ação de IA dos Estados Unidos. Ele revoga formalmente a Ordem Executiva 14110 de novembro de 2023, com a qual o governo Biden havia delineado o propósito, as responsabilidades e a supervisão das autoridades federais sobre o desenvolvimento da IA. A abordagem do governo democrata foi, em alguns aspectos, semelhante à europeia, visando principalmente mitigar os riscos da IA , proteger os direitos civis e a justiça, e garantir a supervisão de modelos avançados de IA por autoridades como as responsáveis pela aplicação da Lei de Produção de Defesa.
Em contraste, o plano de Trump muda radicalmente sua abordagem: prioriza a desregulamentação, o desenvolvimento de infraestrutura e a competitividade global, encarando a liderança dos EUA em IA como um imperativo estratégico nacional, a ser vigorosamente promovido e defendido em todo o mundo. Consequentemente, o Plano de Ação abandona a ênfase na regulamentação preventiva. A prioridade muda para facilitar a inovação do setor privado, simplificar os procedimentos de autorização e estabelecer padrões federais de aquisição centrados na neutralidade ideológica, e não em decisões politicamente ditadas sobre este ou aquele limite para a próxima fronteira da IA generativa.
O Plano está estruturado em três pilares principais. O primeiro é "Acelerar a Inovação em IA" e concentra-se na promoção de modelos de código aberto e de peso aberto (aqueles em que os parâmetros numéricos para aprendizado de máquina são públicos, mesmo que os parâmetros do modelo original não o sejam), parcerias público-privadas de pesquisa, a rápida adoção de IA em setores específicos, como saúde, manufatura e agricultura, e o investimento em infraestrutura científica.
O segundo pilar, "Construindo a infraestrutura de IA dos Estados Unidos", concentra-se em acelerar a autorização para data centers, fábricas de semicondutores e sistemas de energia de suporte; modernizar a rede elétrica; melhorar a resiliência cibernética e física; e dimensionar a força de trabalho qualificada.
O terceiro pilar, "Liderança em IA em Segurança Global e Geopolítica", visa expandir o alcance global da IA fabricada nos Estados Unidos, promovendo a exportação de soluções de IA verticalizadas, fortalecendo os controles de exportação e revisando os investimentos no exterior, além de se envolver o mais ativamente possível em órgãos normativos e alinhando-os com os países aliados militares dos EUA em questões regulatórias. As principais medidas incluem novos requisitos de aquisição que exigem o cumprimento dos "Princípios de IA Imparcial" para modelos de linguagem de grande porte utilizados por agências federais; aumento do financiamento, liderado pelos Departamentos do Trabalho e do Tesouro, para o desenvolvimento e a requalificação da força de trabalho em IA; investimentos em recursos de dados públicos e infraestrutura de avaliação; e a implementação e facilitação de sandboxes regulatórios para apoiar a experimentação e a inovação privadas em todos os setores. Espera-se que a ênfase em infraestrutura do plano catalise gastos de capital significativos — potencialmente US$ 90 bilhões em investimentos em data centers nos próximos anos — com projeções de que as cargas de trabalho de IA podem representar até 9% do consumo de eletricidade dos EUA até 2030. Casos de uso específicos da indústria também estão sendo facilitados, incluindo descoberta e diagnóstico de medicamentos baseados em IA na área da saúde, manutenção preditiva na manufatura apoiada pela modernização da rede elétrica e ferramentas exportáveis para agricultura de precisão .
O Plano também conclui com alguns princípios orientadores para evitar litígios e atrasos na implementação da IA devido a potenciais conflitos sobre regulamentações, compras federais e alinhamento com padrões internacionais em outros países, ou supervisão de importações e exportações de IA pelas agências federais relevantes. O imperativo é agir rapidamente, e talvez seja por isso que as regulamentações europeias e italianas praticamente nunca preveem disposições anticontenciosas ex ante, mas, em vez disso, as proliferam sem as abordar previamente .
Três ordens executivas: autorizações rápidas, sobre ideologia, exportações à gogoO Plano de IA de Trump foi acompanhado por três ordens executivas presidenciais para começar imediatamente a implementar elementos-chave. O primeiro visa acelerar a concessão de licenças federais para infraestrutura de data centers. Especificamente, isso acelerará a conclusão de projetos privados com um investimento de capital de pelo menos US$ 500 milhões, uma produção de eletricidade comprometida de pelo menos 100 MgW ou de outra forma designados como "projetos qualificados" pelo Secretário de Defesa, do Interior ou do Comércio. O uso de terras federais será aprovado e um fundo específico será estabelecido no Departamento de Comércio para fornecer suporte financeiro a todas as fases da construção de data centers. A multiplicidade de licenças ambientais exigidas pela legislação atual será eliminada . As empresas que pretendem construir data centers serão aliviadas do incômodo de buscar licenças, instruindo diretamente os Departamentos do Interior e de Energia a consultar o Departamento de Comércio para obter as licenças de instalação apropriadas, de acordo com as leis federais aplicáveis.
A segunda ordem executiva é a que gera mais controvérsia. Em teoria, ela exige "IA imparcial", o que significa que seus modelos são livres de vieses ideológicos de qualquer tipo e não são propensos a apoiar as falsificações profundas que dominam a internet e as plataformas digitais. Na realidade, porém, a ordem presidencial, além de exigir que as autoridades federais proíbam qualquer modelo de IA que não se baseie em verdades históricas e científicas incontestáveis, visa explicitamente a cultura woke, com uma proibição explícita de LLMs que forneçam "respostas manipulativas que favoreçam os critérios de Deus", ou seja, os objetivos de diversidade, equidade e inclusão. Dessa perspectiva, a ordem é em si fortemente ideológica, consistente com toda a estrutura cultural e social da presidência de Trump, mas em completa contradição com a premissa de uma IA "não ideológica". Trata-se de regimes autoritários, aqueles que definem apenas a ideologia de seus adversários políticos como "ideologia perigosa".
Finalmente, a terceira ordem executiva de Trump visa garantir que os Estados Unidos liderem o desenvolvimento de tecnologias de IA e que essas tecnologias, padrões e modelos de governança de IA americanos sejam amplamente adotados em todo o mundo, para fortalecer as relações com os aliados dos EUA. Ela instrui o Secretário de Comércio a estabelecer e implementar um Programa de Exportação de IA Americano dentro de 90 dias, com um convite para participar estendido a todos os principais grupos dos EUA ativos em cada setor relacionado à IA, e uma chamada pública imediata para propostas de consórcios liderados pela indústria é lançada. Cada proposta deve identificar países-alvo específicos para exportação e identificar os incentivos federais apropriados necessários . O Secretário de Estado é encarregado de coordenar a participação dos EUA em iniciativas multilaterais e parcerias específicas de cada país, enquanto o Grupo de Ação de Diplomacia Econômica (EDAG) federal coordenará a mobilização de ferramentas de financiamento federal para apoiar pacotes de exportação de IA.
O contramodelo da UE deve ser alteradoÉ possível ter os piores julgamentos possíveis sobre Trump. Este escritor, por exemplo, tem um péssimo julgamento. Mas esse julgamento não me impede, pessoalmente, de acreditar que as decisões que seu governo acaba de tomar em relação à IA devam ser consideradas um exemplo a ser seguido na Europa. Com a óbvia exceção do forte preconceito contra a inclusão social, étnica e de gênero. A Lei Europeia de IA tem sido, com razão, acusada pela grande maioria das empresas de adotar uma lógica falha . De fato, ela é fortemente e ideologicamente (neste caso, o advérbio parece correto) impulsionada por uma estratégia de regulamentação preventiva: define categorias de risco (inaceitável, alto, limitado, mínimo) e impõe requisitos ex ante rigorosos aos sistemas de IA considerados "em risco" antes que possam ser comercializados ou utilizados. Isso exige que os fornecedores demonstrem a priori o cumprimento de inúmeras obrigações (avaliação de risco, transparência, supervisão humana, qualidade de dados, etc.) para qualquer sistema que se enquadre nas muitas áreas consideradas sensíveis (não apenas saúde, transporte, educação e mídia).

O professor Carlo Alberto Carnevale Maffé , falando aos alunos da Bocconi matriculados em um programa de mestrado em empreendedorismo que pretendem trabalhar com IA, mostrou um belo slide que diz tudo. Se você deseja desenvolver uma aplicação de IA na UE, deve primeiro: criar um sistema de gerenciamento de risco rigoroso e abrangente; garantir às autoridades que o sistema seja treinado em dados com propriedades estatísticas apropriadas; redigir documentação técnica detalhada antes de qualquer lançamento; criar registro automático de eventos durante toda a vida útil do sistema; construir um sistema que garanta a interpretação completa da saída pelas autoridades de supervisão; criar um sistema que inclua instalação, implementação e manutenção de monitoramento pós-mercado; manter tudo isso operacional pelos próximos 10 anos; nomear um representante autorizado estabelecido na UE; passar por uma avaliação prévia de conformidade pela autoridade designada; obter uma avaliação de impacto sobre os direitos fundamentais ; redigir uma declaração oficial de conformidade da UE; e registrar-se no banco de dados relevante da UE. Em caso de erros ou não conformidade, a penalidade é de até 15 milhões de euros ou 3% do faturamento total.
Assim concebida, a Lei Europeia de IA inibe a inovação e o investimento, multiplica os encargos organizacionais e administrativos não apenas para as empresas fornecedoras, mas também para qualquer empresa que adote modelos e software de IA, e atinge o efeito exatamente oposto à aceleração e à experimentação em massa da IA na indústria e nos serviços, que deveriam ser a principal prioridade da Europa, acelerando a todo vapor. Enquanto isso, a China gera 40 vezes mais pedidos de patentes de IA do que a UE (e cinco vezes mais do que os EUA), considerando que, em 2023, 109 modelos fundamentais de IA generativa foram desenvolvidos nos Estados Unidos, em comparação com apenas sete na UE, e que os EUA já construíram seis vezes mais data centers do que a Alemanha, a Itália e a França juntos.
Chegou a hora de dizer. A abordagem que considera a IA um risco a ser evitado, em vez de um poderoso impulsionador da produtividade e do emprego, precisa ser derrubada . Se a Europa fosse realmente liderada por liberais, desmantelaria a avaliação de risco ex ante que está matando a IA nas PMEs e a derrubaria com uma abordagem que reduzisse custos em vez de aumentá-los, impulsionasse sandboxes experimentais em vez de impedi-los e transferisse o ônus da avaliação de risco ex post, em vez de ex ante, não para as empresas, mas para reguladores vigilantes. Nisso, de fato, Trump tem muito a nos ensinar.
Mais sobre estes tópicos:
ilmanifesto