Regulamentação da Inteligência Artificial em Washington
Proximidade de uma Decisão
Pela primeira vez, Washington está se aproximando de uma decisão sobre como regular a inteligência artificial (IA). A disputa que se forma não gira em torno da tecnologia, mas sim sobre quem terá a autoridade para realizar essa regulamentação.
Iniciativas Estaduais
Na ausência de um padrão federal significativo que priorize a segurança do consumidor em relação à IA, diversos estados estão apresentando dezenas de projetos de lei para proteger os cidadãos contra danos relacionados à inteligência artificial. Exemplos incluem o projeto de lei de segurança de IA da Califórnia, SB-53, e a Lei de Governança Responsável da IA do Texas, que proíbe o uso intencional indevido de sistemas de IA.
Oposição da Indústria de Tecnologia
As grandes empresas de tecnologia e startups surgidas no Vale do Silício argumentam que essas leis criam um mosaico ineficaz que ameaça a inovação. Josh Vlasto, cofundador do PAC pro-IA Leading the Future, declarou à TechCrunch que essas medidas podem desacelerar o progresso no confronto com países como a China.
Pressão por um Padrão Nacional
A indústria, junto a aliados na Casa Branca, está pressionando por um padrão nacional ou, caso contrário, que não haja regulamentação alguma. Nesse embate que se configura como tudo ou nada, surgiram novos esforços para impedir que os estados estabeleçam suas próprias legislações sobre IA.
Bloqueio de Leis Estaduais
Relatos indicam que legisladores da Câmara estão tentando usar a Lei de Autorização de Defesa Nacional (NDAA) para barrar legislações estaduais sobre IA. Simultaneamente, um rascunho de uma ordem executiva da Casa Branca, que foi vazado, também demonstra um forte apoio para impedir os esforços estaduais de regulamentar a IA.
Reações no Congresso
Uma ampla preempção que retiraria dos estados o direito de regular a IA encontra resistência no Congresso, que votou de forma esmagadora contra um semelhante bloqueio no início deste ano. Os legisladores argumentam que, na ausência de um padrão federal, bloquear os estados deixará os consumidores vulneráveis a danos, enquanto as empresas de tecnologia poderão operar sem supervisão.
Esforços para um Padrão Nacional
Para criar um padrão nacional, o representante Ted Lieu (D-CA) e o Grupo de Trabalho de IA da Câmara, que é bipartidário, estão preparando um conjunto de projetos de lei federais que abrangem uma variedade de proteções ao consumidor, incluindo fraude, saúde, transparência, segurança infantil e riscos catastróficos. Um projeto de lei desse porte pode levar meses, ou até anos, para se tornar lei, o que ressalta a razão pela qual a atual pressão para limitar a autoridade dos estados se tornou uma das lutas mais contenciosas na política de IA.
As Linhas de Conflito: NDAA e a Ordem Executiva
Nos últimos dias, as tentativas de impedir que os estados regulamentem a IA aumentaram. A Câmara dos Representantes considerou incluir uma cláusula na NDAA que impediria os estados de regular a IA, conforme mencionado pelo líder da maioria, Steve Scalise (R-LA). O Congresso estaria trabalhando para finalizar um acordo sobre o projeto de legislação de defesa antes do Dia de Ação de Graças. Fontes próximas ao assunto informaram à TechCrunch que as negociações se concentram na possibilidade de preservar a autoridade estadual em áreas como proteção infantil e transparência.
Por outro lado, um rascunho vazado da ordem executiva da Casa Branca revela uma possível estratégia de preempção. A ordem, que aparentemente foi suspensa, criaria uma "Força-Tarefa de Litígios de IA" para contestar as leis estaduais sobre IA em tribunal, direcionaria agências a avaliar legislações estaduais consideradas "onerosas" e pressionaria a Comissão Federal de Comunicações e a Comissão Federal de Comércio em direção a padrões nacionais que sobreponham regras estaduais.
Influência de Figuras Chave
Notavelmente, a ordem executiva atribuiria a David Sacks — Czar de IA e Cripto do governo Trump e cofundador da firma de capital de risco Craft Ventures — autoridade co-liderante na criação de um marco legal uniforme. Isso conferiria a Sacks influência direta sobre a política de IA que supera o papel típico do Escritório da Ciência e Política Tecnológica da Casa Branca e seu chefe, Michael Kratsios. Sacks expressou publicamente sua defesa por bloquear a regulamentação estadual, argumentando que a auto-regulamentação da indústria deve ser incentivada para "maximizar o crescimento".
O Argumento do Mosaico de Regulamentações
A posição de Sacks reflete a opinião de uma parcela significativa da indústria de IA. Nos últimos meses, várias super PACs pró-IA surgiram, investindo centenas de milhões de dólares em eleições locais e estaduais para se opor a candidatos que defendem regulamentações para IA.
O PAC Leading the Future, que conta com o apoio de Andreessen Horowitz, do presidente da OpenAI, Greg Brockman, da Perplexity e do cofundador da Palantir, Joe Lonsdale, já arrecadou mais de US$ 100 milhões. Recentemente, o grupo lançou uma campanha de US$ 10 milhões, pressionando o Congresso a elaborar uma política nacional de IA que anule as leis estaduais.
Vlasto reiterou que, para impulsionar a inovação no setor tecnológico, não é viável permitir que diversas leis surjam de pessoas que não possuem, necessariamente, a expertise técnica para compreender as implicações. Ele enfatizou que um mosaico de regulamentações estaduais poderá "nos retardar na corrida contra a China".
Apoio para a Preempção
Nathan Leamer, diretor executivo da Build American AI, braço de advocacy do PAC, confirmou que o grupo apoia a preempção, mesmo sem a implementação de proteções ao consumidor em nível federal específicas para IA. Leamer argumentou que leis existentes, como aquelas que abordam fraudes ou responsabilidade de produtos, são suficientes para lidar com danos relacionados à IA. Ele acredita que, enquanto as leis estaduais buscam prevenir problemas antes que estes surjam, uma abordagem mais reativa — permitindo que as empresas operem rapidamente e que os problemas sejam tratados judicialmente depois — é mais eficaz.
Nenhuma Preempção Sem Representatividade
Alex Bores, membro da Assembleia de Nova York e candidato ao Congresso, é um dos primeiros alvos do PAC Leading the Future. Bores patrocinou a Lei RAISE, que exige que grandes laboratórios de IA desenvolvam planos de segurança para evitar danos críticos.
Bores afirmou à TechCrunch: “Acredito no potencial da IA, e por isso é tão importante ter regulamentações razoáveis. No final das contas, a IA que terá sucesso no mercado será a IA confiável, e muitas vezes o mercado não valoriza ou impõe incentivos de curto prazo adequados para investir em segurança.”
Ele apoia uma política nacional de IA, mas defende que os estados podem agir mais rapidamente para abordar riscos emergentes.
Atividade Regulatória em Nível Estadual
Araprojou que a rapidez com que os estados podem agir é um ponto válido. Até novembro de 2025, 38 estados adotaram mais de 100 leis relacionadas à IA, visando principalmente deepfakes, transparência e uso governamental da IA. Um estudo recente constatou que 69% dessas leis não impõem requisitos aos desenvolvedores de IA.
A atividade no Congresso enfatiza ainda mais a narrativa de que as ações estaduais são mais ágeis. Embora centenas de projetos de IA tenham sido apresentados, poucas propostas avançaram. Desde 2015, o Rep. Lieu apresentou 67 projetos ao Comitê de Ciência da Câmara, mas apenas um conseguiu se tornar lei.
Mais de 200 legisladores assinaram uma carta aberta se opondo à preempção na NDAA, argumentando que "os estados funcionam como laboratórios da democracia", devendo "mantê-los flexíveis para enfrentar novos desafios digitais à medida que surgem". Quase 40 procuradores-gerais estaduais também enviaram uma carta aberta se opondo a uma proibição da regulamentação estadual sobre IA.
Críticas à Ideia de um Mosaico de Leis
Os especialistas em cibersegurança Bruce Schneier e Nathan E. Sanders, autores de Rewiring Democracy: How AI Will Transform Our Politics, Government, and Citizenship, argumentam que a reclamação sobre um mosaico de regulamentações é exagerada. Esses especialistas observam que empresas de IA já cumprem regulamentações mais rigorosas estabelecidas pela União Europeia, e a maioria das indústrias encontra maneiras de operar sob diferentes leis estaduais. Para eles, o verdadeiro motivo por trás da resistência à regulamentação é a busca por evitar responsabilidades.
Potencial de um Padrão Federal
O Rep. Lieu está elaborando um projeto de lei extenso com mais de 200 páginas que espera apresentar em dezembro. Este projeto abrange uma série de questões, tais como penalidades por fraudes, proteções contra deepfakes, proteção a denunciantes, recursos de computação para a academia e testes obrigatórios e divulgação para empresas de grandes modelos de linguagem.
Essa última disposição exigiria que laboratórios de IA testassem seus modelos e publicassem os resultados, algo que a maioria já faz voluntariamente atualmente. Lieu ainda não apresentou oficialmente o projeto, mas afirmou que não direciona agências federais para revisar diretamente os modelos de IA, o que o diferencia de um projeto semelhante apresentado pelos senadores Josh Hawley (R-MS) e Richard Blumenthal (D-CT), que requereria um programa governamental de avaliação para sistemas avançados de IA antes de sua implementação.
Ele reconheceu que seu projeto não seria tão rigoroso, mas acredita que tem uma chance melhor de se tornar lei. Lieu comentou: “Meu objetivo é conseguir que algo seja aprovado nesta legislatura”, observando que o líder da maioria da Câmara, Scalise, é abertamente hostil à regulamentação de IA. “Não estou redigindo um projeto que eu teria se fosse rei. Estou tentando escrever um projeto que possa passar numa Câmara controlada por republicanos, um Senado controlado por republicanos e uma Casa Branca controlada por republicanos.”
