## Ideologia das Potências Colônia e a Indústria de IA
No centro de cada império está uma ideologia, um sistema de crenças que impulsiona a estrutura para a frente e justifica sua expansão, mesmo que o custo dessa expansão contradiga diretamente a missão declarada da ideologia. Para as potências coloniais europeias, essa justificação era o Cristianismo e a promessa de salvar almas enquanto extraíam recursos. Para o império da inteligência artificial (IA) atual, a ideologia se baseia na inteligência geral artificial (AGI), com o intuito de “beneficiar toda a humanidade.” A OpenAI se apresenta como seu principal evangelista, difundindo esse fervor pela indústria de maneira a reconfigurar a forma como a IA é desenvolvida.
## A Visão de Karen Hao
“Eu estava entrevistando pessoas cujas vozes tremiam devido ao fervor das suas crenças em AGI,” afirmou Karen Hao, jornalista e autora do best-seller “Empire of AI,” em uma recente participação no programa Equity do TechCrunch. Em sua obra, Hao compara a indústria de IA de maneira geral, e a OpenAI em particular, a um império.
“Para realmente entender o escopo e a escala do comportamento da OpenAI… é preciso reconhecer que eles já cresceram mais poderosos do que praticamente qualquer estado na face da Terra, e consolidaram uma quantidade extraordinária de poder não apenas econômico, mas também político,” disse Hao. “Eles estão terraformando a Terra. Estão reestruturando nossa geopolítica, todas as nossas vidas. E assim, só se pode descrever isso como um império.”
## Promessas e Desafios da AGI
A OpenAI descreve a AGI como “um sistema altamente autônomo que supera os humanos na maioria dos trabalhos economicamente valiosos,” um sistema que, de alguma forma, “elevará a humanidade ao aumentar a abundância, turboalimentar a economia e auxiliar na descoberta de novos conhecimentos científicos que mudam os limites do que é possível.” Essas promessas nebulosas alimentaram o crescimento exponencial da indústria, que enfrenta demandas gigantescas por recursos, enormes volumes de dados coletados, redes de energia sobrecarregadas e a disposição de liberar sistemas não testados no mundo. Tudo isso, enquanto muitos especialistas afirmam que o futuro idealizado pode nunca chegar.
### Alternativas ao Crescimento Exponencial
Hao argumenta que esse caminho não era inevitável e que escalar não é a única forma de obter mais avanços em IA. “Você também pode desenvolver novas técnicas em algoritmos,” disse ela. “Você pode melhorar os algoritmos existentes para reduzir a quantidade de dados e processamento que eles precisam usar.” No entanto, essa abordagem teria implicado em um sacrifício em termos de velocidade.
## Velocidade vs. Eficiência
“Quando você define a busca para construir uma AGI benéfica como uma onde o vencedor leva tudo — que foi o que a OpenAI fez — então o mais importante é a velocidade, acima de qualquer outra consideração,” afirmou Hao. “Velocidade em detrimento da eficiência, velocidade em detrimento da segurança, velocidade em detrimento da pesquisa exploratória.” Para a OpenAI, a melhor maneira de garantir velocidade foi pegar técnicas existentes e “fazer a coisa intelectualmente mais fácil, que é injetar mais dados e mais supercomputadores nessas técnicas já existentes.”
## Impacto na Indústria de Pesquisa
A OpenAI estabeleceu o cenário, e ao invés de ficar para trás, outras empresas de tecnologia decidiram se alinhar. “E porque a indústria de IA capturou a maioria dos melhores pesquisadores de IA do mundo, e esses pesquisadores não existem mais na academia, temos agora uma disciplina inteira sendo moldada pela agenda dessas empresas, em vez de por uma verdadeira exploração científica,” observou Hao.
### Gastos Exorbitantes
Os gastos na indústria têm sido, e continuarão a ser, astronômicos. Na semana passada, a OpenAI anunciou que espera gastar $115 bilhões em caixa até 2029. A Meta afirmou em julho que gastará até $72 bilhões na construção de infraestrutura de IA este ano. O Google espera atingir até $85 bilhões em despesas de capital para 2025, a maior parte destinada à expansão de infraestrutura de IA e nuvem.
Enquanto isso, os objetivos continuam em constante movimento, e os mais altos “benefícios para a humanidade” ainda não se concretizaram, mesmo com os danos crescendo. Esses danos incluem perda de empregos, concentração de riqueza e chatbots de IA que alimentam delírios e psicose. Em seu livro, Hao documenta também trabalhadores em países em desenvolvimento como Quênia e Venezuela que foram expostos a conteúdos perturbadores, incluindo materiais de abuso sexual infantil, e receberam salários muito baixos — de cerca de $1 a $2 por hora — em funções como moderação de conteúdo e etiquetagem de dados.
## O Dilema dos Avanços em IA
Hao aponta que é uma falsa dicotomia colocar o progresso da IA contra os danos atuais, especialmente quando outras formas de IA oferecem benefícios reais. Ela mencionou o AlphaFold da Google DeepMind, que ganhou o Prêmio Nobel, treinado com dados de sequências de aminoácidos e estruturas complexas de dobra de proteínas, capaz de prever com precisão a estrutura 3D das proteínas a partir de seus aminoácidos — algo profundamente útil para a descoberta de medicamentos e para a compreensão de doenças.
“Esses são os tipos de sistemas de IA que precisamos,” afirmou Hao. “O AlphaFold não cria crises de saúde mental nas pessoas. O AlphaFold não leva a danos ambientais colossais… porque é treinado em uma infraestrutura substancialmente menor. Não gera danos relacionados à moderação de conteúdo porque [os conjuntos de dados não contêm] todo o lixo tóxico que você coletou ao vasculhar a internet.”
## Narrativas sobre a Corrida da IA
Paralelamente ao compromisso quase religioso com a AGI, existe uma narrativa sobre a importância de competir para superar a China na corrida da IA, de modo que o Vale do Silício possa ter um efeito liberalizador no mundo. “Literalmente, o oposto aconteceu,” diz Hao. “A lacuna entre os EUA e a China continuou a se fechar, e o Vale do Silício teve um efeito iliberal sobre o mundo… e o único ator que saiu ileso, pode-se argumentar, é o próprio Vale do Silício.”
É fato que muitos argumentarão que a OpenAI e outras empresas de IA beneficiaram a humanidade ao lançar o ChatGPT e outros grandes modelos de linguagem, que prometem enormes ganhos de produtividade ao automatizar tarefas como programação, redação, pesquisa, suporte ao cliente e outras atividades relacionadas ao conhecimento. No entanto, a forma como a OpenAI está estruturada — parte sem fins lucrativos e parte com fins lucrativos — complica a maneira como define e mede seu impacto na humanidade. E essa complexidade se agrava com a notícia, divulgada esta semana, de que a OpenAI chegou a um acordo com a Microsoft que a aproximará de uma eventual abertura de capital.
## Confusão entre Missões
Dois ex-pesquisadores de segurança da OpenAI expressaram ao TechCrunch sua preocupação de que o laboratório de IA começou a confundir suas missões com ou sem fins lucrativos — que, uma vez que as pessoas se divertem usando o ChatGPT e outros produtos baseados em LLMs, isso cumpre a meta de beneficiar a humanidade.
Hao ecoou essas preocupações, descrevendo os perigos de estar tão consumido pela missão que a realidade é ignorada. “Mesmo com as evidências se acumulando de que o que eles estão construindo está, na verdade, prejudicando um número significativo de pessoas, a missão continua a encobrir tudo isso,” disse Hao. “Há algo realmente perigoso e sombrio nisso, de estar tão envolto em um sistema de crenças que você construiu que perde o contato com a realidade.”
