Por RAFAEL CARDOSO SAMPAIO*
Empresas que controlam dados e infraestrutura de Inteligência artificial lucram com a vigilância em massa e a automação predatória, enquanto trabalhadores perdem autonomia e renda
Em 2023, o economista e professor do MIT Daron Acemoglu, vencedor do Prêmio Nobel pelo livro Por que as nações fracassam, trouxe ao debate global uma crítica contundente em outra obra, chamada Poder e progresso: uma luta de mil anos entre a tecnologia e a prosperidade. Nele, Daron Acemoglu e Simon Johnson argumentam que a trajetória atual da inteligência artificial – marcada por modelos cada vez maiores, dependentes de dados massivos e voltados à automação indiscriminada – não é um destino inevitável. É uma escolha tecnológica, e escolhas, como bem sabemos, podem ser revisitadas.
Daron Acemoglu e Simon Johnson partem de uma premissa histórica: tecnologias são moldadas por quem detém o poder. No caso da Inteligência artificial moderna, a narrativa dominante, impulsionada por gigantes como OpenAI, Google, Microsoft e Meta, gira em torno da busca pela “inteligência artificial geral” – máquinas capazes de replicar (e substituir) a cognição humana. Essa visão, inspirada nas ideias de Alan Turing, alimenta um ciclo vicioso de concentração de poder. Empresas que controlam dados e infraestrutura de Inteligência artificial – como provedores de nuvem e plataformas de Big Tech – lucram com a vigilância em massa e a automação predatória, enquanto trabalhadores perdem autonomia e renda.
Como liderar o campo de inovações em Inteligência artificial é o objetivo a qualquer custo, tais empresas vêm gastando somas gigantescas de recursos sejam de recurso, sejam computacionais, o que gera uma série de problemas relacionados. Modelos como o GPT-4 consomem gigantescas quantidades de energia e custam milhões de litros de água para resfriar seus servidores para tarefas triviais, como reconhecer gatos em fotos ou gerar textos superficialmente coerentes, como citado pelos autores do livro. Enquanto isso, aplicações socialmente relevantes – como diagnóstico precoce de doenças raras ou adaptação de cultivos às mudanças climáticas – ficam em segundo plano em tais empresas.
O recente lançamento do modelo de inteligência artificial generativa aberto da empresa chinesa DeepSeek chamou a atenção do mundo, atacando diretamente o coração do capital financeiro e especulativo que mantém boa parte da estrutura das Big Techs do Vale do Silício. O golpe se deu justamente por desmontar as narrativas anteriores de tal setor.
Até o lançamento do modelo R1 da DeepSeek, prevalecia a crença de que desenvolver modelos de inteligência artificial de ponta exigia investimentos astronômicos, imenso volume de dados, hardware de última geração da Nvidia para processamento computacional intensivo, o que justificaria a natureza proprietária e o segredo industrial dessas tecnologias.
Apesar de ser uma empresa de orçamento e equipe modestos, em comparação com as gigantes do Vale do Silício, a DeepSeek conseguiu treinar seu modelo de Inteligência artificial com um custo significativamente menor, inovando nas técnicas para treinamento e em poucos meses. Mesmo sem as melhores placas de processamento, a empresa desenvolveu um modelo que compete com os melhores produtos da OpenAI, Google e Anthropic. Além disso, o laboratório inovou ao liberar o modelo de forma aberta, permitindo que ele seja usado e processado por quaisquer interessados em servidores mais modestos.
O sucesso do DeepSeek não é apenas técnico – é político. Não é apenas uma inovação técnica, é um manifesto prático contra a “ilusão da Inteligência artificial”, termo cunhado pelos autores Daron Acemoglu e Simon Johnson para descrever a crença ingênua de que máquinas autônomas e superinteligentes trarão benefícios automáticos à sociedade.
Em um artigo publicado no jornal The Guardian, Kenan Malik argumenta de modo similar que o impacto do DeepSeek reside em ter desmistificado a aura que envolvia a inteligência artificial. O Vale do Silício, segundo o autor, cultivou a imagem da Inteligência artificial como uma conquista preciosa e milagrosa, retratando seus líderes como profetas e a tecnologia como detentora de poderes quase mágicos, incluindo a promessa da “inteligência geral artificial” (AGI). No entanto, Kenan Malik observa que tais afirmações derivam menos de possibilidades tecnológicas e mais de necessidades políticas e econômicas, já que o modelo de negócios da Inteligência artificial depende do hype para impulsionar investimentos e influenciar a política.
O DeepSeek mostra que é possível resistir à narrativa e aos hypes das Big Techs e construir uma Inteligência artificial que sirva a objetivos humanos, não corporativos. Acemoglu e Johnson lembram que tecnologia é um espelho de valores: se priorizarmos utilidade sobre inteligência artificial, eficiência sobre vigilância e colaboração sobre automação, o futuro será radicalmente diferente. O DeepSeek nos lembra que ainda podemos mudar o rumo da inovação e que existem outras opções.
E o Brasil nesta história?
Bem, podemos inicialmente ficar tristes que o governo federal não tenha inicialmente levado tão a sério esse novo cenário tecnológico. Houvesse ali uma iniciativa, já em 2023, quando o ChatGPT já impressionava o mundo, certamente poderia ser o país a estar exibindo seu próprio DeepSeek.
Entretanto, não adiante derramar lágrimas na chuva. Essa mudança também indica alguns caminhos interessantes, assim como algumas necessidades urgentes para o Brasil. Duas questões, em especial, chamaram a atenção no DeepSeek, para além de sua inovação tecnológica.
Em primeiro lugar, apesar de ser gratuito, seus termos de serviço permitem que os dados dos usuários, incluindo as interações, sejam guardadas na China e reutilizadas para o treinamento de futuros modelos. Em segundo lugar, ele chamou a atenção por ter um viés, e em alguma medida, uma censura que o impede de tratar de temas sensíveis ao governo chinês.
Ora, o interessante desta questão é que praticamente todo grande modelo de linguagem, como ChatGPT, Claude e Gemini, já faz isso. Seus termos de serviço indicam claramente que as interações dos usuários poderão ser usadas para treinar seus modelos e os dados são armazenados em servidores nos Estados Unidos. Como qualquer tecnologia, tais modelos apresentam diversos vieses da perspectiva de seus programadores, que geralmente são homens brancos, de altíssimo poder aquisitivo, que vivem no Vale do Silício.
Portanto, quaisquer perguntas sobre conceitos disputados, como democracia, feminismo, igualdade econômica e tantos outros vão tender a ser enviesadas por essa perspectiva, além, claro, dos vieses já presentes nos dados de treinamento, podendo gerar novas formas de discriminação.
Apesar disso, quando baixado e executado localmente, o DeepSeek não aplica censura. Aparentemente, há um segundo sistema que aplica a censura apenas na versão online para cumprir as leis chinesas. Portanto, o DeepSeek funcionará sem essas restrições quando executado localmente.
Quando juntamos todas essas informações há algumas ações de curto e longo prazo para o Brasil. Em curtíssimo prazo, é urgente o governo brasileiro lançar uma regulamentação sobre a preservação de dados estratégicos. Há dois campos de atenção prioritária: dados governamentais e dados científicos. Os dados governamentais representam uma das maiores riquezas de qualquer governo e frequentemente envolvem decisões estratégicas e mesmo secretas do país.
De boa-fé, neste exato momento, há centenas, senão milhares de servidores públicos subindo inadvertidamente esses dados para ChatGPT e similares e entregando esse valor gratuitamente às big techs americanas (e agora chinesas!). Neste exato momento, não há portarias e regulações claras do governo federal, como um todo, para o cuidado extra com tais dados. O mesmo vale para outros poderes.
Da mesma forma, acadêmicos estão repetindo o mesmo erro com descobertas científicas de ponta. Buscando aumentar a produtividade, nossos cientistas estão analisando dados, escrevendo e revisando textos nas Inteligências artificiais generativas, entregando gratuitamente esses dados fruto de grande investimento financeiro e intelectual sem nenhuma contrapartida. Não há no momento qualquer regulamentação por parte dos Ministérios da Educação ou da Ciência e Tecnologia, nem de agências de regulação e fomento à pesquisa, como CAPES, CNPq e afins.
Exatamente por isso, em um guia próprio, eu e outros colegas sugerimos que a ciência adote modelos abertos de Inteligência artificial geral e que mantenham seus dados em nuvens soberanas, o que, na prática, poderia também ser realizado pelos servidores públicos. O próprio DeepSeek poderia ser usado para isso, mas há mais opções já existentes no mercado. O governo do estado do Piauí está prestes a soltar a SoberanIA, um modelo de linguagem totalmente desenvolvido pelo estado. Assim, como a ciência e o Estado brasileiros têm plena condições de criar modelos próprios.
Em médio e longo prazo, já sabemos a receita. Investimentos. O geral do Plano Brasileiro de Inteligência Artificial (PBIA) parece ser um bom começo e as notícias que vieram da recente “Conferência Nacional de Ciência, Tecnologia e Inovação” são igualmente entusiasmantes, ao ponto de podermos pensar em uma nova guinada da ciência brasileira. Portanto, parecemos caminhar na direção certa.
Entretanto, devemos nos lembrar da lição do DeepSeek. Fazer mais por menos, trabalhar com modelos abertos e colaborativos, fugir do hype das big techs, elaborar tecnologias que tenham utilidade para as nossas necessidades, como nos lembram Daron Acemoglu e Simon Johnson. Apenas assim poderemos efetivamente falar e pensar em uma efetiva soberania digital.[1]
*Rafael Cardoso Sampaio é professor do Departamento de Ciência Política da Universidade Federal do Paraná (UFPR).
Nota
[1] Este texto foi corrigido e melhorado com a ajuda do DeepSeek R1 e depois devidamente revisado, incrementado e apropriado por seu autor humano.
A Terra é Redonda existe graças aos nossos leitores e apoiadores.
Ajude-nos a manter esta ideia.
CONTRIBUA