Por ROB HORNING*
A “Inteligência artificial” e a busca pela redefinição da autonomia dos trabalhadores
A expressão “Inteligência artificial” é um forma profundamente ideológica de caracterizar tecnologias de automação. É uma manifestação da tendência geral de discutir as tecnologias como se elas fossem “poderosas” por si mesmas – como se poder não fosse uma medida relativa para diferenciar capacidades e prerrogativas de classes sociais.
Pelo contrário, “inteligência artificial” parece sugerir que a tecnologia se desenvolve em si mesma, por suas próprias razões, exercendo suas capacidades independentemente das lutas políticas humanas. Seus desdobramentos e consequências aparecem como misteriosos e obscuros – o que quer a Inteligência artificial? Escravizará a humanidade? –, deslocando para um futuro longínquo o mal implacável que o capital já realiza abundantemente e que deu vida ao desenvolvimento tecnológico.
Não há nada de particularmente misterioso nos avanços do aprendizado pelas máquinas [machine learning] que alimenta a febre atual pela Inteligência artificial. Isso deriva da expansão das capacidades de vigilância em massa e da emergência de empresas grandes o suficiente para centralizar e explorar todos os dados que capturaram unilateralmente. Através de uma aplicação estupenda da capacidade de processamento intensivo de energia, os dados são convertidos em simulações de previsão [predictive simulations] de diversas atividades de trabalho.
Às vezes, o propósito da simulação é substituir trabalhadores humanos, como nos casos relatados com destaque numa reportagem recente do Washington Post, sobre redatores que supostamente perderam seus empregos para o ChatGPT: “Especialistas falam que mesmo a Inteligência artificial mais avançada não corresponde às habilidades de escrita de um humano: falta-lhe verve e estilo, e muitas vezes resulta em respostas erradas, sem sentido ou tendenciosas. Para muitas empresas, entretanto, o corte de custos compensa a queda na qualidade”.
Tais simulações podem ocorrer não só para substituir trabalhadores, mas também para os disciplinar. Elas atuam como um permanente exército de reserva de pelegos, prontos para trabalhar por padrões inferiores e custos menores; e servem ainda como pontos normativos de comparação, permitindo que o controle do processo de trabalho seja transferido para a gerência.
As simulações fornecem dados que embasam as concepções (impostas pela gerência) de que trabalhos podem ser executados de forma viável e sustentável sem a contribuição de trabalhadores humanos. Isso vai ao encontro das práticas de gerenciamento baseadas em vigilância, prescritas desde o advento do taylorismo, senão antes, como detalhado por Meredith Whittaker em seu relato sobre as teorias de Charles Babbage – um dos primeiros defensores das máquinas computacionais.
As ideias de Charles Babbage “sobre como disciplinar trabalhadores”, explica Meredith Whittaker, “estão umbilicalmente ligadas às máquinas de cálculo que ele tentou construir ao longo de toda a vida”. Da mesma forma, a “inteligência artificial” é inseparável dos esforços capitalistas para gerenciar a rentabilidade do trabalho – o lucro fornece o padrão do que conta como “inteligente”, assim como os dispositivos “inteligentes” são aqueles que nos submetem à vigilância.
Da mesma forma como ocorre com os estudos de tempo e movimento de Taylor, as simulações de previsão aparecem como corretivos ao uso ineficiente de habilidades cognitivas e corporais por parte dos próprios funcionários, abstraindo todas as contingências e propondo padrões ou produtividades supostamente válidas a quaisquer casos. Essa dimensão abstrata, que torna os trabalhadores intercambiáveis, é até mais importante que os próprios padrões e resultados.
A simulação de previsão, segundo Sun-há Hong, “não é tanto um instrumento para prever a produtividade futura, mas mais um modelo social para arbitrariamente extrair e concentrar poder – ou seja, [para suprimir] a capacidade usual das pessoas definirem a sua própria situação.”
Quem quer que empregue tais sistemas preocupa-se menos com o produto – o resultado gerado por um grande modelo de linguagem, por exemplo – do que com a forma com que os sistemas desempoderam os submetidos a eles. O “modelo social” pressuposto nos sistemas de previsão – nos quais as contribuições individuais de cada trabalhador podem ser assinaladas e representadas em termos de instruções repetitivas – é mais importante do que previsões específicas. A aceitação da tecnologia da automação, desse ponto de vista, não depende tanto do seu desempenho em trabalho, mas do quanto o trabalho rende em dados. Ele se mostrará útil aos patrões à medida que fizer o know-how dos trabalhadores aparecer como inútil.
Esse processo é examinado pelo livro Data Driven [“Dados dirigidos”], de Karen Levy. É um estudo recente sobre como as novas formas de vigilância afetaram a indústria de caminhões de longas distâncias nos EUA.
No caso dos caminhões, o governo federal [dos EUA] determinou a instalação de aparelhos de monitoramento, para impedir motoristas de violar as regras do limite diário de horas de direção (regras que as empresas privadas fingiam não existir). Isso permitiu às companhias instalar monitores que rastreiam muitos mais dados do desempenho dos motoristas, criando fluxos de dados que eliminam a discrição do trabalhador e transferem a tomada de decisão para sistemas automáticos e algorítmicos.
Como nota Karen Levy, o transporte por caminhões de longa distância é um caso interessante para o estudo dos efeitos da automação, pois a indústria depende bastante de uma atmosfera de independência que parece compensadora para o motorista.
“Os caminhões são considerados por seus motoristas tanto como lugar de trabalho relativamente livre de supervisões burocráticas quanto como casas, onde vivem, comem, dormem por dias a fio ou mesmo semanas. Em tal lugar, sua privacidade é sacrossanta. Assim, considerar o caminhão meramente como trabalho de direção é tomar apenas uma faceta do que ele significa para os que se autodenominam caminhoneiros. O trabalho do caminhoneiro está ligado a constructos culturais de masculinidade e virilidade, realizados através de demonstrações de resistência física e mental”.
Equilibrando-se entre as condições perigosas e a exploração da indústria, há um senso compensatório de independência, baseado na ilusão da falta de patrão. A mesma lógica pode ser encontrada no trabalho em domicílio [home office], quando assimilado enquanto um benefício especial para funcionários e não um meio de ampliar produtividade. Em ambos os casos, a aparente liberdade de supervisão humana serve como pretexto para impor formas automatizadas de vigilância, submetendo ainda mais o tempo e o comportamento dos trabalhadores à medição pela conversão em dados.
Sob vigilância, o trabalho é reformulado para se tornar mais legível pela máquina, e mais do esforço do trabalhador tem de ser direcionado para se adequar ao monitoramento, em vez de conceber formas mais adequadas para dar cabo de tarefas. Como afirma Karen Levy, “o monitoramento abstrai o conhecimento organizacional dos contextos locais e biofísicos – o que se passa na estrada, ao redor do caminhão e no corpo do caminhoneiro – para enriquecer bancos de dados e prover aos gerentes um acervo de elementos para avaliar o trabalho dos caminhoneiros de novas maneiras, controlando-os em tempo real”.
Essa intensificação da vigilância, graças a tais dados, pavimenta o caminho para uma maior modificação dos processos de trabalho; ao mesmo tempo, parece fundamentar a possibilidade de que o empregador, no limite, automatize todo o trabalho. À medida que o trabalho se torna mais vigiado e menos autônomo, torna-se também, simultaneamente, mais maçante e substituível.
Sob tais condições, a “autonomia” é considerada menos como um fazer as coisas à própria maneira e mais como um resistir ao monitoramento que suprime a independência. Todas as formas de “conhecimento tácito” [tacit knowledge] – para usar um termo de Michael Polanyi – existentes no trabalho se tornam menos defensáveis enquanto fonte de produtividade e mais dispensáveis enquanto mera resistência do funcionário. A autonomia do trabalhador persiste aí não como uma forma particular de virtuosismo ou de prática social conduzida em conjunto com outros trabalhadores, mas como fantasia de uma identidade individual inflada (ou seja, o caminhoneiro como o “lobo solitário”, o “cowboy do asfalto”, conquistador da estrada aberta). Assim, tudo isso ainda serve como justificativa de seu meio para a intrusão até mais profunda da gerência no comportamento dos trabalhadores – independentemente de quanta vigilância já tenha sido implementada.
À medida que mais vigilância é implementada, aquilo que escapa [do controle] se torna ao mesmo tempo mais saliente e irrelevante. Hong, tratando de trabalhadores de armazéns, compelidos a vestir dispositivos que monitoram e corrigem suas atividades, escreve: “As expectativas quantificadas que governam o local de trabalho algoritmizado atendem ao desejo – dos gerentes e empregadores – por certa clareza não-humana, na qual as diversas variações e ambiguidades inerentes a qualquer ato de trabalhar não são propriamente eliminadas, mas simplesmente negligenciadas. A consequência para o trabalhador é que seu próprio trabalho e a sua vida se tornam menos presumíveis e menos facultativos”.
Para quem trabalha em casa, isso ocorre por meio de várias suítes de monitoramento e chefetagem, instaladas nos aparelhos dos trabalhadores (conforme detalhado nesta reportagem do Reino Unido). No caso dos caminhoneiros, Karen Levy especula que isso ocorre por formas crescentemente invasivas de vigilância biométrica: “Mais do que ser chutado da cabine do caminhão pela tecnologia, o caminhoneiro segue firme lá, fazendo seu serviço – mas ele cada vez mais está acompanhado nela por sistemas inteligentes, que monitoram seu corpo em forma direta e intrusiva, com dispositivos de vestir e câmeras, frequentemente integrados aos sistemas de gerenciamento de frotas […]. A Inteligência artificial, nos caminhões, é experimentada como um híbrido de homem e máquina. Nos caminhões, a vigilância e a automação são complementos, não substitutas”.
O fato de que a vigilância e a automação geralmente tendem a aparecer como “complementos, não substitutas” assenta mais claramente a ideia da Inteligência artificial “aumentada” – um potencial frequentemente evocado enquanto lado positivo, que idealiza trabalhadores assistidos ou até mesmo empoderados pelo uso das tecnologias.
Muita Inteligência artificial, quando implementada pela gerência, não é um tipo diferente de “inteligência”, mas uma forma mais responsiva de supervisão dos funcionários. Como qualquer outra tecnologia da informação, ela pode ser inserida, diz Karen Levy, “entre tarefas de trabalho e conhecimento encarnado. Ela divide os processos de trabalho entre tarefas simples, racionalizadas, pouco hábeis; descontextualiza o conhecimento do local físico do trabalho para os abstratos bancos de dados centralizados; converte práticas de trabalho em registros ostensivamente objetivos, calculáveis e neutros da ação humana”.
Seu propósito não é empoderar os trabalhadores, mas “legitimar certas formas de conhecimento ao passo que torna outras menos valiosas, com efeito potencialmente prejudicial ao poder dos trabalhadores”. Tais tecnologias, às vezes eufemisticamente chamadas de “co-pilotas” no contexto da codificação ou outras tarefas de linguagem, são introduzidas para estreitar o arco de possibilidades do operário, fazendo-o se focar apenas nas atividades corporificadas que podem ser expropriadas, sempre já subsumidas ao capital e lucrativas à gerência.
A Inteligência artificial aparece não como uma realidade “aumentada” para os trabalhadores, mas como o que Karen Levy chama de uma “hibridização forçada”. Ela é implementada como um supervisor dinâmico, ou, pior, como um parasita capaz de alterar o comportamento do seu hospedeiro. Karen Levy cita o livro de 2008 The Culture of Soft Work [“A cultura do trabalho suave”], de Heather Hicks, no qual argumenta-se que “quando atividades de trabalho codificadas em partes de máquinas se fundem ao corpo humano o resultado não são seres humanos liberados, mas mais controlados”.
Os caminhoneiros consultados por Karen Levy têm repulsa à ideia do caminhão ciborgue, do qual são um fantoche encarnado, coabitado e impelido por máquinas capitalistas para maximizar sua autoexploração. “Eis a realidade sentida no trabalho dos caminhoneiros hoje em dia”, escreve ela. E a “destruição algorítmica dos corpos dos trabalhadores” dirigidos por dispositivos de vestimento no trabalho em armazéns, conforme a descrição de Hong, é sem dúvida uma descrição sombria e distópica disso.
Mas pode-se também imaginar uma interface híbrida, que combina a manipulação emocional dos chatbots com o estímulo algorítmico-gerencial da caixa de Skinner [câmara de condicionamento operante] – de tal forma que o parasita nos faz amar a fonte, da mesma forma como a infecção por Taxoplasma gondii faz as pessoas amarem gatos. Talvez seja algo similar aos óculos Vision Pro recentemente apresentados pela Apple, ou talvez algo ainda mais absurdo.
Ao final de março, a OpenAI publicou um relatório de trabalho chamado “GPTs Are GPTs: An Early Look at the Labor Market Impact Potential of Large Language Models” [“GPTs são GPTs: um olhar prévio a respeito do impacto potencial de grandes modelos de linguagem sobre o mercado de trabalho”]. Trata-se basicamente de uma peça de marketing para gerentes, voltada à exaltação do potencial dos ChatGPTs para executar tarefas abstraídas de uma ampla gama de ocupações descritas como “expostas” à predação dos LLM [Large Language Models, grandes modelos de linguagem].
Tal metodologia dá como assentada e naturaliza os efeitos da tecnologia da informação destacados por Karen Levy: a divisão do trabalho em tarefas simples, a abstração de contextos específicos e a redução do trabalho a dados. Os autores usam tal metodologia para concluir que “todas as ocupações exibem certo grau de exposição aos LLMs, e as de salários superiores geralmente apresentam mais tarefas com alta exposição”.
Essas descobertas (que deveriam ser tomadas cum grano salis) invertem a suposição usual, segundo a qual tudo o que pode ser automatizado é, ipso facto,tarefa “de baixa qualificação” – algo de que os trabalhadores, em última instância, se beneficiariam ao serem liberados. Pelo contrário, as descobertas prometem aos gerentes um futuro no qual mais dos seus subordinados poderão ser defenestrados das posições que lhes permitem exercer julgamentos.
É reveladora a lista de “ocupações com tarefas não indicadas como expostas” [aos LLMs]. Ela inclui “operadores de equipamentos”, “ajudantes” e “reparadores”, bem como atividades mais “expressivas”, como “serventes”, “açougueiros”, “cortadores de peixe”. Muitas posições dizem respeito à extração de energia: “operadores de torres de perfuração”, “instaladores de linhas elétricas”. Talvez os hippies se acalmem ao encontrar aí a atividade dos “mecânicos de motocicletas”…
Obviamente, a maioria desses trabalhos compartilha os requisitos da força física, dando a entender que a “Inteligência artificial” torna o que nos resta mais ou menos inútil economicamente. Isso sugere que um futuro dominado pela automação cognitiva não será aquele dos humanos liberados dos “trabalhos de merda” de que se queixava David Graebner (quando reivindicou uma reordenação radical do mundo e da vida político-social).
Em vez disso, preconiza-se um trabalho humano reorientado, rumo à manutenção das engrenagens capitalistas em um sentido mais literal – alimentando máquinas com dados e energia e mantendo nossos corpos fits à medida que nos tornamos extensões biomecânicas de um software programado para a exploração.
*Rob Horning é jornalista. Editor executivo do portal The New Inquiry. Autor, entre outros livros, de The New Age of Science and Technology (Los Angeles Review of Books).
Tradução: Rafael Almeida.
Publicado originalmente no portal Overland.
A Terra é Redonda existe graças aos nossos leitores e apoiadores.
Ajude-nos a manter esta ideia.
CONTRIBUA