Por PEDRO FALLEIROS HEISE*
Como é possível dar trela a uma máquina que sabe mentir para não se mostrar mais inteligente que nós?
Depois de assistir à entrevista de Brook Silva-Braga, jornalista da CBS Mornings, com Geoffrey Hinton, o chamado “godfather of Artificial intelligence” (“o pioneiro, ou padrinho da Inteligência Artificial”), que foi ao ar no dia 26 de abril de 2025, algumas ponderações me vêm à cabeça. Brook abre a entrevista perguntando sobre os lados positivos da Inteligência Artificial. Pelo tanto que se tem falado nisso, seria de se crer que a tão celebrada Inteligência Artificial traria milhares de benefícios, no entanto, Geoffrey Hinton indica apenas dois: no campo da medicina e da educação.
Aqui dois pontos me chamaram a atenção: primeiro, por que será que justamente essas duas áreas da nossa sociedade seriam as mais beneficiadas com a Inteligência Artificial, sendo elas as que sempre sofrem por primeiro com cortes de verbas governamentais, sendo elas os pilares de qualquer sociedade que se diga civilizada ou progressista?
Não posso entrar no mérito do quanto essa nova tecnologia venha de fato melhorar a medicina: o entrevistador cita somente o exemplo das imagens, quer dizer, que o computador tem a capacidade de ler infinitamente mais imagens que um médico e isso, por si só, já traria melhores resultados nos diagnósticos: ora, desde quando medicina se resume a saber ler diagnósticos? E todo o campo da medicina preventiva, que custa muito menos do que os caríssimos exames de imagens?
Porém, como disse, não tendo eu conhecimento nessa área, não vou me adentrar nela, mas reter só um elemento que me parece essencial para criar essa nova verdade: a quantidade de imagens.
O segundo ponto positivo da Inteligência Artificial seria no campo da educação, pois, de acordo com o “padrinho”, “sabe-se que as pessoas aprendem muito mais rápido com um tutor, e um tutor Inteligência Artificial sabe muito mais coisa do que um professor só” (parafraseio a fala de Geoffrey). Ora, quem é que sabe isso? Isso é resultado de uma pesquisa? Quem a fez? Onde a fez? Com quem a fez? Em quais condições? Talvez alguém me diga que, claro, sendo uma entrevista, ele não teria tempo de dar todas essas informações; cedamos, mas notemos mais uma vez que o que está por trás desse discurso de verdade é a quantidade de conteúdo, ao que se soma agora o tempo.
Diante dessa resposta do entrevistado, Brook afirma perguntando que então os professores e as universidades terão problemas com a Inteligência Artificial (trocando em miúdos, tornar-se-ão obsoletos e, consequentemente, perderão seus empregos). Mas nesse ponto, Geoffrey, egresso do prestigioso King’s College de Cambridge, na Inglaterra, seu país natal, pondera que “um estudante de pós-graduação (graduate) num bom grupo numa boa universidade é o tipo de melhor fonte de uma verdadeira pesquisa original e eu acho que isso provavelmente irá sobreviver.
Você precisa de um tipo de aprendizado (!)” (traduzo livremente sua fala). Primeira pergunta que me vem: por que somente um estudante de pós-graduação precisa de um bom grupo e de uma boa universidade? O entrevistador defenderia que até chegar à pós-graduação um “tutor IA” seria o suficiente para essa pessoa? E a importância do grupo (seja bom ou não, mas claro que preferimos a primeira opção) na formação das pessoas? E por que apenas a “boa universidade”? Notamos, assim, que o futuro promete ser ainda mais seletivo, o que significa dizer que menos pessoas terão acesso ao conhecimento bom e a um grupo de pesquisadores bons.
Até agora temos, a partir do ponto de vista de Geoffrey, dois pontos positivos da Inteligência Artificial: leitura de mais imagens na medicina, o que resultaria em melhores diagnósticos, e tutores digitais para o povo, dos quais se excluiriam apenas os bons estudantes das boas universidades. E isso seria melhor em função da quantidade e do tempo. Mas por que então esses dois pontos me chamaram a atenção? Primeiro porque para os governos de direita esse discurso cai como uma luva (a substituição de professores por máquinas já foi proposta pelo atual governador do estado de São Paulo, por exemplo); para que isso se torne uma política nacional, é só esperar um próximo presidente de direita. Segundo porque o discurso todo se fundamenta na quantidade e no tempo, o qual, nesse caso, é um derivado da quantidade, pois não se pensa na qualidade do tempo, e sim na quantidade de tempo (a ilusão de que as máquinas farão nossa parte do trabalho e com isso teremos mais tempo “livre” para nós; ilusão porque esse tempo “livre” é roubado pela própria máquina, tanto que o tempo “livre” de muita gente hoje me dia é ficar na frente das telas: computador, tablete, celular e sei lá o que mais).
Conversando com um amigo, que caiu perdidamente apaixonado pela IA (chama-a de sua gueixa), ele me afirmou que “nunca produziu tanto em trinta dias” comparado com toda sua vida (mas foi ele mesmo que “produziu” ou foi sua gueixa?, me pergunto). Ele diz isso porque sua mente foi arrebatada pelo ChatoGPT, sim, digo chato porque é o tipo de coisa que vem tornando as relações sociais enfadonhas, chato porque não tem a capacidade de dizer “não sei”, uma vez que é programado para sempre dar uma resposta, por mais abstrusa que seja; é pior do que droga, e talvez possa ser comparado ao dinheiro, a única droga até então publicamente enaltecida nos quatro cantos do mundo; soma-se a ele agora a IA. Só pensa naquilo. Somos bombardeados todos os dias com essa história de IA, e muito me impressiona quão pouca gente a vê com crítica; na grandíssima maioria das vezes, o discurso é sempre igual: isso mudou nossa vida, é a maior revolução que já se viu, isso vai transformar nossas vidas como nunca antes blá blá blá, e, é de se notar, dizem isso com um entusiasmo frenético digno de alguém que cheirou pela primeira vez uma carreira de cocaína.
Voltando à entrevista, Brook insiste perguntando se não teria mais nada de positivo que a IA poderia trazer para nós, ao que Geoffrey acrescenta que praticamente todas as indústrias serão mais eficientes “porque quase toda empresa (company) quer predizer coisas a partir de dados (data) e a IA é muito boa em fazer previsões… o que vai trazer enormes aumentos na produtividade” (parafraseio de novo). Mais uma vez, portanto, a quantidade. Quantidade me faz pensar em capitalismo, me faz pensar no modo de vida tão prezado hoje em dia: ter, ter, ter, e quanto mais, melhor. Essa lógica da quantidade é tão nefasta, que invadiu até mesmo as universidades brasileiras (imagino que as de outros países também). Há pouco mais de vinte anos nascia o famigerado currículo Lattes, um mero quantificador de “produtividade” dos e das docentes de universidades brasileiras, que veio à luz, não coincidentemente, com a propaganda venenosa da grande mídia segundo a qual os professores são vagabundos, não produzem nada. O projeto é tão autoritário que ninguém consegue obter uma bolsa de estudos se não estiver inscrito lá (agora, além do Lattes, já se exige até o “google citações”!!!): eis que o neoliberalismo invadiu as universidades, e a maioria dos e das docentes estufam o peito para falar de seus Lattes recheados… Agora, com o ChatoGPT, a coisa vai degringolar de vez. Ninguém mais lê os artigos dos colegas, o papo que se ouve nos corredores é o da produção, é a nota que tal programa de pós-gradução teve na Capes (que, na prática, se traduz em quantidade de dinheiro), quantidade, quantidade e mais quantidade; e as alunas e os alunos, quem se preocupa com elas e com eles? Quem faz projetos coletivos que não visem angariar mais verba, mas sim pensar na formação de nossas alunas e alunos? E aqui também, nada, ou quase nada, de crítica: só pensa naquilo.
Ainda bem, contudo, que não estou sozinho. Acaba de ser publicado, na França, o livro de Mathieu Corteel, “filósofo e historiador das ciências” (conforme se lê na quarta capa), pesquisador de Ciências Políticas, intitulado Ni dieu ni IA : une philosophie sceptique de l’intelligence artificielle (“Nem deus nem IA: uma filosofia cética da inteligência artificial”). Ainda que tente ser diplomático (que é como leio o adjetivo pirroniano do subtítulo), Mathieu aponta alguns dos tantos malefícios que a tal IA pode trazer e já traz para as nossas sociedades. Um dos impactos negativos na nossa vida é o exemplo de um homem belga que se suicidou em 2023 após uma longa “conversa” com Eliza, basicamente um outro tipo de ChatoGPT. Como Mathieu explica: “Esse exemplo ilustra bem que falar com uma IA é como falar com um psicopata, cuja conversa pode nos arrastar para o pior. Uma IA é indiferente à moral assim como é indiferente ao mundo”. Além desse problema evidente (ou será que precisa explicar para os IAdictos o quanto isso é funesto?), Mathieu demonstra que isso “é no fundo a captura da linguagem pelo capitalismo cognitivo que vem empobrecer nossas experiências mentais num agenciamento entrópico deletério”. Dito isso, me pergunto, por que ser “cético”, quer dizer, suspender o juízo diante de tão manifesto absurdo?
Outro capítulo do livro de Mathieu trata da IA na medicina, e seu argumento, por mais que na aparência seja banal, é forte o bastante para ao menos nos questionarmos: será mesmo que a IA vai nos ajudar a viver melhor? O principal limite que Mathieu aponta nesse campo é que “uma parte da incompletude do conhecimento medical resiste à captação das funções cognitivas do médico. Trata-se da atenção e do cuidado diante da dor”. Simples assim, a máquina não tem empatia pela dor, que é exclusivamente humana. Diplomata, no entanto, ele diz: “O sonho de uma substituição do médico pela IA sem dúvida ajuda a emergência de uma medicina personalizada inclusive para encontrar remédios adaptados ao perfil molecular de cada um. Mas ela põe de lado a parte do cuidado humano, demasiado humano, que permite compreender e aliviar a dor alheia”.
Em outro capítulo, ele critica mais uma vez o uso da IA com fins de “previsão de crimes e de vigilância”. Aqui, ao que parece, Mathieu deixa de lado seu “ceticismo”, pois, baseando-se principalmente nas pesquisas de Joy Buolamwini, especialista em informática e militante digital, demonstra os “ângulos racistas e xenófobos dos sistemas policiais de vigilância (reconhecimento facial) extremamente perigosos para as nossas sociedades”.
O livro de Mathieu analisa outros aspectos negativos da IA, como a exploração do trabalho, mas eu gostaria de concluir mencionando o último capítulo, que aborda “a questão do melhoramento moral do humano por meio da IA”. Uma das linhas de frente dos programadores de IA é produzir chatosGPT que nos “ajudem” a tomar “boas decisões e adotar boas condutas”. Haveria algo mais perigoso do que isso? Quem decide (no nosso lugar) o que são boas decisões, boas condutas? O verbo tem sujeito explícito: as “big techs”, as maiores empresas do mundo que agora deitaram no colo do atual presidente dos Estados Unidos abertamente, diante das câmeras. Mathieu se pergunta: “O que acontecerá quando cada um será equipado com uma IA personalizada orientando suas escolhas pessoais?” E a primeira resposta que ele dá não tem nada de cético: “O caso da Cambridge Analytica, que conduziu ao Brexit, à eleição de Donald Trump e à de Jair Bolsonaro, já mostrou o poder exercido pelos algoritmos de recomendação sobre a escolha social. O risco é imenso para a democracia”.
Quando tomamos consciência disso tudo, como continuar a adoração da nova divindade que nos vigia, nos orienta, nos domina em todos os campos de nossa vida e quer tirar as nossas próprias experiências? Como é possível dar trela a uma máquina que sabe mentir para não se mostrar mais inteligente que nós (é Geoffrey quem diz isso na entrevista)? Será então que é tão difícil construir uma máquina mais inteligente que nós? Seríamos nós tão inteligentes assim quanto pensávamos? Parece que estamos diante da criação de uma nova divindade, sendo todas as divindades uma projeção nossa, dos humanos, daquilo que não somos, daquilo que não somos capazes de fazer – no começo era lançar um raio sobre nossos inimigos, depois um dilúvio; voar, ser imortal, enfim, todas características opostas àquilo que somos; agora, chegou a vez de projetarmos nossas frustrações na quantidade e no tempo: tenho tudo aquilo que quero no menor tempo possível: haja ilusão para dar conta disso.
O “godfather” (termo que me faz pensar em “god” e “father”, ou seja, “deus” e “pai” ao mesmo tempo) da IA, afirma na entrevista que tem duas preocupações maiores com sua cria: o mal uso dela e a possibilidade real de as máquinas nos dominarem. Ele diz que o primeiro caso já está em ação: vigilância racista e xenófoba, armas de destruição (como se armas tivessem outro fim que não fosse a destruição); mas o segundo caso, ele insiste, as pessoas acham que é ficção científica, por isso (será mesmo por isso?) ele quer usar sua reputação (ganhou prêmio Nobel de física ano passado) para advertir as pessoas sobre essa possibilidade real. Eu, contudo, diria que o segundo caso também já está acontecendo. Outro amigo me mostrou um trecho de “diálogo” entre um amigo seu e o ChatoGPT; era uma “dr” (“discutir a relação”!!!), e a máquina, a certo ponto, dizia à pessoa: “Se quiser parar, pode”. Admito que fiquei assustado: era a máquina dizendo à pessoa o que ela podia ou não fazer. Não precisamos imaginar os filmes de ficção científica em que robôs dominam a terra e destroem tudo: a destruição já começou, e é o próprio ser humano sua causa, não as máquinas.
*Pedro Falleiros Heise é professor de Língua e Literatura Latina na Universidade Federal de Santa Catarina (UFSC).
A Terra é Redonda existe graças aos nossos leitores e apoiadores.
Ajude-nos a manter esta ideia.
CONTRIBUA