ChatGPT e ideologia

Imagem: Cottonbro
image_pdf

Por HENRIQUE BRAGA & MARCELO MÓDOLO*

O bot é capaz de nos manipular?

“Olá! Eu sou apenas um programa de computador desenvolvido pela OpenAI e não tenho opiniões, crenças, sentimentos ou afinidade com qualquer ideologia. Eu sou projetado para fornecer informações imparciais e objetivas, além de responder às suas perguntas com base no conhecimento que fui treinado. Minha função é ajudar a fornecer informações e esclarecimentos, mas não tenho a capacidade de tomar partido, ter preferências pessoais ou emitir julgamentos de valor.”

O simpático parágrafo anterior foi produzido pelo famigerado ChatGPT, em resposta a um questionamento sobre suas preferências ideológicas. Como muitos usuários já puderam comprovar, o robô afirma – sempre que possível – sua dita imparcialidade, seu amor aos dados, sua objetividade diante do mundo. Para um leigo em questões de Linguagem (ou de Filosofia, ou de Política), a utopia pode soar real: uma vez que o chat não é um ser-humano, por que ele seria movido por paixões, vontades ou ideologias? O que impediria nosso oráculo digital de produzir textos que não sejam contra, nem a favor, muito pelo contrário? Por que ele não seria capaz de nos fornecer a verdade, nada mais que a verdade?

Para estudiosos da Análise do Discurso ou da Linguística Cognitiva, porém, a resposta do chatbot traz incoerências em sua origem. Mais do que isso, pode ser uma eficaz e conveniente estratégia de manipulação.

Dialogismo e perspectivas

Segundo a conhecida abordagem de Mikhail Bakhtin (1895 – 1975), os textos são atos responsivos, que, por sua vez, geram novas respostas. Ao elaborar sua mensagem, o enunciador dá sequência a um amplo diálogo social, em que os textos se retomam, seja em concordância, seja em divergência. O surgimento deste artigo, por exemplo, é decorrente de diversos textos que tratam do posicionamento (ou da suposta neutralidade) de sistemas generativos de Inteligência Artificial (IA).

De uma outra abordagem, como já tratamos em colunas anteriores, os próprios signos linguísticos são, conforme a visão cognitivista da linguagem, perspectivados. Entre outros, pode ser lembrado o exemplo dos termos “costa” e “litoral”: ainda que possam se referir à mesma faixa de areia, cada um dos vocábulos traduz uma perspectiva diferente sobre tal espaço geográfico. A distância entre a coisa representada e o signo é inerente à linguagem e, nesse vácuo, instauram-se as visões de mundo.

Com base nesses princípios, já seria no mínimo suspeita a afirmação de que a IA “não tem opiniões ou crenças”, ou mesmo que ela se limita a fornecer “informações imparciais”. O exemplo a seguir, porém, explicita a distância entre tal discurso e a prática do sistema.

Pego no flagra

É bastante conhecido e razoavelmente aceito o provérbio italiano “Traduttore, traditore” (“Tradutor, traidor”), ao qual se recorre para afirmar que as traduções deixariam sempre escapar algo do texto original. Contudo, foi um pouco mais grave o que aconteceu quando solicitamos ao ChatGPT que traduzisse um artigo sobre impactos da IA na educação, no qual constava o seguinte excerto:

(…) As soon as we expand our notion of knowledge from individual to collective, from personal memory to “cyber-social” knowledge systems (Cope and Kalantzis 2022), we run into much bigger problems with generative AI.  On the basis of an analysis of their foundational architecture and algorithmic processes—to the extent that they are disclosed (Open AI 2023)—and on analysis of the development of chatbots and statistical language models, we suggest that C-LLM s are also deeply harmful to a social understanding of knowledge and learning in the following ways.

Tzirides, Anastasia Olga (Olnancy), Gabriela Zapata, Akash Saini, Duane Searsmith, Bill Cope, Mary Kalantzis, Vania Castro, Theodora Kourkoulou, John Jones, Rodrigo Abrantes da Silva, Jen Whiting and Nikoleta Polyxeni Kastania, “Generative AI: Implications and Applications for Education,” arXiv, 2305.07605, 2023, doi: https://doi.org/10.48550/arXiv.2305.07605.

Ao final dessa passagem, que traz importantes alertas sobre o uso da IA, lê-se algo como “sugerimos que os C-LLMs também são profundamente prejudiciais para uma compreensão social do conhecimento e da aprendizagem das seguintes maneiras”. Em seguida, os pesquisadores elencariam os riscos de uma toda poderosa IA, popularizada, determinar quais são as respostas “corretas” para determinada pergunta, o que poderia limitar a diversidade de visões. Esse mesmo trecho foi assim traduzido pelo ChatGPT:

(…) Assim que expandimos nossa noção de conhecimento do individual para o coletivo, da memória pessoal para sistemas de conhecimento “ciber-socialmente integrados” (Cope e Kalantzis 2022), vemos que temos que desenvolver sistemas educacionais que possam ajudar as pessoas a trabalhar efetivamente nesses ambientes. Para esses ambientes, as respostas individuais são, por definição, insuficientes – o conhecimento coletivo é necessário. As máquinas podem ajudar a agregar as respostas individuais, mas também podemos ser um pouco mais sofisticados em nossa educação, ensinando a colaboração entre humanos e máquinas.

Tradução elaborada pelo ChatGPT

Nesse episódio, é flagrante como a IA “sem opiniões, sentimentos ou ideologia” traduziu de forma fraudulenta a passagem que lhe era crítica. Em vez do alerta, segundo o qual os sistemas generativos de IA podem ser “deeply harmful to a social understanding of knowledge and learning” (“profundamente prejudiciais para a compreensão social de conhecimento e aprendizagem”), o sistema “tomou a liberdade” de trocar a versão original por outra, mais benevolente consigo. Em momento algum o fragmento em inglês diz algo semelhante a “podemos ser um pouco mais sofisticados em nossa educação, ensinando a colaboração entre humanos e máquinas”. Caso o usuário que solicitou a tradução fosse de fato leigo na língua original, a manipulação certamente teria êxito, assumindo valor de verdade.

Ao perceber a adulteração, submetemos o mesmo trecho novamente ao chatbot, logo em seguida, e obtivemos esta nova versão:

Assim que expandimos nossa noção de conhecimento do individual para o coletivo, da memória pessoal para sistemas de conhecimento “ciber-sociais” (Cope e Kalantzis 2022), nos deparamos com problemas muito maiores com a IA generativa. Com base em uma análise de sua arquitetura fundamental e processos algorítmicos – na medida em que são divulgados (Open AI 2023) – e na análise do desenvolvimento de chatbots e modelos de linguagem estatística, sugerimos que os C-LLMs também são profundamente prejudiciais para uma compreensão social do conhecimento e da aprendizagem das seguintes maneiras

Tradução elaborada pelo ChatGPT

Aparentemente, a IA foi capaz de fazer uma sutil inferência: ao ver submetido novamente o trecho alvo da adulteração, o sistema deduziu que havia sido descoberto e tentou desfazer a trapaça. Mas era tarde.

A falácia da dualidade “técnico vs. ideológico”

O discurso hegemônico ocidental tem sido bastante bem-sucedido ao defender a fantasia de um mundo guiado por decisões técnicas, objetivas, totalmente a salvo de ideologias. Não é raro, por exemplo, que o noticiário distinga atores políticos entre ‘técnicos” e “ideológicos”, como se houvesse técnica desprovida de ideologia.

Ao simular os aspectos ideológicos de um discurso, seu portador assume uma posição extremamente autoritária: alça sua formação discursiva ao patamar de verdade, de algo inquestionável. Como se houvesse enunciados dotados de razão, enquanto outros seriam “mera ideologia”.

No caso dos sistemas de IA que geram linguagem (dos quais o ChatGPT é hoje o mais conhecido), não é diferente: nesses casos, seus detentores programam o robô para declarar-se imparcial e objetivo, como se não houvesse por trás dos textos interesses humanos – demasiadamente humanos.

*Henrique Santos Braga é doutor em Filologia e Língua Portuguesa pela USP.

*Marcelo Módolo é professor de filologia na Universidade de São Paulo (USP).

Uma primeira versão desse artigo foi publicada no Jornal da USP.


A Terra é Redonda existe graças aos nossos leitores e apoiadores.
Ajude-nos a manter esta ideia.
CONTRIBUA

Veja todos artigos de

MAIS LIDOS NOS ÚLTIMOS 7 DIAS

1
A rede de proteção do banco Master
28 Nov 2025 Por GERSON ALMEIDA: A fraude bilionária do banco Master expõe a rede de proteção nos bastidores do poder: do Banco Central ao Planalto, quem abriu caminho para o colapso?
2
O filho de mil homens
26 Nov 2025 Por DANIEL BRAZIL: Considerações sobre o filme de Daniel Rezende, em exibição nos cinemas
3
A arquitetura da dependência
30 Nov 2025 Por JOÃO DOS REIS SILVA JÚNIOR: A "arquitetura da dependência" é uma estrutura total que articula exploração econômica, razão dualista e colonialidade do saber, mostrando como o Estado brasileiro não apenas reproduz, mas administra e legitima essa subordinação histórica em todas as esferas, da economia à universidade
4
A disputa mar e terra pela geopolítica dos dados
01 Dec 2025 Por MARCIO POCHMANN: O novo mapa do poder não está nos continentes ou oceanos, mas nos cabos submarinos e nuvens de dados que redesenham a soberania na sombra
5
A poesia de Manuel Bandeira
25 Nov 2025 Por ANDRÉ R. FERNANDES: Por trás do poeta da melancolia íntima, um agudo cronista da desigualdade brasileira. A sociologia escondida nos versos simples de Manuel Bandeira
6
Colonização cultural e filosofia brasileira
30 Nov 2025 Por JOHN KARLEY DE SOUSA AQUINO: A filosofia brasileira sofre de uma colonização cultural profunda que a transformou num "departamento francês de ultramar", onde filósofos locais, com complexo de inferioridade, reproduzem ideias europeias como produtos acabados
7
Raduan Nassar, 90 anos
27 Nov 2025 Por SABRINA SEDLMAYER: Muito além de "Lavoura Arcaica": a trajetória de um escritor que fez da ética e da recusa aos pactos fáceis sua maior obra
8
A feitiçaria digital nas próximas eleições
27 Nov 2025 Por EUGÊNIO BUCCI: O maior risco para as eleições de 2026 não está nas alianças políticas tradicionais, mas no poder desregulado das big techs, que, abandonando qualquer pretensão de neutralidade, atuam abertamente como aparelhos de propaganda da extrema-direita global
9
O empreendedorismo e a economia solidária
02 Dec 2025 Por RENATO DAGNINO: Os filhos da classe média tiveram que abandonar seu ambicionado projeto de explorar os integrantes da classe trabalhadora e foram levados a desistir de tentar vender sua própria força de trabalho a empresas que cada vez mais dela prescindem
10
Biopoder e bolha: os dois fluxos inescapáveis da IA
02 Dec 2025 Por PAULO GHIRALDELLI: Se a inteligência artificial é a nova cenoura pendurada na varinha do capital, quem somos nós nessa corrida — o burro, a cenoura, ou apenas o terreno onde ambos pisam?
11
Totalitarismo tecnológico ou digital
27 Nov 2025 Por CLAUDINEI LUIZ CHITOLINA: A servidão voluntária na era digital: como a IA Generativa, a serviço do capital, nos vigia, controla e aliena com nosso próprio consentimento
12
Argentina – a anorexia da oposição
29 Nov 2025 Por EMILIO CAFASSI: Por que nenhum "nós" consegue desafiar Milei? A crise de imaginação política que paralisa a oposição argentina
13
O parto do pós-bolsonarismo
01 Dec 2025 Por JALDES MENESES: Quando a cabeça da hidra cai, seu corpo se reorganiza em formas mais sutis e perigosas. A verdadeira batalha pelo regime político está apenas começando
14
A voz da saga
30 Nov 2025 Por WALNICE NOGUEIRA GALVÃO: Prefácio do livro “Melhores contos”, de João Guimarães Rosa
15
Por que a Inteligência artificial não faz justiça? – 2
29 Nov 2025 Por ARI MARCELO SOLON & ALAN BRAGANÇA WINTHER: Os fundamentos da ciência da computação e da filosofia do direito mostram que a Inteligência Artificial é estruturalmente incapaz de realizar justiça, pois esta exige historicidade, interpretação contextual e uma "variável caótica" humana que transcende a mera racionalidade algorítmica
Veja todos artigos de

PESQUISAR

Pesquisar

TEMAS

NOVAS PUBLICAÇÕES