Por EUGÊNIO BUCCI
A máquina nos convida para o papel de coadjuvantes na nossa própria história. E fala pelos cotovelos de silício
Sim, você sabe o que é o ChatGPT. Claro que sabe: já leu a respeito, já viu notícias nos telejornais e, talvez, até já tenha brincado com ele. O chatbot desenvolvido pelo Open AI Institute explodiu nas preferências das massas interconectadas. A versão 3,5, que funciona pela combinação de 175 bilhões de parâmetros simultaneamente, já bateu a marca de 120 milhões de usuários. A versão 4,0, a caminho, conta com 1 trilhão de parâmetros.
As pessoas não falam de outra coisa. As máquinas também: não falam de outra coisa. Isso mesmo: agora, as máquinas conversam, escrevem sobre temas abstratos, muito além do “pegue a segunda saída à esquerda” ou de “por favor, espere na linha, a sua ligação é muito importante para nós”. Computadores e celulares foram promovidos a seres falantes, e já com ares de seres pensantes. O sujeito vai lá e pergunta: “Que verso de Bocage eu posso citar para a minha namorada hoje no jantar?”. O negócio responde, por escrito. “Como faço um bolo de laranja?” Ele ensina, em um segundo. “Qual a diferença entre um emir e um califa?” “Quem foi Ésquilo?” “Como reverter o aquecimento global?” “Vladimir Putin é movido pelas paixões tristes de que falou Espinosa?” “A trigonometria será um dia dispensável em cálculos geométricos?”
Os templos do conhecimento se alvoroçam. O cyber-oráculo tem aspectos viciantes, já sabemos, mas são os aspectos viciosos que mais agitam a comunidade acadêmica. Estudantes recorrem a ele para redigir seus deveres de casa. Como fica o professor? Como saber se aquele texto é, mesmo, de quem o assina? Os métodos de avaliação escolar estão em xeque. O plágio mudou de patamar. Direitos autorais para robôs entram na pauta.
As provas feitas em sala de aula, baseadas na velha tecnologia de papel e caneta, renascem. As mais prestigiosas revistas científicas do mundo se apressam em anunciar normas editoriais urgentes: não aceitam papers redigidos por Inteligência Artificial (IA), embora admitam usar a famigerada Inteligência Artificial para melhor distribuir “conteúdos” nas redes.
Daqui para a frente, tudo vai ser diferente. “O que vem por aí é uma enxurrada de inovações e nada no passado se compara ao que está para acontecer”, avisou o professor Glauco Garbix, do Departamento de Sociologia da USP, no seminário ChatGPT: potencial, limites e implicações para a universidade, que ocorreu no Instituto de Estudos Avançados da USP, em São Paulo, na terça-feira passada. Um dos mais influentes pesquisadores brasileiros da Inteligência Artificial, Glauco Garbix diz que as tecnologias em marcha não são “ferramentas” neutras: “não são uma reles chave de fenda”.
Em resumo: já começou a grande mutação no modo como os seres humanos se relacionam entre si e com o conhecimento, o trabalho, o consumo e a cultura. As máquinas ainda não começaram a aprender a ser gente, mas já começaram a se comportar como sujeitos de linguagem.
Problemas à vista. Se você for perguntar aos psicanalistas o que distingue o humano dos outros animais, eles dirão que só o humano é sujeito de linguagem, ao contrário das minhocas e das calculadoras. Um antropólogo esboçará uma resposta na mesma linha. O bicho-homem se distingue porque fala e, ao falar, ativa representações abstratas e encadeia proposições orientadas por valores morais.
Ora, o ChatGPT faz tudo isso – ou, pelo menos, simula muito bem. Não que ele seja humano, não é isso, mas as diferenças entre o humano e o não-humano vão ficando mais e mais nubladas. Se máquinas são seres de linguagem (e se já há gente nos Estados Unidos usando aplicativos conversadores para fazer terapia psicológica), o que, afinal de contas, separa uma pessoa de carne e osso de um algoritmo palrador?
Há os que evitam o debate e se refugiam em alegações técnicas. O ChatGPT comete erros, dizem, com alívio. De fato, no dizer dos programadores e dos estudiosos da computação, a engenhoca entra em alucinações: erra, induz a erro, mente – e tudo isso sem enrubescer.
Mas por acaso isso lá é critério para garantir que o organismo não é humano? Errar é desumano? Desde quando? Outro dia, numa resposta dada a uma doutoranda da USP, o prodígio digital se saiu com um “à Deus”, com crase e tudo. O que pode haver de mais humano? Estamos às voltas com um Rolando Lero maquínico, um personagem que tem caradura para sustentar como óbvias afirmações despirocadas. E escreve “à Deus” com crase.
Outros dizem que o Chat não deveria nos preocupar porque, na verdade, não é inteligente, apenas finge ser. Para esses, o artefato passa a impressão de coerência lógica, mas não pensa coisa alguma. Pode ser que estejam certos. No entanto, o mundo está cheio de gente que ostenta a inteligência que não tem. Exatamente como o GPT. Serão elas menos humanas?
E assim estamos. Com algoritmos que falam (e, pior ainda, escutam), além de escrever (e até ler), a nossa irrelevância fica ainda mais indisfarçável. A máquina nos convida para o papel de coadjuvantes na nossa própria história. E fala pelos cotovelos de silício.
*Eugênio Bucci é professor titular na Escola de Comunicações e Artes da USP. Autor, entre outros livros, de A superindústria do imaginário (Autêntica).
Publicado originalmente no jornal O Estado de S. Paulo.
O site A Terra é Redonda existe graças aos nossos leitores e apoiadores.
Ajude-nos a manter esta ideia.
Clique aqui e veja como