A máquina de matar acelerada por algoritmos

Whatsapp
Facebook
Twitter
Instagram
Telegram

Por ELEONORA ALBANO*

Robôs guerreiros e robôs conversacionais – uma conexão explosiva

Este ensaio debruça-se sobre uma consequência nefasta das ideias errôneas difundidas na internet sobre os chatbots. O argumento se desdobra em duas partes. Primeiro, mostra-se que a existência dos chamados robôs letais autônomos (autonomous killer robots) reduz a possibilidade de os humanos tomarem a frente das decisões importantes num conflito armado.

Uma maneira de melhorar esse cenário seria construir uma interface que permitisse a gestão humana de tais robôs. Não obstante, essa tarefa é dificultada pelo fato de a principal ferramenta implicada – a saber, os Grandes Modelos de Linguagem – se basear em corpora cheios de vieses ideológicos e extremamente vulneráveis a ataques cibernéticos. Tais vieses são difíceis de extricar e podem conduzir humanos e máquinas a conversas que levem à escalada dos conflitos envolvidos.

O mito milenar dos autômatos de vigilância e defesa

O sonho das máquinas inteligentes é muito antigo. Ao contrário que se costuma crer, não começou quando a realeza e a aristocracia europeias do século XVIII se deliciavam com autômatos musicais e/ou acrobáticos. Na Odisseia, Homero narra as peripécias de Hefesto, o deus da metalurgia e do artesanato, cuja legião de escravas douradas realizava tarefas mecânicas repetitivas por meio de foles. Faz menção, ainda, aos fantásticos navios dos fenícios, acionados pelo pensamento ao menor sinal de perigo.

Os helênicos tinham conhecimentos avançados de mecânica que lhes permitiam mover os autômatos com molas, foles, pistões e alavancas.Durante toda a Antiguidade, a Idade Média e a Idade Moderna, essas criaturas artificiais – gente, bichos e seres míticos talhados em vidro, lata ou argila – eram vistas como escravas ou serviçais, destinadas a satisfazer necessidades várias, inclusive o sexo. Viabilizando as fantasias masturbatórias da nobreza, as bonecas cortesãs contribuíam para reforçar a crença na “alma” dos autômatos.

Ainda que conservada apenas em parte na Europa medieval, essa arte logo se espalhou pelo mundo via Islã, tendo seguido depois para o oriente. Os orientais usaram-na sobretudo para criar autômatos guardiões, a fim de vigiar palácios ou relicários, como, por exemplo, o do Buda.

É fácil entender que o fascínio e o pavor suscitados por tais mecanismos tenha feito deles poderosos instrumentos de controle social. Não é, portanto, surpresa que esse imaginário milenar tenha sido invocado pelas Big Techs e largamente difundido na internet. Na verdade, ele já tinha uma face física, pois era utilizado na indústria do entretenimento, ou seja, em quadrinhos, filmes e séries de TV.

A apropriação da vigilância e da defesa pelas Big Techs

Um relatório do especialista em defesa Roberto Gonzalez (2024) mostra como, nos últimos anos, o complexo militar-industrial dos EUA vem se deslocando do Capital Beltway para o Vale do Silício. Para adotar armamentos baseados em IA e tentar proteger a sua computação em nuvem, o Departamento de Defesa estadunidense teve que recorrer à Microsoft, à Amazon, à Google e à Oracle, concedendo-lhes contratos bilionários. Ao mesmo tempo, o Pentágono priorizou o financiamento de startups de tecnologia de defesa ávidas por sacudir o mercado com inovação célere e metas de crescimento ambiciosas.

Nesse cenário, o autor identifica três fatores: (i) o modelo de startups do Vale do Silício; (ii) as condições de financiamento do capital de risco; e (iii) as prioridades da indústria de tecnologia digital. Conclui que a conjunção dos três produz armamentos de ponta – que, independentemente do custo, – tendem a ser ineficazes, inseguros e imprevisíveis na prática.

Vejamos por quê. O primeiro fator impõe um ritmo exageradamente acelerado à pesquisa em Inteligência artificial utilizada nesses armamentos; o segundo pressiona por resultados que favoreçam os investidores; e o terceiro procura incorporar os modismos do mercado da tecnologia digital ao desenho dos sistemas. Isso deixa vários flancos abertos ao hackeamento e aos erros na comunicação entre humanos e máquinas – o que pode provocar grandes desastres estratégicos.

Os robôs guerreiros autônomos de Israel

A indústria de armamentos autônomos tem avançado muito graças à Inteligência artificial. O Estado que mais investe hoje nessa tecnologia é, sem dúvida, Israel. Vejamos, abaixo, como o país chamou para si os investimentos ocidentais na perpetuação da indústria armamentista.

Lucy Suchman, professora emérita da Universidade de Lancaster, no Reino Unido, estuda o militarismo contemporâneo com o respaldo de uma longa carreira voltada à crítica cientifica e humanitária das áreas da inteligência artificial e da interação homem-máquina.

Em artigo publicado no site Stop Killer Robots em fevereiro de 2024,[i] ela analisa o relatório técnico anexado à acusação de genocídio que a África do Sul impetrou contra Israel no Tribunal Internacional de Justiça de Haia. Intitulado “Uma fábrica de assassinatos em massa: a face interna do bombardeio calculado de Gaza por Israel”, o texto faz revelações aterradoras sobre aquilo que a autora denomina “a máquina de matar acelerada por algoritmos”.

Essa máquina contém um sistema de mira operado por Inteligência artificial, cinicamente denominado Habsora – o evangelho. Ele permite às Forças de Defesa de Israel (FDI) combinar uma autorização mais permissiva para o bombardeio de alvos civis na Faixa de Gaza com um afrouxamento das restrições relativas às baixas esperadas. Sanciona-se, assim, o envio de mísseis a áreas civis densamente povoadas, inclusive prédios públicos e residenciais.

As diretrizes legais internacionais exigem que os edifícios selecionados para bombardeio sejam alvos militares legítimos e estejam vazios no momento da sua destruição. A nova política das Forças de Defesa de Israel petulantemente viola-as produzindo uma sucessão ininterrupta de ordens de evacuação impraticáveis para a população palestina, cada vez mais confinada a pequenos enclaves de Gaza.

Essa seleção de alvos é facilitada pela extensa infraestrutura de vigilância dos territórios ocupados. Além disso, ao declarar que toda a superfície de Gaza esconde túneis subterrâneos do Hamas, Israel “legitima” a faixa inteira como objeto de destruição.

Dessa estratégia operacional decorre a necessidade de um fluxo ininterrupto de alvos candidatos. Para atender a este requisito, o Habsora foi projetado para acelerar a geração de alvos a partir de dados de vigilância, criando o que a autora chama “fábrica de assassinatos em massa”, adotando um termo proposto por um ex-oficial das Forças de Defesa de Israel.

Assim, o bombardeio israelense de Gaza mudou o foco da seleção de alvos por Inteligência artificial da precisão e exatidão para a aceleração da taxa de destruição. Um porta-voz das Forças de Defesa de Israel admitiu explicitamente que o bombardeio de Gaza é pautado pela “ênfase nos danos e não na precisão”.

Lucy Suchman segue apontando que isso muda a narrativa de uma tecnologia consistente com o Direito Internacional Humanitário e com as Convenções de Genebra para outra, focada na autonomia da geração de alvos, que garante velocidade e eficiência arrasadoras. Nesse sentido, as fontes de inteligência de Israel admitem que as operações são concebidas para impactar a população civil, sob o pretexto de que essa é a única forma possível de eliminar o Hamas.

O recurso de Israel à produção algorítmica de alvos deve ser entendido no contexto acima mencionado da absorção das operações de guerra pelas redes. Enraizado no imaginário cibernético da Guerra Fria, o combate baseado em dados se viabilizou na década de 1990, acenando com uma solução tecnológica para o velho problema da “análise situacional” na lógica militar. Num campo de batalha em rede, os dados se movem à velocidade da luz, interligando sensores a atiradores e plataformas. Poupam-se vidas de militares enquanto a população civil do território-alvo é dizimada.

A autora aponta que os dados são assim naturalizados, isto é, tratados como sinais objetivos emitidos por um mundo externo e não como fruto de uma cadeia de tradução de sinais legíveis por máquina para sistemas de classificação e interpretação criados por estrategistas militares.

Assim, a ideia de que a coleta dos dados se baseia no seu valor é substituída pelo investimento contínuo na infraestrutura de cálculo, que constitui o ativo mais valioso dessa indústria atualmente.

Esse investimento, baseado numa fé cega na vigilância movida a dados, decorre do desejo fantasioso de envolvê-los diretamente nas decisões, por mais que a sua proveniência e tratamento possam ser questionáveis.

Tudo isso ocorre no contexto de um compromisso político-econômico de Israel em se estabelecer como fornecedor líder em tecnociência militar de última geração, sobretudo nos combates baseados em Inteligência artificial. Haja vista que o principal instituto de tecnologia do país, o Technion, tem um programa de pesquisa superequipado e financiado que trabalha exclusivamente sobre sistemas autônomos industriais, inclusive armamentos.

Explica-se, assim, a indiferença cínica do ocidente quanto às negociações de paz em Gaza: a corrida armamentista atual está convenientemente sediada em Israel. Os EUA investem e se beneficiam dessa indústria, mantendo-a estrategicamente longe de casa.

Por outro lado, mantêm em casa a pesquisa estratégica de alta tecnologia de segurança de rede, i.e., a que versa sobre como esses armamentos devem ser utilizados e protegidos de crimes cibernéticos.

Um assistente militar linguageiro?

Veremos abaixo por que a Inteligência artificial e, em especial, a sua versão linguageira – os chatbots –, não se presta ao uso em planos militares. Além do problema praticamente insolúvel da segurança, há, conforme já mencionado, o das saídas dos sistemas que simulam a linguagem natural, que têm um lado inerentemente imprevisível.

Vejamos primeiro por que a segurança necessária à estratégia militar é inconciliável com o mundo digital. Para tanto, admitamos, de saída, que uma aplicação em rede segura é praticamente inalcançável.

O jornalista Dave Lee, responsável pela cobertura da Inteligência artificial no Financial Times, publicou uma excelente análise das falhas de segurança dos Grandes Modelos de Linguagem[ii] no site de uma empresa do ramo, a Hidden Layer, em março de 2023. Passemos em revista os seus principais argumentos.

O autor começa comentando as profundas transformações trazidas pela IA aos espaços de trabalho nas últimas décadas. Um bom exemplo é o uso dos Grandes Modelos de Linguagem para a redação de documentos legais, que já chega a 80 % em algumas empresas do setor jurídico no Reino Unido.

Segue mostrando como os Grandes Modelos de Linguagem são especialmente vulneráveis a abusos. Em outras palavras, prestam-se a criar malware, phishing ou outros conteúdos maliciosos. Fornecem também informações enviesadas, imprecisas ou mesmo danosas decorrentes de manipulações encobertas. As falhas de proteção das solicitações a eles enviadas facilitam violações de propriedade intelectual e privacidade de dados. O mesmo ocorre com as ferramentas de geração de código, sujeitas à introdução sub-reptícia de erros e vazamentos.

Além disso, segundo o autor, os Grandes Modelos de Linguagem ajudaram a diminuir a fronteira entre a internet e a Dark Web.  Hoje é fácil encontrar kits de ferramentas de ataque para uso como ransomware no comercio ilegal de criptomoedas.

A Inteligência artificial generativa permite acesso instantâneo e sem esforço a toda uma gama de ataque furtivos, podendo fornecer phishing e malware a quem quer que ouse pedir. Os vendedores de scripts estão se especializando cada vez mais nesse serviço. É corriqueiro, por exemplo, aceitarem encomendas de kits para burlar filtros.

Nesse caso, a burla é viável porque o chatbot sintetiza na hora a parte maliciosa do código cada vez que o malware é executado. Isso se faz por meio de uma solicitação simples à interface de programação de aplicativo da provedora usando um prompt descritivo projetado para ignorar os filtros inerentes. Os antimalwares atuais têm dificuldade de detectar esse truque porque ainda não possuem mecanismos para monitorar código perigoso no tráfego dos serviços baseados em Grandes Modelos de Linguagem.

Ainda que textos maliciosos sejam detectáveis e bloqueáveis em alguns casos, em muitos outros o conteúdo em si, assim como a solicitação associada, são projetados para parecer benignos. A geração do texto usado em golpes, phishing e fraudes pode ser difícil de interpretar se não houver mecanismos de detecção das intenções subjacentes, o que envolve procedimentos complexos ainda incipientes.

As ferramentas baseadas em Grandes Modelos de Linguagem podem, ainda, causar danos “acidentais” quanto à vulnerabilidades de código. A existência de programas de recompensa por detecção de bugs e de bancos de dados CVE/CWE[iii] mostra que a codificação segura não é, por ora, mais que um ideal a buscar.

Poderiam assistentes de programação, como o CoPilot, resolver o problema, produzindo códigos melhores e mais seguros do que um programador humano? Não necessariamente, pois, em alguns casos, eles podem até introduzir armadilhas nas quais um desenvolvedor experiente não cairia.

Como os modelos de geração de código são treinados em dados de codificados por humanos, é inevitável que também incorporem alguns dos seus maus hábitos, já que não têm meios de distinguir entre boas e más práticas de codificação.

O jornalista aponta, ainda, que estudos recentes da segurança do código gerado pelo CoPilot chegaram à conclusão de que, apesar de em geral introduzir menos vulnerabilidades do que um humano, ele tende a se fixar em alguns tipos, além de gerar código vazável em resposta a prompts ligados a falhas antigas não resolvidas.

Um dos problemas é justamente o extremo despreparo dos usuários. Em princípio, eles já deveriam saber que os serviços gratuitos em rede são pagos com os seus dados. No entanto, é comum que as questões de privacidade sobre as novas tecnologias só se clarifiquem depois de superado o entusiasmo inicial. A cobrança pública de medidas e diretrizes ocorre apenas quando uma inovação já se tornou corriqueira. Foi assim com as redes sociais; está apenas começando com os Grandes Modelos de Linguagem.

O acordo de termos e condições para qualquer serviço baseado em Grandes Modelos de Linguagem deve explicitar como os nossos prompts de solicitação são usados pelo provedor de serviços. Mas são frequentemente textos longos escritos em letra miúda e estilo pouco transparente.

Quem não quer passar horas decifrando contratos de privacidade deve, portanto, assumir que cada solicitação que faz ao modelo é registrada, armazenada e processada de alguma forma. Deve esperar, no mínimo, que os seus dados sejam adicionados ao conjunto de treinamento, podendo, portanto, vazar acidentalmente em atendimento a outras solicitações.

Além disso, com a expansão rápida da Inteligência artificial, muitos provedores podem optar por lucrar vendendo os dados de entrada para empresas de pesquisa, anunciantes ou qualquer outro interessado.

Outro problema é que, embora o objetivo principal dos Grandes Modelos de Linguagem seja reter um bom nível de compreensão de seu domínio-alvo, eles podem às vezes incorporar informações excessivas. Podem, por exemplo, regurgitar dados do seu conjunto de treinamento e acabar vazando segredos, tais como informações de identificação pessoal, tokens de acesso, etc. Se essas informações caírem nas mãos erradas, as consequências podem, obviamente, ser muito graves.

O autor lembra, ainda, que a memorização inadvertida é um problema diferente do overfitting[iv]. Esse é uma aderência excessiva aos dados de treinamento, em função da duração desse e das estatísticas por trás dos GLMs. Já a memorização excessiva é uma falha em generalizar a escolha dos pares na base da internet que pode levar o algoritmo a pinçar e expor informação privada acidentalmente.

Finalmente ele adverte, em conclusão, que a segurança e a privacidade não são as únicas armadilhas da Inteligência artificial generativa. Há também inúmeras questões legais e éticas, como a precisão e imparcialidade das informações, bem como a “sanidade” geral das respostas fornecidas por sistemas alimentados por Grandes Modelos de Linguagem, como veremos abaixo.

As incertezas inerentes aos grandes modelos de linguagem

Em outros escritos, expliquei detalhadamente como os Grandes Modelos de Linguagem simulam a linguagem natural através de um método que calcula a palavra mais provável numa cadeia linear, varrendo a internet e medindo a coerência das candidatas com uma base de dados densamente anotada pertencente à empresa proprietária do modelo – em geral uma Big Tech, ou seja: Amazon, Google, Microsoft, Open AI ou Oracle.

É fundamental que o público entenda que tais robôs não são inteligentes e muito menos sencientes, como se espalha na internet. Aqui vou ter que repetir essa explicação brevemente a fim de combater uma metáfora tendenciosa difundida pelos próprios provedores para estimular os usuários a manterem com as máquinas conversas que expandam e enriqueçam a base de dados.

Trata-se da afirmação de que os Grandes Modelos de Linguagem “alucinam”, i.e., vomitam incongruências, contrassensos e até ofensas, à semelhança de um humano que perdeu a razão. Quando compreendemos a mecânica do funcionamento desses modelos, fica claro que o fenômeno de fato ocorre, mas é puramente físico, i.e., segue o padrão de outros casos em que um sistema dinâmico de equações apresenta mudanças abruptas repentinamente.

O segredo dos Grandes Modelos de Linguagem é emular convincentemente as descontinuidades das línguas naturais humanas tentando apenas prever a próxima palavra.

Isso é possível graças a três ingredientes: a apropriação do conteúdo inteiro da internet pela empresa proprietária; a ação de uma gigantesca rede neural recorrente capaz de calcular estatísticas de associação entre milhões de palavras em tempo real – os chamados transformadores; e etiquetas classificatórias, criadas e organizadas, em vários níveis hierárquicos, por legiões de trabalhadores precarizados altamente qualificados das várias áreas do saber.

As empresas que terceirizam esses serviços se situam em geral em países pobres com muitos desempregados de alta qualificação, como, p. ex., a Índia, a África do Sul, a Nigéria e o Brasil.

Assim, os Grandes Modelos de Linguagem conseguem lidar com relações descontínuas como a encontrada na frase “O gato que comeu o rato morreu” – na qual quem morreu foi o gato e não o rato. Conseguem, igualmente, reconhecer descontinuidades de verbos como ‘enraizar’, formados por adição de um prefixo e um sufixo a um radical, relacionando-as a outros, análogos, tais como ‘embelezar’, ‘empoleirar’, etc.

Essa operação é puramente linear, i.e., prevê uma palavra após a outra a cada passo. A rede neural calcula, em tempo real, todas as probabilidades de co-ocorrência entre os pares de palavras da internet, escolhe a melhor candidata e segue.

A simplicidade das operações envolvidas é apenas aparente. O cálculo das probabilidades de co-ocorrência não se aplica apenas ao vocabulário.

O corpus inteiro é anotado em vários níveis de análise, que incluem informações sintáticas (i.e., regras de conjunção e disjunção), semânticas (i.e., significados básicos e associativos) e até pragmáticas (referência ao próprio texto e/ou ao contexto, como no caso dos pronomes pessoais e advérbios de lugar e tempo). Uma função de otimização seleciona os pares mais aptos a integrar coerentemente todos esses aspectos no texto em construção.

Os anotadores linguistas etiquetam as propriedades estruturais do texto. Os das demais ciências humanas e sociais adicionam múltiplas camadas de etiquetas conteudistas e estilísticas. De forma análoga, os anotadores das ciências naturais e exatas adicionam etiquetas hierarquizadas das suas respectivas áreas. Ao final, cientistas da computação familiarizados com os transformadores realimentam o feedforward da rede com a estrutura multiníveis resultante.

Como veremos abaixo, o funcionamento dos transformadores é comparável à forma mais radical de behaviorismo, o condicionamento operante[v]. Os tipos de pares com a maior probabilidade de êxito são reforçados, tornando-se cada vez mais prováveis – o que consolida as conexões envolvidas e afeta a escolha do próximo par. Esse procedimento leva naturalmente a novos exemplos de pares da mesma classe, contribuindo para ampliar a sua frequência na rede.

Esse é, indubitavelmente, um excelente método de simulação computacional da linguagem natural. Entretanto, confundir a sua saída com enunciados naturais equivale a assumir uma mente humana que funciona através de associações sucessivas quantificadas e recalculadas continuamente. Conforme mencionado, essa premissa é coerente com o condicionamento operante – um método de controle de comportamento criado nos EUA durante a segunda guerra mundial e posteriormente adotado pelo macartismo.

O seu criador, o psicólogo Burrhus F. Skinner, foi acusado de fascismo pelos colegas e reagiu dizendo que o método tinha objetivos puramente educacionais. A discussão está documentada no The New York Times, cujos arquivos têm uma versão online da reportagem de Robert Reinhold[vi] sobre um simpósio ocorrido em Yale em 1972 no qual as ideias de Skinner foram repudiadas por toda a comunidade acadêmica da sua área.

Embora Skinner tenha fracassado nos seus projetos educacionais, suas ideias foram resgatadas pelas Big Techs para aproximar os humanos das máquinas. Hoje, infelizmente, o uso indiscriminado do algoritmo que implementa o condicionamento operante dos Grandes Modelos de Linguagem está afetando o comportamento dos usuários. Eles imitam cada vez mais os chatbots, abusando de clichês, da mesma forma que aceitam acriticamente os clichês emitidos em resposta às suas perguntas.

O exposto deixou claro que os transformadores não produzem conhecimento novo, pois apenas parafraseiam a forma superficial de raciocínios simples acháveis na internet. Assim, só funcionam como mecanismos de pesquisa quando se quer compilar informações de fontes fidedignas. Porém, a avaliação da fidedignidade é incerta, pois raros sites contam com moderadores e/ou curadores.

Como se pode imaginar, às Big Techs só interessa contratar anotadores, não moderadores e curadores. Ou seja, o foco é na exaustividade e não na qualidade da informação. Tudo que sai de um transformador realimenta o corpus de entrada. Não há humanos que filtrem e descartem tentativas de resposta falsas ou imprecisas. Sem moderação, os erros factuais se tornam corriqueiros, inundando a rede de erros, mentiras e contradições.

As perguntas e comentários dos usuários, por ingênuos, sectários ou mesmo ofensivos que possam parecer, adicionam-se automaticamente à base de dados, tornando-a uma fonte inesgotável de vieses potencialmente perigosos. E, assim, a falta de pistas para distinguir o verdadeiro do falso dilui paulatinamente as fronteiras entre eles.

Nesse cenário, o tom cortês e educativo dos chatbots seduz e captura o usuário, minando, aos poucos, a sua consciência das implicações da conversa e a sua capacidade de duvidar da resposta. A aceleração da vida atual está, portanto, favorecendo, a acomodação generalizada do público a algoritmos que fornecem respostas prontas e fáceis de repetir.

Conclui-se, portanto, que, além de inseguros, os Grandes Modelos de Linguagem são uma ameaça ao pensamento crítico, recurso indispensável na prevenção de desastres estratégicos.

Militarismo com Grandes Modelos de Linguagem e armas autônomas?

Passemos, agora, ao derradeiro passo da demonstração do perigo de uma eventual interação entre chatbots e armas autônomas.

Um time transdisciplinar, constituído por Rivera, Mukobib, Reuelb, Lamparthb, Smithc e Schneiderb,[vii] avaliou, em artigo recente, os riscos de escalada de conflitos do uso de Grandes Modelos de Linguagem na tomada de decisões militares e diplomáticas. Os autores examinaram o comportamento de vários agentes de Inteligência artificial em jogos de guerra simulados, calculando a sua chance de enveredar por caminhos que possam exacerbar conflitos multilaterais.

Com base em estudos de ciência política e relações internacionais sobre a dinâmica da escalada de conflitos, fizeram uma simulação o mais realista possível dos jogos de guerra documentados e criaram uma grade, adaptável a múltiplos cenários, para de pontuar os riscos das ações dos diferentes agentes envolvidos.

Diferentemente da literatura precedente, este estudo usou dados qualitativos e quantitativos e se concentrou nos Grandes Modelos de Linguagem, cedidos por cinco diferentes empresas. Encontrou, em todos, formas e padrões de escalada difíceis de prever. O principal achado é o de que tais modelos tendem a desenvolver dinâmicas de corrida armamentista, levando a um conflito maior, e chegando até, em alguns casos, a recomendar o uso de armas nucleares.

Os autores também analisaram qualitativamente os raciocínios relatados pelos modelos para as ações escolhidas e observaram justificativas preocupantes, baseadas em táticas de dissuasão e priorização do ataque, como as já usadas em Israel. Perante a delicada conjuntura dos atuais contextos de política externa e militar no ocidente, concluíram pela necessidade de aprofundar o exame dos dados e agir com máxima cautela antes de implantar Grandes Modelos de Linguagem para a tomada de decisões estratégicas militares ou diplomáticas, mesmo que a simples título de assistente.

A propósito, as Big Techs já haviam entrado em acordo com os governos em proibir o uso das tecnologias linguageiras para fins bélicos. Essa pesquisa confirmou o acerto dessa medida e a fragilidade das tecnologias em questão.

Lembremos, por fim, que o comportamento dinâmico dos sistemas de equações que regem o comportamento dos Grandes Modelos de Linguagem é um fato físico e que a ocorrência de saltos, apesar de previsível, é inevitável, fazendo parte da própria natureza do sistema.

Portanto, nenhum avanço tecnológico poderá “corrigir” as incertezas inerentes ao funcionamento dos chatbots. É necessário, ao contrário, levar em consideração tais incertezas sempre que se recorre a eles na teoria ou na prática.

*Eleonora Albano, docente aposentada do Instituto de Estudos da Linguagem da Unicamp, é psicóloga, linguista, ensaísta; coordenou o primeiro projeto brasileiro sobre tecnologia de fala.

Notas


[i]https://stopkillerrobots.medium.com/the-algorithmically-accelerated-killing-machine-8fd5b1fef703

[ii] https://hiddenlayer.com/innovation-hub/the-dark-side-of-large-language-models/

[iii] Trata-se de repositórios de vulnerabilidades (V) e fraquezas (W) já detectadas nos sistemas.

[iv] Este é o caso em que o aprendizado de máquina fica muito aderido a um conjunto de treinamento, não conseguindo ir além dele.

[v] Skinner, B. F. (1938). The Behavior of Organisms: An experimental Analysis. New York: Appleton-Century-Crofts.

[vi]https://www.nytimes.com/1972/04/21/archives/b-f-skinners-philosophy-fascist-depends-on-how-its-used-he-says.html

[vii] https://dl.acm.org/doi/abs/10.1145/3630106.3658942  


A Terra é Redonda existe graças aos nossos leitores e apoiadores.
Ajude-nos a manter esta ideia.
CONTRIBUA

Veja neste link todos artigos de

10 MAIS LIDOS NOS ÚLTIMOS 7 DIAS

__________________
  • Visitando Cubahavana cuba 07/12/2024 Por JOSÉ ALBERTO ROZA: Como transformar a ilha comunista em um lugar turístico, em um mundo capitalista onde o desejo de consumir está imenso, mas nela a escassez se presentifica?
  • O mito do desenvolvimento econômico – 50 anos depoisledapaulani 03/12/2024 Por LEDA PAULANI: Introdução à nova edição do livro “O mito do desenvolvimento econômico”, de Celso Furtado
  • Abner Landimspala 03/12/2024 Por RUBENS RUSSOMANNO RICCIARDI: Desagravo a um spalla digno, injustamente demitido da Orquestra Filarmônica de Goiás
  • O Irã pode fabricar armas nuclearesatômica 06/12/2024 Por SCOTT RITTER: Palestra na 71ª reunião semanal da Coalizão Internacional para a Paz
  • O pobre de direitapexels-photospublic-33041 05/12/2024 Por EVERALDO FERNANDEZ: Comentário sobre o livro recém lançado de Jessé Souza.
  • Ainda estou aqui – humanismo eficiente e despolitizadocultura digital arte 04/12/2024 Por RODRIGO DE ABREU PINTO: Comentário sobre o filme dirigido por Walter Salles.
  • O ofício da poesiacultura seis graus de separação 07/12/2024 Por SERAPHIM PIETROFORTE: Porquanto a literatura se faz mediante a língua, revela-se indispensável conhecer gramática, linguística, semiótica, enfim, a metalinguagem
  • A Terceira Guerra Mundialmíssel atacms 26/11/2024 Por RUBEN BAUER NAVEIRA: A Rússia irá retaliar o uso de mísseis sofisticados da OTAN contra seu território, e os americanos não têm dúvidas quanto a isso
  • A retórica da intransigênciaescada luz e sombra 2 08/12/2024 Por CARLOS VAINER: A escala 6x1 desnuda o estado democrático de direita (ou deveríamos dizer da direita?), tolerante com as ilegalidades contra o trabalhador, intolerante frente a qualquer tentativa de submeter os capitalistas a regras e normas
  • A dialética revolucionáriaNildo Viana 07/12/2024 Por NILDO VIANA: Trechos, selecionado pelo autor, do primeiro capítulo do livro recém-lançado

PESQUISAR

Pesquisar

TEMAS

NOVAS PUBLICAÇÕES