Jorge Luis Borges escreveu certa vez que viver em um tempo
de grande perigo e promessa é experimentar tanto a tragédia quanto a comédia,
com “a iminência de uma revelação” na compreensão de nós mesmos e do mundo.
Hoje, nossos avanços supostamente revolucionários em
inteligência artificial são de fato motivo de preocupação e otimismo. Otimismo
porque a inteligência é o meio pelo qual resolvemos problemas. Preocupação
porque tememos que o tipo mais popular e moderno de IA – aprendizado de máquina
– degrade nossa ciência e rebaixe nossa ética ao incorporar em nossa tecnologia
uma concepção fundamentalmente falha de linguagem e conhecimento.
O ChatGPT da OpenAI, o Bard do Google e o Sydney da
Microsoft são maravilhas do aprendizado de máquina. Grosso modo, eles pegam
grandes quantidades de dados, procuram padrões neles e se tornam cada vez mais
proficientes em gerar saídas estatisticamente prováveis – como linguagem e
pensamento aparentemente humanos. Esses programas foram aclamados como os
primeiros vislumbres no horizonte da inteligência artificial geral - aquele
momento há muito profetizado em que as mentes mecânicas ultrapassarão os
cérebros humanos não apenas quantitativamente em termos de velocidade de
processamento e tamanho da memória, mas também qualitativamente em termos de
percepção intelectual, criatividade artística e todas as outras faculdades
distintamente humanas.
Esse dia pode chegar, mas ainda não amanheceu, ao contrário
do que se lê em manchetes hiperbólicas e conta com investimentos imprudentes. A
revelação borgesiana da compreensão não ocorreu e não ocorrerá. Sabemos pela
ciência da linguística e pela filosofia do conhecimento que elas diferem
profundamente de como os humanos raciocinam e usam a linguagem. Essas
diferenças impõem limitações significativas ao que esses programas podem fazer,
codificando-os com defeitos inerradicáveis.
É ao mesmo tempo cômico e trágico, como Borges poderia ter
notado, que tanto dinheiro e atenção se concentrem em tão pouca coisa – algo
tão trivial quando comparado com a mente humana, que por força da linguagem,
nas palavras de Wilhelm von Humboldt, pode fazer “uso infinito de meios
finitos”, criando ideias e teorias com alcance universal.
A mente humana não é, como o ChatGPT e seus semelhantes, um
pesado mecanismo estatístico para correspondência de padrões, devorando
centenas de terabytes de dados e extrapolando a resposta de conversação mais
provável ou a resposta mais provável a uma questão científica. Pelo contrário,
a mente humana é um sistema surpreendentemente eficiente e até elegante que
opera com pequenas quantidades de informação; procura não inferir correlações
brutas entre pontos de dados, mas criar explicações.
Por exemplo, uma criança pequena que está adquirindo uma
linguagem está desenvolvendo — inconscientemente, automaticamente e rapidamente
a partir de dados minúsculos — uma gramática, um sistema estupendamente
sofisticado de princípios e parâmetros lógicos. Essa gramática pode ser
entendida como uma expressão do “sistema operacional” inato e geneticamente
instalado que dota os humanos da capacidade de gerar frases complexas e longas
cadeias de pensamento. Quando os linguistas buscam desenvolver uma teoria sobre
por que uma determinada língua funciona como funciona, eles estão construindo
consciente e laboriosamente uma versão explícita da gramática que a criança
constrói instintivamente. e com exposição mínima à informação. O sistema
operacional da criança é completamente diferente daquele de um programa de
aprendizado de máquina.
De fato, tais programas estão presos em uma fase pré-humana
ou não-humana da evolução cognitiva. Sua falha mais profunda é a ausência da
capacidade mais crítica de qualquer inteligência: dizer não apenas o que é o
caso, o que foi o caso e o que será o caso - isso é descrição e previsão - mas
também o que não é o caso e o que poderia acontecer. e não poderia ser o caso.
Esses são os ingredientes da explicação, a marca da verdadeira inteligência.
Aqui está um exemplo. Suponha que você esteja segurando uma
maçã em sua mão. Agora você deixa a maçã ir. Você observa o resultado e diz: “A
maçã cai”. Isso é uma descrição. Uma previsão poderia ter sido a afirmação “A
maçã cairá se eu abrir minha mão”. Ambos são valiosos e ambos podem estar
corretos. Mas uma explicação é algo mais: inclui não apenas descrições e
previsões, mas também conjecturas contrafactuais como “Qualquer objeto cairia”,
além da cláusula adicional “por causa da força da gravidade” ou “por causa da
curvatura do espaço-tempo”. como queira. Essa é uma explicação causal: “A maçã
não teria caído se não fosse pela força da gravidade”. Isso é pensar.
O ponto crucial do aprendizado de máquina é a descrição e a
previsão; não postula quaisquer mecanismos causais ou leis físicas. Claro,
qualquer explicação de estilo humano não é necessariamente correta; somos
falíveis. Mas isso faz parte do que significa pensar: para estar certo, deve
ser possível estar errado. A inteligência consiste não apenas em conjecturas
criativas, mas também em críticas criativas. O pensamento de estilo humano é
baseado em possíveis explicações e correção de erros, um processo que
gradualmente limita quais possibilidades podem ser consideradas racionalmente.
(Como Sherlock Holmes disse ao Dr. Watson: “Quando você elimina o impossível, o
que resta, por mais improvável que seja, deve ser a verdade.”)
Mas o ChatGPT e programas semelhantes são, por design,
ilimitados no que podem “aprender” (ou seja, memorizar); são incapazes de
distinguir o possível do impossível. Ao contrário dos humanos, por exemplo, que
são dotados de uma gramática universal que limita as línguas que podemos
aprender àquelas com um certo tipo de elegância quase matemática, esses
programas aprendem línguas humanamente possíveis e humanamente impossíveis com
a mesma facilidade . Enquanto os humanos são limitados nos tipos de explicações
que podemos conjeturar racionalmente, os sistemas de aprendizado de máquina
podem aprender tanto que a Terra é plana quanto redonda. Eles negociam apenas
em probabilidades que mudam ao longo do tempo.
Por esse motivo, as previsões dos sistemas de aprendizado de
máquina sempre serão superficiais e duvidosas.
Perversamente, alguns entusiastas do aprendizado de máquina
parecem se orgulhar de que suas criações possam gerar previsões “científicas”
corretas (digamos, sobre o movimento de corpos físicos) sem fazer uso de
explicações (envolvendo, digamos, as leis do movimento de Newton e a gravitação
universal). Mas esse tipo de previsão, mesmo quando bem-sucedida, é
pseudociência. Embora os cientistas certamente busquem teorias com alto grau de
corroboração empírica, como observou o filósofo Karl Popper, “não buscamos
teorias altamente prováveis, mas explicações; isto é, teorias poderosas e
altamente improváveis”.
A teoria de que as maçãs caem na terra porque esse é seu
lugar natural (na visão de Aristóteles) é possível, mas apenas levanta mais
questões. (Por que a terra é seu lugar natural?) A teoria de que as maçãs caem
na terra porque a massa curva o espaço-tempo (visão de Einstein) é altamente
improvável, mas na verdade diz por que elas caem. A verdadeira inteligência é
demonstrada na capacidade de pensar e expressar coisas improváveis, mas
perspicazes.
A verdadeira inteligência também é capaz de pensamento moral.
Isso significa restringir a criatividade ilimitada de nossas mentes com um
conjunto de princípios éticos que determinam o que deve e o que não deve ser
(e, é claro, sujeitar esses próprios princípios à crítica criativa). Para ser
útil, o ChatGPT deve ter o poder de gerar resultados inovadores; para ser
aceitável para a maioria de seus usuários, ele deve evitar conteúdo moralmente
censurável. Mas os programadores do ChatGPT e de outras maravilhas do
aprendizado de máquina lutaram – e continuarão lutando – para alcançar esse
tipo de equilíbrio.
Em 2016, por exemplo, o chatbot Tay da Microsoft (precursor
do ChatGPT) inundou a internet com conteúdos misóginos e racistas, tendo sido
poluído por trolls online que o encheram de dados ofensivos de treinos. Como resolver
o problema no futuro? Na ausência de uma capacidade de raciocinar a partir de
princípios morais, o ChatGPT foi grosseiramente restringido por seus
programadores de contribuir com qualquer coisa nova para discussões
controversas - isto é, importantes. Sacrificou a criatividade por uma espécie
de amoralidade.
Um cientista, recentemente perguntou ao ChatGPT sobre se seria ético transformar Marte
para que pudesse sustentar a vida humana. Apesar de todo o pensamento e
linguagem aparentemente sofisticados, a resposta foi de indiferença moral
nascida da falta de inteligência. O ChatGPT exibe algo como a banalidade do
mal: plágio, apatia e obviação. Ele resume os argumentos padrão na literatura,
recusa-se a tomar posição sobre qualquer coisa, alega não apenas ignorância,
mas falta de inteligência e, finalmente, oferece uma defesa de “apenas seguir
ordens”, transferindo a responsabilidade para seus criadores.
Resumindo, o ChatGPT e seus irmãos são
constitucionalmente incapazes de equilibrar criatividade com restrição. Eles
supergeram (produzindo verdades e falsidades, endossando decisões éticas e
antiéticas) ou subgeram (exibindo falta de compromisso com quaisquer decisões e
indiferença com as consequências). Dada a amoralidade, falsa ciência e
incompetência linguística desses sistemas, podemos apenas rir ou chorar de sua
popularidade