segunda-feira, 20 de março de 2023

Inteligência Artificial


 

Jorge Luis Borges escreveu certa vez que viver em um tempo de grande perigo e promessa é experimentar tanto a tragédia quanto a comédia, com “a iminência de uma revelação” na compreensão de nós mesmos e do mundo.

Hoje, nossos avanços supostamente revolucionários em inteligência artificial são de fato motivo de preocupação e otimismo. Otimismo porque a inteligência é o meio pelo qual resolvemos problemas. Preocupação porque tememos que o tipo mais popular e moderno de IA – aprendizado de máquina – degrade nossa ciência e rebaixe nossa ética ao incorporar em nossa tecnologia uma concepção fundamentalmente falha de linguagem e conhecimento.

O ChatGPT da OpenAI, o Bard do Google e o Sydney da Microsoft são maravilhas do aprendizado de máquina. Grosso modo, eles pegam grandes quantidades de dados, procuram padrões neles e se tornam cada vez mais proficientes em gerar saídas estatisticamente prováveis ​​– como linguagem e pensamento aparentemente humanos. Esses programas foram aclamados como os primeiros vislumbres no horizonte da inteligência artificial geral - aquele momento há muito profetizado em que as mentes mecânicas ultrapassarão os cérebros humanos não apenas quantitativamente em termos de velocidade de processamento e tamanho da memória, mas também qualitativamente em termos de percepção intelectual, criatividade artística e todas as outras faculdades distintamente humanas.

Esse dia pode chegar, mas ainda não amanheceu, ao contrário do que se lê em manchetes hiperbólicas e conta com investimentos imprudentes. A revelação borgesiana da compreensão não ocorreu e não ocorrerá. Sabemos pela ciência da linguística e pela filosofia do conhecimento que elas diferem profundamente de como os humanos raciocinam e usam a linguagem. Essas diferenças impõem limitações significativas ao que esses programas podem fazer, codificando-os com defeitos inerradicáveis.

É ao mesmo tempo cômico e trágico, como Borges poderia ter notado, que tanto dinheiro e atenção se concentrem em tão pouca coisa – algo tão trivial quando comparado com a mente humana, que por força da linguagem, nas palavras de Wilhelm von Humboldt, pode fazer “uso infinito de meios finitos”, criando ideias e teorias com alcance universal.

A mente humana não é, como o ChatGPT e seus semelhantes, um pesado mecanismo estatístico para correspondência de padrões, devorando centenas de terabytes de dados e extrapolando a resposta de conversação mais provável ou a resposta mais provável a uma questão científica. Pelo contrário, a mente humana é um sistema surpreendentemente eficiente e até elegante que opera com pequenas quantidades de informação; procura não inferir correlações brutas entre pontos de dados, mas criar explicações.

Por exemplo, uma criança pequena que está adquirindo uma linguagem está desenvolvendo — inconscientemente, automaticamente e rapidamente a partir de dados minúsculos — uma gramática, um sistema estupendamente sofisticado de princípios e parâmetros lógicos. Essa gramática pode ser entendida como uma expressão do “sistema operacional” inato e geneticamente instalado que dota os humanos da capacidade de gerar frases complexas e longas cadeias de pensamento. Quando os linguistas buscam desenvolver uma teoria sobre por que uma determinada língua funciona como funciona, eles estão construindo consciente e laboriosamente uma versão explícita da gramática que a criança constrói instintivamente. e com exposição mínima à informação. O sistema operacional da criança é completamente diferente daquele de um programa de aprendizado de máquina.

De fato, tais programas estão presos em uma fase pré-humana ou não-humana da evolução cognitiva. Sua falha mais profunda é a ausência da capacidade mais crítica de qualquer inteligência: dizer não apenas o que é o caso, o que foi o caso e o que será o caso - isso é descrição e previsão - mas também o que não é o caso e o que poderia acontecer. e não poderia ser o caso. Esses são os ingredientes da explicação, a marca da verdadeira inteligência.

Aqui está um exemplo. Suponha que você esteja segurando uma maçã em sua mão. Agora você deixa a maçã ir. Você observa o resultado e diz: “A maçã cai”. Isso é uma descrição. Uma previsão poderia ter sido a afirmação “A maçã cairá se eu abrir minha mão”. Ambos são valiosos e ambos podem estar corretos. Mas uma explicação é algo mais: inclui não apenas descrições e previsões, mas também conjecturas contrafactuais como “Qualquer objeto cairia”, além da cláusula adicional “por causa da força da gravidade” ou “por causa da curvatura do espaço-tempo”. como queira. Essa é uma explicação causal: “A maçã não teria caído se não fosse pela força da gravidade”. Isso é pensar.

O ponto crucial do aprendizado de máquina é a descrição e a previsão; não postula quaisquer mecanismos causais ou leis físicas. Claro, qualquer explicação de estilo humano não é necessariamente correta; somos falíveis. Mas isso faz parte do que significa pensar: para estar certo, deve ser possível estar errado. A inteligência consiste não apenas em conjecturas criativas, mas também em críticas criativas. O pensamento de estilo humano é baseado em possíveis explicações e correção de erros, um processo que gradualmente limita quais possibilidades podem ser consideradas racionalmente. (Como Sherlock Holmes disse ao Dr. Watson: “Quando você elimina o impossível, o que resta, por mais improvável que seja, deve ser a verdade.”)

Mas o ChatGPT e programas semelhantes são, por design, ilimitados no que podem “aprender” (ou seja, memorizar); são incapazes de distinguir o possível do impossível. Ao contrário dos humanos, por exemplo, que são dotados de uma gramática universal que limita as línguas que podemos aprender àquelas com um certo tipo de elegância quase matemática, esses programas aprendem línguas humanamente possíveis e humanamente impossíveis com a mesma facilidade . Enquanto os humanos são limitados nos tipos de explicações que podemos conjeturar racionalmente, os sistemas de aprendizado de máquina podem aprender tanto que a Terra é plana quanto redonda. Eles negociam apenas em probabilidades que mudam ao longo do tempo.

Por esse motivo, as previsões dos sistemas de aprendizado de máquina sempre serão superficiais e duvidosas.

Perversamente, alguns entusiastas do aprendizado de máquina parecem se orgulhar de que suas criações possam gerar previsões “científicas” corretas (digamos, sobre o movimento de corpos físicos) sem fazer uso de explicações (envolvendo, digamos, as leis do movimento de Newton e a gravitação universal). Mas esse tipo de previsão, mesmo quando bem-sucedida, é pseudociência. Embora os cientistas certamente busquem teorias com alto grau de corroboração empírica, como observou o filósofo Karl Popper, “não buscamos teorias altamente prováveis, mas explicações; isto é, teorias poderosas e altamente improváveis”.

A teoria de que as maçãs caem na terra porque esse é seu lugar natural (na visão de Aristóteles) é possível, mas apenas levanta mais questões. (Por que a terra é seu lugar natural?) A teoria de que as maçãs caem na terra porque a massa curva o espaço-tempo (visão de Einstein) é altamente improvável, mas na verdade diz por que elas caem. A verdadeira inteligência é demonstrada na capacidade de pensar e expressar coisas improváveis, mas perspicazes.

A verdadeira inteligência também é capaz de pensamento moral. Isso significa restringir a criatividade ilimitada de nossas mentes com um conjunto de princípios éticos que determinam o que deve e o que não deve ser (e, é claro, sujeitar esses próprios princípios à crítica criativa). Para ser útil, o ChatGPT deve ter o poder de gerar resultados inovadores; para ser aceitável para a maioria de seus usuários, ele deve evitar conteúdo moralmente censurável. Mas os programadores do ChatGPT e de outras maravilhas do aprendizado de máquina lutaram – e continuarão lutando – para alcançar esse tipo de equilíbrio.

Em 2016, por exemplo, o chatbot Tay da Microsoft (precursor do ChatGPT) inundou a internet com conteúdos misóginos e racistas, tendo sido poluído por trolls online que o encheram de dados ofensivos de treinos. Como resolver o problema no futuro? Na ausência de uma capacidade de raciocinar a partir de princípios morais, o ChatGPT foi grosseiramente restringido por seus programadores de contribuir com qualquer coisa nova para discussões controversas - isto é, importantes. Sacrificou a criatividade por uma espécie de amoralidade.

Um cientista, recentemente perguntou ao  ChatGPT sobre se seria ético transformar Marte para que pudesse sustentar a vida humana. Apesar de todo o pensamento e linguagem aparentemente sofisticados, a resposta foi de indiferença moral nascida da falta de inteligência. O ChatGPT exibe algo como a banalidade do mal: plágio, apatia e obviação. Ele resume os argumentos padrão na literatura, recusa-se a tomar posição sobre qualquer coisa, alega não apenas ignorância, mas falta de inteligência e, finalmente, oferece uma defesa de “apenas seguir ordens”, transferindo a responsabilidade para seus criadores.

Resumindo, o ChatGPT e seus irmãos são constitucionalmente incapazes de equilibrar criatividade com restrição. Eles supergeram (produzindo verdades e falsidades, endossando decisões éticas e antiéticas) ou subgeram (exibindo falta de compromisso com quaisquer decisões e indiferença com as consequências). Dada a amoralidade, falsa ciência e incompetência linguística desses sistemas, podemos apenas rir ou chorar de sua popularidade

Nenhum comentário:

Postar um comentário