Dario Amodei, CEO da empresa de inteligência artificial
Anthropic, prevê que uma IA “mais inteligente que um ganhador do Prêmio Nobel”
em áreas como biologia, matemática, engenharia e escrita poderá entrar em
operação até 2027. Ele imagina milhões de cópias de um modelo funcionando
incessantemente, cada uma conduzindo sua própria pesquisa: um “país de gênios
em um data center”.
Em junho, Sam Altman, da OpenAI, escreveu que a indústria
estava prestes a construir uma “superinteligência digital”. “A década de 2030
provavelmente será muito diferente de qualquer época anterior”, afirmou.
A implementação apressada e desigual da IA criou uma névoa
que nos leva a concluir que não há nada de extraordinário nisso — que tudo não
passa de propaganda. De fato, há muita propaganda: o cronograma de Amodei é
ficção científica. (Os modelos de IA não estão melhorando tão rápido assim.) Mas
é outro tipo de ilusão supor que grandes modelos de linguagem estejam apenas
reorganizando palavras.A ideia de que a IA tem pouco a ver com inteligência ou
compreensão reais não é um fato.
Diz-se que o autor de ficção científica William Gibson
observou que o futuro já chegou, apenas não está distribuído igualmente — o que
talvez explique por que a IA parece ter criado duas culturas distintas, uma que
a rejeita e outra que a fascina.
O ChatGPT está simplesmente juntando palavras sem pensar, ou
compreende o problema? A resposta pode nos ensinar algo importante sobre o
próprio processo de compreensão. "Os neurocientistas precisam confrontar
essa verdade humilhante", disse Doris Tsao, professora de neurociência da
Universidade da Califórnia, Berkeley. "Os avanços na aprendizagem de
máquina nos ensinaram mais sobre a essência da inteligência do que qualquer
coisa que a neurociência tenha descoberto nos últimos cem anos."
A explicação mais básica de como chegamos até aqui é mais ou
menos a seguinte: na década de 1980, uma pequena equipe de psicólogos
cognitivos e cientistas da computação tentou simular o pensamento em uma
máquina. Entre os mais famosos estavam David Rumelhart, Geoffrey Hinton e James
McClelland, que posteriormente formaram um grupo de pesquisa na Universidade da
Califórnia, em San Diego. Eles viam o cérebro como uma vasta rede na qual os
neurônios disparam em padrões, fazendo com que outros conjuntos de neurônios
disparem, e assim por diante; essa dança de padrões é o pensamento. O cérebro
aprende alterando a força das conexões entre os neurônios. Fundamentalmente, os
cientistas imitaram esse processo criando uma rede neural artificial e
aplicando um algoritmo simples chamado descida de gradiente para aumentar a
precisão de suas previsões. (O algoritmo pode ser comparado a um alpinista
navegando do topo de uma montanha até um vale; uma estratégia simples para
eventualmente encontrar o caminho é garantir que cada passo seja em direção à
base da montanha.) O uso de tais algoritmos em grandes redes é conhecido como
aprendizado profundo.
Os principais modelos de IA da atualidade são treinados em
uma grande parte da internet, usando uma técnica chamada previsão do próximo
token. Um modelo aprende fazendo suposições sobre o que lerá em seguida e, em
seguida, comparando essas suposições com o que de fato aparece. Suposições
erradas induzem mudanças na força da conexão entre os neurônios; isso é o que
chamamos de descida de gradiente. Eventualmente, o modelo se torna tão bom em
prever textos que parece saber as coisas e fazer sentido. Então, isso é algo
para se pensar. Um grupo de pessoas buscava o segredo de como o cérebro
funciona. À medida que seu modelo crescia em direção a um tamanho semelhante ao
do cérebro, ele começou a fazer coisas que se acreditava exigirem inteligência
semelhante à do cérebro. Será que eles encontraram
Pode parecer antinatural, até mesmo repulsivo, imaginar que
um programa de computador realmente entenda, que realmente pense . Normalmente,
concebemos o pensamento como algo consciente, como um monólogo interior
joyceano ou o fluxo de memórias sensoriais em um devaneio proustiano. Ou
podemos nos referir ao raciocínio: resolver um problema passo a passo. Em
nossas conversas sobre IA, frequentemente confundimos esses diferentes tipos de
pensamento, o que torna nossos julgamentos simplistas. O ChatGPT obviamente não
está pensando, argumenta-se, porque obviamente não está tendo um devaneio
proustiano; o ChatGPT claramente está pensando, argumenta-se outro, porque
consegue resolver quebra-cabeças lógicos melhor do que você.
Algo mais sutil está acontecendo. Não acredito que o ChatGPT
tenha uma vida interior, e ainda assim parece saber do que está falando.
Compreender — ter uma noção do que está acontecendo — é um tipo de pensamento
subestimado, porque é em grande parte inconsciente. Douglas Hofstadter,
professor de ciência cognitiva e literatura comparada na Universidade de
Indiana, gosta de dizer que cognição é reconhecimento. A teoria de Hofstadter,
desenvolvida ao longo de décadas de pesquisa, é que "ver como" é a
essência do pensamento. Você vê uma mancha de cor como um carro e outra como um
chaveiro; você reconhece a letra "A" independentemente da fonte em
que está escrita ou da caligrafia. Hofstadter argumentou que o mesmo processo
está na base de tipos mais abstratos de percepção. Quando um grande mestre
examina um tabuleiro de xadrez, anos de prática se canalizam em uma forma de
enxergar: o bispo das brancas está fraco; aquele final de jogo provavelmente
terminará em empate. Você vê uma correnteza em um rio como um sinal de que é
perigoso atravessá-lo. Para Hofstadter, essa é a essência da inteligência.
Com a IA, nos encontramos mais uma vez em um momento de
arrogância e confiança.Já se fala em arrecadar meio trilhão de dólares para
construir o Stargate, um novo conjunto de centros de dados de IA, nos EUA. As
pessoas discutem a corrida pela superinteligência com uma gravidade e uma
urgência que podem parecer infundadas, até mesmo ridículas. Mas suspeito que a
razão pela qual os cientistas da computação do mundo estão fazendo declarações
messiânicas é que eles acreditam que o quadro básico da inteligência já foi
definido; o resto são apenas detalhes.
Nenhum comentário:
Postar um comentário