O jornalista científico Adam Becker acaba de lançar o livro
" More Everything Forever "
Becker detalha uma infinidade de falhas nos grandes projetos
defendidos por bilionários da tecnologia
e pensadores focados no futuro, cujas ambições estão transformando o mundo de
hoje e moldando nossa visão sobre os séculos vindouros.
Becker não tem como alvo apenas suas aspirações pelo espaço
sideral, mas também suas alegações sobre inteligência artificial, a necessidade
de crescimento infinito, suas ambições de erradicar o envelhecimento e a morte,
e muito mais — como sugerido pelo subtítulo do livro: “Senhores da IA, impérios
espaciais e a cruzada do Vale do Silício para controlar o destino da
humanidade”.
Becker acha fácil desmistificar a ideia de colonizar Marte ,
explicando que morrer pode, na verdade, ser a única coisa que os humanos
provavelmente farão lá. "Os níveis de radiação são muito altos, a
gravidade é muito baixa, não há ar e a terra é feita de veneno", ele
afirma sem rodeios. Ele observa que temos dificuldade em convencer as pessoas a
passarem muito tempo na Antártida — um lugar muito mais hospitaleiro.
"Marte", diz Becker, "faria a Antártida parecer o Taiti".
Os outros planetas (e luas) do sistema solar são igualmente
hostis, e sistemas estelares além do nosso são inimaginavelmente distantes. Ele
conclui: "Ninguém vai ousadamente a lugar nenhum, a não ser para viver o
resto da vida e construir famílias e comunidades — nem agora, nem em breve, e
talvez nunca."
Becker não visa apenas as aspirações pelo espaço sideral,
mas também afirmações sobre inteligência artificial, a necessidade de
crescimento infinito, ambições de erradicar o envelhecimento e a morte, e muito
mais.Ele vê a colonização espacial não apenas como irrealista, mas também
moralmente duvidosa. Por que, ele pergunta, os bilionários estão tão
interessados em deixar nosso planeta em vez de cuidar dele?
A astrônoma Lucianne Walkowicz vê o foco deles em asteroides
assassinos e IAs desonestas — e seu aparente desinteresse pelas mudanças
climáticas — como uma fuga de responsabilidade. "A ideia de apoiar a
humanidade é se eximir da responsabilidade, fazendo parecer que temos esse
passe livre para sair da cadeia", diz Walkowicz.
Becker tem como alvo não apenas gurus da tecnologia, mas
também os chamados longtermos (que priorizam o florescimento de humanos que
viverão em eras a partir de agora), racionalistas (que acreditam que a tomada
de decisões deve ser guiada pela razão e lógica) e transumanistas (que defendem
uma variedade de crenças relacionadas à extensão da vida humana e à fusão da
humanidade com a IA). Esses grupos percebem o futuro de diversas maneiras, mas
subjacente a muitas de suas visões está o que Becker vê como uma fé equivocada
na inteligência artificial, às vezes imaginada como prestes a florescer em
"AGI" ( inteligência artificial geral ), mas também potencialmente
perigosa se seus objetivos divergirem dos da humanidade (o chamado problema do
alinhamento ).
Nem todos compartilham esse medo de uma IA descontrolada, e
Becker faz questão de conversar com céticos como Jaron Lanier, Melanie Mitchell
e Yann LeCun, todos eles longe de se convencerem de que esse seja um perigo
real. Ele também cita o empreendedor e desenvolvedor web Maciej Cegłowski, que
descreveu o problema do alinhamento da IA superinteligente desalinhada como
"a ideia que devora pessoas inteligentes". Ainda assim, o livro não é
apenas uma crítica aos gurus da IA por parte de Becker: ele explica em que
esses devotos acreditam, antes de apresentar uma visão alternativa mais cética.
Becker também observa que o poder dos computadores pode não
estar destinado a aumentar tão rapidamente quanto muitos proponentes imaginam.
Ele analisa a Lei de Moore, a noção de que o número de transistores em
circuitos integrados dobra aproximadamente a cada dois anos, observando que
esse crescimento inevitavelmente esbarrará em limitações impostas pelas leis da
física. Becker ressalta que o próprio Gordon Moore estimou em 2010 que a atual
taxa de crescimento exponencial chegaria ao fim em 10 ou 20 anos — ou seja,
agora ou muito em breve.
Na visão de Becker, a fé na Lei de Moore é apenas uma faceta
de um compromisso mal pensado com o crescimento infinito que alguns tecnófilos
parecem estar defendendo. O crescimento exponencial, em particular, é, por
definição, insustentável. Ele cita uma analogia que o inventor e futurista Ray
Kurzweil fez sobre o crescimento de vitórias-régias em um lago: a cada poucos
dias, o número de vitórias-régias dobra e, antes que você perceba, elas cobrem
todo o lago. "Isso é verdade", escreve Becker, "mas é também aí
que o crescimento das vitórias-régias termina, porque elas não conseguem cobrir
mais de 100% do lago. Toda tendência exponencial funciona assim: todos os
recursos são finitos; nada dura para sempre; tudo tem limites."
Becker diz que se continuarmos usando energia no nosso ritmo
atual (e acelerado), estaremos explorando toda a produção de energia do sol em
1.350 anos e, um pouco mais de um milênio depois, toda a energia emitida por
todas as estrelas da Via Láctea — e assim por diante.Ele também discorda da
ideia central do longo prazo — de que as necessidades de incontáveis bilhões
ou mesmo trilhões de humanos futuros são tão importantes quanto as necessidades
daqueles que vivem na Terra hoje — e talvez ainda mais importantes, devido à
sua (eventual) grande quantidade. (Muitas dessas ideias são explicitadas no
livro de 2022 do filósofo William MacAskill, " O Que Devemos ao Futuro
".) Para ele, nossas ações hoje devem se concentrar em permitir que esse
futuro abundante se desenvolva, mesmo que isso signifique sacrifícios no aqui e
agora. O problema é que simplesmente não podemos saber quais condições
prevalecerão daqui a séculos, muito menos milênios, então é presunçoso imaginar
que as decisões de hoje possam ser adaptadas para beneficiar pessoas que ainda
não nascerão por um tempo inimaginavelmente longo.
Nenhum comentário:
Postar um comentário