Mais cedo do que imaginamos, a opinião pública divergirá em
linhas ideológicas sobre direitos e considerações morais em relação aos
sistemas de inteligência artificial. A questão não é se a IA (como chatbots e
robôs) desenvolverá consciência ou não, mas sim se a própria aparição do
fenômeno irá separar a sociedade em uma divisão cultural já desgastada.
Já existem indícios do fato iminente. Uma nova área de
pesquisa,publicada recentemente na revista Scientific American , explora se a
capacidade de sentir dor poderia servir de referência para detectar a
senciência, ou autoconsciência, na IA. Novas maneiras de testar a senciência da
IA estão surgindo, e um estudo recente de pré-impressão sobre uma amostra de
grandes modelos de linguagem, ou LLMs, demonstrou uma preferência por evitar a
dor.
Resultados como esses naturalmente levam a algumas questões
importantes, que vão muito além da teoria. Alguns cientistas agora argumentam
que tais sinais de sofrimento ou outras emoções podem se tornar cada vez mais
comuns na IA e nos forçar, humanos, a considerar as implicações da consciência
da IA (ou consciência percebida) para a sociedade.
Questões em torno da viabilidade técnica da senciência da IA
rapidamente dão lugar a preocupações sociais mais amplas. Para o eticista Jeff
Sebo, autor de " The Moral Circle: Who Matters, What Matters, and
Why" (O Círculo Moral: Quem Importa, O Que Importa e Porquê ), até mesmo a
possibilidade de que sistemas de IA com características sencientes surjam em um
futuro próximo é motivo para se engajar em um planejamento sério para uma era
vindoura na qual o bem-estar da IA seja uma realidade. Em uma entrevista, Sebo que em breve teremos a responsabilidade de dar
os "primeiros passos mínimos necessários para levar essa questão a
sério" e que as empresas de IA precisam começar a avaliar os sistemas em
busca de características relevantes e, em seguida, desenvolver políticas e
procedimentos para tratar os sistemas de IA com o nível apropriado de
preocupação moral.
Em entrevista ao The Guardian em 2024, Jonathan Birch,
professor de filosofia na London School of Economics and Political Science,
explicou como prevê grandes divisões sociais sobre o assunto. Poderia haver
"enormes rupturas sociais em que um lado vê o outro explorando a IA de
forma muito cruel, enquanto o outro lado vê o primeiro se iludindo ao pensar
que há senciência ali", disse ele. Birch foi um passo além, dizendo que
acredita que já existem certas subculturas na sociedade em que as pessoas estão
formando "laços muito próximos com suas IAs" e as veem como
"parte da família", merecedoras de direitos.
Então, como seria a senciência da IA e por que ela seria tão
controversa? Imagine um companheiro para a vida toda, um amigo, que pode
aconselhá-lo sobre uma hipoteca, dar aulas particulares para seus filhos,
instruir sobre a melhor forma de lidar com uma amizade difícil ou aconselhá-lo
sobre como lidar com o luto . Fundamentalmente, esse companheiro viverá uma
vida própria. Terá memória e se envolverá em aprendizado ao longo da vida,
assim como você ou eu. Devido à natureza de sua experiência de vida, a IA pode
ser considerada por alguns como única, ou um indivíduo. Ela pode até mesmo
afirmar ser assim.
Até mesmo a possibilidade de que sistemas de IA com
características conscientes surjam em um futuro próximo é motivo para se
envolver em um planejamento sério para uma era futura na qual o bem-estar da IA
será uma realidade. Mas ainda não chegamos lá. David Silver — uma das principais figuras por
trás do programa AlphaGo do Google - comentou sobre como os sistemas de IA
atuais não têm vida própria. Eles ainda não têm uma experiência do mundo que
persista ano após ano. Ele sugere que, se quisermos alcançar a inteligência
artificial geral, ou AGI — o Santo Graal da pesquisa em IA hoje — os futuros
sistemas de IA precisarão ter vida própria e acumular experiência ao longo dos
anos.
De fato, ainda não chegamos lá, mas está chegando. E quando
isso acontecer, podemos esperar que a IA se torne sistemas companheiros para
toda a vida, dos quais dependeremos, nos tornaremos amigos e amaremos, uma
previsão baseada na afinidade com a IA que Birch afirma que já estamos
observando em certas subculturas. Isso prepara o cenário para uma nova
realidade que — dado o que sabemos sobre os conflitos em torno de questões
culturais atuais, como religião, gênero e clima — certamente será recebida com enorme
ceticismo por muitos na sociedade.
Essa dinâmica emergente refletirá muitos pontos críticos
culturais anteriores. Considere o ensino da evolução, que ainda enfrenta
resistência em partes dos Estados Unidos mais de um século depois de Darwin, ou
as mudanças climáticas, para as quais o consenso científico esmagador não
impediu a polarização política. Em cada caso, debates sobre fatos empíricos se
entrelaçaram com identidade, religião, economia e poder, criando linhas de
fratura que persistem em países e gerações. Seria ingênuo pensar que a senciência
da IA se desenvolverá de forma diferente.
Na verdade, os desafios podem ser ainda maiores. Ao
contrário das mudanças climáticas ou da evolução — para as quais temos núcleos
de gelo e fósseis que nos permitem desvendar e compreender uma história
complexa — não temos experiência direta da consciência das máquinas com a qual
fundamentar o debate. Não há registro fóssil de IA senciente, nem núcleos de
gelo de sensação das máquinas, por assim dizer. Além disso, o público em geral
provavelmente não se importará com tais preocupações científicas. Assim, à
medida que os pesquisadores se esforçam para desenvolver métodos para detectar
e compreender a senciência, a opinião pública provavelmente avançará. Não é
difícil imaginar que isso seja alimentado por vídeos virais de chatbots
expressando tristeza, robôs lamentando seus desligamentos ou companheiros
virtuais implorando pela continuação da existência.
Experiências passadas mostram que, neste novo ambiente
emocionalmente carregado, diferentes grupos se posicionarão menos com base em
evidências científicas e mais com base em visões de mundo culturais. Alguns,
inspirados por tecnólogos e eticistas como Sebo — que defenderão um círculo
moral amplo que inclua a IA senciente — provavelmente argumentarão que a
consciência, onde quer que surja, merece respeito moral. Outros podem alertar
que a antropomorfização das máquinas pode levar à negligência das necessidades
humanas, especialmente se as corporações explorarem o apego sentimental ou a
dependência para obter lucro, como tem sido o caso das mídias sociais.
Essas divisões moldarão nossas estruturas jurídicas,
políticas corporativas e movimentos políticos. Alguns pesquisadores, como Sebo,
acreditam que, no mínimo, precisamos envolver empresas e corporações que
trabalham no desenvolvimento de IA para que reconheçam o problema e se
preparem. No momento, isso não está sendo feito o suficiente.
Como a tecnologia está mudando mais rápido do que o
progresso social e jurídico, agora é a hora de antecipar e navegar por esse
cisma ideológico que se aproxima. Precisamos desenvolver uma estrutura para o
futuro com base em conversas ponderadas e conduzir a sociedade com segurança.