Numa era de ChatGPT, os algoritmos informáticos e a
inteligência artificial estão cada vez mais presentes nas nossas vidas,
escolhendo os conteúdos que nos mostram online, sugerindo a música que ouvimos
e respondendo às nossas questões.
Esses algoritmos podem estar mudando nosso mundo e
comportamento de maneiras que não entendemos completamente, diz o psicólogo e
cientista comportamental Gerd Gigerenzer, diretor do Harding Center for Risk
Literacy da Universidade de Potsdam, na Alemanha.Ele conduziu pesquisas ao
longo de décadas que ajudaram a moldar a compreensão de como as pessoas fazem
escolhas quando confrontadas com a incerteza.
Em seu último livro, “How to Stay Smart in a Smart World”, o
Dr. Gigerenzer analisa como os algoritmos estão moldando nosso futuro – e por
que é importante lembrar que eles não são humanos.
O termo algoritmo é muito usado hoje em dia. Do que estamos
falando quando falamos de algoritmos?
É uma coisa enorme e, portanto, é importante distinguir do
que estamos falando. Um dos insights é que, se você tem uma situação estável e
bem definida, algoritmos complexos, como redes neurais profundas, eles
certamente serâo melhores do que o desempenho humano. Exemplos são os jogos de
xadrez e Go, que são estáveis. Mas se você tiver um problema que não é estável
- por exemplo, deseja prever uma nova pandemia,é melhor estar longe de
algoritmos complexos. É lidar com a incerteza - é mais assim que a mente humana
funciona, para identificar uma ou duas pistas importantes e ignorar o resto.
Nesse tipo de problema mal definido, algoritmos complexos não funcionam bem.
Os algoritmos são uma rede neural profunda que tem muitas
camadas, mas ainda são máquinas de calcular. Eles podem fazer muito com a ajuda
da tecnologia de vídeo. Eles podem pintar, eles podem construir textos. Mas
isso não significa que eles entendam o texto da mesma forma que os humanos.
Portanto, precisamos entender a situação em que o julgamento humano é
necessário e é realmente melhor. E também precisamos prestar atenção para não
estarmos nos deparando com uma situação em que empresas de tecnologia vendem
algoritmos que determinam partes de nossas vidas, incluindo o comportamento
social e político.
Esse tipo de perigo é real. Entre todos os benefícios que
possui, um dos vícios é a propensão à vigilância por parte de governos e
empresas de tecnologia. Mas as pessoas não leem mais as políticas de
privacidade, então não sabem. E também as políticas de privacidade são
configuradas de forma que você não possa realmente lê-las. Eles são muito
longos e complicados.Esta é a armadilha.
Um exemplo de como os algoritmos atuam na vida real :
Pense em uma cafeteria em sua cidade que serve café de graça. Todo mundo vai lá
porque é grátis, e todas as outras cafeterias vão à falência. Portanto, você
não tem mais escolha, mas pelo menos toma seu café de graça e conversa com seus
amigos. Mas nas mesas há microfones e nas paredes câmeras de vídeo que gravam
tudo o que você diz, cada palavra e para quem, e envia para análise. A
cafeteria está cheia de vendedores que o interrompem o tempo todo para oferecer
produtos personalizados. Essa é aproximadamente a situação em que você está
quando está no Facebook, Instagram ou outras plataformas Neste café, você não é
o cliente. Você é o produto. Então, queremos ter uma cafeteria onde possamos
novamente pagar por nós mesmos, para que sejamos os clientes. É preciso que as
pessoas percebam que não é uma boa ideia dar seus dados e sua responsabilidade
por suas próprias decisões a empresas de tecnologia que os usam para ganhar
dinheiro com anunciantes. Isso não pode ser o nosso futuro. Existe um perigo
real de que mais e mais pessoas sejam sonâmbulas na vigilância e apenas aceitem
tudo o que for mais conveniente.
O mais conveniente é não pensar. E a alternativa é começar a
pensar.
Nenhum comentário:
Postar um comentário