Dezembro, 2023 - Edição 298
Inteligência Artificial: felizmente é perfeita
Se nós, humanos, não soubéssemos reagir
ao inesperado, já teríamos sido aniquilados há
muito.
Há uma nova obsessão global chamada “inteligência artificial
generativa” (IAG), que
alguns, erradamente, reduzem ao ChatGPT.
Reconheço o perigo que espreita, sobretudo,
porque pode estar ao serviço de pessoas com
intenções malévolas. Assusta-me a possibilidade
de caminharmos para uma sociedade distópica,
ameaça que não é despicienda, nem tão pouco
apenas com lugar no imaginário de Huxley,
Orwell, Burgess ou Wells.
Esta utilização das tecnologias para o
controle social não é estranha, como provam
exemplos recentes que, ainda sem recorrerem a
tamanha sofisticação (será?), já demonstraram
bem o poder dos algoritmos. Mesmo sem serem
propositadamente direcionados, são capazes de
induzir comportamentos, os quais, porventura,
mais tarde são alvo de arrependimento.
Também não ignoro os avisos que Yuval
Harari, filósofo israelita que nos tem assustado
com a sua visão pessimista, quando não fatalista, nos
lança sobre a hipótese de a biotecnologia aplicada à
IAG vir a potenciar não só as
desigualdades econômicas como, mais grave, as
biológicas. Passaríamos a ter classes sociais desequilibradas –
nada que não conheçamos ao longo
da história da humanidade –, mas igualmente “classes biológicas”
hierarquizadas em função das capacidades tecnológicas
incorporadas nos indivíduos. Ficção científica ou nem por isso?
Esta ferramenta sabe dar respostas com base no conteúdo do seu
imenso repositório de dados, mas é incapaz de lidar com o desconhecido.
No entanto, estou mais inclinada para a linha de raciocínio que ByungChul
Han, filósofo sul-coreano radicado na Alemanha, nos apresenta, quando
recorda: “A inteligência artificial não pode pensar por que não se arrepia.
Falta-lhe a dimensão afetivo-analógica, a comoção, que não pode ser captada
por dados e informações. A inteligência artificial não pensa porque ela nunca
está fora de si. Espírito significa originalmente ser-fora-de-si ou comoção.
A inteligência artificial pode até calcular muito
rapidamente, mas falta-lhe o espírito. Para ela,
calcular a comoção seria apenas um incômodo”
(in Não-Coisas, 2022, editora Vozes, p 41-44).
E este é um argumento fundamental, ao
qual se acresce o de Chomsky, que, apesar de
alarmista, nos explica, num artigo publicado no
New York Times em Março, que a IAG não é realmente inteligente porque não consegue pensar
criticamente. O ponto é que esta ferramenta não
é capaz de entender a negação, não consegue
distinguir o possível do impossível. Ela sabe dar
respostas com base no conteúdo do seu imenso
repositório de dados (fantástica a rapidez com
que nos atende), mas tem dificuldade em lidar
com o desconhecido.
Ora, se nós, humanos, não soubéssemos
reagir ao inesperado, já teríamos sido aniquilados
há muito. É esta aparente fragilidade humana, a
nossa imperfeição que nos leva a cometer erros
– e não é assim que ciência se faz? –, mas sem
desistir, que nos permite poder estar um passo à
frente da máquina e sobreviver.
O maior perigo, como alerta Harari, pode
ser o de querermos imitar a máquina. Aí, sim,
estragaríamos tudo. Até lá, é a nossa imperfeição
que nos pode salvar.