O problema que a expressão inteligência artificial levanta
foi assim resumido pelo matemático Jorge Buescu:
“Há décadas que se ouve falar em
«inteligência artificial», «cérebro electrónico» e conceitos relacionados.”
“No entanto, estes conceitos parecem bastante
avessos a uma definição rigorosa. Em ciências da computação diz-se por vezes,
meio jocosamente, que o conceito de inteligência é tão difícil de definir que,
quando o situamos numa meta concreta e ela é atingida, verificamos que afinal o
sistema que o conseguiu não é inteligente, e temos de rever a nossa definição.
O exemplo clássico esteve em voga muitos anos: quando uma máquina conseguisse
vencer um Grande Mestre numa partida de xadrez, mereceria ser chamada «inteligente».
Pois isso aconteceu em 1997: o Deep Blue,
um computador construído para o efeito pela IBM, venceu o Grande Mestre Garry
Kasparov. No entanto, ninguém pode dizer que o Deep Blue era inteligente: simplesmente analisava, por força bruta
e de forma extraordinariamente rápida, o valor das jogadas, o que pelos vistos
fazia melhor do que qualquer mortal. Mas era incapaz de fazer algo mais do que
jogar xadrez.”
Prudentemente, Jorge Buescu decidiu deixar-nos com a dúvida sobe se, no futuro,
esta recorrente limitação da «inteligência artificial» iria ou não ser
superada.
Ao abordar este problema, Yuval Harari, um historiador, escolheu a hipótese
mais radical:
“A noção de que os humanos terão
sempre uma habilidade distintiva fora do alcance dos algoritmos não-conscientes
não passa de uma ilusão”. O que a ciência actual afirma sobre a «vida»
em geral, e portanto sobre aquilo a que chamamos «inteligência», “pode ser resumido em três princípios básicos:
1. Os organismos são algoritmos. Todos os animais, incluindo o Homo Sapiens, são um conjunto de
algoritmos orgânicos aperfeiçoados pela seleção natural ao longo de milhões de
anos de evolução.
2. Os cálculos dos algoritmos
não são influenciados pelos materiais de que é feita a calculadora. Quer o
ábaco seja feito de madeira, ferro ou plástico, o resultado da soma de duas
contas com outras duas será sempre de quatro contas.
3. Daí que não haja qualquer razão para se pensar que os algoritmos orgânicos
conseguem fazer coisas que os inorgânicos nunca conseguirão fazer. Desde que os
cálculos sejam válidos, o que interessa se a base dos algoritmos é o carbono ou
o silício.”
O físico Michio Kaku pendeu, mais do que Jorge Buescu, outro representante das
ciências duras, para o pessimismo em relação à «inteligência artificial»:
“Em 2016, a notícia de que o programa informático
AlphaGo, da Deep Mind, tinha vencido Lee Sedol, o campeão mundial do antigo
jogo do Go, veio dar um novo impulso à área da inteligência artificial.”
“O AlphaGo é o programa de jogos
mais avançado de sempre. No xadrez, há em média 20 a 30 jogadas que se podem
fazer a qualquer momento, mas no Go existem cerca de 250 jogadas exequíveis. De
facto, o número total de configurações de jogo do Go ultrapassa o número total
de átomos no Universo.” No entanto, depois desta proeza, “depressa se tornou evidente que, apesar da sua
sofisticação, o AlphaGo só conseguia fazer uma coisa: vencer no Go.” “Por mais poderoso que seja um hardware, não podemos ir ter com a máquina, dar-lhe uma palmada nas
costas, felicitá-lo por ter vencido um humano e esperar uma resposta coerente.
A máquina ignora totalmente que acaba de fazer história científica. Na verdade,
a máquina nem sequer sabe que é uma máquina.”
António Damásio, um neuro-cientista, tanto criticou o modo como a «inteligência
artificial» tem sido desenvolvida como lhe sugeriu outras direcções de
desenvolvimento. Ao ser entrevistado por Pedro Rios afirmou:
“Grande parte da
IA [Inteligência Artificial] é muito estúpida
[risos]. O mais curioso na IA é que é muito
limitada por aspectos cognitivos. É pensar a inteligência apenas com o aspecto
mais moderno (o cognitivo) e não com os aspectos fundamentais que vêm do
afecto. Ora, a inteligência dos seres vivos começou com aspectos que têm que
ver com a regulação da vida. Uma vez que houve sistema nervoso, [a inteligência]
passou a ser ligada pelos sentimentos e pela consciência. E só na parte final
passou a ser uma inteligência dos factos, que tem que ver com olhar para o
mundo e, através da visão, da audição e do tacto, descrevê-lo. Em vez de olhar
para a nossa trajectória biológica, a IA foi directamente ao fim. E assim
conseguiu uma coisa magnífica, que é ter uma inteligência rápida, que resolve
uma quantidade de problemas, mas que, muitas vezes, os resolve de uma forma não
particularmente inteligente e não condutiva ao ser humano que precisa de afecto
e carinho.
O que estamos a propor é que se faça uma nova espécie de IA que tenha em conta
o afecto e que vem das chamadas soft robotics (matérias que podem ser
modificadas, que se podem premer ou mudar com o frio e o calor). É uma forma de
dar uma resposta do tipo que nós temos quando o nosso corpo responde a boa ou
má temperatura, a calorias suficientes ou insuficientes. É uma nova linha de
máquinas artificiais que julgo ter imenso futuro.”
“A IA é
um aspecto extremo da inteligência em que não há praticamente vulnerabilidade.
E nós, seres humanos, estamos no meio: temos certas vulnerabilidades e certas
capacidades. Para um robô se relacionar consigo ou comigo, é preciso que tenha
qualquer coisa de um ser humano médio. Você não pode estar um dia inteiro sem
beber água, vai ficar desidratado. Essas vulnerabilidades vêm do facto de que a
vida não é um algoritmo fixo, mas uma constante adaptação a condições
biológicas. Trazer vulnerabilidades para a robótica é uma maneira de a
aproximar de nós. O problema da IA e a sua limitação é ser invulnerável.”
Sam Copeland, tal como outros analistas de Xadrez, não gosta
de usar a expressão «inteligência artificial», preferindo chamar «máquinas» às
suas materializações neste jogo.
Por um lado, afirmou:
“O consenso genérico parece reconhecer
que os melhores humanos apenas asseguram uns tantos empates, jogando de
brancas, mas em geral, perderão a grande maioria das partidas e não tem esperança
de ganhar qualquer jogo.”
Mas, por outro, apresenta uma grande variedade de exemplos onde as «máquinas»
mostram ser incapazes de compreender (e de actuar em) situações concretas de
jogo. O diagrama seguinte é uma dessas posições:
Fontes: livros de Buescu (2014; pp. 211-212), de
Harari (2018; p. 356) e de Kaku (2018; pp. 157-158); entrevista a Damásio no
«jornal «Público» (2020); artigo de Copeland (2021; tradução minha)