Consciência, Inteligência Artificial, e porque é que estamos tramados.
Um engenheiro da Google, entretanto despedido, alegou que o LaMDA, um modelo linguístico dessa empresa, se tinha tornado consciente (1). Muitas pessoas apontaram que é disparate mas as justificações que tenho visto não me deixaram satisfeito. Uns alegam que LaMDA não pode ser consciente porque apenas calcula probabilidades de frases e palavras. Além de isto subestimar a complexidade destes modelos, muito mais complexos do que aquilo que um ser humano consegue conscientemente fazer, mesmo tarefas simples podem ser feitas com consciência. Contar pelos dedos, por exemplo. Portanto, não é por "apenas" estimar probabilidades que não pode ser consciente. Outra justificação é que as palavras produzidas por LaMDA não têm intencionalidade, aquela propriedade de ser acerca de algo. Quando uma pessoa diz que subir ao monte Evereste é um grande feito, sabemos que diz essas palavras referindo aquele monte e conceito. Quando LaMDA dá essa resposta (2), são apenas palavras. Só na mente do leitor é que referem alguma coisa. Isto é verdade mas só diz que LaMDA não é consciente porque não é consciente. Neste contexto, intencionalidade e consciência acabam por ser o mesmo.
Eu proponho que o problema está na forma como o algoritmo é materializado. Um algoritmo é uma sequência abstracta de instruções que podem ser executadas de forma automática. Por exemplo, para calcular a área do triângulo somamos o comprimento dos lados, dividimos por dois, subtraímos a esse valor cada um dos lados, multiplicamos esses quatro valores (o total e as diferenças) e calculamos a raiz quadrada desse produto. Isto em abstracto. Em concreto, o melhor é arranjar algum suporte material e convencionar uma correspondência com estes passos. Marcas num papel ou a posição das contas de um ábaco, por exemplo. Ou, melhor ainda, cargas e tensão num circuito electrónico. Aí corre tudo automaticamente e no final só temos de interpretar o resultado. É assim que LaMDA funciona. Em abstracto, uma frase como "porque é que as pessoas sobem ao monte Evereste?" é mapeada numa tabela de números, esses números são multiplicados e somados a outros números, dá uma tabela ainda maior de números, faz-se isso várias vezes com muitos milhões de números e várias funções e no fim saem números indicando a probabilidade de cada palavra que pode vir a seguir*. Mas isso é o algoritmo em abstracto. Em concreto não vamos lidar com números mas sim com cargas e tensões num circuito que, para nós, representam esses números e essas operações. No final aparece uma mancha no ecrã que interpretamos como sendo uma resposta à nossa pergunta.
O que eu proponho é que a consciência não vem do algoritmo, que é abstracto, mas depende do suporte físico em que este for materializado. Um algoritmo simples materializado num cérebro humano é executado de forma consciente. Se o humano usar um ábaco ou um lápis, a consciência continua no humano e não no ábaco ou no lápis. E se materializar o algoritmo num circuito electrónico, também não é o circuito que fica consciente. Se LaMDA for consciente, então todos os aparelhos electrónicos serão conscientes também, o que não é plausível.
Isto não presume nada de sobrenatural ou imaterial acerca da consciência. É um problema mais genérico. Por exemplo, podemos pensar num algoritmo para construir um muro de tijolos, com todos os cálculos para posicionar os tijolos e colocar a argamassa em função das dimensões do muro e dos tijolos. E podemos materializar esse algoritmo fazendo as contas de cabeça, usando papel e lápis ou um computador sem que nada disso produza um muro de tijolos. Apenas vai produzir alguma representação do muro. Para termos mesmo um muro de tijolos o algoritmo terá de ser materializado num sistema físico que assente mesmo os tijolos e ponha a argamassa. Tal como assentar tijolo, a consciência também deve ser uma actividade específica que não surge automaticamente em qualquer materialização de algoritmos. Exactamente como a poderemos obter não sei, mas o que me parece é que não é empurrando electrões de um lado para o outro num circuito para representar operações algébricas. Deve ser preciso algo mais do que isso.
Se isto for verdade, então nem LaMDA é consciente nem qualquer rede neuronal ou programa de IA que se implemente neste tipo de computadores será consciente. Enquanto estivermos a materializar os algoritmos nestes ábacos electrónicos, por muito rápidos os ábacos e complexos os algoritmos, nem vão assentar tijolo nem gerar consciência. O que me preocupa é a capacidade destes modelos parecerem humanos aliada à sua capacidade sobre-humana de ter milhões de conversas personalizadas ao mesmo tempo. LaMDA é mais sofisticado do que apenas um modelo linguístico, porque a Google incluiu métricas como relevância, correcção factual, "segurança" (i.e. ser politicamente correcto) e afins (2). Mas os objectivos podiam ser outros. Podiam ser o de persuadir as pessoas a votar num candidato ou de as convencer que a democracia é uma experiência falhada e precisamos é de um ditador, por exemplo.
Um sistema sofisticado destes, capaz de criar conversas aparentemente inteligentes, gerar imagens falsas, criar artigos automaticamente e o que mais for preciso para persuadir pode ter um impacto enorme na nossa sociedade. E em vez de prepararmos as pessoas para resistir a isto andamos a fazer o contrário. Ensinamos os jovens que as palavras "ferem" e que por isso se deve evitar o que é desagradável ou nos contradiz. Proibimos que se divulguem factos que possam ofender alguém. Treinamos as pessoas a criar bolhas onde só entra o que lhes agrada. Exigimos que sejam os outros a verificar se o que vemos é verdade, para nem termos de pensar no assunto. Soltar sistemas como LaMDA neste meio vai ser uma razia. O meu medo não é que a inteligência artificial se torne consciente. O que me preocupa é a consciência natural estar cada vez menos inteligente, precisamente na altura em que isso é mais perigoso.
* O grande poder desta abordagem, de aprendizagem profunda, é que podemos começar com estes números todos ao acaso e depois, cada vez que o resultado não for o que queremos, ajeitamos os valores para reduzir um pouco o erro. Fazendo isso milhões de vezes conseguimos encontrar um algoritmo, que será aquela sequência de operações com aqueles números, que dá os resultados desejados. Mesmo sem sabermos como. Esta abordagem permite pôr o computador a resolver problemas que nós não sabemos como resolver. Por exemplo, o de calcular a probabilidade das palavras de uma resposta dada uma pergunta qualquer.
1- Washington Post, The Google engineer who thinks the company’s AI has come to life.
2- ResearchGate, LaMDA: Language Models for Dialog Applications.