sábado, abril 15, 2023

Receios.

A inovação tecnológica desperta receios mais ou menos racionais. O comboio a vapor, por exemplo, levou à preocupação justificada com os acidentes mas também à convicção de que as vibrações causavam insanidade (1). A reacção à novidade depende também da disposição de cada um. Como dizia Douglas Adams, o que existe quando nascemos é normal, o que é inventado até termos 35 anos é excitante e o que surge depois disso é contra a ordem natural das coisas. E, obviamente, a tecnologia preocupa quem tem de competir com ela no mercado de trabalho. Nisto os modelos de linguagem como o ChatGPT trazem uma novidade importante. Até agora a inovação tecnológica tirou emprego a muitos mas beneficiou os peritos na nova tecnologia. O tractor substituiu trabalhadores agrícolas mas deu emprego a mecânicos e engenheiros. Os computadores eliminaram muitos postos de trabalho mas criaram emprego para informáticos. Agora é diferente. Modelos como o ChatGPT estão a ficar cada vez melhores a explicar, ensinar, programar, resumir conhecimento e outras tarefas que hoje pagamos a peritos para executar (2). Incluindo peritos em informática e inteligência artificial. Talvez isso tenha contribuído para, agora, alguns desses peritos apontarem a perda de postos de trabalho como um perigo desta tecnologia.

Mas penso que o receio mais profundo é do que estes avanços revelam acerca de nós. Nota-se em vários detalhes. Por exemplo, chamam "caixa preta" às redes neuronais sugerindo que não se percebe o seu funcionamento porque não se vê o que está lá dentro. Mas todos os parâmetros e operações de uma rede neuronal estão à vista. O que nos impede de a compreender é ter milhões de operações. Chamar-lhe "caixa preta" disfarça o verdadeiro problema: falta-nos a inteligência necessária para perceber algo tão complexo. A expressão "Inteligência Artificial" também permite um equívoco entre os robôs inteligentes da ficção e processos automáticos que um computador executa. Toda a inteligência artificial que temos está nesta segunda categoria, de soluções automatizadas para problemas que nós resolvemos com inteligência. Mas isto significa que o desempenho assombroso destes métodos, que já aproxima ou ultrapassa humanos em muitas tarefas, resulta de mera álgebra. É triste para quem se apelida de sapiens ser ultrapassado por uma máquina de calcular. Talvez seja melhor imaginar tratar-se de um C3PO ou Terminator, mesmo que isso crie medos ridículos como o das "mentes digitais poderosas"(3).

O receio que as características cognitivas que mais estimamos percam valor nota-se especialmente no esforço para demonstrar que os sistemas de IA não compreendem o que fazem. Isto devia ser tão surpreendente como descobrir que um ábaco não sabe matemática. No ChatGPT, as palavras que escrevemos são representadas por uma sequência de números, o computador faz uma carrada de contas e a sequência de números resultante é mostrada no ecrã como palavras. Nós imaginamos que aquilo significa alguma coisa mas o ChatGPT é só a sequência de contas. Que por vezes dá disparate. Mas o espantoso é que muitas vezes dá a resposta certa. Por exemplo, modelos como este podem criar programas funcionais a partir de descrições em texto (4). Eu admito desconsolo ao ver que capacidades que eu julgava necessárias para programar, como raciocínio computacional e compreensão dos algoritmos, afinal podem ser substituídas por operações algébricas executadas sem inteligência. Mas parece-me inútil fingir que a IA é uma "mente digital" só para me sentir superior quando ela se engana.

Não acho que esta tecnologia vá substituir todos os peritos porque estes métodos só servem para interpolar dentro da distribuição dos exemplos de treino. Como não são bons a extrapolar não conseguirão substituir inovadores como Newton, Darwin ou Turing. Mas para a maioria de nós esta limitação trará pouco consolo. Quase tudo o que quase todos fazemos com o nosso talento e inteligência está dentro da distribuição de exemplos conhecidos e poderá ser reproduzido de forma automática. Além disso, ainda estamos no ZX Spectrum desta tecnologia. Vai haver grandes mudanças nos próximos anos. Especialmente no mercado de trabalho. Nenhuma máquina nos vai tirar o gozo de compreender as coisas ou de as fazer por nós mas a necessidade de comprar trabalho humano, mesmo o trabalho de peritos, vai diminuir drasticamente.

A regulação será necessária como é com qualquer tecnologia. Também não queremos que a electricidade sirva para torturar prisioneiros nem a genética para registar o ADN de todos os cidadãos. Por exemplo, as redes neuronais têm grande potencial para coisas como vigilância e censura, e será preciso restringir esses usos. Mas esta tecnologia não é perigosa em si. São só contas; não é material radioactivo nem robôs assassinos. Por isso o que se deve regular são as aplicações. Um sistema de IA não pode cometer erros a conduzir camiões mas pode enganar-se num jogo de estratégia. O enviesamento tem de ser evitado nos empréstimos bancários mas não é grave se um gerador de imagens desenha barba apenas em rostos masculinos. E o "perigo" que a rede gere algo ofensivo ou qualquercoisofóbico resolve-se desaconselhando o uso por crianças e wokes. Os adultos não precisam de protecção contra coisas feias.

O alarmismo dos peritos que invocam perigos abstractos e "mentes digitais" deve ser encarado com cepticismo. Não só pela natureza destes receios como também porque pessoas diferentes têm interesses diferentes. Por exemplo, se a nossa tolerância ao erro fosse como a de alguns peritos que criticam a IA ninguém usava a Internet e a meteorologia seria crime. A IA deve ser regulada de forma democrática, com a participação de todos e não apenas pelos peritos. Deve-se regular aplicações em função de problemas específicos em vez de regular toda a tecnologia por causa de medos vagos. E deve-se sempre ponderar, a par dos riscos, também os benefícios da tecnologia e a liberdade de cada um decidir se estes compensam os riscos.

1) Atlas Obscura, The Victorian Belief That a Train Ride Could Cause Instant Insanity.
2) Este exemplo ilustra bem o potencial desta tecnologia, compreensivelmente assustadora para alguns: Daniel Tait, Sumplete.
3) Future of life, Pause Giant AI Experiments: An Open Letter.
4) Por exemplo, o Copilot, que é a mesma tecnologia mas treinado especificamente para escrever código.