terça-feira, outubro 17, 2023

J'adoube.

É mais fácil apontar defeitos do que propor soluções. Por isso começo pelos defeitos da reacção de Israel. Pretende isolar Gaza até que libertem os reféns, bombardear edifícios usados pelos terroristas e enviar tropas para destruir o Hamas. Isto vai matar muita gente. Infelizmente, das partes atentas ao conflito, que além dos protagonistas incluem eleitores israelitas, o povo de Gaza e a comunidade internacional, o Hamas é a que menos receia a morte de civis palestinos. Seja para recrutamento, financiamento ou reduzir o apoio internacional a Israel, quanto mais crianças palestinas morrerem melhor será para o Hamas. Chamam-lhes mártires e são um dos activos principais destes grupos terroristas. Além disso, a ameaça de bloqueio é politicamente insustentável. Nem a comunidade internacional nem os israelitas vão tolerar que Netanyahu mate civis sem termo numa tentativa fútil de fazer o Hamas ceder. Parece-me que o governo de Israel está a entalar-se num beco de onde só pode sair recuando.

O objectivo de desmantelar o Hamas também me parece mal pensado. O Hamas não é apenas um grupo de terroristas. É um sintoma. Descendente da Irmandade Muçulmana do Egipto, é uma de muitas secreções daquela doença que mantém milhões de mulheres de cara tapada, que arrastou o Afeganistão e o Irão de volta à idade do bronze, que põe bombas em Madrid, mata desenhadores em Paris e de vez em quando tenta assassinar o Salman Rushdie. Destruir o Hamas é coçar as borbulhas sem tratar a infecção. O alívio é muito breve e pode até piorar o problema, pois não vão faltar voluntários para substituir quaisquer baixas.

Não vejo boas opções. Mas as restrições do problema parecem tão fortes que limitam muito a escolha. Neste momento, Israel não pode fazer cedências nem procurar negociar com o Hamas. Seria recompensar o ataque de dia 7 e incentivar novas tentativas. E uma ofensiva vinda de Israel é precisamente o que o Hamas quer. O fundamentalismo impede o pensamento crítico mas é compatível com a manha e o Hamas sabe que nem rockets nem ataques terroristas vão ganhar esta guerra. O propósito de bombardear Israel a partir de zonas densamente povoadas, e todos os outros actos terroristas, é provocar Israel a matar palestinos. A morte de civis palestinos alimenta o ódio, mantém o Hamas no poder, torna a guerra ainda mais santa e, insha'Allah, há de haver virgens para todos. É só vantagens. A longo prazo têm de manter a natalidade acima das perdas mas para isso o Islão sabe convencer as mulheres a colaborar.

Quando todas as jogadas são más o melhor é não jogar. Israel tem apenas de ajeitar as peças. Tem de melhorar a segurança nas fronteiras, identificar e corrigir as falhas de informação que permitiram este ataque de surpresa e procurar mediadores que convençam o Hamas a devolver os reféns. Mas podia deixar o resto na mesma. Ganhava capital diplomático, frustrava os planos do Hamas e poupava imensas vidas. Infelizmente, mesmo em circunstâncias favoráveis há uma tendência para preferir medidas drásticas. Em momentos como este é ainda mais difícil vender soluções racionais. Especialmente com as forças políticas que agora controlam o governo israelita.

Para terminar, aponto também um defeito a este texto. A racionalidade de um acto depende do seu propósito e esta declaração de guerra é irracional apenas se o governo de Israel estiver à procura de um caminho para a paz. É isso que pressuponho porque acho que devia ser esse o objectivo último de qualquer medida para gerir este conflito. Mas o que deve ser nem sempre é.

terça-feira, maio 09, 2023

A Parada.

Tenho seguido com alguma atenção comentadores que se esforçam por justificar e apoiar a invasão russa. O esforço é cada vez maior, por força das circunstâncias. Um desses comentadores, Miguel Castelo Branco, escreveu há um ano sobre «a grandiosa parada militar celebrativa da Vitória que hoje teve lugar na Praça Vermelha, aos pés das muralhas do Kremlin [...] mostrando que a Rússia está segura do seu poderio, agora confirmado nos últimos desenvolvimentos nos campos de batalha.»(1)

Realmente, em 2022 a parada do 9 de Maio foi impressionante. A deste ano, nem tanto. Em vez de dezenas de carros de combate modernos veio só um T-34, veterano da segunda guerra, em representação dos seus congéneres. A exibição da força aérea foi cancelada e, à parte dos tradicionais misseis nucleares, no resto do armamento a demonstração também foi mais modesta do que é costume (2). Obviamente, isto chamou a atenção da comunicação social. Que, segundo escreve hoje Castelo Branco, é uma «conspiração dos asnos» porque «A Rússia tem 8000 carros de combate e o seu lugar em tempo de batalha decisiva não são os aquartelamentos, mas na frente a caçar Leopardos, pois é na frente e não em desfiles militares que se decide a guerra»(3). Apesar de esfarrapada, a desculpa não surpreende. Há constrangimentos ideológicos que impedem estes comentadores de admitir que a situação militar russa não permite grandes celebrações. Mas fica por explicar como é que, com uns alegados 8000 carros de combate, não encontram sequer uma dúzia para o desfile.

Aponta também Castelo Branco que «O único carro de combate presente foi o T-34, por sinal o melhor blindado da II Guerra Mundial e vencedor de todas as batalhas, de Moscovo, de Estalinegrado, de Kursk e Berlim». Vencedor de todas as batalhas é exagero. O T-34 já estava em serviço quando Hitler traiu o seu aliado Estaline e invadiu a URSS. Apesar do exército vermelho já ter, em 1941, dois anos de prática a invadir a Polónia, a conquistar o Báltico e a espatifar-se contra os finlandeses, nesse primeiro ano de invasão nem tudo correu de feição aos soviéticos. Pode-se dizer que a operação militar especial de Hitler começou bem melhor do que a de Putin. Felizmente, fez-se justiça e acabou mal. Uma valiosa lição histórica que temo não ter sido bem aprendida pela liderança russa. Caso contrário não teriam ficado surpreendidos por os países ocidentais ajudarem o país invadido (4).

Mas desviei-me do tema. O T-34 foi, realmente, um dos melhores carros de combate do seu tempo. E talvez seja aqui que a Rússia procura recuperar o seu poderio militar. Afinal, estão cada vez mais perto, pois agora até enviam para a frente de batalha carros de combate T-55, um modelo de 1948 (4). Os T-55 já defrontaram carros de combate ocidentais como os que a Ucrânia recebeu recentemente. Foi na guerra do Iraque. Está aqui uma imagem (6) mostrando um Challenger 2 (à esquerda) e um T-55 (à direita). Vale por mil palavras.



1- Facebook, 9 de Maio 2022
2- Sky News, How does Russia's scaled-back 2023 Victory Day parade compare to previous years?
3- Facebook, 9 de Maio 2023
4- Os EUA enviaram 75 mil milhões de dólares de ajuda à Ucrânia. O total enviado para a URSS na segunda guerra equivaleria hoje a 180 mil milhões.
5- Forbes, Russia Sent 70-Year-old T-55 Tanks To Ukraine Without Even Upgrading Them
6-Imagem daqui:John (Twitter)

sábado, abril 15, 2023

Receios.

A inovação tecnológica desperta receios mais ou menos racionais. O comboio a vapor, por exemplo, levou à preocupação justificada com os acidentes mas também à convicção de que as vibrações causavam insanidade (1). A reacção à novidade depende também da disposição de cada um. Como dizia Douglas Adams, o que existe quando nascemos é normal, o que é inventado até termos 35 anos é excitante e o que surge depois disso é contra a ordem natural das coisas. E, obviamente, a tecnologia preocupa quem tem de competir com ela no mercado de trabalho. Nisto os modelos de linguagem como o ChatGPT trazem uma novidade importante. Até agora a inovação tecnológica tirou emprego a muitos mas beneficiou os peritos na nova tecnologia. O tractor substituiu trabalhadores agrícolas mas deu emprego a mecânicos e engenheiros. Os computadores eliminaram muitos postos de trabalho mas criaram emprego para informáticos. Agora é diferente. Modelos como o ChatGPT estão a ficar cada vez melhores a explicar, ensinar, programar, resumir conhecimento e outras tarefas que hoje pagamos a peritos para executar (2). Incluindo peritos em informática e inteligência artificial. Talvez isso tenha contribuído para, agora, alguns desses peritos apontarem a perda de postos de trabalho como um perigo desta tecnologia.

Mas penso que o receio mais profundo é do que estes avanços revelam acerca de nós. Nota-se em vários detalhes. Por exemplo, chamam "caixa preta" às redes neuronais sugerindo que não se percebe o seu funcionamento porque não se vê o que está lá dentro. Mas todos os parâmetros e operações de uma rede neuronal estão à vista. O que nos impede de a compreender é ter milhões de operações. Chamar-lhe "caixa preta" disfarça o verdadeiro problema: falta-nos a inteligência necessária para perceber algo tão complexo. A expressão "Inteligência Artificial" também permite um equívoco entre os robôs inteligentes da ficção e processos automáticos que um computador executa. Toda a inteligência artificial que temos está nesta segunda categoria, de soluções automatizadas para problemas que nós resolvemos com inteligência. Mas isto significa que o desempenho assombroso destes métodos, que já aproxima ou ultrapassa humanos em muitas tarefas, resulta de mera álgebra. É triste para quem se apelida de sapiens ser ultrapassado por uma máquina de calcular. Talvez seja melhor imaginar tratar-se de um C3PO ou Terminator, mesmo que isso crie medos ridículos como o das "mentes digitais poderosas"(3).

O receio que as características cognitivas que mais estimamos percam valor nota-se especialmente no esforço para demonstrar que os sistemas de IA não compreendem o que fazem. Isto devia ser tão surpreendente como descobrir que um ábaco não sabe matemática. No ChatGPT, as palavras que escrevemos são representadas por uma sequência de números, o computador faz uma carrada de contas e a sequência de números resultante é mostrada no ecrã como palavras. Nós imaginamos que aquilo significa alguma coisa mas o ChatGPT é só a sequência de contas. Que por vezes dá disparate. Mas o espantoso é que muitas vezes dá a resposta certa. Por exemplo, modelos como este podem criar programas funcionais a partir de descrições em texto (4). Eu admito desconsolo ao ver que capacidades que eu julgava necessárias para programar, como raciocínio computacional e compreensão dos algoritmos, afinal podem ser substituídas por operações algébricas executadas sem inteligência. Mas parece-me inútil fingir que a IA é uma "mente digital" só para me sentir superior quando ela se engana.

Não acho que esta tecnologia vá substituir todos os peritos porque estes métodos só servem para interpolar dentro da distribuição dos exemplos de treino. Como não são bons a extrapolar não conseguirão substituir inovadores como Newton, Darwin ou Turing. Mas para a maioria de nós esta limitação trará pouco consolo. Quase tudo o que quase todos fazemos com o nosso talento e inteligência está dentro da distribuição de exemplos conhecidos e poderá ser reproduzido de forma automática. Além disso, ainda estamos no ZX Spectrum desta tecnologia. Vai haver grandes mudanças nos próximos anos. Especialmente no mercado de trabalho. Nenhuma máquina nos vai tirar o gozo de compreender as coisas ou de as fazer por nós mas a necessidade de comprar trabalho humano, mesmo o trabalho de peritos, vai diminuir drasticamente.

A regulação será necessária como é com qualquer tecnologia. Também não queremos que a electricidade sirva para torturar prisioneiros nem a genética para registar o ADN de todos os cidadãos. Por exemplo, as redes neuronais têm grande potencial para coisas como vigilância e censura, e será preciso restringir esses usos. Mas esta tecnologia não é perigosa em si. São só contas; não é material radioactivo nem robôs assassinos. Por isso o que se deve regular são as aplicações. Um sistema de IA não pode cometer erros a conduzir camiões mas pode enganar-se num jogo de estratégia. O enviesamento tem de ser evitado nos empréstimos bancários mas não é grave se um gerador de imagens desenha barba apenas em rostos masculinos. E o "perigo" que a rede gere algo ofensivo ou qualquercoisofóbico resolve-se desaconselhando o uso por crianças e wokes. Os adultos não precisam de protecção contra coisas feias.

O alarmismo dos peritos que invocam perigos abstractos e "mentes digitais" deve ser encarado com cepticismo. Não só pela natureza destes receios como também porque pessoas diferentes têm interesses diferentes. Por exemplo, se a nossa tolerância ao erro fosse como a de alguns peritos que criticam a IA ninguém usava a Internet e a meteorologia seria crime. A IA deve ser regulada de forma democrática, com a participação de todos e não apenas pelos peritos. Deve-se regular aplicações em função de problemas específicos em vez de regular toda a tecnologia por causa de medos vagos. E deve-se sempre ponderar, a par dos riscos, também os benefícios da tecnologia e a liberdade de cada um decidir se estes compensam os riscos.

1) Atlas Obscura, The Victorian Belief That a Train Ride Could Cause Instant Insanity.
2) Este exemplo ilustra bem o potencial desta tecnologia, compreensivelmente assustadora para alguns: Daniel Tait, Sumplete.
3) Future of life, Pause Giant AI Experiments: An Open Letter.
4) Por exemplo, o Copilot, que é a mesma tecnologia mas treinado especificamente para escrever código.

quinta-feira, março 30, 2023

A carta.

Uma carta aberta do instituto Future of Life pede uma moratória à investigação em modelos de aprendizagem automática mais poderosos do que o GPT-4, aquele que a Open AI de momento explora comercialmente (1). Há alguns nomes sonantes entre os signatários mas é fraca a adesão de peritos na área. Como até eu recebi um e-mail a pedir que assinasse esta carta antes de a publicarem, presumo que tenham contactado mesmo muita gente. Mas parece quem nem pessoas da Open AI assinaram, e teriam claro interesse numa moratória à concorrência (2). A explicação, e razão pela qual não assinei, é que a carta faz pouco sentido.

Fundamentam o pedido de moratória afirmando que «Sistemas de IA poderosos só devem ser desenvolvidos depois de termos confiança que os seus efeitos serão positivos e que podemos gerir os seus riscos». Mas só podemos avaliar os riscos depois de compreender bem o potencial e as aplicações de uma tecnologia, e isso exige investigação. É um problema que enfrentamos há séculos porque é intrínseco à ciência. Descobrir coisas tem riscos mas a ignorância não permite perceber nem os riscos nem os benefícios. Isto nota-se até nos exemplos que dão. Alegam que a «sociedade pôs em pausa outras tecnologias com efeitos potencialmente catastróficos para a sociedade», como clonagem humana ou modificação de genes na linha germinal humana. Mas não se suspendeu a tecnologia e muito menos a investigação. Apenas se regula aplicações específicas. A modificação genética humana levanta problemas éticos mas a dos tomateiros, leveduras ou bactérias é menos problemática. E a investigação não parou. Aliás, se tivessem suspendido a investigação em manipulação genética teríamos sofrido um atraso enorme em aplicações como a produção de vacinas e insulina ou técnicas de diagnóstico médico. Uma moratória à investigação é um exagero. Nem com as armas nucleares se faz isso. Regula-se actos específicos como a purificação de urânio mas não se impede os físicos de criarem modelos mais sofisticados do átomo.

Outro problema desta proposta é ter uma minoria de peritos a condicionar o que toda a gente pode usar. Exigem que estes modelos sejam mais «exactos, seguros, interpretáveis, transparentes, robustos, confiáveis e leais» mas a relevância destes requisitos depende do uso que cada pessoa lhes queira dar. Como eu não vou confiar no texto gerado por um modelo estatístico nem me vou ofender ou magoar com as palavras que produza, não quero restringi-lo a ser seguro, exacto, leal ou confiável. Para ter personagens interessantes em jogos de computador, para gerar textos pornográficos, para ter ideias acerca de mundos fantásticos, aprender insultos noutras línguas ou conversar com um amigo imaginário estes requisitos podem não se aplicar. E é cada utilizador que deve avaliar o que quer.

Mesmo que se possa apontar usos prejudiciais, ainda assim é devido respeito pela liberdade de cada um decidir por si, como se faz no caso de religiões, ideologias políticas, superstições e tradições parvas. Não temos peritos a decidir essas coisas pelas pessoas. O mesmo se aplica ao investigador. É verdade que a investigação científica tem valor social e, em média, beneficia-nos a todos. Mas a razão mais importante para permitir que alguém faça investigação é o direito individual de tentar perceber como as coisas funcionam. Não é legítimo limitar os direitos dos utilizadores e dos investigadores só porque alguns peritos invocam a possibilidade vaga de perigos ainda por determinar. Essa limitação só é legítima perante perigos concretos e suficientemente graves. Modelos estatísticos para gerar sequências de palavras parecem estar muito abaixo dessa fasquia.

A carta invoca também perigos para as profissões, que são consequência de qualquer inovação tecnológica e nunca justificaram parar o progresso científico, e o perigo de desenvolver «mentes não humanas», que não tem nada que ver com estes modelos para os quais pedem uma moratória. Não é por minimizar uma função com milhões de parâmetros que se corre o perigo de criar uma mente. A única coisa que me parece razoável nesta carta é exigir mais transparência. Isso já subscrevia se não fosse restrita apenas a modelos estatísticos. Eu gostava que houvesse transparência para eliminar impedimentos à decisão informada. Por exemplo, obrigar fornecedores de software ou serviços baseados em software a divulgar o código fonte para que, colectivamente, os utilizadores pudessem saber o que estes sistemas fazem e discutir os seus riscos e benefícios. Esta medida não exigiria moratórias, melhorava a capacidade de escolha e provavelmente até melhorava a qualidade do software. É como o restaurante ter a cozinha à vista. A proposta de serem os peritos a assegurar-nos de que está tudo conforme os seus critérios não ajuda a resolver este problema. E nem parece bem que seja subscrita pelos peritos.

O problema que enfrentamos neste momento não é a possibilidade de haver um novo ChatGPT que diz menos parvoíces. É a tecnologia concentrar cada vez mais poder de decisão numa minoria cada vez mais pequena pela facilidade com que se monopoliza a informação. Nestas condições, é obviamente má ideia dar a uma minoria de peritos selectos o poder de decidir como vão ser os sistemas a que vamos ter acesso ou até o que se pode investigar. O que precisamos é de garantir o acesso generalizado à informação para que estes juízos de valor, acerca do que queremos que estes sistemas façam, possam ser resolvidos de forma democrática. Os peritos são úteis para resolver problemas técnicos mas não para decidir se suspendemos o uso de ficheiros pdf para voltar a haver ardinas.

1) Future of life, Pause Giant AI Experiments: An Open Letter.
2) Vice, The Open Letter to Stop 'Dangerous' AI Race Is a Huge Mess