sábado, julho 02, 2022

Consciência, Inteligência Artificial, e porque é que estamos tramados.

Um engenheiro da Google, entretanto despedido, alegou que o LaMDA, um modelo linguístico dessa empresa, se tinha tornado consciente (1). Muitas pessoas apontaram que é disparate mas as justificações que tenho visto não me deixaram satisfeito. Uns alegam que LaMDA não pode ser consciente porque apenas calcula probabilidades de frases e palavras. Além de isto subestimar a complexidade destes modelos, muito mais complexos do que aquilo que um ser humano consegue conscientemente fazer, mesmo tarefas simples podem ser feitas com consciência. Contar pelos dedos, por exemplo. Portanto, não é por "apenas" estimar probabilidades que não pode ser consciente. Outra justificação é que as palavras produzidas por LaMDA não têm intencionalidade, aquela propriedade de ser acerca de algo. Quando uma pessoa diz que subir ao monte Evereste é um grande feito, sabemos que diz essas palavras referindo aquele monte e conceito. Quando LaMDA dá essa resposta (2), são apenas palavras. Só na mente do leitor é que referem alguma coisa. Isto é verdade mas só diz que LaMDA não é consciente porque não é consciente. Neste contexto, intencionalidade e consciência acabam por ser o mesmo.

Eu proponho que o problema está na forma como o algoritmo é materializado. Um algoritmo é uma sequência abstracta de instruções que podem ser executadas de forma automática. Por exemplo, para calcular a área do triângulo somamos o comprimento dos lados, dividimos por dois, subtraímos a esse valor cada um dos lados, multiplicamos esses quatro valores (o total e as diferenças) e calculamos a raiz quadrada desse produto. Isto em abstracto. Em concreto, o melhor é arranjar algum suporte material e convencionar uma correspondência com estes passos. Marcas num papel ou a posição das contas de um ábaco, por exemplo. Ou, melhor ainda, cargas e tensão num circuito electrónico. Aí corre tudo automaticamente e no final só temos de interpretar o resultado. É assim que LaMDA funciona. Em abstracto, uma frase como "porque é que as pessoas sobem ao monte Evereste?" é mapeada numa tabela de números, esses números são multiplicados e somados a outros números, dá uma tabela ainda maior de números, faz-se isso várias vezes com muitos milhões de números e várias funções e no fim saem números indicando a probabilidade de cada palavra que pode vir a seguir*. Mas isso é o algoritmo em abstracto. Em concreto não vamos lidar com números mas sim com cargas e tensões num circuito que, para nós, representam esses números e essas operações. No final aparece uma mancha no ecrã que interpretamos como sendo uma resposta à nossa pergunta.

O que eu proponho é que a consciência não vem do algoritmo, que é abstracto, mas depende do suporte físico em que este for materializado. Um algoritmo simples materializado num cérebro humano é executado de forma consciente. Se o humano usar um ábaco ou um lápis, a consciência continua no humano e não no ábaco ou no lápis. E se materializar o algoritmo num circuito electrónico, também não é o circuito que fica consciente. Se LaMDA for consciente, então todos os aparelhos electrónicos serão conscientes também, o que não é plausível.

Isto não presume nada de sobrenatural ou imaterial acerca da consciência. É um problema mais genérico. Por exemplo, podemos pensar num algoritmo para construir um muro de tijolos, com todos os cálculos para posicionar os tijolos e colocar a argamassa em função das dimensões do muro e dos tijolos. E podemos materializar esse algoritmo fazendo as contas de cabeça, usando papel e lápis ou um computador sem que nada disso produza um muro de tijolos. Apenas vai produzir alguma representação do muro. Para termos mesmo um muro de tijolos o algoritmo terá de ser materializado num sistema físico que assente mesmo os tijolos e ponha a argamassa. Tal como assentar tijolo, a consciência também deve ser uma actividade específica que não surge automaticamente em qualquer materialização de algoritmos. Exactamente como a poderemos obter não sei, mas o que me parece é que não é empurrando electrões de um lado para o outro num circuito para representar operações algébricas. Deve ser preciso algo mais do que isso.

Se isto for verdade, então nem LaMDA é consciente nem qualquer rede neuronal ou programa de IA que se implemente neste tipo de computadores será consciente. Enquanto estivermos a materializar os algoritmos nestes ábacos electrónicos, por muito rápidos os ábacos e complexos os algoritmos, nem vão assentar tijolo nem gerar consciência. O que me preocupa é a capacidade destes modelos parecerem humanos aliada à sua capacidade sobre-humana de ter milhões de conversas personalizadas ao mesmo tempo. LaMDA é mais sofisticado do que apenas um modelo linguístico, porque a Google incluiu métricas como relevância, correcção factual, "segurança" (i.e. ser politicamente correcto) e afins (2). Mas os objectivos podiam ser outros. Podiam ser o de persuadir as pessoas a votar num candidato ou de as convencer que a democracia é uma experiência falhada e precisamos é de um ditador, por exemplo.

Um sistema sofisticado destes, capaz de criar conversas aparentemente inteligentes, gerar imagens falsas, criar artigos automaticamente e o que mais for preciso para persuadir pode ter um impacto enorme na nossa sociedade. E em vez de prepararmos as pessoas para resistir a isto andamos a fazer o contrário. Ensinamos os jovens que as palavras "ferem" e que por isso se deve evitar o que é desagradável ou nos contradiz. Proibimos que se divulguem factos que possam ofender alguém. Treinamos as pessoas a criar bolhas onde só entra o que lhes agrada. Exigimos que sejam os outros a verificar se o que vemos é verdade, para nem termos de pensar no assunto. Soltar sistemas como LaMDA neste meio vai ser uma razia. O meu medo não é que a inteligência artificial se torne consciente. O que me preocupa é a consciência natural estar cada vez menos inteligente, precisamente na altura em que isso é mais perigoso.

* O grande poder desta abordagem, de aprendizagem profunda, é que podemos começar com estes números todos ao acaso e depois, cada vez que o resultado não for o que queremos, ajeitamos os valores para reduzir um pouco o erro. Fazendo isso milhões de vezes conseguimos encontrar um algoritmo, que será aquela sequência de operações com aqueles números, que dá os resultados desejados. Mesmo sem sabermos como. Esta abordagem permite pôr o computador a resolver problemas que nós não sabemos como resolver. Por exemplo, o de calcular a probabilidade das palavras de uma resposta dada uma pergunta qualquer.

1- Washington Post, The Google engineer who thinks the company’s AI has come to life.
2- ResearchGate, LaMDA: Language Models for Dialog Applications.

24 comentários:

  1. Já estava a tardar um sinal de vida da tua consciência Ludwig ;-) .

    Concordo contigo que o perigo não está em acordarmos um dia destes com máquinas inteligentes a rebeliarem-se contra o seu criador.

    Os perigos estão quase sempre onde menos se esperam, mas em relação ao tema do uso da Inteligência artificial, existem alguns candidatos óbvios para eventuais abusos, como por exemplo o desenvolvimento de armas autónomas.

    ResponderEliminar
  2. krippahl está vivo não quinou com o coronavirus 2006-2022 dá 16 anos em blogs que cada vez menos gente lê, o twitter é o futuro

    ResponderEliminar
  3. EXTINÇÃO DAS MOSCAS DO PANAMÁ PELO DDT SALAZARI...":

    É TRISTE QUANDO TENHO DE COMENTAR EU MESMO NÉ OS BLOGS TÃO MESMO ACABADOS DESDE 2010
    ora um programa capaz de gerar textos SÓ EU, LOUCO RECUSEI

    A PAZ COMO ÚNICA OFERTA

    MINHA ESPADA NÃO DESERTA

    PROCURO EM BATALHA INCERTA

    A MINHA COROA DE REI
    1 poste por ano fiscal e ainda por cima em julho parece magrinho face aos anos do coronavirus com 12 e 9 mensagens o texto também está no facebook? tentei entrar mas o gajo exige-me um código de 6 dígitos Nemiah Dacosta Scudder e qual é a password pois esqueci-me é o al zheimer

    ResponderEliminar
  4. nem um poste sobre a ucrânia? que falta de solidariedade

    ResponderEliminar
  5. Concordo sobretudo que estaremos mesmo tramados quando desistirmos de usar a nossa mioleira.
    Este é um daqueles (já raros) blogs que usa o método, pensar.

    ResponderEliminar
  6. penso que pensa até demais e é raro é quem lê blogs em 2022, iste nã é o twitter

    ResponderEliminar
  7. Sem os artigos do Ludwig, a internet estava a ficar mais pobre e perdeu quase metade do interesse. Agora que ele está de volta, com a agudeza analítica e crítica relevante de assuntos e de informações com imensa atualidade, que são seu apanágio e a que nos tinha habituado, para nosso prazer e proveito, parabenizo-o e faço votos para que volte ao blog com a dinâmica de outrora.
    A reflexão sobre o problema da consciência artificial sugere-me que ela será um desenvolvimento inevitável da inteligência artificial e que as ameaças daí derivadas talvez não tenham tanto a ver com o pressuposto pessimista de que a consciência natural esteja cada vez menos inteligente.
    Estou até convicto, embora não convencido, de que a inteligência artificial, sob todas as suas formas (pelo menos as que eu suponho), veio incrementar extraordinariamente os processos de inteligibilidade e de inteligência e de consciência humanos. Se não no âmbito dos indivíduos, cuja capacidade para entender e pensar os problemas numerosos e crescentes pode estar condicionada por fatores que não dependem exclusivamente da sua disponibilidade física e mental para o fazer, pelo menos, no âmbito das organizações, políticas, técnicas, militares, científicas, educativas, judiciais, económicas, acredito que a consciência artificial poderá ser a chave para resolver o problema, até agora insolúvel e cada vez mais insuportável, de a humanidade estar refém de um qualquer terrorista que detenha o poder nuclear de destruir. Neste caso especialmente crítico e relevante, acredito que as decisões militares vão ser monitorizadas pela inteligência e pela consciência artificial de um modo muito mais complexo e completo do que, por exemplo, o diagnóstico de uma doença em que não é o médico que controla a máquina, mas é a máquina que controla o médico. Ou seja, nenhum militar e nenhuma equipa de militares achará que pode ou sabe que decisão tomar, porque isso não contará para nada, uma vez que a inteligência/consciência artificial o fará, garantidamente, com melhor sucesso. Para dar o exemplo da invasão da Ucrânia pela Rússia, acredito que, embora não fosse preciso inteligência/consciência artificial para chegar a essa conclusão, se Putin dispusesse dela (inevitavelmente, não seria ele a dispor dela, mas seria ela a dispor dele) nem teria pensado na invasão como uma solução para os problemas, que também seriam problemas diferentes dos dele, por via dessa inteligência artificial. E assim sucessivamente. Os problemas e as suas soluções serão aqueles que a IA determinar. Não vejo aqui nenhuma ameaça aos humanos, pelo contrário, a IA determinará que qualquer ameaça será um problema e, não apenas o sinaliza para que o conheçamos e tenta neutralizá-lo, como até o previne e impede os seus efeitos. A IA e a consciência artificial só têm de o ser e, se o forem, não há problema. Na realidade, o nosso problema, os problemas da humanidade, ao longo do tempo, é a nossa incapacidade para resolver os problemas de consciência e de inteligência. Cometemos erros atrás de erros, alguns deles brutais, com consequências horrendas e irreversíveis, movidos por visões completamente injustificáveis de qualquer perspetiva de uma inteligência avançada e de uma consciência que não seja vulnerável, nem suscetível a alucinações, individuais ou coletivas.

    ResponderEliminar
  8. já sou o tricentésimo visitante desta página que tirando uns americanos de passagem mais os comentadores do costume e nem todos, alguns já desmobilizaram ou morreram capta tanta atenção como os blogs comunistas sobre economia

    ResponderEliminar
    Respostas
    1. Qual é o ponto ou argumento deste post semi-legível?

      Eliminar
    2. falta de leitores de blogs é simplex basta ler, a alusão é aos ladrões de bicicletas um blog também em baixo

      Eliminar
    3. o jónatas desistiu de comentar, o joão vasco, o barba-rija arquitecto de lisboa e tantos outros, os blogs estão mais que mortos

      Eliminar
    4. o henrique burnay agora só comentador do twitter e tantas, tantas dezenas de outros, já fui claro

      Eliminar
    5. e isto não é um post ou poste é simplesmente um comentário como o seu mas em duas linhas para ser mais preten_________

      Eliminar
    6. sâmbătă, 6 august 2022
      DA DIFICULDADE EM ENTENDER AS MENSAGENS SIMPLES EM SIMPLEX SOCRÁTICO
      LER IMPLICA SABER JUNTAR PALAVRAS

      NESSE SENTIDO TUDO PODE SER LEGÍVEL

      PODE É NÃO SE ENTENDER O QUE LÊ

      SÃO DUAS COUSAS DIFERENTES

      SABER LER

      E ENTENDER O QUE SE LÊ

      HÁ SEMPRE GENTE

      COM FALSAS MORAIS

      QUE NÃO SE QUER DAR AO TRABALHO

      DE ENTENDER OS OUTROS

      E DEPOIS HÁ TAMBÉM

      GENTE MUITO LIMITADINHA

      Publicat de FAÇA O SEU PRÓPRIO FLUVIÁRIO SEM FAZER MUITA FORÇA l

      Eliminar
    7. quase parecem os dias em que isto tinha 69 comentários de 69 otários, bons tempos bons tempos, escreve aí mais uma linha pá

      Eliminar
    8. e tinha tanto para ler e tudo semi____________
      Com esse tipo de argumentação devia dar aulas de borla. Nada do que ensina saiu da sua cabeça.»

      Eu cobro pelo trabalho que faço e não por me considerar dono das ideias. Como a maioria dos profissionais. E isto quer como professor quer como investigador.

      E os alunos -- nós todos, pelo menos durante parte da vida -- pagam pelo serviço e não para comprar as ideias que aprendem.

      Penso que é a forma mais justa e prática de ter cultura e civilização. Paga-se pelo serviço de criar, inovar e ter ideias. Mas depois usa-se as ideias à vontade, que é para isso que elas servem.

      Eliminar
    9. Na ambigüidade existencial

      não vi o hoje

      desconheço o amanhã

      e ignoro o ontem

      não morro porque não vivo

      não vivo porque nasci morto

      e nascendo morto nunca se morre

      Postar um comentário.semi-legível por favor

      Eliminar
    10. chama-se a isto comentários e não postes ou posts entendido? ainda não? vou ter de chamar a artilharia pesada

      Eliminar
  9. e não é semi-legível lê-se perfeitamente pode é não se entender o que lê, isso vale para qualquer comentário ou post kripphaliano basta analisar as dezenas de milhares de comentários de otários aqui do blog para dizer que metade deles são semi estando fora do contexto mental do comentador, que nalguns casos é bastante repetitivo

    ResponderEliminar

Se quiser filtrar algum ou alguns comentadores consulte este post.