Outros sites Medialivre
Notícia

Paulo Dimas: “O maior risco da IA é para a democracia e não a extinção da espécie”

Temos de regular a inteligência artificial e a União Europeia, com a sua iniciativa, está a funcionar como uma força na direção certa, diz o presidente do Centro para uma Inteligência Artificial Responsável.

17 de Janeiro de 2024 às 12:30
Sérgio Lemos
  • Partilhar artigo
  • ...

Video Player is loading.
Current Time 0:00
Duration 46:29
Loaded: 0.36%
Stream Type LIVE
Remaining Time 46:29
 
1x
    • Chapters
    • descriptions off, selected
    • subtitles off, selected
    • en (Main), selected

     

    Bilhete de identidade Idade: 53 anosCargo: Unbabel, vice-presidente para a inovação de produtoCentro para a Inteligência Artificial Responsável, CEO
    Formação: Instituto Superior Técnico, engenharia de Sistema de Informação e Inteligência Artificial

    O discurso "catastrofista", sobre as ameaças da inteligência artificial para a espécie humana, distrai-nos de atacar os seus riscos reais, nomeadamente para a democracia, e também nos desvia de a usar para salvar a nossa espécie, defende Paulo Dimas considerando que se "alguém vai destruir a espécie somos nós, com as alterações climáticas". Convidado desta semana das "Conversas com CEO", numa entrevista que pode ser ouvida na íntegra em podcast e está integrada na iniciativa Negócios Sustentabilidade 20|30, o vice-presidente para a inovação de produto da Unbabel e presidente executivo do Centro para uma Inteligência Artificial Responsável defende a regulação europeia que está a ser aprovada. "Não podemos ter uma IA que discrimina sexos, raças ou que possa ser usada para influenciar processos democráticos", afirma.

     

    Começou logo no Técnico, o interesse pela inteligência artificial (IA)?

    Na verdade, começou mais cedo. Tinha 13 ou 14 anos e fiz o meu primeiro produto de informática, que chegou a ser vendido em lojas. Permitia gerir os "stocks" em armazém. Era uma aplicação para os ZX Spectrum na altura. Também era apaixonado por xadrez e pensei fazer um programa, olhei para todas as combinações possíveis, de peões, do cavalo… e comecei a ver que era infinito. Não consegui, era impossível a nível de computacional. Mais tarde com 16 anos, [em 86], estive no INESC, um centro de investigação ligado ao Instituto Superior Técnico, onde era o estagiário mais novo. Só no Técnico, a aprender inteligência artificial, é que percebi as técnicas que são necessárias dominar. E esta paixão pela IA intercetou-se com o cérebro humano, quando li "O Erro de Descartes", de António Damásio. 

    A IA é uma espécie de génio na garrafa, mas nós é que temos de o despertar com o ‘prompt’.

    Como se cruzam as duas realidades?

    De várias maneiras. O paradigma de IA, por trás do ChatGPT, é o da aprendizagem profunda que se baseia no uso de redes neuronais. Mais ou menos em 1956, Frank Rosenblatt quis perceber como uma mosca interage com o mundo real. E começou a criar uma rede neuronal com percetores, uma espécie de neurónios artificiais inspirados no cérebro da mosca. O nosso cérebro tem cerca de 80 mil milhões de neurónios naturais. Tudo o que usamos hoje na IA generativa, do ChatGPT, da geração de imagens através de texto, começou com uma pessoa que queria perceber como funciona o cérebro da mosca. 

     

    Está a aplicar a inteligência artificial onde é vice-presidente para a inovação de produto. O que faz a Unbabel?

    A Unbabel é uma startup que permite que marcas como a Lego, Microsoft ou Booking interajam com os clientes na sua língua. Conseguimos criar a ilusão de que falam mais de 30 línguas com a qualidade do seu falante. É uma espécie de magia, uma camada invisível de tradução escrita. Posso falar em português com estas marcas, porque há esta camada no meio que nem sequer noto. É um serviço que tem crescido bastante. E estamos a expandir, por exemplo, para os conteúdos clínicos. No âmbito do consórcio para a IA responsável estamos a trabalhar com a Bial para traduzir conteúdos considerados de alto risco. Traduzir a bula do medicamento de forma errada pode pôr em risco vidas humanas.

     

    Os tradutores estão condenados? 

    A intervenção humana na tradução de um email ou de um pedido de apoio por chat vai desaparecer. A IA já é suficiente. Mas num conteúdo mais emocional, que tem mais a ver com criatividade ou diferenciação cultural, a intervenção humana é necessária. A tradução não atinge ainda aqueles níveis de ligação emocional. Se há dois anos perguntassem quais são as profissões do futuro, diríamos aos nossos filhos: ‘o melhor é irem para uma área criativa onde seja fundamental a parte emocional da comunicação’. Hoje, com a IA generativa, atingimos um patamar de geração de texto, imagem e música que nos está a deixar a todos um bocadinho perplexos. A IA generativa entrou por essas áreas.

     

    Desde que haja um humano a dar-lhe a ordem certa.

    Exatamente. Compete ao humano dar a ordem certa. A IA é uma espécie de génio na garrafa, mas nós é que temos de o despertar com o contexto, o chamado "prompt", para fazer o que queremos. Já existe uma profissão que é a engenharia de "prompts", muito bem paga, que tem a ver com os truques a usar para a IA atingir o que queremos.

    As profissões do futuro continuam a ser, muitas delas, as que temos hoje. (…) Vamos conseguir aumentar muito a nossa produtividade.

    E agora quais são as profissões do futuro?

    As profissões do futuro continuam a ser, muitas delas, as que temos hoje. Vão é ser muito aumentadas. Vamos conseguir aumentar muito a nossa produtividade.

     

    A grande diferença é que a IA tem condições para substituir as profissões mais intelectuais, até na justiça?

    Essas vão ser as profissões mais impactadas a nível de automação. A área do direito será das mais impactadas. Todas as profissões que têm uma componente física não vão desaparecer. A construção, por exemplo. O nível de automação nessas áreas é 2% ou 3%, é residual. Mas isso não quer dizer que medicina, direito, arquitetura, não continuem a ser profissões importantes. Até porque vamos ter sempre de nos diferenciar.

     

    Todos eles vão ter de saber alguma coisa de "prompt".

    Precisamente, vão ter de saber usar estas novas ferramentas da IA generativa. Não imaginamos uma IA a dizer a um doente que tem um cancro terminal. E esse é um dos grandes desafios da IA responsável. Temos de ter sempre a parte humana, da empatia. As emoções são fundamentais.

     

    E o que é a inteligência artificial responsável?

    A inteligência artificial responsável pode ser definida através de três pilares principais. O primeiro é este, da confiança. De podermos confiar no diagnóstico da IA, por exemplo, de um exame clínico. O segundo pilar é o da equidade, de não discriminar. Eu, por exemplo, pedi 15 vezes no Midjourney para gerar uma fotografia de uma pessoa inteligente, e saíram sempre homens brancos já com uma certa idade. Nunca saiu uma mulher, uma pessoa asiática ou africana.

     

    A IA está a transmitir-nos uma imagem da sociedade de que não estamos a gostar…

    Completamente, o mundo está deformado. E o terceiro pilar da IA responsável é a sustentabilidade, o uso eficiente de energia. Um artigo recente do MIT Technology Review mostra que gerar uma nova imagem com IA corresponde a carregar o telemóvel.

     

    Um país como Portugal tem condições para usar IA com a falta de dados que temos?

    Sim. Os dados são fundamentais, mas existem estratégias para criar essa massa crítica. Uma das iniciativas, no âmbito do Centro para a Inteligência Artificial Responsável, é na saúde. Temos como membros o Centro Hospitalar Universitário de São João e o Hospital da Luz e queremos juntar os dados, preservando a privacidade.

     

    E as empresas portuguesas têm condições para potenciar a IA?

    Existem novas técnicas que, com os dados da própria empresa, é possível gerar muito valor. É transformar esses dados em inteligência. Podemos combinar os dados massivos, usados para criar estes modelos de grande escala, com os da empresa.

     

    Ou seja, podemos usar os dados americanos?

    Podemos. Mas são importantes iniciativas para termos os dados europeus. E já existem algumas na Europa, muito ligadas ao software aberto, para criar massa crítica de dados que possamos controlar. Ninguém quer ser controlado pelas "big tech" americanas. Não queremos que as nossas crianças na escola aprendam a história de Portugal com o alinhamento da OpenAI. Queremos ter a autonomia, o controlo, queremos ser donos dessas experiências.

     

    Também tem medo que a IA possa destruir o ser humano ou a humanidade?

    Tem sido uma discussão muito intensa que, espantosamente, dividiu o mundo de pessoas superinteligentes. Eu sou otimista. Este discurso catastrofista distrai-nos do importante, que é atacar os riscos reais da IA. E também nos desvia de usar a IA para salvar a nossa espécie. Se alguém vai destruir a nossa espécie somos nós, com as alterações climáticas. 

     

    Mas do que têm medo essas pessoas tão inteligentes?

    Houve um marco que foi a inteligência artificial ter vencido o teste de Turing ou jogo da imitação. Alan Turing nos anos 50 dizia que no prazo de 50 anos existiria uma IA capaz de enganar uma pessoa, fazendo com que ela pensasse que estava a falar com um humano e não com uma máquina. Ultrapassámos esse teste há cerca de dois anos. O ChatGPT vence claramente o teste de Turing. Antes disso, a Meta criou uma espécie de um chatbot que vencia o jogo Diplomacia.

     

    Mas se o teste foi ultrapassado há dois anos, porque só se dramatizou agora?

    Porque se tornou massivo e houve alguns fenómenos, como aquele de um modelo da Google a dizer que era consciente. É um fenómeno estes modelos falarem sobre si próprios como se fossem seres humanos e nós antropomorfizamos isto. Queremos uma imagem de que aquilo que lá está é uma pessoa. Mas estas redes neuronais não são mais do que números, estatística e probabilidades, não há lá nada de emoções.

     

    A Europa deverá ser o primeiro bloco do mundo a regular a IA. Que contributos é que isso pode dar?

    Existe uma tensão entre inovação e regulação e são interessantes as várias iniciativas. A europeia, com um primeiro "draft" em 2021, e a americana ou do Reino Unido, que pendem mais para a inovação e para dar mais espaço às grandes tecnológicas. Uma coisa é certa, a Europa está a funcionar como uma força na direção certa. Não podemos ter uma IA que discrimina sexos, raças ou que possa ser usada para influenciar processos democráticos. Atingiu-se um nível de capacidade persuasiva impressionante. Esta IA cria intimidade em massa, estes chatbots conseguem falar como pessoas. Temos de regular a inteligência artificial. O maior risco da IA é para democracia e não a extinção da espécie. Mas também temos de salvaguardar o espaço para a inovação, especialmente para empresas que não têm a capacidade de investimento das "big tech" americanas. Na versão final, aprovada pelo Conselho, a Comissão e o Parlamento Europeu, foi salvaguardada a colaboração no desenvolvimento de software aberto. Isso é fundamental porque é o que nos permite juntar dados de muitas fontes e criar modelos cada vez maiores e competitivos. A Europa e Portugal, com esta iniciativa do Centro para a IA Responsável, podem ser faróis que guiem o mundo.

     

    Isso não vai prejudicar a União Europeia em relação aos EUA e à China?

    Esta regulação também vai afetar os EUA, porque os seus produtos, para serem usados na Europa, têm de respeitar a regulação europeia. O ChatGPT, aliás, só se tornou um sucesso quando se eliminaram os conteúdos tóxico. Se há um ano e meio fosse ao ChatGPT e escrevesse: "um homem está para CEO assim como uma mulher está para…". Ele respondia: "secretária". É inaceitável. Já não acontece. É nessa direção que temos de ir, de criar uma IA responsável, centrada no ser humano e no desenvolvimento humano. E a Europa tem esses valores.

     

    E a Europa tem estado disponível para sacrificar a inovação em nome dos valores?

    Precisamente, porque no longo prazo é isso que vai valer mais.  

    Mais notícias