Notícia
Devemos ter medo da IA ou das pessoas que a desenvolvem?
Os poderosos sistemas de IA só devem ser desenvolvidos quando estivermos confiantes de que os seus efeitos serão positivos e de que os seus riscos serão controláveis.
Se o leitor esteve atento às notícias que mais populares se tornaram na última semana, talvez já tenha tido oportunidade de ler a carta aberta publicada pelo Future of Life Institute – uma organização sem fins lucrativos cujo objectivo é "reduzir o risco global catastrófico e existencial de tecnologias poderosas" – a qual apela à suspensão temporária, ao longo de seis meses, do desenvolvimento de sistemas de inteligência artificial [IA] mais "poderosos" que o GTP-4 e que, entre vários "problemas", incluem a produção em massa de notícias e o aumento do desemprego, nomeadamente pela substituição dos humanos por máquinas num conjunto significativo de profissões.
Na altura em que este artigo está a ser escrito, a carta em causa conta já com mais de 5 mil signatários, entre anónimos e especialistas em tecnologia: o sempre polémico Elon Musk, o co-fundador da Apple, Steve Wozniak, Yuval Nohel Harari (historiador e autor dos livros Sapiens e Homo Deus), Stuart Russel, reconhecido cientista de computação britânico, o canadiano Yoshua Benfio, famoso pelo trabalho que faz com redes neurais artificiais e que assenta em algoritmos que simulam o cérebro humano, sendo igualmente pioneiro do deep learning, alguns CEOs proeminentes (da Stability AI, Pinterest, Skype ou Getty Images), em conjunto com alguns professores de IA de mérito reconhecido, entre muitos outros, incluindo também vários especialistas da DeepMind, a empresa de IA da Google, e também da Microsoft, as quais e nos últimos meses também lançaram novos produtos com inteligência artificial.
Não é de surpreender que ninguém da OpenAI, a empresa de investigação e implementação de IA que lançou o ChatGPT e que também tem, como missão, "assegurar que a inteligência artificial beneficie toda a humanidade", tenha assinado a carta. Afinal, foi depois do enorme sucesso que esta nova tecnologia alcançou, a par de muitas críticas face ao seu poder, que surgiu este apelo a uma pausa para "repensar" o futuro da IA. Adicionalmente, este comunicado foi publicado dias depois de o Serviço Europeu de Polícia (Europol) ter alertado para a potencial má utilização de grandes modelos linguísticos, como o GPT-4, em esquemas de desinformação e criminalidade online.
Em tradução livre, a carta alerta para "os riscos profundos para a sociedade e a humanidade" que "os sistemas de IA com inteligência que permite concorrer com a dos humanos podem representar", relembrando também os Princípios de IA de Asilomar [sobre os quais o VER já escreveu], destacando o que diz que "a IA avançada pode representar uma mudança profunda na história da vida na Terra, e deve ser planeada e gerida com cuidados e recursos proporcionais".
Infelizmente, "este nível de planeamento e gestão não está a acontecer", diz também a carta, antes pelo contrário, como se pôde constatar na corrida descontrolada nos últimos meses de laboratórios de IA que se esforçam "para desenvolver e implantar mentes digitais cada vez mais poderosas que ninguém – nem mesmo os seus criadores – consegue compreender, prever, ou controlar de forma fiável".
A carta causou um verdadeiro furor entre os que apoiam e os que criticam a forma como está a ser conduzida a investigação e desenvolvimento de sistemas de inteligência artificial avançados, e a verdade é que tal como o ChatGPT, facilmente chegou também ao público em geral, que começa a ter mais sensibilidade e uma maior curiosidade no que respeita aos enormes (e, na maior parte das vezes, inimagináveis) progressos destas novas tecnologias.
Max Tegmark, professor de Física no NSF IA Institute for Artificial Intelligence and Fundamental Interactions (IAIFI) do MIT e Presidente do Future of Life Institute, sublinhou também que o pior cenário assenta na premissa de que os humanos deverão perder gradualmente mais e mais controlo sobre a civilização. Assim, e desta forma "os poderosos sistemas de IA só devem ser desenvolvidos quando estivermos confiantes de que os seus efeitos serão positivos e de que os seus riscos serão controláveis", continua a carta, e por conseguinte "apelamos a todos os laboratórios de inteligência artificial para que parem imediatamente, durante pelo menos seis meses, a formação de sistemas de inteligência artificial mais potentes do que o GPT-4. Esta pausa deve ser pública e verificável, e incluir todos os actores-chave. Se tal pausa não puder ser decretada rapidamente, os governos deveriam intervir e instituir uma moratória".
Para os co-signatários da carta aberta, "os laboratórios de IA e peritos independentes devem utilizar esta pausa para desenvolver e implementar conjuntamente uma série de protocolos de segurança partilhados para a concepção e desenvolvimento avançado de IA que sejam rigorosamente auditados e supervisionados por peritos externos independentes". Estes protocolos devem assegurar que os sistemas que os adoptam são seguros para além de qualquer dúvida razoável, algo já enunciado nos Princípios de IA da OCDE [sobre os quais o VER já escreveu] que exigem que os sistemas de IA "funcionem adequadamente e não representem um risco de segurança injustificado". No comunicado é igualmente explicado que a ideia não é parar com o desenvolvimento da IA no geral, mas apenas no que respeita aos modelos "imprevisíveis com capacidades emergentes" e que a investigação e desenvolvimento de IA "devem ser reorientados para tornar os poderosos sistemas actuais mais precisos, seguros, interpretáveis, transparentes, robustos, alinhados, dignos de confiança e leais".
A desaceleração de uma nova tecnologia não é uma ideia radical nem propriamente nova. A humanidade já fez isto antes – mesmo com tecnologias economicamente valiosas. Basta pensar na clonagem humana ou na modificação da linha germinal humana. Os investigadores do ADN recombinante por detrás da Conferência de Asilomar de 1975 organizaram uma famosa moratória sobre certas experiências. Os cientistas podem, definitivamente, modificar a linha germinal humana, e provavelmente poderiam empenhar-se na clonagem. Mas – com raras excepções como a do cientista chinês He Jiankui que foi condenado a três anos de prisão pelo seu trabalho na modificação de embriões humanos – não o fazem.
Assim, será que esta carta aberta tem força suficiente para que nestes seis meses os laboratórios de investigação e desenvolvimento de IA "parem para pensar" sobre os potenciais efeitos negativos destas poderosas novas tecnologias e se comprometam a seguir o que o Future of Life Institute prega? As dúvidas são muitas e a desconfiança também. Afinal, um número significativo dos signatários que defendem esta pausa são os mesmos que estão a desenvolver os modelos generativos de IA sobre os quais a carta adverte. E existem já vários argumentos que contrariam o apelo desencadeado pela carta do Future of Life Institute.
Leia o artigo completo no Portal VER