Opinião
O que falta aos pessimistas da IA
O debate atual em torno da IA generativa centra-se desproporcionalmente na perturbação que pode desencadear. Mas os avanços tecnológicos não apenas perturbam; eles também criam. Haverá sempre maus atores à procura de causar estragos com as novas tecnologias. Felizmente, existe um enorme incentivo financeiro para combater esses riscos, bem como para preservar e gerar lucros.
O pessimismo está impregnado nas discussões atuais sobre a inteligência artificial (IA) generativa. Um inquérito realizado em março pela YouGov descobriu que os americanos se sentem principalmente "cautelosos" ou "preocupados" com a IA, enquanto apenas um em cada cinco está "esperançoso" ou "entusiasmado". Cerca de quatro em cada dez estão muito ou um pouco preocupados com a possibilidade de a IA pôr fim à raça humana.
Tais receios ilustram a tendência humana de se concentrar mais no que poderia ser perdido do que no que poderia ser ganho com a mudança tecnológica. Os avanços na IA causarão perturbações. Mas a destruição criativa tanto cria como destrói e esse processo, em última análise, é benéfico. Muitas vezes, os problemas criados por uma nova tecnologia também podem ser resolvidos por ela. Já o estamos a ver com a IA e veremos mais nos próximos anos.
Lembre-se do pânico que tomou conta de escolas e universidades quando a OpenAI demonstrou pela primeira vez que a sua ferramenta ChatGPT consegue escrever em linguagem natural. Muitos educadores levantaram preocupações válidas de que a IA generativa ajudaria os alunos a copiarem em trabalhos e exames, prejudicando a sua educação. Mas a mesma tecnologia que permite este abuso também permite a sua detecção e prevenção.
Além disso, a IA generativa pode ajudar a melhorar a qualidade da educação. O antigo modelo de educação em sala de aula enfrenta sérios desafios. A aptidão e a preparação variam amplamente entre os alunos de uma determinada sala de aula, assim como os estilos de aprendizagem e os níveis de envolvimento, atenção e foco. Adicionalmente, a qualidade do ensino varia entre as salas de aula.
A IA poderia resolver essas questões ao agir como um professor particular para cada aluno. Se um determinado aluno aprende melhor matemática através de jogos matemáticos, a IA pode jogá-los. Se outro aluno aprender melhor a trabalhar silenciosamente nos problemas e a pedir ajuda quando necessário, a IA pode acomodá-lo. Se um aluno estiver a ficar para trás enquanto outro na mesma sala de aula já domina o material e fica entediado, os tutores de IA podem trabalhar na correção com o primeiro e em materiais mais desafiantes com o segundo. Os sistemas de IA também servirão como assistentes de ensino personalizados, ajudando os professores a desenvolverem planos de aulas e a moldarem o ensino em sala de aula.
Os benefícios económicos destas aplicações seriam substanciais. Quando cada criança tiver um tutor privado de IA, os resultados educativos melhorarão globalmente, com os alunos menos favorecidos e os alunos de escolas de qualidade inferior provavelmente a beneficiarem desproporcionalmente. Estes estudantes com melhor formação transformar-se-ão então em trabalhadores mais produtivos que poderão receber salários mais elevados. Serão também cidadãos mais sábios, capazes de iluminar as perspetivas para a democracia. Dado que a democracia é a base para a prosperidade a longo prazo, isto também terá efeitos económicos salutares.
Muitos comentadores temem que a IA possa minar a democracia ao sobrecarregar a má informação e a desinformação. Pedem-nos que imaginemos um "deep fake", por exemplo, do Presidente Joe Biden a anunciar que os Estados Unidos estão a retirar-se da NATO, ou talvez de Donald Trump a sofrer um evento médico. Um vídeo viral deste tipo poderia ser tão convincente que afetasse a opinião pública no período que antecede as eleições de novembro.
Mas embora os "deep fakes" de líderes políticos e candidatos a altos cargos sejam uma ameaça real, as preocupações sobre os riscos para a democracia provocados pela IA são exageradas. Mais uma vez, a mesma tecnologia que permite falsificações profundas e outras formas de guerra de informação também pode ser utilizada para combatê-las. Essas ferramentas já estão a ser introduzidas. Por exemplo, SynthID, uma ferramenta de marca d'água desenvolvida pelo Google DeepMind, imbui o conteúdo gerado por IA com uma assinatura digital que é impercetível aos humanos, mas detetável pelo software. Há três meses, a OpenAI adicionou marcas d’água a todas as imagens geradas pelo ChatGPT.
As armas de IA criarão um mundo mais perigoso? É muito cedo para dizer. Mas, tal como acontece com os exemplos acima, a mesma tecnologia que pode criar melhores armas ofensivas também pode criar as melhores defesas. Muitos especialistas acreditam que a IA aumentará a segurança ao mitigar o "dilema do defensor": a assimetria em que os malfeitores só precisam de ter sucesso uma vez, enquanto os sistemas defensivos devem funcionar sempre.
Em fevereiro, o CEO do Google, Sundar Pichai, informou que a sua empresa havia desenvolvido um grande modelo de linguagem projetado especificamente para a defesa cibernética e a informação contra ameaças. "Algumas das nossas ferramentas já são até 70% melhores na deteção de ‘scripts’ maliciosos e até 300% mais eficazes na identificação de arquivos que exploram vulnerabilidades", escreveu.
A mesma lógica aplica-se às ameaças à segurança nacional. Os estrategas militares temem que enxames de drones de baixo custo e fáceis de fabricar possam ameaçar grandes e caros porta-aviões, aviões de combate e tanques – todos sistemas dos quais os militares dos EUA dependem – se forem controlados e coordenados pela IA. Mas a mesma tecnologia subjacente já está a ser utilizada para criar defesas contra tais ataques.
Finalmente, muitos especialistas e cidadãos estão preocupados com o facto de a IA deslocar trabalhadores humanos. Mas, como escrevi há alguns meses, este medo comum reflete uma mentalidade de soma zero que não compreende a forma como as economias evoluem. Embora a IA generativa desloque muitos trabalhadores, também criará novas oportunidades. O trabalho no futuro será muito diferente do trabalho de hoje porque a IA generativa criará novos bens e serviços cuja produção exigirá trabalho humano. Um processo semelhante aconteceu com avanços tecnológicos anteriores. Como demonstraram o economista do MIT David Autor e os seus colegas, a maioria dos empregos atuais estão em profissões introduzidas depois de 1940.
O debate atual em torno da IA generativa centra-se desproporcionalmente na perturbação que pode desencadear. Mas os avanços tecnológicos não apenas perturbam; eles também criam. Haverá sempre maus atores à procura de causar estragos com as novas tecnologias. Felizmente, existe um enorme incentivo financeiro para combater esses riscos, bem como para preservar e gerar lucros.
O computador pessoal e a internet deram poder aos ladrões, facilitaram a difusão de informações falsas e levaram a perturbações substanciais no mercado de trabalho. No entanto, muito poucos voltariam hoje no tempo. A história deve inspirar confiança – mas não complacência – de que a IA generativa conduzirá a um mundo melhor.
Michael R. Strain, diretor de estudos de Política Económica do American Enterprise Institute, é o autor, mais recentemente, de The American Dream Is Not Dead (But Populism Could Kill It) (Templeton Press, 2020).
Direitos de autor: Project Syndicate, 2024.
www.project-syndicate.org
Tradução: Leonor Mateus Ferreira