Opinião
A entediante verdade sobre a IA
As alegações de que a IA está a avançar a uma velocidade vertiginosa confundem obsessão com progresso útil.
Os especialistas que alertam para o facto de a inteligência artificial (IA) representar riscos catastróficos, cujo grau de gravidade equiparam aos riscos da aniquilação nuclear, ignoram a natureza gradual e difusa do desenvolvimento tecnológico. Tal como argumentei no meu livro de 2008, The Venturesome Economy, as tecnologias transformadoras – desde as máquinas a vapor, aviões, computadores, rede de telemóveis e Internet até aos antibióticos e vacinas mRNA – evoluem através de um jogo prolongado e massivo, com vários intervenientes, que desafia o comando e o controlo hierárquico.
As "tempestades de destruição criativa" de Joseph Schumpeter e as teorias mais recentes que apregoam as descobertas disruptivas são enganadoras. Como o historiador económico Nathan Rosenberg, e muitos outros, têm demonstrado, as tecnologias transformadoras não aparecem de repente, do nada. Em vez disso, os avanços significativos exigem a descoberta e a superação gradual de muitos problemas imprevistos.
As novas tecnologias apresentam novos riscos. Invariavelmente, as aplicações militares desenvolvem-se a par das utilizações comerciais e civis. Os aviões e os veículos terrestres motorizados têm sido utilizados em conflitos desde a Primeira Guerra Mundial, e os computadores pessoais e as comunicações móveis são indispensáveis para a guerra moderna. No entanto, a vida continua. As sociedades tecnologicamente avançadas desenvolveram mecanismos legais, políticos e de aplicação da lei para conter os conflitos e a criminalidade que os avanços tecnológicos permitem. As decisões judiciais individuais são decisivas nos Estados Unidos e noutros países de direito consuetudinário. Estes mecanismos – assim como as próprias tecnologias – são evolutivos e adaptáveis. Produzem soluções pragmáticas, não conceitos visionários.
O Projeto Manhattan, que desenvolveu a bomba atómica e ajudou a pôr fim à Segunda Guerra Mundial, foi uma exceção. Tinha um mandato militar de elevada prioridade. Com os nazis a tentar desenvolver a sua própria bomba, a rapidez e a liderança eficaz eram fundamentais. E quando uma guerra termonuclear total se tornou uma ameaça real, a arte de governar e a dissuasão estratégica ajudaram a evitar o fim do mundo.
Mas as armas nucleares são uma analogia enganadora para a IA, que tem seguido o padrão tipicamente difuso e hesitante da maioria das outras transformações tecnológicas. A IA abrange técnicas díspares – como a aprendizagem automática, o reconhecimento de padrões e o processamento de linguagem natural – e tem aplicações muito variadas. A sua caraterística comum é principalmente ambiciosa – ir além do mero cálculo para inferências e interpretações mais especulativas, mas úteis.
Ao contrário do Projeto Manhattan, que avançou a todo o vapor, os criadores de IA estão a trabalhar há mais de sete décadas, inserindo discretamente a IA em tudo, desde câmaras digitais e scanners a smartphones, sistemas de travagem automática e de injeção de combustível em automóveis, efeitos especiais em filmes, pesquisas no Google, comunicações digitais e plataformas de redes sociais. E, tal como acontece com outros avanços tecnológicos, a IA tem sido utilizada desde há muito tempo para fins militares e criminais.
No entanto, o progresso da IA tem sido gradual e incerto. O Deep Blue da IBM venceu ilustremente o campeão mundial de xadrez, Garry Kasparov, em 1997 – 40 anos depois de um investigador da IBM ter escrito pela primeira vez um programa para jogar xadrez. E embora o sucessor do Deep Blue, Watson, tenha ganhado um milhão de dólares ao derrotar os atuais campeões do programa "Jeopardy!" em 2011, foi um fracasso comercial. Em 2022, a IBM vendeu o Watson Health por uma fração dos milhares de milhões que tinha investido. O assistente inteligente da Microsoft, Clippy, tornou-se uma figura caricata de escárnio. E, após anos de desenvolvimento, os textos com preenchimento automático continuam a produzir resultados embaraçosos.
A aprendizagem automática – essencialmente um procedimento estatístico melhorado do qual dependem muitos programas de IA – necessita de um feedback fiável. Mas um bom feedback exige resultados inequívocos produzidos por um processo estável. As intenções humanas ambíguas, a impulsividade e a criatividade prejudicam a aprendizagem estatística, limitando assim o desígnio útil da IA. Embora o software de IA reconheça sem falhas o meu rosto nos aeroportos, não consegue compreender com exatidão as subtilezas das minhas palavras ditas de forma cuidadosa e lenta. A imprecisão de 16 gerações de software de transcrição profissional (comprei o primeiro em 1997) tem-me frustrado repetidas vezes.
Os grandes modelos de linguagem (LLM, na sigla em inglês), que se tornaram o rosto público da IA, não são descontinuidades tecnológicas que transcendem magicamente as limitações da aprendizagem automática. As alegações de que a IA está a avançar a uma velocidade vertiginosa confundem obsessão com progresso útil. Tornei-me um utilizador entusiástico da pesquisa com IA na década de 1990. Por isso, tinha grandes esperanças quando me inscrevi na versão beta pública do ChatGPT em dezembro de 2022. Mas as minhas esperanças, de que ele ou algum outro LLM me ajudasse com um livro que estava a escrever, ficaram desfeitas. Embora os LLM respondessem com frases compreensíveis a questões colocadas em linguagem natural, as suas respostas convincentes eram muitas vezes fictícias.
Assim, enquanto as minhas pesquisas de 1990 no Google permitiram-me poupar tempo valioso, a verificação da exatidão das respostas dos LLM tornou-os um fator de perda de produtividade. Contar com eles para ajudar a editar e ilustrar o meu manuscrito também foi uma perda de tempo. Estas experiências fazem-me estremecer só de pensar no software com erros gerado por LLM que está a ser lançado no mundo.
Dito isto, as fantasias dos LLM podem ser complementos valiosos para contar histórias e outros produtos de entretenimento. Talvez os chatbots desenvolvidos por LLM possam aumentar os lucros fornecendo um serviço de apoio ao cliente barato, ainda que desesperante. Um dia, uma descoberta poderá aumentar drasticamente o alcance útil da tecnologia. Por enquanto, contudo, estes "gabarolas", muitas vezes nada fiáveis, não justificam nem euforia nem pânico sobre "riscos existenciais para a humanidade". É melhor manter a calma e deixar que a tradicional evolução descentralizada da tecnologia, das leis e dos regulamentos prossiga.
Amar Bhidé, professor de Política de Saúde na Mailman School of Public Health da Universidade Columbia, é autor do livro prestes a ser publicado Uncertainty and Enterprise: Venturing Beyond the Known (Oxford University Press).
Direitos de autor: Project Syndicate, 2024.
www.project-syndicate.org