Notícia
Porque mais vale (mesmo) prevenir do que remediar
Está a acontecer todos os dias e a um ritmo muito mais rápido do que poderemos sequer imaginar. E só agora se começa a alertar para os perigos que poderá representar. Estamos a falar de sistemas de Inteligência Artificial e da possibilidade – certa para uns, longínqua ou inatingível para outros – de as máquinas poderem vir a ser mais inteligentes do que os humanos e, na perspectiva mais catastrófica, os conseguirem controlar. Sem alarmes, mas com as cautelas necessárias, um conjunto alargado de cientistas e investigadores subscreveu, recentemente, 23 Princípios que visam assegurar que o progresso na revolução que maior impacto poderá ter na nossa História seja benéfico para a humanidade e não um potencial perigo para a sua “continuação”
Chama-se The Future of Life Institute (FLI)e tem como missão não só catalisar e apoiar a investigação e as iniciativas que visam "salvaguardar" a humanidade face a possíveis prejudiciais utilizações das (mais) novas tecnologias, mas também antecipar os seus principais desafios. Criado em 2015 por um conjunto dos mais reputados cientistas e investigadores do mundo no que respeita, nomeadamente, à Inteligência Artificial (IA), à Biotecnologia e às Tecnologias Nucleares, cujos progressos poderão ditar a diferença entre o (muito) bom e o (muito) mau, esta organização conta também com um conjunto de benfeitores muito endinheirados que se comprometeram a financiar pesquisas e iniciativas variadas com o objectivo de garantir que o progresso nestas áreas seja benéfico para a humanidade e não um potencial perigo para a sua "continuação".
A preocupação com os perigos de que, um dia, as máquinas poderão vir a ser mais inteligentes do que os humanos e, por isso mesmo, uma ameaça para a própria humanidade, há muito que já saltou das páginas dos livros e dos argumentos da ficção científica para os ecrãs da vida real. Todavia, parece que só há relativamente pouco tempo, e dado o boom de progressos nas suas variadas áreas, é que começou a ser levada mais a sério, pelo menos pelos cientistas e investigadores que nelas trabalham.
Em 2015, e no seguimento de uma das mais significativas conferências sobre estas temáticas, foi lançada uma carta aberta que alertava para os perigos das denominadas "armas autónomas" que, graças à inteligência artificial, conseguem seleccionar e atingir alvos sem qualquer intervenção humana. No documento que conta hoje com mais de 18 mil subscritores, entre cientistas, investigadores, investidores e analistas de várias áreas, alertava-se para a inevitabilidade, caso não se faça nada, de este tipo de armas se transformar nas "Kalashnikovs de amanhã". É que, ao contrário das armas nucleares, a produção deste tipo de armamento não exige custos elevados nem materiais difíceis de obter, sendo fácil a sua produção massificada. E, para os subscritores desta carta, é apenas uma questão de tempo até que as mesmas comecem "a aparecer no mercado negro e nas mãos de terroristas, de ditadores que desejam controlar melhor as suas populações, da senhores da guerra que pretendam perpetrar limpezas étnicas, etc.". A este alerta têm-se seguido outros de natureza similar e, na sua segunda grande conferência, dedicada à IA "benéfica", realizada no início deste ano no famoso centro de eventos de Asilomar, o FLI juntou investigadores académicos, cientistas, investidores, especialistas e pensadores das áreas da economia, direito, ética e filosofia que, ao longo de cinco dias, discutiram e acabariam por assinar 23 Princípios relacionados com a investigação em IA e que devem ser "honrados" por todos aqueles que, de uma forma ou outra, estão a trabalhar no presente e no futuro daquela que já é considerada, por muitos, como a maior revolução da História da Humanidade, ultrapassando a utilização intencional do fogo, a invenção da agricultura, a revolução industrial e até a dos computadores e a da Internet.
Apesar de ser difícil pesar na balança qual a "mudança mais disruptiva" de todo o sempre, um conjunto alargado de cientistas e observadores acredita que, e em particular, a chamada "Inteligência Artificial Avançada", será aquela que maior impacto terá na vida do planeta e das pessoas. Até à data, estes 23 Princípios de Asilomar (que ganharam o nome do local onde foram assinados – no famoso centro de eventos em Asilomar, na Califórnia), foram subscritos por 1153 investigadores das áreas da IA/Robótica e por mais 2205 cientistas de outras áreas conexas (os Princípios em causa podem, aliás, ser assinados por qualquer pessoa) e é possível seguir a sua discussão, visto que a ideia é que sirvam como um também "princípio" para um debate contínuo.
No seguimento da conferência em causa, o FLI tem, aliás e em forma de entrevista, convidado vários cientistas a comentá-los e o VER resume, de seguida, três deles que, sendo impossível também ordená-los de acordo com a sua importância, nos obrigam a reflectir, pelo tremendo impacto que podem ter nas nossas vidas e não só, no que ao futuro diz respeito. Ou a um presente que ainda desconhecemos.
O Princípio da Importância
A IA avançada poderá representar uma mudança profunda na história da vida na Terra e deverá ser planeada e gerida com cuidados e recursos apropriados
"É impossível estarmos demasiado preparados", afirma Roman Yampolskiy, professor de IA e que face às questões ainda sem resposta subjacentes a este enorme impacto que a IA poderá ter – para o que é que devemos estar preparados e o que representará a IA para a sociedade no geral – exorta a jogar pelo seguro e a nunca sobrestimarmos essa mesma "preparação".
Entre o optimismo e a cautela situam-se as opiniões de alguns dos especialistas que comentam, mais em pormenor, este princípio. Por exemplo, Guruduth Banavar, vice-presidente da IBM Research e "defensor crente" do princípio em causa, tem esperança legítima de que e à medida que a IA se torne "avançada", ajudará a que a humanidade avance também e a um ritmo proporcional. Do ponto de visto evolucionário, diz "os humanos atingiram o seu nível actual de poder e controlo sobre o mundo por causa da [sua] inteligência". Neste caso, e ao nos referirmos à inteligência ‘aumentada’, acrescenta, "é uma combinação do trabalho conjunto entre humanos e IA, o que irá dar origem a um futuro mais produtivo e realista do que a IA autónoma, a qual é ainda demasiado ‘longínqua’". Para o investigador da IBM, e num futuro próximo, esta IA aumentada – no sentido de a mesma ser "trabalhada" conjuntamente com as pessoas – "irá transformar a vida no planeta", no sentido que nos ajudará a "solucionar grandes problemas como os relacionados com o ambiente, a saúde e a educação".
Bart Selman, professor na Cornell University e apesar de não considerar ser imperativo as pessoas "normais" se preocuparem com as questões éticas que estão subjacentes à IA, torna bem claro que a tarefa é obrigatória para os cientistas nela envolvidos, nomeadamente no que respeita ao seu debate e planeamento. Para o também membro da American Association for Artificial Intelligence, existe pelo menos uma questão que deve ser respondida: o que é realmente possível fazer-se para garantir que os desenvolvimentos [na AI] sejam verdadeiramente benéficos no final? E este é apenas uma de muitas questões que estão longe de serem respondidas.
Mais cautelosa ainda é Anca Dragan, professora na Universidade da Califórnia em Berkeley, e que explica que e "apesar de todos os que trabalham em IA acreditarem que esta terá um impacto forte e positivo no mundo", teme também que quanto mais "capaz esta tecnologia se tornar, mais fácil será utilizá-la para maus fins ou, em particular, os efeitos da sua má utilização se tornarem mais dramáticos".
Apesar do Princípio da Importância mencionar especificamente a IA avançada, alguns dos investigadores que foram entrevistados pelo FLI na conferência já mencionada, alertaram também para os efeitos e impactos de curto prazo que a "actual" já pode estar a ter na humanidade. E que podem ser drásticos. E um deles está estreitamente relacionado com a dificuldade no geral que a humanidade tem em planear a longo prazo – devido aos sistemas civis que prevalecem e não o encorajam – sendo que "esta é uma era na qual somos obrigados a desenvolver as nossas capacidades para assegurar uma parceria benéfica e responsável entre o homem e a máquina". Quem o afirma é Kay-Firth Butterfly, directora executiva da AI-Austin.org, sendo secundada por Stefano Ermon, professor na Universidade de Stanford, que também está preocupado com os efeitos de curto prazo desta IA menos avançada, a qual e a seu ver, "é uma tecnologia incrivelmente poderosa, sendo inimaginável antever o que alguém poderá fazer com o seu desenvolvimento e mesmo antes de se tornar ‘avançada’", recordando que basta pensarmos na forma como os computadores e as tecnologias de informação que temos na actualidade revolucionaram a sociedade, a economia ou as nossas vidas quotidianas.
Clique aqui para continuar a ler a notícia