Outros sites Medialivre
Notícias em Destaque
Opinião

A IA precisa da supervisão da ONU

Agora que a comunidade internacional reconheceu o imperativo de proteger os direitos humanos em sistemas baseados em dados, o próximo passo é óbvio. A ONU tem agora de traduzir este consenso global em ação.

  • ...

Nos últimos anos, muitos cientistas e líderes da área tecnológica deixaram alertas em torno da inteligência artificial (IA), lançando sérios avisos que não se ouviam desde a chegada da era nuclear. Elon Musk, por exemplo, afirmou que "a IA é muito mais perigosa do que as armas nucleares", o que o levou a colocar uma questão importante: "Porque é que não temos supervisão regulamentar? Isto é de doidos".

 

O falecido Stephen Hawking fez uma afirmação semelhante: "A menos que aprendamos a preparar-nos e a evitar os riscos potenciais, a IA pode ser o pior acontecimento na história da nossa civilização. Acarreta perigos, como armas autónomas poderosas, ou novas formas de atribuir poder a meia dúzia de dominadores para oprimirem a maioria".

 

Dadas as consequências potencialmente catastróficas de uma IA sem controlo, há uma nítida necessidade de criar barreiras internacionais para garantir que esta tecnologia emergente – mais precisamente designada por sistemas baseados em dados – sirva o bem comum. Em termos concretos, isso significa garantir que os direitos humanos sejam respeitados a nível mundial, inclusive online.

 

Para o efeito, os governos devem introduzir regulamentações que promovam sistemas baseados em dados que procurem proteger os oprimidos dos poderosos, assegurando que os direitos humanos sejam respeitados, protegidos, implementados e realizados em todo o ciclo de vida desses sistemas, incluindo o planeamento, o desenvolvimento, a produção, a distribuição e a utilização.

 

Igualmente importante, as Nações Unidas têm de criar urgentemente uma Agência Internacional de Sistemas Baseados em Dados (IDA, na sigla em inglês), um órgão de vigilância global da IA que promova utilizações seguras, protegidas, sustentáveis e pacíficas destas tecnologias, garanta o respeito pelos direitos humanos e fomente a cooperação no domínio. Teria também autoridade regulamentar para ajudar a determinar a aprovação do mercado para produtos de IA. Tendo em conta as semelhanças entre os sistemas baseados em dados e as tecnologias nucleares, a Agência Internacional de Energia Atómica (AIEA) seria o melhor modelo para uma instituição deste tipo, até porque é uma das poucas agências da ONU com "autoridade".

 

O sucesso da AIEA demonstrou que somos capazes de agir com prudência e de proibir a procura às cegas de avanços tecnológicos quando o futuro da humanidade e do planeta está em jogo. Após os bombardeamentos de Hiroshima e Nagasaki terem revelado as consequências humanitárias devastadoras da guerra nuclear, a investigação e o desenvolvimento no domínio da tecnologia nuclear foram reduzidos para evitar resultados ainda piores. Isto foi possível graças a um regime internacional – a AIEA – com fortes mecanismos de aplicação.

 

Um número crescente de especialistas de todo o mundo tem apelado à criação de uma IDA e apoiado a criação de sistemas baseados em dados, assentes no respeito pelos direitos humanos. The Elders, um grupo independente de líderes globais fundado por Nelson Mandela, reconheceu os enormes riscos da IA e a necessidade de uma agência internacional como a AIEA "para gerir as poderosas tecnologias dentro de protocolos de segurança robustos" e para garantir que são "utilizadas de forma consistente com o direito internacional e os tratados de direitos humanos". Consequentemente, encorajam os países a apresentarem um pedido à Assembleia-Geral da ONU para que a Comissão de Direito Internacional elabore um tratado internacional que estabeleça uma nova agência de segurança da IA.

 

Entre os influentes defensores de um quadro regulamentar juridicamente vinculativo para a IA está Sam Altman, o CEO da OpenAI, cujo lançamento público do ChatGPT no final de 2022 deu início à corrida armamentista da IA. No ano passado, Altman solicitou uma autoridade internacional que possa, entre outras coisas, "inspecionar sistemas, exigir auditorias, testar a conformidade com os padrões de segurança, [e] colocar restrições aos graus de implantação e níveis de segurança". Até o Papa Francisco sublinhou a necessidade de criar uma instituição multilateral que analise as questões éticas decorrentes da IA e regulamente o seu desenvolvimento e utilização através de "um tratado internacional vinculativo".

 

A ONU, por seu lado, sublinhou a importância de promover e proteger os direitos humanos em sistemas baseados em dados. Em julho de 2023, o Conselho de Direitos Humanos adotou uma resolução, por unanimidade, sobre "Tecnologias digitais novas e emergentes e direitos humanos", que constata que essas tecnologias "podem não dispor de regulamentação adequada" e enfatiza a necessidade de "medidas eficazes para prevenir, mitigar e resolver os impactos adversos de tais tecnologias sobre os direitos humanos". Para o efeito, a resolução apela à criação de quadros para avaliações de impacto, para aplicar a devida diligência e para garantir soluções eficazes e supervisão humana e responsabilização legal.

 

Mais recentemente, em março, a Assembleia Geral da ONU adotou, por unanimidade, uma resolução sobre "Aproveitar as oportunidades de sistemas de inteligência artificial seguros, protegidos e fiáveis para o desenvolvimento sustentável". Esta resolução histórica reconhece que "os mesmos direitos que as pessoas têm offline têm também de ser protegidos online, inclusive durante todo o ciclo de vida dos sistemas de inteligência artificial".

 

Agora que a comunidade internacional reconheceu o imperativo de proteger os direitos humanos em sistemas baseados em dados, o próximo passo é óbvio. A ONU tem agora de traduzir este consenso global em ação, estabelecendo uma IDA.

 

Peter G. Kirchschläger, professor de Ética e diretor do Instituto de Ética Social ISE na Universidade de Lucerna, é professor convidado no Centro de IA da ETH de Zurique.

 

Direitos de autor: Project Syndicate, 2024.
www.project-syndicate.org

Ver comentários
Mais artigos do Autor
Ver mais
Outras Notícias
Publicidade
C•Studio