Opinião
A discussão em falta na regulação à inteligência artificial
Aquilo que a primeira proposta de regulação não prevê é a possibilidade de consciencializar os cidadãos comuns – que à partida serão os mais impactados pela utilização indevida de inteligência artificial – de como a tecnologia funciona e empoderá-los com o conhecimento necessário para que se tornem agentes ativos de mudança.
No passado dia 21 de abril, a Comissão Europeia publicou o primeiro esboço daquele que virá a ser o primeiro regulamento a nível mundial para a inteligência artificial. A nova proposta tem como objetivo reforçar a agenda regulatória da União Europeia no domínio digital e tornar o nosso Velho Continente um espaço para inteligência artificial de confiança. Tal como fizemos com o Regulamento Geral de Proteção de Dados, podemos atingir uma posição de liderança nesta área e influenciar as restantes potências tecnológicas, como o caso dos Estados Unidos, que até hoje ainda não regularam esta tecnologia, a adotarem as mesmas medidas – uma discussão que à partida tem a abertura do líder americano Joe Biden, que recentemente declarou publicamente que quer trabalhar com a Europa e a Ásia para defender “os valores que temos em comum”.
Hoje, sabemos que a inteligência artificial pode ser utilizada para fins extremamente positivos. Falo, por exemplo, da aplicação da inteligência artificial na saúde, onde podemos ajudar os médicos a prever doenças mais precocemente, na redução da emissão de dióxido de carbono para a atmosfera, na melhoria substancial da eficiência da agricultura ou até mesmo no aumento da produtividade dos colaboradores, como é o caso da área de desenvolvimento de software. Por outro lado, temos também exemplos negativos desta tecnologia. São conhecidos casos da sua utilização para a monitorização da população, violação da privacidade e opressão. Ainda assim, onde vemos o maior impacto negativo desta tecnologia é na acentuação das diferenças socioeconómicas. Neste campo, em vez de apoiar as faixas mais desfavorecidas, a inteligência artificial pode salientar (ainda mais) estas diferenças. Nenhuma faixa da população sente este fenómeno mais do que aqueles que dependem de benefícios públicos. E aqui o fator rendimento é determinante na proteção da privacidade.
Ainda que sejam muitos os cenários positivos, são estes últimos que apoiam a criação de um novo regulamento para a inteligência artificial que vise limitar o desenvolvimento de soluções nocivas para a sociedade. Tais restrições refletem essencialmente a preocupação da União Europeia em relação à monitorização dos cidadãos dos vários Estados.
Este primeiro esboço regulatório assume uma abordagem baseada no risco e abrange todas as empresas atuantes no mercado europeu que desenvolvam ou pretendam adotar sistemas impulsionados por inteligência artificial. No pior dos cenários, as organizações ficam impedidas de vender a ferramenta no espaço europeu e as multas podem atingir os 30 milhões de euros ou 6% da faturação global anual.
A primeira proposta da União Europeia é um passo importante para regular esta tecnologia. Contudo, este é um regulamento extremamente complexo e técnico que só prevê a vigia por parte das entidades que supervisionam a área de atuação do sistema de inteligência artificial. Isto é, se uma dada solução servir para apoiar os serviços bancários dos seus clientes, será a entidade reguladora deste setor que terá de avaliar o risco e validar a utilização da ferramenta pela empresa cliente. Por outras palavras, serão as entidades nacionais ou europeias especializadas nas variadíssimas indústrias a ter de avaliar estas situações.
Ainda que seja um primeiro passo importante, a Comissão Europeia corre o risco de engarrafar as entidades supervisoras e devia ter uma discussão ainda mais relevante: a importância de a tecnologia desenvolvida ser transparente o suficiente para que mesmo leigos consigam compreendê-la e perceber o que está por trás – onde e como atua e quais as implicações. No fundo, faltam mecanismos para o utilizador final, o consumidor, ter nas suas mãos o poder de reforço de responsabilidade dessas ferramentas.
Desta forma, os cidadãos que à partida não têm competências técnicas para atuar sobre o tema, mas que são preocupados com a segurança dos seus dados e da sua privacidade ficam não só a entender quais são as implicações dos sistemas que determinada empresa está a utilizar, como também podem agir sobre o assunto.
Na prática, isto poderá traduzir-se em alertas às entidades reguladoras ou simplesmente em deixar de utilizar o serviço por considerar que não é ético – o que acredito que muitos utilizadores fariam em muitas plataformas atualmente existentes, como é o caso das redes sociais.
Um pouco por todo o mundo temos lido histórias de inteligência artificial utilizada para captar dados sensíveis dos utilizadores, como aconteceu no escândalo Cambridge Analytica, na utilização indevida das imagens de cidadãos através de deep fakes, vigilância em massa, como acontece em algumas regiões da China, entre muitos outros casos.
No fundo, aquilo que a primeira proposta de regulação não prevê é a possibilidade de consciencializar os cidadãos comuns – que à partida serão os mais impactados pela utilização indevida de inteligência artificial – de como a tecnologia funciona e empoderá-los com o conhecimento necessário para que se tornem agentes ativos de mudança.