Outros sites Medialivre
Notícias em Destaque
Opinião

A IA consegue aprender a obedecer à lei?

Por meio da lei, podemos exigir que a IA pague o bilhete para entrar na nossa sociedade: obediência ao nosso código de conduta coletivo. Se as redes neurais da IA imitam os nossos cérebros, e a lei é, como se acredita amplamente, um fenómeno em grande parte cognitivo, isso deve ser possível.

  • ...

Se o trabalho do cientista de computação britânico Alan Turing sobre "máquinas pensantes" foi o prelúdio do que chamamos hoje de inteligência artificial, o "best-seller" Rápido e Devagar: Duas Formas de Pensar, do falecido psicólogo Daniel Kahneman, pode ser a continuação, dadas as suas ideias sobre como nós mesmos pensamos. Entender o "nós" será crucial para regulamentar o "eles".


Este esforço está a passar rapidamente para o topo da agenda dos decisores políticos. A 21 de março, as Nações Unidas adotaram por unanimidade uma resolução histórica (liderada pelos Estados Unidos) na qual pedem à comunidade internacional para que "controle esta tecnologia em vez de deixar que nos controle". E isso veio na esteira da Lei de IA da União Europeia e da Declaração de Bletchley sobre segurança da IA, que mais de 20 países (a maioria dos quais economias desenvolvidas) assinaram em novembro do ano passado. Além disso, os esforços nacionais estão em andamento, incluindo nos EUA, onde o Presidente Joe Biden emitiu um decreto sobre o "desenvolvimento e uso seguros e confiáveis" da IA.


Esses esforços são uma resposta à corrida armamentista da IA que começou com o lançamento público do ChatGPT pela OpenAI no final de 2022. A preocupação fundamental é o cada vez mais conhecido "problema do alinhamento": o facto de que os objetivos de uma IA e os meios escolhidos para persegui-los podem não ser respeitosos ou mesmo compatíveis com os dos humanos. As novas ferramentas de IA também têm o potencial de ser mal utilizadas por maus atores (de golpistas a propagandistas) para aprofundar e amplificar formas preexistentes de discriminação e preconceito, violar a privacidade e deslocar trabalhadores.


A forma mais extrema do problema do alinhamento é o risco existencial gerado pela IA. Inteligências artificiais em evolução constante capazes de se ensinarem a si mesmas podem sair do controlo e decidir fabricar uma crise financeira, manipular uma eleição  ou até mesmo criar uma arma biológica.


Mas uma pergunta não respondida fundamenta o "status" da IA como uma potencial ameaça existencial: a quais valores humanos a tecnologia deve alinhar-se? Deve ser filosoficamente utilitária (na tradição de John Stuart Mill e Jeremy Bentham) ou deontológica (na tradição de Emmanuel Kant e John Rawls)? Deve ser culturalmente WEIRD (sigla em inglês para ocidental, educada, industrializada, rica, democrática [Western, Educated, Industrialized, Rich, Democratic]) ou não-WEIRD? Deve ser politicamente conservadora ou liberal? Deve ser como nós ou melhor do que nós?


Não são perguntas meramente hipotéticas. Já estiveram no centro de debates da vida real, incluindo os que se seguiram ao lançamento pela Microsoft de um chatbot racista, misógino e hipersexual em 2016; a estranhamente manipuladora e sedutora Sydney, do Bing (que tentou convencer um repórter de tecnologia a deixar a sua esposa); e, mais recentemente, o Gemini do Google, cuja personagem "progressiva" levou-o a gerar resultados historicamente absurdos, como imagens de soldados nazistas negros.


Felizmente, as sociedades modernas criaram um mecanismo que permite que diferentes tribos morais coexistam: o Estado de direito. Como observei em artigos anteriores, o direito, como instituição, representa a apoteose da cooperação. O seu surgimento foi um avanço profundo depois de séculos de luta da humanidade para resolver o seu próprio problema de alinhamento: como organizar a ação coletiva.


Cognitivamente, o direito representou uma nova tecnologia radical. Uma vez internalizada, alinhou a ação individual ao consenso da comunidade. A lei era obedecida como lei, independentemente do julgamento subjetivo de um indivíduo sobre qualquer regra. Vários filósofos proeminentes têm-se focado nessa característica única. O teórico jurídico do século 20 H.L.A. Hart descreveu o direito como um mecanismo que permite que as normas sejam moldadas pela mudança das metanormas comportamentais subjacentes.


Mais recentemente, Ronald Dworkin caracterizou o direito em termos de "integridade", porque incorpora as normas de toda a comunidade, em vez de se assemelhar a um "tabuleiro de xadrez". Se o direito fosse uma colcha de retalhos, poderia representar melhor os elementos individuais de crença e opinião, mas às custas da coerência. O direito, portanto, serve como um botão de substituição em relação ao comportamento humano individual. Absorve debates complexos sobre moral e valores e os transforma em regras vinculativas.


A maior parte do debate atual sobre IA e a lei está focada em como a tecnologia pode desafiar os paradigmas regulatórios predominantes. Uma preocupação é o "efeito rainha vermelha" (alusão a Alice no País das Maravilhas), que descreve a dificuldade inerente de manter a regulamentação atualizada com uma tecnologia em movimento acelerado. Outra questão é o desafio de regulamentar nacionalmente uma tecnologia realmente global. Fora isso, há o problema-monstro de Frankenstein de uma nova tecnologia ser desenvolvida na maioria dos casos por um punhado de empresas privadas cujas prioridades (lucros) diferem das do público.


É sempre difícil encontrar o equilíbrio certo entre promover a inovação e mitigar os riscos potencialmente enormes associados a uma nova tecnologia. Com a expectativa de que a IA altere cada vez mais a prática do direito, será que o direito ainda consegue mudar a trajetória da IA? De forma mais direta, se as "máquinas pensantes" são capazes de aprender, podem aprender a obedecer à lei?


À medida que os gigantes da tecnologia avançam em busca da inteligência artificial geral – modelos capazes de superar os humanos em qualquer tarefa cognitiva – o problema da "caixa negra" da IA permanece. Nem mesmo os criadores da tecnologia sabem exatamente como esta funciona. Como os esforços para atribuir à IA uma "função objetiva" podem produzir consequências não-intencionais (por exemplo, uma IA encarregada de fazer clipes de papel pode decidir que a eliminação da humanidade é necessária para maximizar a sua produção), precisaremos de uma abordagem mais sofisticada.


Nesse sentido, devemos estudar a evolução cognitiva que permitiu às sociedades humanas durarem tanto tempo quanto o têm feito. Se as leis humanas podem ser impostas como uma restrição de projetos (talvez com os guardiões da IA no papel de disjuntores, o equivalente a polícias nas sociedades humanas) é uma pergunta para os engenheiros. Mas se isso puder ser feito, pode representar a nossa salvação.


Por meio da lei, podemos exigir que a IA pague o bilhete para entrar na nossa sociedade: obediência ao nosso código de conduta coletivo. Se as redes neurais da IA imitam os nossos cérebros, e a lei é, como se acredita amplamente, um fenómeno em grande parte cognitivo, isso deve ser possível. Se assim não for, ao menos a experiência lançará luz sobre o papel dos fatores afetivos, emocionais e sociais na sustentação da lei humana. Embora possamos ter de repensar e melhorar alguns elementos da lei existente, essa perspetiva obriga-nos, pelo menos, a examinar as diferenças críticas entre "nós" e "eles". É aí que os nossos esforços para regulamentar a IA devem começar.

 

Antara Haldar, professora associada de estudos jurídicos empíricos da Universidade de Cambridge, é parte do corpo docente visitante da Universidade de Harvard e investigadora principal de uma bolsa do European Research Council sobre direito e cognição.

Direitos de autor: Project Syndicate, 2024.
www.project-syndicate.org

Ver comentários
Mais artigos de Opinião
Ver mais
Outras Notícias
Publicidade
C•Studio