Notícia
G7 avança com novo código de conduta para a inteligência artificial
O código de adesão voluntária, com 11 pontos, será anunciado esta segunda-feira pelo G7, segundo noticia a Reuters.
29 de Outubro de 2023 às 16:46
Os países do G7 terão chegado a acordo com um código de conduta para empresas que desenvolvem sistemas de inteligência artificial (IA) avançada. A notícia é avançada pela Reuters, que teve acesso a documentação sobre este código e indica que o anúncio será feito na segunda-feira.
Os governos do Canadá, França, Alemanha, Itália, Japão, Reino Unido e Estados Unidos procuram mitigar riscos e potencial uso indevido da tecnologia e têm trabalhado em conjungo com a União Europeia desde maio num fórum ministerial conhecido como "Processo de Hiroshima sobre IA".
O documento consultado pela Reuters é um código com 11 pontos de adesão voluntária que "visa promover uma IA segura, protegida e fiável em todo o mundo e fornecerá orientações voluntárias para as ações das organizações que desenvolvem os sistemas de IA mais avançados, incluindo os modelos de base mais avançados e os sistemas de IA generativos".
O código insta as empresas a tomarem medidas de identificação, avaliação e atenuação de riscos ao longo do ciclo de vida da IA, bem como a combaterem incidentes e padrões de utilização indevida depois de os produtos de IA terem sido colocados no mercado.
As empresas devem, para isso, publicar relatórios públicos sobre as capacidades, limitações e utilização indevida dos sistemas de IA, bem como investir em controlos de segurança sólidos.
Os governos do Canadá, França, Alemanha, Itália, Japão, Reino Unido e Estados Unidos procuram mitigar riscos e potencial uso indevido da tecnologia e têm trabalhado em conjungo com a União Europeia desde maio num fórum ministerial conhecido como "Processo de Hiroshima sobre IA".
O código insta as empresas a tomarem medidas de identificação, avaliação e atenuação de riscos ao longo do ciclo de vida da IA, bem como a combaterem incidentes e padrões de utilização indevida depois de os produtos de IA terem sido colocados no mercado.
As empresas devem, para isso, publicar relatórios públicos sobre as capacidades, limitações e utilização indevida dos sistemas de IA, bem como investir em controlos de segurança sólidos.