O Google fez uma das mudanças mais substantivas em seu Princípios da IA Desde que os publicou pela primeira vez em 2018. Em uma mudança vista por The Washington Posta gigante de pesquisa editou o documento para remover promessas que ele fez promissor que não "projetar ou implantar" Ferramentas de IA para uso em quaisquer armas ou tecnologia de vigilância. Anteriormente, essas diretrizes incluíam uma seção intitulada "aplicativos que não perseguiremos," que não está presente na versão atual do documento.
Em vez disso, agora há uma seção intitulada "desenvolvimento e implantação responsáveis." Lá, o Google diz que vai implementar "A supervisão humana apropriada, a due diligence e os mecanismos de feedback para se alinhar com as metas do usuário, a responsabilidade social e os princípios amplamente aceitos do direito internacional e dos direitos humanos."
Esse é um compromisso muito mais amplo do que os específicos que a empresa fez recentemente no final do mês passado, quando a versão anterior de seus princípios de IA ainda estava ao vivo em seu site. Por exemplo, no que se refere a armas, a empresa disse anteriormente que não projetaria a IA para uso em "armas ou outras tecnologias cujo objetivo principal ou implementação é causar ou facilitar diretamente lesões às pessoas. ” Quanto às ferramentas de vigilância de IA, a empresa disse que não desenvolveria tecnologia que viola "Normas aceitas internacionalmente."
Quando solicitado a comentar, um porta -voz do Google apontou Engadget para um Postagem do blog A empresa publicada na quinta -feira. Nele, o CEO da DeepMind Demis Hassabis e James Manyika, vice -presidente sênior de pesquisa, laboratórios, tecnologia e sociedade no Google, dizem o surgimento de IA como um "Tecnologia de uso geral" precisava de uma mudança de política.
"Acreditamos que as democracias devem liderar o desenvolvimento da IA, guiadas por valores essenciais como liberdade, igualdade e respeito pelos direitos humanos. E acreditamos que empresas, governos e organizações que compartilham esses valores devem trabalhar juntos para criar IA que proteja as pessoas, promove o crescimento global e apóia a segurança nacional," Os dois escreveram. "… Guiado por nossos princípios de IA, continuaremos a focar na pesquisa e aplicações de IA que se alinham à nossa missão, nosso foco científico e em nossas áreas de especialização e permanecem consistentes com princípios amplamente aceitos de direito internacional e direitos humanos – sempre avaliando Trabalho avaliando cuidadosamente se os benefícios superam substancialmente os riscos potenciais."
Quando o Google publicou seus princípios de IA pela primeira vez em 2018, o fez após o Projeto Maven. Era um contrato governamental controverso que, se o Google decidisse renová -lo, teria visto a empresa fornecer software de IA ao Departamento de Defesa para analisar imagens de drones. Dezenas de funcionários do Google deixaram a empresa em protesto contra o contrato, com milhares de assinando uma petição em oposição. Quando o Google acabou publicando suas novas diretrizes, o CEO Sundar Pichai teria dito à equipe que sua esperança era de que eles ficariam "o teste do tempo."
Em 2021, no entanto, o Google começou a buscar contratos militares novamente, com o que era supostamente um "agressivo" Faça uma oferta para o contrato de Cloud em nuvem em nuvem de combate ao lutador de guerra do Pentágono. No início deste ano, The Washington Post relataram que os funcionários do Google haviam trabalhado repetidamente com o Ministério da Defesa de Israel para expandir o uso do governo das ferramentas de IA.
Este artigo apareceu originalmente em Engadget em
Source link