Em maio de 2024, cerca de 200 funcionários do Google DeepMind (representando cerca de 5% da divisão) assinaram uma carta pedindo à empresa que encerrasse seus contratos com organizações militares, expressando preocupações de que sua tecnologia de IA estava sendo usada para guerra. Tempo revista relatou.
A carta afirma que as preocupações dos funcionários não são “sobre a geopolítica de qualquer conflito em particular”, mas faz referência a Temporelatórios de sobre o contrato de defesa do Google com o exército israelense, conhecido como Projeto Nimbus. A carta também aponta para relatos de que o exército israelense usa IA para vigilância em massa e para selecionar alvos em sua campanha de bombardeio em Gaza, com empresas de armas israelenses obrigadas pelo governo a comprar serviços de nuvem do Google e da Amazon.
O uso de IA na guerra se espalhou rapidamente, levando alguns tecnólogos que constroem sistemas relacionados a se manifestarem. Mas o Google também assumiu um compromisso específico: quando adquiriu a DeepMind em 2014, os líderes do laboratório exigiram que sua tecnologia de IA nunca fosse usada para fins militares ou de vigilância.
“Qualquer envolvimento com a fabricação militar e de armas impacta nossa posição como líderes em IA ética e responsável, e vai contra nossa declaração de missão e princípios de IA declarados”, diz a carta que circulou dentro do Google DeepMind.
Como Tempo relatórios, a carta da equipe da DeepMind pede que a liderança investigue as alegações de que os serviços de nuvem do Google estão sendo usados por militares e fabricantes de armas, para cortar o acesso militar à tecnologia da DeepMind e para estabelecer um novo órgão de governança para impedir o uso futuro da IA por clientes militares.
Tempo relata que, apesar das preocupações dos funcionários e dos apelos por ação, não houve “nenhuma resposta significativa” do Google até agora.