Por que o Google abandonou seu conselho de ética de IA uma semana depois de lançá-lo
Protesto da equipe contra polêmico membro do conselho leva à reversão da empresa

CEO do Google, Sundar Pichai
Justin Sullivan / Getty Images
O Google desligou seu conselho de ética de inteligência artificial (IA) apenas uma semana depois de lançá-lo, após uma reação dos funcionários.
O Conselho Consultivo Externo de Tecnologia Avançada (ATEAC), um conselho projetado para garantir o desenvolvimento responsável da IA no gigante das buscas, teria consistido de oito membros que se reuniam quatro vezes por ano para avaliar as preocupações sobre os produtos de IA do Google, diz Vox .
Mas quase 2.500 funcionários da empresa assinaram uma petição pedindo a remoção do membro do conselho Kay Coles James, presidente da Heritage Foundation, um think tank conservador, sobre os comentários que ela fez sobre as pessoas trans e o ceticismo de sua organização em relação às mudanças climáticas, o site de notícias diz.
O Google está deixando claro que sua versão de ética valoriza a proximidade ao poder sobre o bem-estar de pessoas trans, outras pessoas LGBTQ e imigrantes, disse a petição. Tal posição contraria diretamente os valores declarados do Google.
A petição continua dizendo que os danos potenciais da IA não são uniformemente distribuídos e seguem padrões históricos de discriminação e exclusão. Alega que há casos em que a IA não reconheceu pessoas trans, não reconheceu vozes mais femininas ou não viu mulheres negras.
O Google disse inicialmente que ATEAC traria perspectivas diversas, O guardião relatórios. Junto com James, o conselho incluía especialistas em matemática, um pesquisador de privacidade, o presidente-executivo de uma empresa de drones e um ex-diplomata dos Estados Unidos.
O chefe da empresa, Sundar Pichai, anunciou planos para estabelecer o conselho de ética no ano passado, depois que surgiu a empresa de tecnologia estava participando de um projeto de drones do Pentágono que usava dados da pesquisa de IA do Google, The Verge relatórios.
O Google decidiu interromper o trabalho no polêmico projeto drone no verão passado e prometeu nunca trabalhar em projetos onde a IA pudesse ser usada como uma arma ou que violasse as normas internacionalmente aceitas, acrescenta o site de tecnologia.
Um porta-voz da empresa disse ao site que ficou claro que, no ambiente atual, a ATEAC não pode funcionar como queríamos.
Estamos encerrando o conselho e voltando à prancheta, acrescentou o porta-voz. Continuaremos a ser responsáveis em nosso trabalho nas questões importantes que a IA levanta e encontraremos diferentes maneiras de obter opiniões externas sobre esses tópicos.