Foto: Kirill Kudryavtsev/AFP
A Meta quer substituir seus funcionários de supervisão de produtos por inteligência artificial (IA), revelou o canal público americano NPR, que teve acessos a documentos internos da empresa sobre o assunto. De acordo com os documentos, serviços com conteúdo considerados de risco, como publicações do Facebook e do Instagram em categorias como discurso de ódio, desinformação e conteúdo de violência, entrarão na revisão automatizada.
O objetivo é que 90% da revisão desses produtos seja feita por IA, em um movimento de automatização de processos dentro da empresa – o que permitiria que updates de aplicativos e novas versões desses produtos pudessem ser lançadas de forma mais rápida no mercado, já que não precisariam passar por uma equipe de humanos em sua revisão.
A Meta ainda não se pronunciou sobre as informações publicadas pela NPR. A reportagem do Estadão entrou em contato com a empresa, mas ainda não obteve resposta.
O movimento, porém, preocupa alguns funcionários que já tiveram contato com o sistema automatizado. Um dos temores é que a revisão não leve em consideração situações em que esses produtos possam causar danos a adolescentes, por exemplo, como em regras e liberação de publicação de conteúdos e no funcionamento do algoritmo.
“Na medida em que esse processo significa, funcionalmente, mais lançamentos em menos tempo, com menos rigor na análise e menos oposição, isso significa que você está criando riscos maiores”, afirmou um ex-executivo da Meta, que pediu anonimato, à NPR. “É menos provável que as externalidades negativas das mudanças nos produtos sejam evitadas antes que comecem a causar problemas no mundo.”
Com a mudança para um sistema automatizado, ao invés da revisão por olhares humanos, funcionários da empresa teriam apenas de preencher um formulário com as principais características do produto. Uma IA seria responsável por analisar “instantaneamente” os riscos e liberar ou não o serviço, afirmou a NPR.
A Meta já sofreu um escrutínio por questões parecidas no final de 2021, quando uma série de documentos vazados indicou que a empresa sabia que algoritmos do Instagram estavam prejudicando a saúde mental de meninas adolescentes. Neste ano, a empresa já havia anunciado o fim das equipes de checagem de fatos nos EUA.
Deu no Estadão