funcionários têm dúvidas sobre IA contra discurso de ódio


Os executivos do Facebook há muito dizem que a inteligência artificial resolveria os problemas crônicos da empresa em relação ao discurso de ódio e a violência na plataforma. Entretanto, esse futuro está mais distante do que esses executivos sugerem, de acordo com documentos internos revisados ​​pelo The Wall Street Journal.

Segundo os registros, a IA da rede social de Mark Zuckerberg não consegue identificar consistentemente vídeos de filmagem em primeira pessoa, discursos racistas e até mesmo, em um episódio notável que intrigou pesquisadores internos por semanas, a diferença entre brigas de galos e acidentes de carro.

publicidade

Sobre discurso de ódio, os documentos mostram que os próprios funcionários do Facebook estimam que a empresa remove apenas uma parte das postagens que violam suas regras – uma porcentagem de um dígito, dizem eles. Quando os algoritmos não têm certeza suficiente de que o conteúdo viola as regras para excluí-lo, a plataforma mostra esse material aos usuários com menos frequência, mas as contas que postaram o material ficam impunes.

Os documentos revisados ​​pelo The Wall Street Journal também mostram que a rede social, há dois anos, reduziu o tempo que os revisores humanos focavam nas reclamações de discurso de ódio dos usuários e fez outros ajustes que reduziram o número geral de reclamações. Isso tornou a empresa mais dependente da aplicação de IA e inflou o aparente sucesso da tecnologia em suas estatísticas públicas.

Uma mulher segura um celular com o aplicativo do Facebook na tela
Documentos vazados mostram que funcionários do Facebook não acreditam na eficácia do sistema de IA da plataforma. Imagem: Jirapong Manustrong/Shutterstock

Sistema de IA gera dúvidas entre os próprios funcionários do Facebook

De acordo com os documentos, os responsáveis ​​por manter a plataforma livre de conteúdo que o Facebook considera ofensivo ou perigoso reconhecem que a empresa está longe de ser capaz de exibi-la de forma confiável.

“O problema é que não temos e possivelmente nunca teremos um modelo que capture mesmo a maioria dos danos à integridade, particularmente em áreas sensíveis”, escreveu um engenheiro sênior e cientista pesquisador em uma nota de meados de 2019.

Ele estimou que os sistemas automatizados da empresa removeram postagens que geraram apenas 2% das visualizações de discurso de ódio na plataforma que violava suas regras. “Estimativas recentes sugerem que, a menos que haja uma grande mudança na estratégia, será muito difícil melhorar isso além de 10-20% no curto e médio prazo”, escreveu ele.

Em março deste ano, outra equipe de funcionários chegou a uma conclusão semelhante, estimando que esses sistemas estavam removendo postagens que geravam de 3% a 5% das visualizações de discurso de ódio na plataforma e 0,6% de todo o conteúdo que violava as políticas do Facebook contra violência e incitamento ao ódio.

Leia também:

Facebook defende uso de IA pela plataforma

O porta-voz do Facebook, Andy Stone, disse que essas porcentagens se referem a postagens que foram removidas usando IA e não incluem outras ações que a empresa realiza para reduzir o número de pessoas que veem discurso de ódio, incluindo postagens mais baixas em feeds de notícias. O Facebook afirma que, por meio dessa medida, a prevalência de conteúdo que viola suas políticas tem diminuído, e é isso que a empresa considera sua métrica de fiscalização mais importante.

As estatísticas contrastam fortemente com a confiança na IA apresentada pelos principais executivos da empresa, incluindo o CEO Mark Zuckerberg, que disse anteriormente que esperava que o Facebook usasse IA para detectar “a grande maioria do conteúdo problemático” até o final de 2019.

A empresa costuma dizer que quase todo o discurso de ódio que ele faz foi descoberto pela IA antes de ser relatado pelos usuários. Ele chama esse número de taxa de detecção proativa, que atingiu quase 98% no início deste ano. O Facebook diz que gastou cerca de US$ 13 bilhões em “segurança e proteção” desde 2016, ou quase 4% de sua receita naquela época.

Em 2018, Zuckerberg disse a um comitê do Senado que estava otimista de que dentro de cinco a dez anos o Facebook teria as ferramentas de IA para detectar proativamente a maior parte do discurso de ódio. “A longo prazo, construir ferramentas de IA será a maneira escalonável de identificar e erradicar a maior parte desse conteúdo prejudicial”, disse ele na época. Em julho de 2020, ele disse ao Congresso: “Em termos de luta contra o ódio, construímos sistemas realmente sofisticados”.

Já assistiu aos nossos novos vídeos no YouTube? Inscreva-se no nosso canal!



Ver Matéria Original