Facebook desenvolve mecanismo para sinalizar conteúdos ofensivos em vídeos ao vivo

O Facebook está desenvolvendo uma alerta automático para conteúdos ofensivos em transmissões de vídeo ao vivo, elevando o uso de inteligência artificial para monitorar conteúdo, disse o diretor de aprendizado de máquinas da empresa, Joaquin Candela.

A rede social está envolvida em várias controvérsias sobre moderação de conteúdo, em meio a um clamor internacional após a remoção de uma icônica foto da Guerra do Vietnã devido à nudez, até permitir a disseminação de notícias falsas em seu site.

O Facebook historicamente tem confiado principalmente em seus usuários para reportar postagens ofensivas, que então são verificadas por funcionários do Facebook seguindo os padrões da comunidade.

Candela disse que o Facebook usa cada vez mais a inteligência artificial para encontrar conteúdos ofensivos. É “um algoritmo que detecta nudez, violência ou qualquer uma das coisas que não está de acordo com nossas políticas”, ele disse.

A empresa já estava trabalhando no uso de sinalização automática do conteúdos extremistas, como a Reuters havia noticiado em junho.

Agora, o sistema automatizado também está sendo testado no Facebook Live, o serviço de transmissão que permite que usuários façam vídeos ao vivo.

O uso da inteligência artificial para sinalizar vídeos ao vivo ainda está em pesquisa e tem dois desafios, disse Candela.

“Um, o algoritmo computacional tem que ser rápido e acho que podemos nos esforçar nisso, e o outro é que você precisa priorizar as coisas da maneira certa para que um ser humano olhe aquilo, um especialista em nossas políticas, e o tire do ar”.

Redação 89: