As meta plataformas disseram em 27 de fevereiro que resolveram um erro que inundou os feeds pessoais dos usuários do Instagram com vídeos violentos e gráficos em todo o mundo.

Não ficou claro imediatamente quantas pessoas foram afetadas pela falha. Os comentários de Meta seguiram uma onda de reclamações nas mídias sociais sobre o conteúdo violento e “não seguro para o trabalho” em feeds de bobinas, apesar de alguns usuários terem permitir a configuração de “controle de conteúdo sensível” destinada a filtrar esse material.

“Corrigimos um erro que levou alguns usuários a ver o conteúdo em seus rolos do Instagram que não deveriam ter sido recomendados. Pedimos desculpas pelo erro ”, disse um porta -voz da Meta.

Não divulgou o motivo por trás do erro.

As políticas de moderação da Meta estão sob escrutínio depois dele Decidiu no mês passado para descartar seu programa de verificação de fatos nos EUA No Facebook, Instagram e Threads, três das maiores plataformas de mídia social do mundo com mais de 3 bilhões de usuários em todo o mundo.

Vídeos violentos e gráficos são proibidos sob a política da Meta e a empresa geralmente remove esse conteúdo para proteger os usuários, exceto exceções dadas para vídeos que aumentam a conscientização sobre tópicos, incluindo abuso e conflito de direitos humanos.

Nos últimos anos, a empresa se apoia mais em suas ferramentas de moderação automatizadas, uma tática que deve acelerar com a mudança para longe da verificação de fatos nos Estados Unidos.

A Meta enfrentou críticas por não equilibrar efetivamente as recomendações de conteúdo e a segurança do usuário, como visto em incidentes como a propagação de conteúdo violento durante o genocídio de Mianmar, o Instagram promovendo o conteúdo do distúrbio alimentar para adolescentes e informações erradas durante a pandemia covid-19. Reuters

Juntar Canal de telegrama da ST E receba as últimas notícias de última hora.

Source link