Quando Elon Kasturi assumiu o Twitter Em 2022Ele disse que teve que resolver o problema de abuso sexual de crianças na plataforma. “Prioridade superior“Após três anos, o problema é anonimamente, as contas X aparentemente automatizadas são vistas como publicidade para venda de componentes ilegais com centenas de postagens como uma hashtag de inundações. Forneça detalhes sobre seu contrato com a organização para citar a sensibilidade legal.

Algumas das ferramentas de Thorn foram projetadas para resolver o problema que parece estar crescendo na plataforma.

“Recentemente, cancelamos nosso contrato com X por causa da não disciplina”, disse Cassie Cockero, chefe do contato de Thorn, à NBC News. “E foram alguns meses e meses de promoção, flexibilidade, depois de tentar implementá -la. E no final tivemos que fechar o contrato”.

Em resposta a um pedido de comentário, X não abordou seu relacionamento com a questão contínua das contas usando a plataforma para comercializar o material de abuso sexual (CSAM) das crianças.

X app
X aplicativo em um telefone.Jap Ariens / Nurfoto Getty através do arquivo de imagem

Emitindo muitos aspectos do anúncio da absorção infantil, que NBC News reportou no primeiro de janeiro de 2023Fique o mesmo na plataforma. Os fornecedores de ingredientes de abuso sexual das crianças (CSAM) continuam a usar as hashtags com base em palavras -chave sexuais para anunciar pessoas que desejam comprar CSAM. Suas postagens são compradores diretos em outras plataformas, onde os usuários são solicitados em troca de elementos de abuso infantil.

Outros aspectos são novos: algumas contas agora parecem ser automaticamente (também conhecidas como bots), outras aproveitaram as “comunidades”, “um recurso relativamente novo lançado em 2021 que os usuários X” os incentivam a se reunir em grupos perto da discussão sobre a maioria dos problemas. “Usando comunidades, os anunciantes da CSAM conseguiram postar em um grupo de milhares de pessoas dedicadas a adolescentes, talvez sem muita investigação.

O Canadian Center for Child Protection (C3P), um grupo de vigilância CSAM on -line distinto, revisou várias contas e hashtags x sinalizadas pela NBC News que está promovendo as vendas da CSAM e seguidas por várias contas. A agência disse que, em minutos, foi capaz de identificar contas que haviam publicado anteriormente imagens de vítimas de CSAM com 7 anos de idade. É a imagem aparente do CSAM para o X -POPULADO em X e nos links para os canais de telegrama onde os vídeos CSAM foram publicados. Um canal como esse mostrou um vídeo de um garoto que assumiu que 4 pessoas eram agredidas sexualmente do que serem abusadas sexualmente. A NBC News não viu ou não viu nenhum material de abuso.

Lloyd Richardson, diretor de tecnologia da informação no C3P, diz que o comportamento demonstrado pelos usuários do X foi “um pouco velho” no momento e a resposta de X foi “extremamente insuficiente”. “Parece que este é um jogo de hack-e-Mole que está acontecendo”, disse ele. “Para obter a causa raiz da questão, não parece ser um impulso especial”. X diz que tem um Política de tolerância zero “Em direção a qualquer elemento que apresente ou promova a absorção sexual infantil”.

Uma revisão de muitas hashtags, incluindo os termos associados ao CSAM, mostra que o problema é algo pior do que assumir a responsabilidade inicialmente. Antes disso, uma tática inferior a uma dúzia de vezes por hora é agora uma torrente que é impulsionada por contas que parecem automáticas – algumas postam algumas vezes em um minuto.

Apesar das contínuas inundações de postos e sanções dispersas de contas independentes, as hashtags observadas pela NBC News por várias semanas foram abertas e visíveis até quarta -feira. E algumas das hashtags identificadas como hospedagem de exploração infantil da NBC News em 2023 ainda são usadas para o mesmo objetivo hoje.

Iticalmente, o Twitter e X tentaram bloquear algumas hashtags relacionadas à absorção de crianças. Quando a NBC News reporta primeiro o X para comercializar CSAM, O chefe de confiança e proteção de X disse A empresa sabia que tinha o trabalho de trabalhar e as hashtags mudariam e bloqueariam o desenvolvimento de sistemas automáticos para detectar e bloquear.

Em janeiro de 2021, Linda Yackerino, o Comitê Judiciário do Senado, testemunhou que a empresa fortaleceu sua aplicação “todos os tipos de maus atores (crianças explorando sexualmente) com mais equipamentos e tecnologia para prevenir, procurar ou se envolver em todos os tipos de mídia”.

Linda Yackerino fala enquanto está sentado
A CEO da X Linda Yackerino, à direita, testemunhou durante a audiência do Comitê Judicial do Senado no Capitólio em 2024.Manuel Bills Sena / AP File

Em maio de 2024, X disse que ajudou a testar uma ferramenta “criança baseada em texto para detectar ativamente a exploração sexual”. “A solução auto-hospedada foi implantada perfeitamente em nossos processos de identificação, que permitem que nossas contas de alto risco inseram e expandam a cobertura de identificação de texto absorvente sexual infantil, x D

A PELS Halai, gerente sênior das contas e parcerias x -versee, disse que parte da hashtag de software de Thorn foi projetada para resolver tópicos como postagens de CSAM, mas não ficou claro se a aplicaram perfeitamente.

“Eles participaram de Bita conosco no ano passado”, disse ele. “Então eles nos ajudaram a testar e refinar, etc., e basicamente o principal receptor do produto pode ser que mais tarde se movem em direção a todo o cliente do produto, mas como e se eles o usam, isso não está muito claro para nós neste momento”.

Sem os espinhos, não está completamente claro o que a criança está usando atualmente. “Nossa tecnologia foi projetada para proteger a proteção”, disse Halai. “A tecnologia depende da plataforma para aplicar e usar a tecnologia … o que sabemos a nosso favor é que ela foi projetada para capturar os danos que você está falando”.

Halai disse que o garfo não terminou levemente seu contrato com X levemente.

“Foi a decisão de durar para nós”, disse ele. “” Nós fornecemos seus serviços. Conseguimos fazê -lo o máximo que pudéssemos, todas as maneiras possíveis eram estar cansadas e finalmente tivemos que terminar, porque, como não -lucro, não estamos no negócio para ajudá -lo a manter algo para qualquer organização como X, onde estamos gastando muito “.

Atualmente, algumas hashtags como o #ChildPorn foram bloqueadas ao usar a função de pesquisa de X, mas outras hashtags estão abertas para navegar e vender a postagem CSAM para venda. Verificou -se que as postagens pedalam CSAM em 23 hashtags usadas juntas nas postagens da NBC News. A NBC News identificou apenas duas hashtags que foram bloqueadas por X as hashtags que foram publicadas e disponíveis para assistir à NBC News ‘da revisão da plataforma à adulteração e adolescentes para mencionar os termos codificados, como o nome do nome de Omegle, que está fechado, fechado. Após o traje de exploração sexual de uma criançaAlgumas hashtags têm cartas de agitação e apenas anúncios CSAM têm anúncios, indicando que foram criados com o objetivo exclusivo da habitação.

Alguns dos nomes de usuário dos anúncios publicados nos anúncios simplesmente tinham um idiota de palavras associadas ao conteúdo do CSAM na plataforma, misturando o nome da plataforma de mídia social com outras palavras -chave.

Muitos dos usuários foram conectados diretamente aos canais do telegrama em suas postagens ou em suas contas BIOS e incluíram referências claras ao CSAM. Algumas postagens ou links de discórdia vinculados aos canais de descarte solicita mensagens diretas para proteger.

O ecossistema de exploração da Internet do Telegram e da Internet da Discord tem uma posição distinta, que fornece espaço privado e privado para pessoas que procuram crianças venderem ou comprar materiais exploradores. NBC News Relatório Em 35 casos em que os adultos foram acusados ​​de seqüestro, decoração ou abuso sexual, que teriam sido envolvidos na controvérsia.

Um representante de desacordo disse: “” Não há tolerância a discórdias pelo abuso sexual das crianças e, quando estamos cientes disso, tomamos medidas imediatas, incluindo a remoção de conteúdo, a proibição de usuários e relatando o centro nacional de crianças desaparecidas e explorando (NCMEC). “A empresa disse em resposta à NBC News promovendo que era” vários servidores para violar a política que não está relacionada à venda da CSAM. “

Um representante do telegrama disse: “O CSAM foi claramente proibido pelos termos do serviço de telegrama e esse conteúdo nacional será removido sempre que for descoberto”. O representante indicou Parceria A Internet Watch Foundation, com sede no Reino Unido, que mantém um banco de dados de CSAM conhecido e fornece equipamentos para identificá -lo e remover.

Embora algumas contas X tenham sido publicadas publicamente, outras solicitam e oferecem a CSAM através dos recursos da comunidade de X, onde os usuários formam grupos com base em tópicos específicos. A NBC News observou que a CSAM foi solicitada a ser solicitada a ser ou venda com vários milhares de membros.

Em um grupo dedicado à “confissão de adulteração” com mais de 70,3 membros, vários usuários foram conectados aos canais de telegrama várias vezes, referindo -se claramente ao CSAM. Um usuário escreveu em uma conta do Telegram: “Estou vendendo 6 pastas CP por US $ 90”. A CP é uma abreviação on -line geral para “pornografia infantil”.

CSAM tem sido Problemas eternos na Internet e mídias sociaisMuitas empresas contratam grupos especializados e criam sistemas automatizados para detectar materiais de abuso e espalhá -lo.

No entanto, as equipes de confiança e segurança da empresa de almíscar também estabeleceram cortes rígidos e quebraram o Conselho de Confiança e Segurança da empresa. Em 2021, a empresa disse que estava detectando mais CSAM em comparação com os anos anteriores e aumentou a equipe dedicada sobre o assunto, apesar da maior confiança e proteção de proteção.

Elon Kasturi caminha enquanto se afoga dentro de um escritório
Um vídeo tirado de um vídeo publicado na conta X de Elon Mask em 2022.Elon Kasturi através da AFP – Getty Image File

Richardson, diretor da Tecnologia da Informação da C3P, disse que X às vezes removeu as contas sinalizadas, violando as regras em torno do CSAM: “Uma nova conta é aparecida em dois segundos, portanto não há muita profundidade do problema que é o mínimo que estamos procurando”.

Ele disse que a crescente dependência de sistemas de inteligência artificial para a adição, se X os usar, pode ser responsável por essa supervisão nacional. Segundo Richardson, os sistemas de IA são bons para captar e sinalizar problemas em potencial por meio de grandes conjuntos de dados, mas agora, os sistemas inevitavelmente se tornarão uma mudança extra ou moderna no final do julgamento humano.

Richardson disse: “Quando alguém está vendendo material de abuso sexual infantil em seu serviço, deve haver uma reação a um evento real, não é? Nós nos tornamos completamente sensíveis a ele”.

Source link

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui