CINGAPURA – A partir de 31 de março, as lojas de aplicativos devem impedir que usuários jovens com menos de 18 anos baixem aplicativos não destinados à sua faixa etária, incluindo o aplicativo de namoro Tinder e videogames adultos como Grand Theft Auto.

De acordo com o novo Código de Prática para Segurança Online para Serviços de Distribuição de Aplicativos, as lojas de aplicativos direcionadas a usuários em Cingapura também devem impedir que crianças menores de 12 anos baixem aplicativos como Instagram e TikTok, que são classificados para maiores de 12 anos.

“Reconhecemos que os serviços de distribuição de aplicativos são portais importantes para acessar aplicativos em nossos dispositivos digitais e são mercados para conteúdo online, incluindo jogos online”, disse a Infocomm Media Development Authority (IMDA) ao anunciar o lançamento do novo código em 15 de janeiro.

“Com mais pessoas, incluindo crianças possuir dispositivos móveis… existe um risco aumentado de exposição a conteúdos nocivos, incluindo conteúdos impróprios para a idade das crianças.”

Os afetados por este código são a Apple App Store, Google Play Store, Huawei AppGallery, Microsoft Store e Samsung Galaxy Store. Terão de avaliar a idade dos descarregadores – um processo referido como “garantia de idade” no código – para minimizar a exposição das crianças a conteúdos nocivos.

As lojas de aplicativos também são responsáveis para monitorar o conteúdo do aplicativo e são obrigados a revisar aplicativos e atualizações antes de serem lançados. Isto garante que materiais nocivos, como conteúdos sexuais ou violentos e conteúdos relacionados com cyberbullying, automutilação e vícios, entre outros, sejam mantidos fora do alcance das crianças.

À medida que as empresas se adaptam às novas regrasA IMDA disse que envolverá as lojas de aplicativos nos próximos meses na implementação de medidas de garantia de idade.

IMDA sugeriu o uso de inteligência artificial, aprendizado de máquina ou varredura facial que disse ter “evoluído significativamente” para permitir que as medidas de garantia da idade sejam implementadas de forma eficaz.

A tecnologia de triagem facial tem sido cada vez mais implantada em aplicativos como Instagram e o aplicativo francês de redes para jovens Yubo, que exige que os usuários gravem imagens em tempo real de seus rostos, que são analisadas por uma empresa de tecnologia de verificação de idade chamada Yoti.

Alternativamente, as plataformas também podem contar com fontes verificadas de identificação, como uma identificação digital ou cartão de crédito, para determinar a idade de um usuário, disse IMDA..

As plataformas que não possuem medidas de “garantia de idade” precisam enviar uma proposta à IMDA sobre como planejam verificar a idade dos downloaders e quando poderão configurá-la.

As lojas de aplicativos que não implementarem as medidas correm o risco de serem bloqueadas em Cingapura sob a Lei de Radiodifusão.

Ainda não se sabe como as lojas de aplicativos restringirão aplicativos com conteúdo adulto para usuários mais jovens. Serviços de streaming como o Netflix, apesar de serem classificados como maiores de 12 anos na Google Play Store, geralmente hospedam programas destinados ao público adulto (maiores de 18 anos), normalmente protegidos por uma senha para restringir o acesso.

Como parte das suas novas obrigações que entram em vigor em 31 de março, as lojas de aplicações também precisarão de ter canais que sejam fáceis para os utilizadores denunciarem aplicações com conteúdo prejudicial e de serem responsáveis ​​perante os utilizadores pelas medidas que implementaram nos relatórios anuais de segurança online.

Por exemplo, a IMDA exige que os relatórios dos utilizadores sejam avaliados e tratados de forma atempada e diligente, proporcional à gravidade do dano potencial.

Os conteúdos e atividades relacionados com a exploração e abuso sexual infantil, bem como o terrorismo, em particular, devem ser removidos ou restringidos, e o fornecedor da aplicação em questão deve ser banido, suspenso ou advertido.

Espera-se também que a plataforma mantenha os utilizadores que denunciam o assunto informados sobre as medidas tomadas, a menos que a denúncia seja de natureza frívola ou escrita para causar frustração.

A Ministra do Desenvolvimento Digital e da Informação, Josephine Teo, disse no LinkedIn que o novo código visa garantir que as crianças possam explorar e aprender com acesso a conteúdo adequado à idade.

Ela escreveu sobre uma jovem mãe que a conheceu em um Meet-the-People para perguntar sobre ajuda financeira. A Sra. Teo disse: “Seus três filhos, um deles ainda pequeno, estavam todos profundamente envolvidos com seus dispositivos móveis.

“Além de ajudar a família dela com suas necessidades básicas, eu sabia que tinha que compartilhar com ela informações sobre o uso da tela e vincular sua família a recursos de educação e entretenimento, como livros – as crianças ainda eram muito pequenas para se protegerem dos perigos de conteúdo on-line prejudicial.”

O código acrescenta medidas introduzidas para melhorar a segurança online, incluindo guias para pais e regras para serviços de redes sociais no âmbito do Código de Prática para Segurança Online, disse a Sra. Teo.

Ela disse: “Embora não exista uma solução mágica que resolva todas as complexidades da segurança online, Singapura continua empenhada em fortalecer as nossas defesas contra a evolução dos danos online”.

O Código de Prática de Singapura segue um impulso global mais amplo reforçar a proteção das crianças online, responsabilizando as plataformas tecnológicas pela segurança dos seus utilizadores.

Muitas nações estão olhando para a Austrália, que em breve aplicará uma nova lei para proibir o acesso de crianças menores de 16 anos às redes sociais, estabelecendo uma referência para os reguladores em todo o mundo.

Os observadores levantaram questões sobre como a lei será aplicada e se a tecnologia de garantia de idade está à altura da tarefa.

Singapura também está a debater a ideia de uma proibição, e está em negociações com a Austrália e plataformas tecnológicas para compreender os seus pontos de vista.

A República fez atualizações graduais na sua Lei de Radiodifusão ao longo dos anos para exigir que as empresas de tecnologia introduzissem medidas mais rigorosas.

Em 2023, as empresas de redes sociais foram obrigadas a facilitar aos utilizadores a denúncia de conteúdos prejudiciais e a serem transparentes sobre a forma como mantêm os utilizadores seguros através de relatórios anuais de segurança às autoridades para responsabilização.

A IMDA está em fase de avaliação dos relatórios, que visam promover a transparência entre as plataformas e recolher informações sobre o que já estão a fazer para garantir a segurança.

Juntar Canal WhatsApp da ST e receba as últimas notícias e leituras obrigatórias.

Source link