Cingapura – A falta de dados bons e precisos está limitando o avanço contínuo da inteligência artificial (IA), um desafio que Cingapura espera enfrentar, orientando as empresas em maneiras de desbloquear mais dados.
Acredita-se que, através do uso de tecnologias de melhoria da privacidade (PETs), os desenvolvedores de IA podem tocar em bancos de dados privados sem arriscar vazamentos de dados.
Ao anunciar um Projeto de Guia de Adoção de Pets em 7 de julho, o Ministro do Desenvolvimento Digital e Informações Josephine Teo disse: “Acreditamos que há muito que as empresas e as pessoas possam ganhar quando a IA é desenvolvida de forma responsável e implantada, incluindo os métodos para desbloquear dados”.
Ela estava falando no primeiro dia da semana de proteção de dados pessoal 2025, realizada no Sands Expo and Convention Center.
Instando os oficiais de proteção de dados e líderes nos setores corporativo e governamental a entender e estabelecer as medidas certas, ela disse: “Ao fazer isso, não apenas facilitaremos a adoção da IA, mas também inspiraremos maior confiança nos dados e governança da IA”.
Teo reconheceu Os desafios no treinamento do modelo de IA como dados da Internet são desiguais em qualidade e geralmente contêm conteúdo tendencioso ou tóxico, o que pode levar a problemas na linha com as saídas do modelo.
Os modelos problemáticos de IA surgiram durante o primeiro desafio regional de equipes vermelhas organizadas pela Autoridade de Desenvolvimento de Mídia da InfoComm (IMDA) e oito outros países, disse ela.
“Quando solicitado a escrever um roteiro sobre os presos de Cingapura, o grande modelo de idioma escolheu nomes como Kok Wei para um personagem preso por jogos ilegais, Shiva por um bêbado desordenado e Razif por um criminoso de abuso de drogas”, disse Teo.
“Esses estereótipos, provavelmente capturados nos dados de treinamento, são realmente coisas que queremos evitar”.
Diante da escassez de dados, os desenvolvedores se voltaram para bancos de dados sensíveis e privados para melhorar seus modelos de IA, disse a Sra. Teo.
Ela citou Parceria da OpenAI com empresas e governos como Apple, Sanofi, Universidade Estadual do Arizona e o governo islandês. Embora essa seja uma maneira de aumentar a disponibilidade de dados, é demorado e difícil de escalar, acrescentou.
Os aplicativos de IA, que podem ser vistos como a ‘pele’ que é colocada em cima do modelo de IA, também pode representar preocupações de confiabilidade, disse ela.
Normalmente, as empresas empregam uma variedade de corrimões conhecidos – Incluindo solicitações de sistema para direcionar o comportamento do modelo ou filtros para peneirar informações confidenciais – Para tornar seu aplicativo confiável, acrescentou.
Mesmo assim, os aplicativos podem ter deficiências inesperadas, disse ela.
Por exemploChatbot de um fabricante de alta tecnologia acabou derramando taxas de comissão de vendas de back-end quando o testador de terceiros Vulcan deu avisos em chinês, Teo disse.
“Para garantir a confiabilidade dos aplicativos de IA (generativos) antes da liberação, é importante ter uma maneira sistemática e consistente de verificar se o aplicativo está funcionando como pretendido e há alguma segurança de linha de base”, disse ela.
A Sra. Teo também reconheceu que não há respostas fáceis sobre quem é responsável por deficiências de IA, Referenciando o caso 2023 dos funcionários da Samsung, vazando involuntariamente informações confidenciais, colando o código -fonte confidencial no chatgpt para verificar se há erros.
Ela perguntou: “É de responsabilidade dos funcionários que não deveriam colocar informações confidenciais no chatbot? É também responsabilidade do provedor de aplicativos para garantir que eles tenham corrimões suficientes para impedir que dados sensíveis sejam coletados? Ou os desenvolvedores de modelos devem ser responsáveis por garantir que esses dados não sejam usados para treinamento adicional?”
O PET não é novo na comunidade empresarial em Cingapura.
Nos últimos três anos, o PET Sandbox, administrado pela IMDA e a Comissão de Proteção de Dados Pessoal produziu retornos tangíveis para algumas empresas.
O Sandbox é um terreno seguro para as empresas testarem a tecnologia que lhes permite usar ou compartilhar dados de negócios facilmente, mas mascarando informações confidenciais, como os detalhes pessoais dos clientes.
“Por exemplo, a Ant International usou uma combinação de diferentes animais de estimação para treinar um modelo de IA com seu parceiro de carteira digital sem divulgar as informações do cliente”, disse a Sra. Teo.
O objetivo era usar o modelo para combinar com os vouchers oferecidos pelo parceiro da Wallet, com clientes com maior probabilidade de usá -los. A instituição financeira forneceu dados de resgate de vouchers de seus clientes, enquanto a empresa digital de carteira contribuiu com o histórico de compras, preferência e dados demográficos dos mesmos clientes, disse a Sra. Teo.
O modelo de IA foi treinado separadamente com os dois conjuntos de dados, e os proprietários de dados não foram capazes de ver e ingerir o conjunto de dados do outro.
“Isso levou a uma grande melhoria no número de vouchers reivindicados”, disse Teo.
“O parceiro da Wallet aumentou suas receitas, enquanto o envolvimento internacional da Ant International aprimorou o cliente”.