Cingapura – As empresas de Cingapura estão pedindo cautela pelo uso da Deepseek, mesmo enquanto olham as promessas de economia de custos do modelo de inteligência artificial generativa chinesa (AI).
Empresas importantes, como bancos, agências de consultoria e empresas de segurança cibernética, estabeleceram regras claras sobre o uso de modelos generativos de IA, essencialmente proibindo os funcionários de usar essas ferramentas, incluindo o DeepSeek para o trabalho, citando a necessidade de devida diligência.
Deepseek sacudiu o setor de tecnologia Quando lançou seu mais recente modelo R1 em janeiro, dizendo que rivalizou com a tecnologia construída pela fabricante de chatgpt Openai em termos de capacidades – mas por uma fração do custo.
A start-up da IA chinesa alegou que o R1 custou apenas US $ 5,6 milhões (US $ 7,6 milhões) para treinar, em comparação com as centenas de milhões de gigantes da tecnologia dos EUA investiram no treinamento de cada um de seus grandes modelos de idiomas (LLMS).
Após seu lançamento, o R1 liderou as paradas de download e fez com que os estoques de tecnologia dos EUA mergulhassem, refletindo a confiança minada em players generativos de IA, como o OpenAI, Google e Amazon Web Services, que dominaram o mercado.
Agora, todos os olhos estão no modelo da China, com a plataforma de insights de consumo de AI baseada em Cingapura, estimando que poderia salvar empresas entre 40 % e 60 % nos custos de infraestrutura, particularmente do uso de chips de computação de ponta, para executar em larga escala em larga escala Llms.
O Boston Consulting Group (BCG) disse que viu um aumento no interesse entre os clientes sobre o uso potencial da IA Deepseek em projetos.
“O modelo se destaca por ser de código aberto, ter um bom desempenho nos benchmarks e oferecer uma alternativa significativamente menor aos concorrentes”, disse Hanno Stegmann, diretor administrativo e parceiro da equipe de AI da BCG.
Tan Siew San, gerente geral da IBM Singapore, ecoou seus sentimentos.
O estudo recente da IBM, publicado em dezembro de 2024, mostrou que quase metade de mais de 200 tomadores de decisão de TI aqui querem usar mais tecnologias de IA de código aberto em 2025, citando desenvolvimento mais rápido de software e inovação rápida, entre outras razões.
Especificamente, o método de código aberto crowdsources idéias de desenvolvedores de terceiros, não apenas em casa, para melhorar os códigos.
Mas vale a pena esperar por uma avaliação mais completa dos riscos da Deepseek antes de implantar o modelo, disse Stegmann.
Houve pedidos semelhantes para a avaliação dos modelos generativos de IA das empresas americanas Openai, Google e Amazon Web Services quando foram lançadas pela primeira vez há dois anos. As principais preocupações sinalizadas foram a retenção de dados usados para treinar os modelos de IA e os riscos de vazamento de dados corporativos.
Os testes iniciais da Deepseek mostram que fica aquém de alguns padrões responsáveis de IA, fornecendo respostas a perguntas sensíveis ou censurando suas respostas sobre tópicos controversos, observou Stegmann.
Os primeiros relatórios dos entusiastas da tecnologia sinalizaram a tendência de Deepseek de evitar responder a perguntas sobre tópicos, muitas vezes censurados pelo governo chinês, enquanto respondiam abertamente perguntas semelhantes sobre outros países.
Também há preocupações sobre a versão do aplicativo da Deepseek, que mantém instruções e resultados para treinar o modelo de IA. Os especialistas não têm certeza sobre até que ponto os dados são mantidos e examinados.
Também não está claro se os desenvolvedores da Deepseek investiram significativamente em medidas de segurança e como exatamente os dados são armazenados, disse Stegmann.
“Recomendamos fortemente nossos clientes para avaliar quaisquer riscos potenciais antes de usaremeek, especialmente em relação à segurança e confidencialidade dos dados”.
A Deepseek precisará ser colocada em seus ritmos, um processo que envolve testes repetidos sobre a consistência de suas respostas e a avaliação de como o sistema pode ser mal utilizado e seus preconceitos, como aqueles relacionados a gênero ou dados demográficos específicos, disse Stegmann.
“É justo dizer que os primeiros lançamentos de muitos LLMs tiveram alguns problemas no início que tiveram que ser resolvidos com base no feedback do usuário e nas alterações feitas no modelo”.
Observando que a Coréia do Sul e a Europa exigiram informações da Deepseek, ele disse: “Vale a pena esperar para ver o que as informações adicionais podem emergir nos dados que Deepseek foi treinado”.
Coréia do Sul, Itália e Austrália estão entre países que bloquearam o acesso a Deepseek em dispositivos do governo, citando preocupações de segurança.
As restrições refletem as dos primeiros dias do ChatGPT em 2022, quando viu um aumento de interesse em todo o mundo, levando as autoridades a bloquear temporariamente o acesso ao site. O ChatGPT permanece bloqueado para os usuários na China.
Da mesma forma, empresas jurídicas como a RPC também estão optando por errar do lado da cautela.
O advogado da RPC Tech Nicholas Lauw disse que o uso de novas ferramentas generativas de IA é normalmente proibido para lidar com dados do cliente até que a segurança da tecnologia seja testada minuciosamente. O mesmo conselho é dado aos clientes da empresa, acrescentou.
“Nossa postura é preventiva, projetada para manter a confiança e a integridade do relacionamento com os clientes e se alinhar com orientações regulatórias mais amplas e melhores práticas”, disse Lauw.
A empresa está testando o LLMS para ver qual pode ser implantado para uso interno de forma segura e eficaz. Os modelos de IA passarão por avaliações de risco legal e verifica a qualidade das respostas, incluindo precisão, adesão à ética da empresa e riscos sensíveis de exposição a dados, disse ele.
Muitas organizações importantes fizeram acordos com desenvolvedores de AI Chatbot como a Microsoft ou o OpenAI para criar ferramentas personalizadas para uso interno, garantindo que os dados corporativos não sejam compartilhados.
Por exemplo, o OCBC Bank e o UOB Host Host personalizados AI Chatbots em servidores internos para codificação e para pesquisar arquivos, entre outros usos.
Entende -se que os laptops da equipe da OCBC não permitem o uso de outros chatbots externos, incluindo Deepseek, que não atendem aos seus requisitos de segurança.
Donald MacDonald, chefe do escritório de dados do grupo da OCBC, disse: “Nossos aplicativos generativos de IA são construídos usando LLMs de código aberto local para minimizar os riscos de vazamento de dados. Avaliamos todos os novos LLMs antes de tomar decisões sobre como implantá -los. ”
Rajesh Sreenivasan, que supervisiona a lei de tecnologia em Rajah e Tann, disse que o O escritório jurídico investiu fortemente para implantar edições corporativas da Microsoft Copilot e do assistente jurídico Harvey AI, que garantem que qualquer dados utilizado seja mantido dentro de seus sistemas.
Isso é especialmente importante para as empresas regulamentadas para garantir que dados confidenciais não sejam ingeridos pelos desenvolvedores de IA para treinamento, disse ele.
Os acordos corporativos também vêm com cláusulas de indenização que protegem os usuários corporativos de alegações de violação de direitos autorais e outras preocupações legais.
Tais cláusulas protegem os clientes de tecnologia dos riscos legais decorrentes das criações da IA, fixando a responsabilidade nos fornecedores de tecnologia.
A maioria dos principais fornecedores generativos de IA, incluindo Microsoft, IBM, Adobe, Google e Openai, possui ofertas de indenização para clientes.
“A Deepseek ainda não tem um produto corporativo”, disse Rajesh.
“Pode ser de código aberto, mas isso por si só não protege os usuários corporativos de riscos legais potenciais”.
Apesar dessas preocupações, algumas empresas começaram a se envolver com a nova e brilhante ferramenta.
A empresa de software de vídeo Babbobox, executiva, Alex Chan, disse que seus funcionários podem usar os modelos de IA, incluindo Deepseek, para tarefas como encontrar inspiração ou código para ganhos de produtividade.
Tony Zhu, diretor de tecnologia do fornecedor de soluções de AI de conversação Wiz.ai, disse que a empresa de Cingapura vê o potencial no uso de R1 para compromissos de suporte ao cliente baseados em texto.
O Wiz.ai usa a tecnologia da Deepseek desde dezembro de 2024, reconhecendo a capacidade da ferramenta de lidar com tarefas que envolvem raciocínio complexo. A empresa também usa outros modelos de código aberto, como a Llama da Meta.
Somsubhra Ganchoudhuri, co-fundador da AI Palette, disse que os avanços avançados de Deepseek podem ajudar mais pequenas empresas em Cingapura com restrições orçamentárias a adotar a IA.
Especificamente, a técnica da Deepseek pode ser emulada por empresas de tecnologia locais, permitindo que mais experimente e inove com IA generativa, mesmo sem imensos recursos de computação, disse Kenddrick Chan, que lidera o projeto de relações internacionais digitais em idéias de LSE de think tank de política externa.
À medida que as empresas avaliam os méritos da DeepSeek, o Ministério do Desenvolvimento Digital e as informações disse em 7 de fevereiro em uma resposta ao The Straits Times: “O governo geralmente não comenta produtos comerciais. Aconselhamos as empresas a avaliar os produtos por seus próprios méritos e os riscos de uso, incluindo a conformidade com as leis relevantes. ”
Rajesh, de Rajah e Tann, disse que a entrada da Deepseek impulsionará a concorrência no mercado. “Veremos ainda mais um concurso no espaço generativo da IA, e isso é bom para a inovação”.
Juntar Canal de telegrama da ST E receba as últimas notícias de última hora.