Cingapura – As medidas de segurança podem promover inovações de inteligência artificial, evitando danos não intencionais e construindo confiança pública, disse o professor Dawn Song, da Universidade da Califórnia, Berkeley.
Com o comparamento das medidas de segurança da IA para os cintos de segurança nos primeiros dias de condução, ela disse que esses corrimãos não sufocam a inovação da IA da mesma maneira que os cintos de segurança não diminuem o desenvolvimento da indústria automotiva.
Em vez disso, os cintos de segurança promoveram a direção mais confiante, contribuindo para os avanços na segurança e desenvolvimento automotivo em geral, disse ela.
O professor Song estava falando em um bate-papo na lareira sobre garantir o futuro da AI com a segurança baseada em ciências em 28 de maio na Conferência da Ásia Tech X Singapore, realizada em Capella Singapore.
“A segurança da IA … pode ajudá -lo a inovar mais rápido … (e também) de uma maneira mais segura … não está lá para desacelerar as coisas”, diz o professor Song.
A segurança da IA era Um tema comum na conferência, onde muitos palestrantes reconheceram que seus danos devem ser minimizados por meio da regulamentação ou de algum tipo de consenso global.
Casos anteriores de preconceitos de IA que causaram enormes embaraços e grupos minoritários prejudicados ofereceram algumas lições.
Uma investigação de 2016 liderada pela ProPublica de publicação nos EUA constatou que um algoritmo de justiça criminal usado pelos tribunais dos EUA sinalizou erroneamente os réus negros como alto risco de reincidência, quase o dobro da taxa de réus brancos.
Em 2018, a gigante do comércio eletrônico Amazon descartou uma ferramenta de contratação interna depois de descobrir que ela foi tendenciosa contra as mulheres. O sistema, treinado em currículos enviados ao longo de uma década – muitos dos quais vieram de homens – os aplicativos rebaixados sistematicamente que incluíam a palavra “feminino”, como o “clube de xadrez das mulheres”. A ferramenta nunca foi implantada além dos testes.
Pedindo inovação responsável, Song disse: “Queremos inovar. Queremos realmente tornar o mundo um lugar melhor. Mas só podemos fazer isso se pudermos garantir a segurança dos sistemas de IA que estamos construindo e implantando”.
O Dr. Samir Menon, executivo -chefe da Destreza AI, que constrói soluções hábiles de robôs, apontou que os riscos de segurança com IA física podem ser significativamente maiores em comparação com Ai chatbots.
A IA física refere -se a hardware que interage com o mundo real através de sensores e atuadores e inclui veículos autônomos e robôs cirúrgicos.
Embora o software possa causar danos on -line, as falhas de hardware podem ser desastrosas, ele observou enquanto fala em um painel intitulado I, robô – o futuro da IA incorporada no evento em 28 de maio.
“Quando um robô se move no mundo real, ele pode esbarrar nas pessoas ou derrubar as coisas ou pior”, disse ele.
Em 2023, um táxi de robô operado por um cruzeiro da empresa autônomo dos EUA atropelou um pedestre que já havia sido atingido por outro veículoarrastando -a por vários metros e causando ferimentos graves.
Um ano depois, na Coréia do Sul, um robô de entrega fabricado pela Neubility Service de entrega de robôs colidiu com um carro em movimento em uma travessia de pedestres, danificando o veículo e provocando um debate sobre quem deve ser responsabilizado quando essas máquinas se destacam.
Falando no mesmo painel, o professor assistente de ciência da computação da Universidade de Stanford, Jiajun Wu, observou que existem inconsistências no desempenho de robôs em diferentes configurações de pesquisa.
Além disso, a maioria dos robôs é treinada em ambientes controlados e a aplicação de configurações do mundo real pode ser um desafio, disse Samir.
“Se você implantar 10 robôs e precisar remover cinco metros em torno de cada um deles, todo o seu prédio acaba parecendo um zoológico de robôs. Isso não é viável”, acrescentou.
O verdadeiro progresso, ele disse, está em espaços compartilhados. Por exemplo, os robôs devem ser ensinados a lidar com ferramentas com segurança ou carregar bebidas sem derramar para coexistir com segurança com os seres humanos. Seu treinamento deve ser feito em um ambiente do mundo real.
“Se conseguirmos fazer isso nos próximos quatro a cinco anos, isso será um avanço fantástico”, disse o Dr. Samir.
Para escalar Implantações de IA Com segurança, são necessários padrões claros. “Se eu treinar uma IA em um robô com um tipo de mão e depois mudar a mão ou mudar para dois braços, ela ainda funcionará? No momento, simplesmente não sabemos”, disse ele.
A música do professor ecoou isso, observando que os sistemas de IA geralmente carecem de transparência e avaliação sistemática. Ela acrescentou que o cenário mais amplo da política de IA permanece fragmentado, com consenso limitado sobre as melhores práticas. A maioria das empresas de IA ainda prioriza o desempenho em relação à segurança, investindo relativamente pouco em mitigação de riscos.
Ela disse que a indústria da IA pode extrair lições do setor de segurança cibernética, que está se afastando do tratamento da segurança como uma reflexão tardia. Agora, muitos sistemas são construídos com medidas de segurança já incorporadas.
Da mesma forma, a IA pode ser projetada para ser segura no início, acrescentou.
Juntar Canal de telegrama da ST E receba as últimas notícias de última hora.