Declaração foi assinada por mais de 350 executivos e pesquisadores, em lista que inclui Sam Altman, CEO da OpenAI, a empresa por trás do ChatGPT
CEO da OpenAI faz parte de grupo de líderes que alerta sobre riscos da IA em nível comparável ao de pandemia e guerra nuclear
Os CEOs de algumas das empresas líderes em inteligência artificial, incluindo DeepMind, OpenAI e Anthropic, da Alphabet (GOOGL), juntaram-se a um coro crescente de companhias alertando sobre os danos existenciais da tecnologia em rápido desenvolvimento.
Uma breve declaração divulgada nesta terça-feira (30) pela Center for AI Safety, uma organização sem fins lucrativos, disse: “mitigar o risco de extinção da IA deve ser uma prioridade global ao lado de outros riscos em escala social, como pandemias e guerra nuclear”.
A declaração foi assinada por mais de 350 executivos e pesquisadores, incluindo Sam Altman, CEO da OpenAI, a empresa por trás do ChatGPT, Demis Hassabis, que dirige a DeepMind, e Dario Amodei, CEO da Anthropic, uma startup cofundada por veteranos da OpenAI.
A nota de frase única é o mais recente alerta de alto perfil dos líderes da indústria que chama a atenção para os sérios riscos que a inteligência artificial representa para a sociedade.
Em março, mais de 1.100 líderes da indústria, incluindo Elon Musk, Stuart Russell, professor de ciência da computação da Universidade da Califórnia em Berkeley, e Steve Wozniak, cofundador da Apple (AAPL), defenderam uma pausa de seis meses no treinamento de poderosos modelos de IA.
Apesar dos avisos dos líderes de tecnologia, alguns céticos afirmam que a inteligência artificial não está em um estágio avançado o suficiente para justificar o medo de destruição da humanidade e que o foco em cenários apocalípticos é apenas uma distração de questões como viés algorítmico, racismo e risco de desinformação desenfreada.
“Acho que é uma forma de controlar a narrativa”, disse Sasha Luccioni, pesquisadora da startup de IA Hugging Face. “Deveríamos falar sobre legislação, coisas como os riscos de viés, as formas como a IA está sendo usada que não são boas para a sociedade, mas, em vez disso, estamos nos concentrando nos riscos hipotéticos”, disse ela em entrevista à Bloomberg Technology. “É meio que um hat trick.”
No início deste mês, Geoffrey Hinton - um dos chamados padrinhos da inteligência artificial que passou décadas revolucionando o campo e ajudando a criar as tecnologias avançadas de aprendizado de máquina de hoje - anunciou que ele estava saindo da equipe de pesquisa de IA do Google e disse que as empresas estavam se movendo muito rapidamente na implantação de IA para o público.
Fonte: Bloomberg (30/05/2023)
Nenhum comentário:
Postar um comentário
"Este blog não se responsabiliza pelos comentários emitidos pelos leitores, mesmo anônimos, e DESTACAMOS que os IPs de origem dos possíveis comentários OFENSIVOS ficam disponíveis nos servidores do Google/ Blogger para eventuais demandas judiciais ou policiais".