quarta-feira, maio 31, 2023

Quando são os próprios a lançar alertas mundiais sobre os reais riscos existenciais que a Inteligência Artificial comporta, de que é que os Governos de todo o Mundo estão à espera?

Risk of extinction by AI should be global priority, say experts

 Traduzo (via translator da Google) do Guardian:

Um grupo dos principais especialistas em tecnologia de todo o mundo alertou que a tecnologia de inteligência artificial deve ser considerada um risco social e priorizada na mesma categoria que as pandemias e as guerras nucleares.

A declaração, assinada por centenas de executivos e académicos, foi divulgada pelo Center for AI Safety na terça-feira numa altura em que aparecem crescentes preocupações com a regulamentação e os riscos que a tecnologia representa para a humanidade.

Photograph: S Decoret/Shutterstock
“Mitigar o risco de extinção a partir da IA deve ser uma prioridade global, juntamente com outros riscos em escala social, como pandemias e guerra nuclear”, afirmou o comunicado. Os signatários incluíram os executivos-chefes da DeepMind do Google, o responsável pelo desenvolvimento do ChatGPT OpenAI e a startup de IA Anthropic.

Líderes globais e especialistas do setor – como os líderes da OpenAI – pediram a regulamentação da tecnologia devido a temores existenciais de que ela poderia afetar significativamente os mercados de trabalho, prejudicar a saúde de milhões e transformar em arma a desinformação, a discriminação e a falsificação de identidade.

Este mês, o homem frequentemente apontado como o padrinho da IA – Geoffrey Hinton, também signatário – deixou o Google citando seu “risco existencial”. O risco foi ecoado e reconhecido pelo No. 10 na semana passada pela primeira vez – uma rápida mudança de abordagem dentro do governo que ocorreu dois meses após a publicação de um white paper de IA que os números da indústria alertaram que já está desatualizado.

Embora a carta publicada na terça-feira não seja a primeira, é potencialmente a mais impactante, dada a ampla gama de signatários e sua principal preocupação existencial, de acordo com Michael Osborne, professor de Machine Learning na Universidade de Oxford e cofundador da Mind. Foundry.

“É realmente notável que tantas pessoas tenham assinado esta carta”, disse ele. “Isso mostra que há uma percepção crescente entre aqueles que trabalham com IA de que os riscos existenciais são uma preocupação real”.

O potencial da IA para exacerbar os riscos existenciais existentes, como pandemias provocadas e corridas armamentistas militares, são preocupações que levaram Osborne a assinar a carta pública, juntamente com as novas ameaças existenciais da IA.

Os alertas para a necessidade de conter estas ameaças seguem-se ao sucesso do ChatGPT, lançado em novembro. O modelo de linguagem foi amplamente adotado por milhões de pessoas e avançou rapidamente além das previsões dos mais bem informados na indústria.

Osborne disse: “Como não entendemos muito bem a IA, existe a perspectiva de que ela possa desempenhar um papel como uma espécie de novo organismo concorrente no planeta, uma espécie de espécie invasora que foi criada por nós e que pode desempenhar um papel devastador na nossa sobrevivência como espécie”.

Sem comentários:

Enviar um comentário