OpenAI reestrutura supervisão de segurança em meio a apelos globais de regulamentação de IA pela ONU
- As Nações Unidas estão pressionando pela governança global da IA para mitigar a concentração de poder entre algumas empresas influentes de IA.
- A proposta de um Fundo Global de IA visa auxiliar nações em desenvolvimento na implantação equitativa e colaborativa da IA.
- A OpenAI reestruturou sua supervisão de segurança, estabelecendo um órgão independente para supervisionar a segurança do modelo de IA após críticas recentes.
Descubra as últimas atualizações sobre os esforços globais de governança de IA, a criação de um Fundo Global de IA e as recentes mudanças na supervisão de segurança da OpenAI.
ONU pede governança global unificada de IA
As Nações Unidas apresentaram sete recomendações para mitigar os riscos associados à inteligência artificial, decorrentes de contribuições fornecidas por um órgão consultivo dedicado da ONU. O relatório final do conselho consultivo enfatiza a necessidade de uma abordagem coordenada para a regulamentação da IA, um tópico que será amplamente discutido em uma próxima reunião da ONU no final deste mês.
Preocupações com a concentração de poder da IA
Uma das principais questões destacadas pelo conselho de 39 especialistas é o domínio de grandes corporações multinacionais no desenvolvimento de IA. O ritmo rápido do avanço da IA resultou em essas entidades mantendo influência significativa, o que representa riscos substanciais. O painel ressalta a necessidade de uma estrutura de governança global, apontando que a criação e utilização de IA não podem ser governadas somente pelas forças de mercado.
Iniciativa do Fundo Global de IA
De acordo com o relatório da ONU, para combater a disparidade de informações entre os laboratórios de IA e o mundo em geral, foi sugerido que um painel fosse estabelecido para disseminar informações precisas e independentes sobre inteligência artificial. Entre as principais recomendações está a criação de um Fundo Global de IA. Este fundo visa preencher a lacuna na capacidade e colaboração de IA, particularmente em nações em desenvolvimento que não têm recursos para explorar totalmente a tecnologia de IA.
Melhorar a transparência e a responsabilização
O relatório sugere ainda estabelecer uma estrutura global de dados de IA projetada para aumentar a transparência e a responsabilização. Ele também pede um diálogo político para abordar vários aspectos da governança de IA de forma abrangente. Notavelmente, embora o relatório não chegue a recomendar um novo órgão regulador internacional, ele deixa em aberto a possibilidade caso os riscos associados à IA aumentem drasticamente. Essa abordagem contrasta com algumas estratégias nacionais, como o recente “plano de ação” dos Estados Unidos para gerenciar a IA militar, uma política não endossada pela China.
Harmonização regulatória em toda a Europa
Paralelamente às recomendações da ONU, líderes incluindo figuras notáveis como Yann LeCun, Cientista Chefe de IA da Meta, expressaram preocupações sobre a regulamentação de IA na Europa. Uma carta aberta de vários CEOs e acadêmicos enfatiza que a UE poderia se beneficiar muito economicamente da IA se as regulamentações não sufocassem a inovação e a liberdade de pesquisa.
Equilibrando Inovação e Regulamentação
O próximo modelo de IA multimodal da Meta, Llama, não será lançado na UE devido a restrições regulatórias rigorosas, ressaltando a tensão entre inovação e regulamentação. A carta aberta defende leis equilibradas que promovam o progresso da IA enquanto mitigam riscos, enfatizando a necessidade crítica de clareza regulatória para fomentar um setor de IA próspero na Europa.
Revisão da supervisão de segurança da OpenAI
A OpenAI reestruturou recentemente sua abordagem à supervisão de segurança após críticas de políticos dos EUA e ex-funcionários. Sam Altman, CEO da empresa, deixou o Safety and Security Committee, que agora foi reconstituído como uma autoridade independente. Este novo órgão retém o lançamento de novos modelos de IA até que os riscos de segurança sejam completamente avaliados.
Garantindo uma avaliação independente da segurança da IA
O grupo de supervisão recém-formado inclui figuras proeminentes como Nicole Seligman, o ex-general do Exército dos EUA Paul Nakasone e o CEO da Quora, Adam D’Angelo. Sua função principal é garantir que os protocolos de segurança estejam alinhados com os objetivos abrangentes da OpenAI de implantação segura e benéfica de IA. Essa reestruturação ocorre em meio a alegações internas que priorizam o lucro em detrimento da governança abrangente de IA.
Conclusão
O apelo da ONU para governança global de IA, a proposta de um Fundo Global de IA e a reformulação da supervisão de segurança da OpenAI são desenvolvimentos significativos no cenário de IA. Essas iniciativas visam equilibrar a inovação com considerações éticas e medidas regulatórias. À medida que a IA continua a evoluir, esses esforços serão cruciais para garantir sua implantação responsável e equitativa em todo o mundo.