Início APOSTAS EUA e empresas de tecnologia chegam a acordo para revisar modelos de...

EUA e empresas de tecnologia chegam a acordo para revisar modelos de IA para segurança nacional antes de serem divulgados ao público | Tecnologia

18
0

O governo dos EUA chegou a um acordo com Google DeepMind, Microsoft e xAI para revisar as primeiras versões de seus novos modelos de IA antes de serem lançados ao público.

O Centro de Padrões e Inovação de IA (CAISI), parte do Departamento de Comércio dos EUA, anunciado acordo na terça-feira, dizendo que o processo de revisão será fundamental para compreender as capacidades de novos e poderosos modelos de IA e para proteger a segurança nacional dos EUA. A colaboração ajudará o governo federal a “escalar o seu trabalho no interesse público num momento crítico”, disse a agência num comunicado de imprensa.

“A ciência de medição independente e rigorosa é fundamental para compreender a IA avançada e as suas implicações para a segurança nacional”, disse Chris Fall, diretor da CAISI.

CAISI é uma agência destinada a facilitar a colaboração entre a indústria de tecnologia e o governo federal no desenvolvimento de padrões e na avaliação dos riscos de sistemas comerciais de IA. Os acordos entre a agência e as empresas de IA concentraram-se em grande parte na identificação de riscos de segurança nacional relacionados com a cibersegurança, a biossegurança e as armas químicas.

OpenAI e Antrópico escuro um acordo semelhante com a administração Biden há dois anos e a CAISI observou que a agência concluiu mais de 40 avaliações desse tipo, inclusive em modelos que ainda não foram divulgados. É comum que os desenvolvedores compartilhem modelos de IA não lançados com governos que reduziram ou removeram barreiras de proteção, disse a CAISI em um comunicado à imprensa. Isto ajuda o governo a “avaliar minuciosamente as capacidades e os riscos relacionados com a segurança nacional”, disse a agência.

O novo acordo surge no momento em que crescem as preocupações de que os mais novos e poderosos modelos de IA – como o Mythos da Anthropic – possam ser perigosos se divulgados ao público; Especialistas em segurança de IA, funcionários governamentais e empresas de tecnologia temem que as capacidades destes modelos possam ajudar os hackers a explorar vulnerabilidades de segurança cibernética numa escala sem precedentes. A Anthropic limitou o lançamento do Mythos a algumas empresas e iniciou uma colaboração Projeto Asa de Vidro unir empresas de tecnologia “para proteger o software mais crítico do mundo”.

New York Times E Jornal de Wall Street informou na segunda-feira que a administração Trump está considerando uma possível ordem executiva para criar um processo de supervisão governamental para essas ferramentas de IA; o governo caracterizou esta reportagem como “especulação”.

Google e xAI não respondeu imediatamente a um pedido de comentário.

A Microsoft anunciou um acordo semelhante no Reino Unido na terça-feira com o AI Security Institute, apoiado pelo governo, que também se concentra no desenvolvimento de IA segura.

“Embora a Microsoft conduza regularmente muitos tipos de testes de IA por conta própria, os testes contra riscos de segurança nacional e de segurança pública em grande escala devem ser um esforço colaborativo com os governos”, escreveu a Microsoft em um comunicado. postagem no blog sobre os dois negócios.

Source link

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui