Início APOSTAS Por que é impossível seguir as ordens do presidente Trump visando a...

Por que é impossível seguir as ordens do presidente Trump visando a IA “despertada”

10
0

O presidente dos EUA, Donald Trump, exibe uma ordem executiva assinada na Cúpula da IA ​​em Washington, DC, em 23 de julho de 2025.

Chip Somodevilla/Getty Images

O presidente Donald Trump quer garantir que o governo dos EUA apenas conceda contratos federais a desenvolvedores de inteligência artificial cujos sistemas estejam “livres de preconceitos ideológicos”. Mas os novos requisitos poderão permitir à administração impor a sua própria visão do mundo aos modelos de IA das empresas tecnológicas, e as empresas poderão enfrentar desafios e riscos significativos ao tentarem alterar os seus modelos para os cumprir.

“A sugestão de que os contratos governamentais devem ser estruturados para garantir que os sistemas de IA sejam ‘objetivos’ e ‘livres de preconceitos ideológicos de cima para baixo’ levanta a questão da objetividade de quem?” diz Becca Branum no Center for Democracy & Technology, uma organização sem fins lucrativos de políticas públicas em Washington, DC.

Casa Branca do presidente Trump Plano de ação de IAlançado em 23 de julho, recomenda a atualização das diretrizes federais para “garantir que o governo contrate apenas desenvolvedores do Frontier Large-Scale Language Model (LLM) que garantam que seus sistemas sejam objetivos e livres de preconceitos ideológicos de cima para baixo”. Presidente Trump assina documentos relacionados ordem presidencial No mesmo dia, proferiu palestra intitulada “Prevenindo a IA Despertada no Governo Federal”.

O Plano de Ação de IA também recomenda que o Instituto Nacional de Padrões e Tecnologia revise sua Estrutura de Gestão de Riscos de IA para “eliminar referências à desinformação, diversidade, equidade, inclusão e mudanças climáticas”. A administração Trump já dispensou investigadores que trabalhavam no Relatório Nacional de Avaliação Climática dos EUA, cortou gastos com energia limpa, cortou o financiamento para pesquisas que estudam a desinformação e suspendeu os esforços da DEI ao abrigo da legislação apoiada pelo Congresso controlado pelos Republicanos.

“Não se pode dizer que um sistema de IA está ‘livre de preconceitos de cima para baixo’ se o próprio governo impõe a sua visão do mundo aos criadores e utilizadores do sistema”, diz Branum. “Esses padrões incrivelmente vagos estão sujeitos a abusos.”

Atualmente, os desenvolvedores de IA que têm ou buscam contratos federais enfrentam a perspectiva de ter que seguir a pressão da administração Trump por modelos de IA livres de “preconceitos ideológicos”. Embora Amazon, Google e Microsoft tenham contratos federais para fornecer serviços de computação em nuvem baseados em IA para várias agências governamentais, Meta Modelo Lhama AI Disponível para uso por agências governamentais dos EUA que trabalham em aplicações de defesa e segurança nacional.

Julho de 2025, Diretoria Artificial Digital Chefe do Departamento de Defesa dos EUA anunciou que havia garantido um novo contrato. Anthropic, Google, OpenAI e xAI de Elon Musk valem cada um até US$ 200 milhões. A contratação de xAI é notável dado o recente papel de Musk liderando a força-tarefa DOGE do presidente Trump, o que levou à demissão de milhares de funcionários do governo, para não mencionar o chatbot xAI Grok, que recentemente ganhou as manchetes por expressar opiniões racistas e anti-semitas enquanto se autodenominava “Mecha-Hitler”. Nenhuma das empresas respondeu às nossas perguntas. novo cientistamas vários referiram-se a declarações gerais de executivos elogiando o plano de ação de IA de Trump.

De qualquer forma, poderá ser difícil para as empresas de tecnologia garantir que os seus modelos de IA estejam sempre alinhados com a visão de mundo preferida da administração Trump, afirmou. Paul Letger na Universidade Bocconi, Itália. Isso ocorre porque os modelos de linguagem em grande escala (aqueles que alimentam os chatbots de IA populares, como o ChatGPT da OpenAI) têm certas tendências e preconceitos instilados neles pelo conjunto de dados da Internet nos quais foram originalmente treinados.

Alguns chatbots de IA populares de programadores americanos e chineses, quando utilizados para tarefas de assistência à escrita, apresentam pontos de vista surpreendentemente semelhantes que estão mais alinhados com as posições dos eleitores liberais americanos sobre muitas questões políticas, como a igualdade salarial entre géneros e a participação de mulheres transgénero nos desportos femininos. De acordo com um estudo realizado por Röttger e seus colegas. Não está claro por que essa tendência existe, mas a equipe especula que pode ser o resultado do treinamento dos desenvolvedores de modelos de IA para seguir princípios mais gerais, como encorajar a veracidade, a justiça e a gentileza, em vez de adaptar especificamente os modelos às posturas liberais.

Os desenvolvedores de IA ainda podem “manipular o modelo para escrever coisas muito específicas sobre um problema específico”, refinando as respostas da IA ​​a solicitações específicas do usuário, mas isso não mudará de forma abrangente a postura padrão do modelo ou o preconceito implícito, disse Rettger. Esta abordagem também pode entrar em conflito com objetivos comuns de treinamento em IA, como priorizar a veracidade, diz ele.

Se as empresas tecnológicas dos EUA tentarem alinhar os seus modelos comerciais de IA com a visão do mundo da administração Trump, também poderão alienar muitos clientes em todo o mundo. “Eu estaria interessado em ver como isso funcionaria se os Estados Unidos tentassem impor uma ideologia específica a um modelo que atualmente tem uma base de usuários global”, diz Roettger. “Acho que isso pode ser muito preocupante.”

Os modelos de IA podem tentar quase politicamente neutro Se os desenvolvedores compartilharem publicamente mais informações sobre os preconceitos de cada modelo ou construírem uma coleção de “modelos intencionalmente diversos com diferentes tendências ideológicas”, diz ele. Gillian Fisher na Universidade de Washington. Mas “a partir de hoje, pode ser impossível criar modelos de IA verdadeiramente politicamente neutros, dada a natureza inerentemente subjetiva da neutralidade e as muitas escolhas humanas necessárias para construir estes sistemas”, diz ela.

tópico:

Source link

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui