Início NOTÍCIAS CBP sinaliza que Clearview AI usa minha análise para ‘Tactical Targeting’

CBP sinaliza que Clearview AI usa minha análise para ‘Tactical Targeting’

21
0

Alfândega dos Estados Unidos da América e a Border Protection planeja gastar US$ 225.000 por ano no acesso ao Clearview AI, uma ferramenta de reconhecimento facial que compara imagens com bilhões de imagens extraídas da Internet.

As forças de manutenção da paz têm acesso às ferramentas Clearview na Divisão de Inteligência do Quartel-General da Patrulha de Fronteira (INTEL) e no Centro Nacional de Alvos, unidades que recolhem e analisam dados para o partido. O que o CBP está ligando? Os esforços organizados para “perturbar, degradar e perturbar” pessoas e redes são considerados ameaças à segurança.

O contrato afirma que o Clearview fornecerá acesso a “mais de 60 bilhões de imagens disponíveis publicamente” e será usado para “inteligência estratégica” e “análise estratégica de contra-redes”, indicando que o serviço se destina a ser incorporado no trabalho diário de inteligência dos analistas, em vez de ser reservado para investigações isoladas. O CBP afirma que as suas unidades de inteligência recorrem a “várias fontes”, incluindo ferramentas comercialmente disponíveis e dados publicamente disponíveis, para identificar indivíduos e descrever as suas ligações às operações de segurança nacional e de imigração.

O acordo impede que os analistas manipulem dados pessoais sensíveis, incluindo identificadores biométricos, como imagens faciais, e exige acordos de não divulgação aos contratantes que tenham acesso. Não indica que tipos de agências estão iniciando as pesquisas, se as pesquisas incluem cidadãos dos EUA ou por quanto tempo as imagens carregadas ou os resultados da pesquisa são retidos.

O contrato Clearview chega num momento em que o Departamento de Segurança Interna enfrenta escrutínio face ao reconhecimento que está a ser utilizado em operações federais de aplicação da lei muito além da fronteira, incluindo ataques em grande escala em cidades dos EUA que raptaram cidadãos dos EUA. Grupos de liberdades civis e legisladores questionaram se estão a ser implementadas ferramentas de investigação para utilizar a infra-estrutura de inteligência, quão limitados são os recursos de investigação e se as salvaguardas têm acompanhado a expansão.

Na semana passada, o senador Ed Markey leis introduzidas que impediria o Ice e o CBP de usar a tecnologia de reconhecimento facial, citando preocupações de que a identificação biométrica permaneceria sem limites claros, transparência ou consentimento público.

O CBP não respondeu imediatamente às perguntas sobre como o Clearview seria integrado aos seus sistemas, que tipos de arquivos os agentes permitiriam e se as buscas poderiam incluir cidadãos dos EUA.

O modelo de negócios da Clearview atraiu escrutínio porque depende da extração de fotos de sites públicos em grande escala. Essas imagens são convertidas em modelos biométricos sem o conhecimento ou consentimento das pessoas fotografadas.

Clearview também aparece no inventário de inteligência artificial do DHS recentemente lançado, em conjunto com o piloto do CBP iniciado em outubro de 2025. O inventário de entrada liga o piloto ao Sistema de Verificação de Viajantes do CBP, que permite comparações nos portos de entrada e outros rastreios relacionados com as fronteiras.

O CBP declara em seus documentos confidenciais que o Sistema de Verificação de Viajantes não utiliza informações de “fontes comerciais ou informações publicamente disponíveis”. É provável que, no lançamento, a abordagem da Clearview esteja ligada ao Automated Targeting System do CBP, que se liga a galerias biométricas, mapas de vigilância e mapas de fiscalização, incluindo ficheiros ligados a operações recentes de Imigração e Fiscalização Aduaneira em locais dos EUA longe de qualquer fronteira.

A Clearview AI não respondeu imediatamente a um pedido de comentário.

Testes recentes pelo Instituto Nacional de Padrões e Tecnologiaque avaliou a Clearview AI entre outros fornecedores descobriu que os sistemas de reconhecimento facial podem funcionar bem em “qualidade de foto visível”, mas enfraquecem em configurações menos controladas. Imagens tiradas em passagens de fronteira que “não eram originalmente destinadas ao reconhecimento facial automatizado” produziram taxas de erro “muito mais altas, muitas vezes superiores a 20%, mesmo com os algoritmos mais precisos”, dizem os cientistas federais.

O teste incluiu uma limitação central da tecnologia: o NIST descobriu que os sistemas de busca facial não podem reduzir correspondências falsas sem aumentar também o risco de os sistemas não reconhecerem a pessoa correta.

Como resultado, o NIST diz que as agências podem operar programas “investigativos” que retornam uma série de candidatos para análise humana, em vez de indivíduos específicos confirmados. Porém, quando o sistema estiver configurado para sempre retornar candidatos, ele gerará pessoas que não estão mais listadas no banco de dados de busca como “parte”. Nestes casos, os resultados serão sempre 100% injustos.

Source link

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui