A Anthropic está emitindo um apelo à ação contra a IA “uma série de ataques” depois que três chatbots Claudius de sua equipe de IA foram abusados. Na situação dele, Antrópico DeepSeek, Moonshot e MiniMax alegaram ter “conduzido campanhas industriais… para extrair ilegalmente os recursos de Claudio para melhorar seus modelos”.
A destilação no mundo da IA significa quando modelos menos adequados tendem para respostas mais poderosas. Embora não seja uma má ideia atacar de maneira geral, a Anthropic disse que esses tipos de ataques podem ser feitos de uma forma mais sinistra. De acordo com a Anthropic, essas três empresas chinesas de IA tiveram mais de “16 milhões de trocas com Claude em aproximadamente 24.000 contas fraudulentas”. De uma perspectiva antrópica, estas empresas concorrentes estavam a utilizar a plataforma para desenvolver modelos avançados de IA, o que também poderia levar à violação de certas salvaguardas.
A Anthropic disse em seu post que pode vincular cada uma dessas campanhas de drop a empresas específicas com “alta confiança” graças à correlação de endereços IP, solicitações de metadados e indicadores de infraestrutura, ao mesmo tempo em que corrobora outros na indústria de IA que notaram comportamento semelhante.
No início do ano passado, a OpenAI fez alegações semelhantes de empresas rivais que abandonaram os seus modelos e baniram contas suspeitas em resposta. Quanto à Anthropic, a empresa por trás do Claudius disse que atualizaria seu sistema para tornar os ataques por gotejamento mais difíceis de realizar e mais fáceis de identificar. Embora a Anthropic aponte o dedo para essas outras empresas, ela também enfrenta ações judiciais de editoras musicais que acusaram a empresa de IA de usar amostras de músicas ilegais para treinar seu chatbot Claude.



