Um grupo de mais de 150 pais enviou uma carta na sexta-feira à prefeita da cidade de Nova York, Kathy Hochul, instando-a a assinar o contrato para tornar a IA responsável pela Saúde e Educação. Houve um ato agitado de aumentar a conta exigir isso desenvolvedores de grandes modelos de IA – como Meta, OpenAI, Deepseek e Google – criam políticas de segurança e relatam regras de transparência sobre o relato de eventos de segurança.
Foi aprovado tanto no Senado do Estado de Nova York quanto na assembleia de junho. Mas esta semana, Hochul corresponder Estou escrevendo um breve resumo da LEAVING Act, que a tornaria mais justa para as empresas de tecnologia, relacionada a algumas das mudanças feitas no SB 53 da Califórnia depois que as grandes empresas de IA se apegaram a ele.
Muitas empresas de IA estão em conflito direto com a lei. AI League, que conta
Meta, IBM, Intel, Oracle, Snowflake, Uber, AMD, Databricks e Face Hugging estão entre seus membros. carta Em junho, os legisladores de Nova York sobre o tratamento profundo do levantamento da lei explicando seu apelo “inexpensável”. E o Present Future, um super PAC pró-IA apoiado pela IA de complexidade, Andreessen Horowitz (a16z), o presidente da OpenAI, Greg Brockman, e o cofundador da Palantir, Joe Lonsdale, foi direcionado Alex Bores, que compartilhou a TRADIÇÃO com anúncios recentes, com anúncios recentes.
Duas organizações, ParentsTogether Action e Project Oversight Tech, estão se fundindo Carta de sexta-feira para Hochulque afirma que alguns dos sinais “perderam a vida em perdas catastróficas e nas redes sociais”. Os signatários chamaram a Lei LIFT, tal como está agora, de “salvaguardas mínimas” que deveriam se tornar lei.
Eles também alertaram que o projeto de lei, aprovado pela Assembleia Legislativa do Estado de Nova York, “não regulamentará todos os desenvolvedores de IA – apenas as maiores empresas que gastam centenas de milhares de dólares por ano”. Eles são obrigados a divulgar incidentes de segurança de alto perfil ao procurador-geral e publicar planos de segurança. Os desenvolvedores também estão proibidos de pagar um limite de modelo “se isso criar um risco de dano crítico”, que é definido como a morte ou ferimentos graves de 100 pessoas ou mais, ou US$ 1 bilhão ou mais em danos em dinheiro ou propriedade decorrentes da criação de uma arma química, biológica, radiológica ou nuclear; ou um modelo de IA que “não faz nenhuma intervenção significativa” e “se iniciado por um ser humano”, pode cair sob certas acusações.
“O profundo impacto da Big Tech na oposição a essas proteções básicas nos parece familiar.”
este exemplo de fuga e evasão já foi visto antes”, diz a carta.
incluindo para a sua saúde mental, estabilidade emocional, capacidade de funcionamento na escola – foi
Tem sido amplamente documentado desde que as maiores empresas estabeleceram a tecnologia de impacto algorítmico
plataformas de mídia social sem transparência, supervisão, sem cuidado”.


