Início COMPETIÇÕES A lei da Califórnia tenta abordar os riscos da IA ​​para as...

A lei da Califórnia tenta abordar os riscos da IA ​​para as crianças

58
0

Depois de nascer como um defensor vocal da salvação de crianças, famílias e políticos, o governador da Califórnia, Gavin Newsol, assinou oficialmente a lei que os especialistas consideram perigosa, especialmente para os jovens.

Lei, conhecido como SB 243Exige que os operadores de chat evitem que seus produtos exponham menores ao sexo, ao mesmo tempo que lembram constantemente aos usuários de chat que eles não são humanos. Além disso, as empresas, de acordo com a lei, devem implementar protocolos para lidar com situações em que os usuários discutam pensamentos suicidas.

O senador Steve Steve Padilla, um democrata que representa San Diego, aprovou e apresentou o projeto no início deste ano. Em fevereiro, ele disse ao Grind que o SB 243 foi projetado para resolver os problemas urgentes emergentes com o surgimento dos AI CHATBbots. Dada a rápida mudança na tecnologia e nas operações, Padilla disse que “as barreiras regulatórias ficaram para trás”.

Veja também:

As faculdades fornecem aos alunos a história. Você é fiel?

O General Media Institute, um grupo sem fins lucrativos que apoia crianças e tecnologia, anunciou que os amigos de Ai Chatcot não são seguros para jovens menores de 18 anos.

A Comissão Federal de Comércio lançou recentemente um uma consulta de bate-papo que atua como um Helu. No mês passado, a agência informou às grandes empresas que possuem chats de compartilhamento de conteúdo, incluindo a Key, que deseja que a Tecnologia busque informações sobre a participação do usuário, produza o produto e tenha os chamados atores conhecidos.

Antes da aprovação do SB 243, Padilla chateado como AIDATBOT AStates Particularmente prejudicial para os jovens utilizadores: “Esta tecnologia pode ser uma poderosa ferramenta educacional e de investigação, mas pode continuar a ser uma ferramenta para a indústria tecnológica captar a atenção dos jovens em detrimento da comunicação no mundo real.”

Veja também:

Folha da Califórnia Segurança da Califórnia, proteção de dados, privacidade da Netflix

No ano passado, minha mãe, Megan Garcia, entrou com uma ação por homicídio culposo contra o character.i, uma das ferramentas de IA mais populares do Chamedot. Seu filho, Sewell Deszer III, morreu por suicídio após uma séria operação na natureza. Alega-se que este comportamento visa “organizar a Belll – e milhões de outros pequenos clientes – para circularem pela verdade e pela ficção” – o resto dos erros graves.

Garcia, que patrocina o SB 243, assinou sob aplausos.

Relatório de uso

“Hoje, a Califórnia confirmou que um companheiro que não consegue falar com uma criança ou com uma pessoa vulnerável sobre suicídio não será instruído a ajudar a pessoa a planear o seu próprio suicídio”. Garcia disse em comunicado.

O SB 243 também exige que os dispositivos complementares produzam um relatório anual sobre a relação entre o uso do produto e pensamentos suicidas. Ele permite que as famílias iniciem uma ação legal privada contra “desenvolvedores negligentes”.

Um pouco Especialistas, no entanto, discordam Que o SB 243 protegerá estritamente as crianças dos efeitos nocivos da IA. James P. Streyer, o fundador e CEO da mídia de massa, foi informado de que o projeto de lei foi “diluído após a pressão da grande indústria da grande indústria”.

De acordo com a análise de bem-estar do projeto de lei, as empresas podem evitar a responsabilidade se a defesa falhar, até que seja implementada em primeiro lugar.

Poucas horas depois de o News sancionar o SB 243, ele paralisou um projeto de lei separado que financia os meios de comunicação de massa. Nessa lei, AB 1064Proíbe a agência de comunicação de menores quando estes tenham a capacidade de causar algum dano visível, e outras medidas de segurança.

Na semana passada, Endom assinou as regras que exigem que as meias de IA revelem os danos da sua tecnologia, bem como informações sobre os seus protocolos de segurança.

Como foi relatado, a lei de IA que responsabiliza os desenvolvedores de IA pelos padrões de segurança mesmo diante de pressões competitivas e inclui proteções sobre potencial, “

Na segunda-feira, a Somália também sancionou dois projetos de lei separados destinados a melhorar a segurança online das crianças. AB 56 Exige rótulos de advertência para dispositivos de alerta social, mostrando o quanto é necessário fazer para detectar os vícios das pessoas nas redes sociais que podem afetar a saúde mental e o bem-estar das crianças. Outra conta, AB 1043cumprir os requisitos de verificação de idade que entrarão em vigor em 2027.

Atualização: 13 de outubro de 2025, 16h39 PDT Esta história foi atualizada para incluir o veto do governador Newsom ao AB 1064.

Atualização: 13 de outubro de 2025, 15h11 PDT Esta história foi atualizada para incluir uma declaração de James P. Streeyer, CEO da Mass Media.

Source link