O CEO da Meta, Mark Zuckerberg, testemunhou na audiência histórica da empresa de mídia social na quarta-feira. Os advogados dos demandantes questionaram Zuckerberg sobre reclamações internas de que não foi feito o suficiente para verificar se crianças menores de 13 anos estavam usando a plataforma.
Zuckerberg afirmou que a Meta fez progressos na identificação de usuários menores de idade, mas também disse: “Sempre desejei que pudéssemos chegar lá mais rápido”.
Zuckerberg também disse que alguns usuários mentiram sobre suas idades ao ingressar no Instagram e que a empresa remove usuários identificados como menores. O advogado do demandante rebateu a alegação: “Você espera que uma criança de nove anos leia todos os detalhes? Essa é a sua base para jurar que crianças menores de 13 anos não são permitidas?” Depois de ser repetidamente questionado sobre a verificação de idade, Zuckerberg disse: “Não entendo por que é tão complicado”.
Respondendo às perguntas dos advogados dos demandantes, Zuckerberg também disse: “Acho que qualquer empresa razoável deveria tentar ajudar as pessoas que usam seus serviços”.
Quando questionado sobre seu treinamento em mídia e suas respostas muito rígidas às perguntas públicas: ele disse: “Acho que sou notoriamente ruim nisso”.
O presidente Meta estava ladeado por pessoas usando óculos de inteligência artificial Meta Ray-Ban, e o juiz no tribunal ameaçou desacatar qualquer pessoa que filmasse com os dispositivos.
Ao chegar ao tribunal, Zuckerberg foi questionado por um segurança em um detector de metais se ele tinha algum metal em seu corpo. “Eu uso uma corrente de ouro”, ele respondeu, gentilmente Correio de Nova York.
Os advogados dos demandantes, que argumentam que a Meta projetou intencionalmente sua plataforma de mídia social para ser viciante, questionaram Zuckerberg se ele sabia dos danos que os produtos de sua empresa poderiam representar para a saúde mental dos jovens. Os demandantes tornaram públicos documentos internos que, segundo eles, comprovam seu ponto de vista.
Esta é a primeira vez que Zuckerberg expressa suas preocupações sobre a segurança infantil perante um júri no julgamento. As empresas tecnológicas confiam há muito tempo em leis federais que as protegem da responsabilidade pelo conteúdo publicado pelos utilizadores, mas os novos argumentos dos demandantes – que se centram em designs maliciosos e não em actores individuais – ignoraram até agora essa defesa.
O teste inicial em Los Angeles se concentrou em uma mulher de 20 anos, conhecida como KGM, que disse que o uso compulsivo do YouTube e do Instagram piorou sua depressão e pensamentos suicidas. O caso KGM é um dos cerca de 20 casos “indicadores” – concebidos como casos de teste para avaliar a reação do júri. TikTok e Snap chegaram a um acordo no julgamento inicial, mas ainda serão réus em centenas de outros casos.
O depoimento de Zuckerberg ocorre cerca de uma semana depois que o CEO do Instagram, Adam Mosseri, falou no banco das testemunhas. Mosseri rejeita a ciência por trás do vício em mídias sociais, negando que os usuários possam ser “clinicamente viciados”. Ele descreveu o alto uso do Instagram por crianças como “uso problemático” – semelhante a “assistir TV por mais tempo do que você se sente confortável”. Os psicólogos não classificam o vício nas redes sociais como um diagnóstico oficial, mas muitos investigadores documentaram as consequências perigosas do uso compulsivo entre os jovens, e os legisladores de todo o mundo estão preocupados com o seu potencial viciante.
Paul Schmidt, um dos advogados da Meta, disse anteriormente em sua declaração inicial que a empresa reconheceu os problemas de saúde mental da KGM, mas negou que o Instagram tenha desempenhado um papel significativo em agravá-los. Ele citou registros médicos mostrando que o principal problema era uma vida doméstica difícil.
Há dois anos, Zuckerberg fez uma pergunta semelhante numa acalorada audiência no Congresso sobre a exploração infantil. Em janeiro de 2024, Zuckerberg pediu desculpas diretamente aos pais enlutados no Senado e prometeu continuar investindo na proteção das crianças. As famílias não estavam convencidas de que Meta iria fazer progressos significativos, e ainda não estão; eles esperam que o tribunal possa fornecer mais clemência. Esses testes podem, em última análise, resultar em grandes pagamentos por parte das empresas de tecnologia e em mudanças na forma como as plataformas de mídia social são projetadas.
“Seu pedido de desculpas – se é que podemos chamar assim – foi em grande parte vazio”, disse John DeMay, que compareceu à sala de audiência do Senado em 2024. O filho de DeMay, Jordan, tinha 17 anos quando morreu por suicídio em 2022, horas depois de ser alvo de um esquema de chantagem sexual online no Instagram. “Ele basicamente disse que eles fizeram tudo o que podiam para impedir que isso acontecesse e, infelizmente, isso não aconteceu.”
Nos dois anos que se seguiram, DeMay visitou frequentemente o Capitólio para defender a segurança infantil online – mas ficou frustrado com a falta de progresso. O processo de DeMay é um dos muitos casos que serão considerados parte do processo de coordenação do conselho judicial. Ele tem mais confiança no judiciário do que no Congresso e já participou de audiências no julgamento atual, embora tenha participado da audiência de quarta-feira. processo de sua casa em Michigan.
“Espero que este caso seja bem sucedido, mas se não, ainda assim venceremos porque mostrámos ao mundo – com provas reais – que eles fizeram uma coisa e disseram outra”, disse DeMay.
A Meta também está envolvida em litígios separados no Novo México, onde os promotores acusam a empresa de violar a lei estadual de proteção ao consumidor; A Meta não divulgou o que sabia sobre como suas plataformas de mídia social poderiam prejudicar as crianças, disseram. Meta negou a reclamação.
O Instagram, nos últimos anos, adicionou vários recursos de segurança voltados para usuários jovens. Mas uma revisão dessas ferramentas em 2025 por Jogo limpo – uma organização sem fins lucrativos que defende a redução da influência das grandes tecnologias nas crianças – descobriu que “menos de uma em cada cinco tecnologias são totalmente funcionais e dois terços (64%) são essencialmente ineficazes ou já não existem”.
Alguns ex-funcionários da Meta dizem que a empresa ignorou os avisos sobre segurança infantil. Kelly Stonelake deixou Meta em licença médica, em fevereiro de 2023, depois de enfrentar assédio e retaliação por levantar preocupações, disse ela. Lago de Pedra processar Meta no ano passado abordou esta questão e também alegou um padrão tóxico de silenciar mulheres.
Ele acusou Meta de coletar dados sobre crianças sem permissão dos pais e de expô-los a outros adultos e a “um ambiente que sabemos estar repleto de abusos e intimidação”.



