Proibição de redes sociais a menores de 16 começa a valer na Austrália Getty Images via BBC News Quando Stephen Scheeler assumiu a direção do Facebook na Austrália, no início da década de 2010, ele acreditava plenamente no potencial da internet e das redes sociais para o bem público. Ele via nelas uma nova era de conexão global e democratização do aprendizado, capaz de permitir que os usuários criassem suas próprias praças públicas, sem a mediação de instituições tradicionais. "Foi uma fase de otimismo intenso quando entrei, e acredito que grande parte do mundo compartilhava isso", disse à BBC. Ao deixar a empresa em 2017, no entanto, já surgiam dúvidas sobre suas práticas e elas só se intensificaram desde então. "Essas plataformas têm muitas coisas boas, mas há coisas ruins demais", avalia. Essa visão deixou de ser incomum à medida que a fiscalização das maiores redes sociais se intensificou no mundo. Boa parte das críticas se concentra em adolescentes, transformados em um mercado lucrativo para empresas globais extremamente ricas, às custas da saúde mental e do bem-estar dos jovens, segundo especialistas. Vários governos, do Estado americano de Utah à União Europeia, têm testado limitar o uso de redes sociais por crianças. A medida mais radical, porém, entra em vigor na Austrália nesta quarta-feira (10/12): um veto a menores de 16 anos que deixou as empresas de tecnologia em alerta. Muitas das plataformas afetadas passaram o último ano protestando contra a nova lei, que exige delas "medidas razoáveis" para impedir que menores de idade criem contas. As empresas afirmam que a restrição pode reduzir a segurança das crianças, argumentam que fere seus direitos e depende de tecnologias cujo uso para fiscalizar a política ainda levanta dúvidas. "A Austrália está praticando uma censura generalizada que tornará seus jovens menos informados, menos conectados e menos preparados para navegar pelos espaços que deles se espera compreender quando adultos", disse Paul Taske, da NetChoice, grupo comercial que representa várias grandes empresas de tecnologia. O setor teme que a proibição australiana — a primeira do tipo — sirva de inspiração para outros países. "Isso pode se tornar uma prova de conceito que ganhe força ao redor do mundo", afirmou Nate Fast, professor da Marshall School of Business da Universidade do Sul da Califórnia. Denúncias, processos e dúvidas (Da esquerda para a direita) Jason Citron, CEO do Discord; Evan Spiegel, CEO da Snap; Shou Zi Chew, CEO do TikTok; Linda Yaccarino, CEO do X; e Mark Zuckerberg, CEO da Meta, em audiência no Comitê Judiciário do Senado dos EUA em janeiro Getty Images via BBC News Nos últimos anos, várias denúncias e processos afirmaram que as empresas de redes sociais priorizam o lucro em detrimento da segurança dos usuários. Em janeiro, começa nos EUA um julgamento histórico que ouvirá alegações de que empresas como Meta, TikTok, Snap Inc., dona do Snapchat e YouTube projetaram seus aplicativos para serem viciantes e encobriram conscientemente os danos causados por suas plataformas. Todas negam essas acusações, mas o fundador da Meta, Mark Zuckerberg, e o presidente da Snap, Evan Spiegel, foram intimados a depor pessoalmente. O caso consolida centenas de ações movidas por pais e distritos escolares e está entre os primeiros a avançar em meio a uma enxurrada de processos semelhantes que alegam que as redes sociais contribuem para problemas de saúde mental e exploração infantil. Em outro processo em andamento, promotores estaduais alegaram que Zuckerberg bloqueou pessoalmente iniciativas para melhorar o bem-estar de adolescentes nas plataformas da Meta, incluindo vetar uma proposta para eliminar filtros de beleza que alteram o rosto no Instagram, recurso que especialistas dizem alimentar dismorfia corporal e transtornos alimentares. Os ex-funcionários da Meta Sarah Wynn-Williams, Frances Haugen e Arturo Béjar prestaram depoimento ao Congresso dos EUA alegando uma série de irregularidades que disseram ter presenciado durante seus períodos na empresa. A Meta sustenta que trabalha diligentemente para criar ferramentas que mantenham os adolescentes seguros online. Mas o setor mais amplo também tem sido questionado recentemente sobre desinformação, informações incorretas, discurso de ódio e conteúdo violento. Imagens gráficas do assassinato de Charlie Kirk se espalharam rapidamente em várias plataformas, chegando até a pessoas que não as procuravam. Elon Musk processou estados nos EUA por leis que exigem que empresas de redes sociais, incluindo o X, definam e divulguem como combatem o discurso de ódio online. E a Meta foi duramente criticada no início deste ano após anunciar que iria eliminar os verificadores de fatos que monitoram suas plataformas em busca de informações falsas. Um raro consenso bipartidário surgiu entre parlamentares americanos ansiosos para conter o poder dos chefes de tecnologia. Durante uma audiência no ano passado, Zuckerberg foi pressionado por um deles a pedir desculpas às famílias enlutadas que assistiam pessoalmente à sessão. Entre o público estava Tammy Rodriguez, cuja filha de 11 anos, Selena, tirou a própria vida após sofrer exploração sexual no Instagram e no Snapchat. "É por isso que investimos tanto e vamos continuar realizando esforços em toda a indústria para garantir que ninguém tenha que passar pelas situações que suas famílias tiveram de enfrentar", disse Zuckerberg. Fiscalização pública e lobby privado No entanto, especialistas, parlamentares, pais — e até crianças — criticam de forma generalizada as empresas de redes sociais, alegando que elas se esquivam de ações e responsabilidades concretas sobre essas questões. Enquanto a proibição australiana de redes sociais era discutida e depois formulada, as empresas pouco se pronunciaram publicamente. "Esconder-se do debate público… isso só gera mais suspeita e desconfiança", afirmou Scheeler. Privadamente, muitas empresas, porém, buscaram influenciar o governo. Spiegel se reuniu pessoalmente com a ministra das Comunicações da Austrália, Anika Wells. Ela afirmou ainda que o YouTube teria enviado os mundialmente conhecidos artistas infantis australianos The Wiggles para fazer lobby em favor da empresa. Em declarações públicas cuidadosamente elaboradas, várias empresas tentaram transferir a responsabilidade para outros. Meta e Snap afirmaram que os operadores das principais lojas de aplicativos — ou seja, Apple e Google — deveriam assumir as funções de verificação de idade. E muitos argumentaram que o governo está extrapolando suas funções. "Os pais sabem o que é melhor", dizem, e deveriam decidir o que faz sentido para seus adolescentes no uso de redes sociais. Além do limite de idade maior, de 16 anos, a Austrália é a primeira jurisdição a negar uma exceção para aprovação parental em uma política desse tipo, tornando suas leis as mais rígidas do mundo. "Embora estejamos comprometidos em cumprir nossas obrigações legais, temos levantado preocupações sobre esta lei de forma consistente… Há uma maneira melhor: uma legislação que permita aos pais aprovar downloads de aplicativos e verificar a idade possibilita que as famílias — e não o governo — decidam quais apps os adolescentes podem acessar", afirmou a Meta em comunicado à BBC. Questionada sobre por que seu governo não se mostrou receptivo a esse argumento, por que qualquer medida abaixo de uma proibição seria inaceitável, Wells disse que as empresas de tecnologia tiveram tempo de sobra para melhorar suas práticas. "Eles já tiveram 15, 20 anos nesse setor para fazer isso por iniciativa própria e… não foi suficiente." Anika Wells diz que as big techs não vão intimidá-la sobre a proibição australiana às redes sociais BBC News Líderes de outros países compartilharam da mesma opinião e têm buscado sua ajuda, disse ela, citando como exemplos a União Europeia, Fiji, Grécia e até Malta. Dinamarca e Noruega já começaram a trabalhar em leis semelhantes, e Singapura também acompanha de perto. "Estamos felizes por sermos os primeiros, orgulhosos de sermos os primeiros, e prontos para ajudar qualquer outra jurisdição que queira fazer o mesmo", disse Wells. No Brasil, o presidente Luiz Inácio Lula da Silva sancionou em setembro deste ano o Estatuto Digital da Criança e do Adolescente (conhecido como "ECA Digital"), que estabelece a responsabilidade de empresas de tecnologia de proteger menores de 18 anos de conteúdos prejudiciais. Além disso, determina que contas de menores de 16 anos em plataformas devem ser vinculadas à conta de um responsável legal. A regulação da lei, prevista para entrar em vigor em março de 2026, ficará a cargo da Agência Nacional de Proteção de Dados (ANPD). Poucos meses antes, em junho deste ano, o Supremo Tribunal Federal (STF) brasileiro ampliou a regulamentação de plataformas digitais, definindo que empresas podem ser responsabilizadas por conteúdos criminosos postados por terceiros. Conteúdos graves, como mensagens antidemocráticas, pornografia infantil e incentivo ao suicídio, devem ser removidos ativamente, enquanto outros só precisam ser apagados após notificação. Tarde demais? À medida que a proibição australiana se aproximava, a pressão crescente levou as empresas a lançar versões de seus produtos anunciadas como mais seguras para jovens usuários, disse Pinar Yildirim, professora de marketing da Wharton School da Universidade da Pensilvânia (EUA). Afinal, a Austrália é um mercado importante para as plataformas sociais. Em audiências parlamentares em outubro, a Snap Inc., dona do Snapchat, afirmou ter cerca de 440 mil contas no país de usuários entre 13 e 15 anos. O TikTok disse ter aproximadamente 200 mil contas de menores de 16 anos, e a Meta afirmou ter cerca de 450 mil entre Facebook e Instagram. Especialistas afirmam que as empresas também estão interessadas em garantir que não percam usuários em mercados ainda maiores ao redor do mundo. O ex-engenheiro da Meta Arturo Béjar discursa em um comício Getty Images via BBC News Em julho, o YouTube anunciou a implementação de tecnologia de inteligência artificial para estimar a idade dos usuários, na tentativa de identificar menores de 18 anos e protegê-los melhor de conteúdos prejudiciais. O Snapchat possui contas especiais para crianças, que, segundo a empresa, ativam por padrão configurações de segurança e privacidade para usuários entre 13 e 17 anos. No ano passado, a Meta lançou as contas Instagram Teen, que de forma semelhante colocam usuários com menos de 18 anos em configurações de privacidade e conteúdo mais restritivas, projetadas para limitar contatos indesejados e exposição a conteúdos explícitos. Essa iniciativa foi acompanhada por uma intensa campanha de marketing nos EUA. "Se eles criarem um ambiente mais protegido para esses usuários, a ideia é que isso possa reduzir parte dos danos", disse Yildirim. Ainda assim, os críticos não estão satisfeitos. Béjar, um dos denunciantes da Meta, liderou um estudo publicado em setembro que constatou que quase dois terços das novas ferramentas de segurança nas contas Instagram Teen da Meta eram ineficazes. "O ponto central é que a Meta e outras empresas de redes sociais não estão abordando de forma substancial os danos que sabemos que os adolescentes estão enfrentando", disse Béjar à BBC. Colocadas na defensiva, as empresas tentaram transmitir que estão fazendo um esforço de boa-fé para cumprir a iminente proibição australiana, apesar de discordarem dela. Mas analistas dizem que elas provavelmente esperam que os obstáculos — incluindo desafios legais, brechas tecnológicas para crianças e quaisquer consequências não intencionais da proibição — possam fortalecer o argumento contra medidas semelhantes em outros países. E as empresas "têm uma boa dose de influência sobre o andamento das coisas", observa o professor Fast. "[Elas] têm incentivo para caminhar na linha tênue entre cumprir a lei e garantir que não cumpram tão bem a ponto de os outros países pensarem: 'Ótimo, isso funciona. Vamos fazer o mesmo'", concorda Scheeler. E as multas — de até A$ 49,5 milhões (cerca de R$ 178 milhões) por infrações graves — podem ser vistas apenas como o custo de fazer negócios, segundo Ari Lightman, professor de marketing da Carnegie Mellon University. "[Elas] são uma gota no oceano", disse ele, especialmente para empresas maiores que querem garantir a próxima geração de usuários em potencial. Apesar das preocupações sobre a implementação da política, Scheeler disse que vê isso como um "momento do cinto de segurança" para as redes sociais. "Alguns diriam que uma regulamentação ruim é pior do que nenhuma regulamentação, e às vezes isso é verdade, mas acredito que, neste caso, mesmo uma regulamentação imperfeita é melhor do que nada, ou melhor do que tínhamos antes", disse ele. "Talvez funcione, talvez não funcione, mas pelo menos estamos tentando algo." BBC FOOTER NOVO BBC Mais Lidas