WhitelistVideo
Comecar Gratis
Globo rodeado por martelos legislativos e ícones de escudo representando regulamentações globais de segurança infantil
Research

Todos os Países a Regular as Redes Sociais Infantis em 2026 (E o Que os Pais Devem Fazer)

Da proibição para menores de 16 anos na Austrália ao KOSA nos EUA, países em todo o mundo estão a apertar o cerco ao acesso das crianças às redes sociais. Aqui está cada regulamentação, o seu estado, e por que os pais não podem esperar que os governos ajam.

Dr. David Park

Dr. David Park

Privacy Law Scholar

Published: April 7, 2026
14 min read
Regulamentações de Segurança InfantilKOSAEU DSAUK Online Safety ActProibição na AustráliaProibição em FrançaRegulamentação de Redes Sociais

EM RESUMO: Uma onda histórica de legislação de segurança infantil varreu o globo entre 2025 e 2026. A Austrália promulgou uma proibição rígida de redes sociais para menores de 16 anos com penalidades de nove dígitos. A UK's Online Safety Act entrou em vigor. A França tornou obrigatória a verificação de idade. O US Senate aprovou o KOSA por 91-3. A EU apertou as suas diretrizes do Digital Services Act para menores. No entanto, todos os especialistas legais que acompanham estas leis chegam à mesma conclusão: a legislação aborda a responsabilização da plataforma, não a segurança doméstica. As leis demoram anos a ser totalmente aplicadas, as plataformas cumprem minimamente, e um adolescente determinado com uma VPN não é impedido por nenhuma delas. Este post mapeia cada regulamentação importante por país, explica o que cada uma realmente exige e por que a proteção mais fiável ainda começa com os pais.


O Panorama Global Num Relance

A tabela seguinte resume o estado atual das principais legislações de segurança infantil nas redes sociais em todo o mundo, em abril de 2026.

País Lei / Iniciativa Limite de Idade Estado Penalidade Principal
Austrália Online Safety Amendment Act Menores de 16 PROMULGADA (Dez 2025) AUD 49,5M por violação
United States KOSA (Kids Online Safety Act) Menores de 17 PENDENTE (House) Aplicação FTC, até $50K/dia
United Kingdom Online Safety Act Fase 1 Menores de 18 (proteções) PROMULGADA (Jul 2025) 4% do volume de negócios global
European Union Digital Services Act (DSA) Menores de 18 DIRETRIZES ATIVAS (Jul 2025) 6% do volume de negócios global
França Lei SREN — Verificação de Idade em Redes Sociais Menores de 15 PROMULGADA, aplicação Set 2026 1% do volume de negócios global
Espanha Proibição para menores de 16 anos anunciada pelo PM Menores de 16 PENDENTE (Parlamento) A definir
Alemanha Estudo de implementação (KJM) A definir A ESTUDAR (Relatório: Outono 2026) A definir

Não Espere Pela Legislação

Assuma o controlo do YouTube do seu filho hoje. Funciona em todos os países, em todos os dispositivos.


A Onda Global: Por Que 2025-2026 É o Ponto de Viragem

Durante a maior parte dos anos 2010, a posição política dominante em relação ao uso das redes sociais pelas crianças era, grosso modo: as plataformas deveriam melhorar, mas não vamos exigir nada específico. Essa era acabou.

Três forças convergentes impulsionaram a aceleração legislativa:

1. Os Dados de Saúde Mental Tornaram-se Inegáveis

Em 2025, o consenso da pesquisa havia se solidificado. Estudos que acompanhavam a saúde mental dos adolescentes desde o início da era dos smartphones mostraram consistentemente que o uso mais intenso das redes sociais correlacionava-se com taxas mais altas de ansiedade, depressão, interrupção do sono e problemas de imagem corporal — particularmente entre raparigas de 11 a 15 anos. Uma pesquisa frequentemente citada com pais em sete países descobriu que 65% se descreviam como "muito preocupados" com o efeito das redes sociais na saúde mental de seus filhos, um aumento de 44% apenas três anos antes. Separadamente, 83% dos psicólogos infantis entrevistados num estudo internacional de 2024 relataram ver aumentos no sofrimento relacionado às redes sociais em suas cargas de trabalho clínicas.

2. O Impulso Político Tornou-se Bipartidário

A proteção infantil é uma das poucas questões onde a esquerda e a direita encontram um terreno comum. Nos US, o KOSA foi aprovado no Senate por 91-3 — uma margem bipartidária essencialmente inédita no ambiente político atual. Na Austrália, a proibição para menores de 16 anos foi aprovada em ambas as câmaras do parlamento com apenas pequena oposição. No UK, o Online Safety Act recebeu apoio interpartidário ao longo de anos de redação. Legisladores que poderiam discordar em quase tudo o mais concordaram que proteger as crianças dos danos das plataformas valia a pena legislar.

3. A Austrália Demonstrou Que as Proibições São Aplicáveis

Quando a Austrália aprovou a sua proibição para menores de 16 anos em novembro de 2025 e a fiscalização começou em dezembro, removeu a objeção "isto não pode realmente funcionar". No primeiro trimestre de fiscalização, os reguladores relataram que 4,7 milhões de contas pertencentes a utilizadores menores haviam sido removidas ou verificadas por idade nas principais plataformas. O sucesso — imperfeito, mas real — deu a outros governos um plano.


Análise País a País

Austrália: A Primeira Proibição Rígida do Mundo

A Austrália agiu mais rapidamente e decisivamente do que qualquer outro país. O Online Safety Amendment (Social Media Minimum Age) Act 2024 foi aprovado pelo parlamento em novembro de 2025 e entrou em vigor em dezembro de 2025, tornando a Austrália o primeiro país a promulgar uma proibição categórica de contas de redes sociais para crianças menores de 16 anos.

Principais disposições:

  • Plataformas com mais de 1 milhão de utilizadores australianos devem impedir que menores de 16 anos criem contas
  • A verificação de idade é responsabilidade da plataforma — não dos pais ou da criança
  • Pais e crianças são explicitamente protegidos de penalidades; a responsabilidade recai inteiramente sobre as plataformas
  • Penalidades por não conformidade sistémica: até AUD 49,5 milhões por violação

Resultados da fiscalização no primeiro trimestre:

  • Aproximadamente 4,7 milhões de contas de menores removidas ou restritas nas principais plataformas
  • TikTok, Instagram, Snapchat e X emitiram relatórios de conformidade ao eSafety Commissioner
  • Pico documentado no uso de VPN entre adolescentes australianos imediatamente após o anúncio

A lei australiana não abrange o YouTube diretamente (é classificado como uma plataforma de conteúdo e não uma plataforma de redes sociais sob as definições do Act), mas a pressão política que criou acelerou as conversas sobre as próprias obrigações do YouTube. Para uma análise detalhada da proibição da Austrália, veja o nosso post A Proibição de Redes Sociais Para Menores de 16 Anos na Austrália e o YouTube.

Para pais australianos que desejam proteção do YouTube que a lei atualmente não obriga: o WhitelistVideo oferece controlo a nível de canal sobre o YouTube em todos os dispositivos — a aplicação iOS, a aplicação Android e a extensão do navegador aplicam a mesma lista de canais aprovada pelos pais, fechando a lacuna que a legislação deixa em aberto.

United States: KOSA Aprovado no Senado, Aguarda a House

Os United States alcançaram o seu marco mais significativo na legislação de segurança online para crianças em anos quando o Kids Online Safety Act (KOSA) foi aprovado no Senate em julho de 2024 por uma votação de 91-3. O projeto de lei entrou então em negociações na House, onde permanece em abril de 2026.

O que o KOSA exigiria se promulgado:

  • As plataformas de redes sociais devem aplicar as configurações de privacidade mais altas disponíveis por padrão para utilizadores com menos de 17 anos
  • As plataformas devem desativar os sistemas de recomendação algorítmica para menores por padrão (os utilizadores poderiam optar por ativá-los)
  • Um padrão de "dever de cuidado" exigindo que as plataformas mitiguem danos conhecidos a menores, incluindo distúrbios alimentares, abuso de substâncias, exploração sexual e auto-mutilação
  • Ferramentas de supervisão parental que permitam aos pais ver com quem o filho comunica e definir limites de tempo
  • Auditorias anuais independentes da segurança da plataforma para menores
  • Autoridade de fiscalização da FTC com penalidades civis de até $50.000 por dia por violações

O KOSA não é uma proibição. Não impede que menores usem plataformas. Ele impõe obrigações às plataformas para tornar os seus produtos mais seguros para menores e transfere parte do ónus da fiscalização para as próprias plataformas, em vez de para os pais.

Os pontos de discórdia na negociação da House têm-se centrado em: o âmbito da disposição de "dever de cuidado" e preocupações de organizações de liberdades civis sobre um potencial excesso na moderação de conteúdo; linguagem específica sobre a desativação de algoritmos e se estes se aplicariam retroativamente a utilizadores existentes; e questões jurisdicionais sobre que tipos de plataformas (redes sociais, jogos, plataformas de vídeo) seriam abrangidos.

Os pais dos US não podem contar com a aprovação do KOSA ou com o YouTube a cumprir as suas disposições de desativação algorítmica num determinado prazo. O WhitelistVideo oferece hoje às famílias americanas o que o KOSA visa exigir que as plataformas eventualmente forneçam: uma lista de canais controlada pelos pais, neutralização do algoritmo através de whitelisting e bloqueio de YouTube Shorts — tudo isso fiscalizado a nível do dispositivo, sem esperar pela regulamentação da FTC.

United Kingdom: Fase 1 da Online Safety Act em Vigor

A UK's Online Safety Act, em elaboração há anos, atingiu o marco de fiscalização da Fase 1 em julho de 2025. O Act é administrado pela Ofcom, o regulador de comunicações do UK, que agora tem poderes para investigar plataformas e aplicar multas significativas.

Requisitos da Fase 1 relevantes para crianças:

  • As plataformas devem realizar e publicar Avaliações de Risco para Crianças — documentando os riscos que os seus serviços representam para menores de 18 anos e o que estão a fazer para os mitigar
  • Padrões de design apropriados à idade: as configurações padrão para utilizadores que pareçam ter menos de 18 anos devem ser as mais protetoras disponíveis
  • As plataformas devem impedir que crianças encontrem conteúdo que seja "prejudicial, mas legal" (categorias detalhadas definidas pela Ofcom)
  • Os sites de pornografia devem implementar verificação de idade robusta
  • A Ofcom pode multar plataformas em até 10% do volume de negócios anual global (ou £18 milhões, o que for maior) por não conformidade

As disposições da Fase 2 — incluindo responsabilidade criminal para gestores séniores em plataformas não conformes — estão agendadas para implementação no final de 2026.

European Union: Diretrizes Apropriadas à Idade do DSA Ativadas

O Digital Services Act (DSA) da EU é uma lei de regulamentação de plataforma mais ampla que inclui disposições significativas de segurança infantil. Em julho de 2025, a European Commission publicou diretrizes vinculativas para "plataformas online muito grandes" (aquelas com mais de 45 milhões de utilizadores da EU) sobre como cumprir as obrigações do DSA em relação a menores.

Principais requisitos do DSA para crianças:

  • As plataformas devem implementar sistemas de verificação ou estimativa de idade antes de permitir que os utilizadores acedam a conteúdo prejudicial para menores
  • Os sistemas algorítmicos não devem ser usados para fornecer a menores conteúdo que explore as suas vulnerabilidades psicológicas
  • As plataformas devem fornecer relatórios anuais de transparência detalhando a sua abordagem à segurança infantil
  • A EU está a realizar programas-piloto a testar tecnologia de verificação de idade que preserva a privacidade, com resultados esperados no final de 2026

Penalidades por não conformidade com o DSA: até 6% do volume de negócios anual global, com potencial suspensão da plataforma por violações repetidas.

A abordagem da EU é notável por exigir explicitamente que as plataformas testem e implementem verificação de idade que não comprometa a privacidade do utilizador — um desafio técnico mais difícil do que simplesmente recolher documentos de identificação.

França: Proibição para Menores de 15 Anos com Verificação de Idade Obrigatória

A França promulgou a sua lei de Verificação de Idade em Redes Sociais (SREN) em 2024, exigindo que as plataformas de redes sociais verifiquem que os utilizadores franceses têm pelo menos 15 anos antes de criarem contas. Os sistemas de verificação de idade entraram em funcionamento em abril de 2025, com fiscalização total a partir de setembro de 2026.

A abordagem francesa distingue-se por exigir um mecanismo técnico específico: as plataformas devem usar provedores de verificação de idade de terceiros aprovados pelo governo, em vez de implementarem os seus próprios sistemas. Isso visa evitar que as plataformas implementem verificações deliberadamente de baixa fricção e fáceis de contornar.

Estado atual: Todas as principais plataformas (TikTok, Instagram, Snapchat, YouTube) registaram-se junto do regulador ARCOM de França e apresentaram os seus planos de implementação de verificação de idade. As auditorias de conformidade começam em setembro de 2026, após as quais as plataformas não conformes enfrentarão multas de até 1% do volume de negócios global.

Espanha: Proibição para Menores de 16 Anos Anunciada, Parlamento Pendente

O Primeiro-Ministro de Espanha anunciou planos para uma proibição de redes sociais para menores de 16 anos no final de 2025, citando explicitamente o modelo australiano como o modelo. Um projeto de lei foi submetido ao parlamento, onde enfrenta debate. Analistas jurídicos esperam que a proibição espanhola, se aprovada, espelhe de perto a abordagem da Austrália: responsabilidade a nível da plataforma pela verificação de idade, responsabilidade das plataformas e não dos pais, e penalidades financeiras significativas por não conformidade.

Nenhum cronograma para votação parlamentar foi confirmado em abril de 2026.

Alemanha: A Estudar a Implementação

A Alemanha tem sido mais cautelosa. A Kommission für Jugendmedienschutz (KJM — Comissão para a Proteção de Menores na Mídia) está a realizar uma revisão formal das opções de implementação, com um relatório esperado no outono de 2026. A estrutura federal da Alemanha adiciona complexidade, pois a regulamentação da mídia é uma competência estadual (Länder) e não federal, exigindo coordenação entre 16 estados antes que a legislação nacional possa entrar em vigor.

Funcionários alemães expressaram interesse numa abordagem coordenada pela EU, em vez de uma legislação nacional autónoma, sob o argumento de que um mosaico de leis nacionais cria complexidade de conformidade para plataformas globais e proteção inconsistente para crianças nos estados membros da EU.


O Padrão Comum: Regulamentação Não É Sinónimo de Proteção

A leitura da abordagem de cada país revela uma limitação estrutural consistente que nenhuma legislação ainda superou: estas leis regulam contas, não conteúdo.

Quando a Austrália remove uma conta TikTok de um menor de 16 anos, essa criança ainda pode aceder ao TikTok através de um navegador da web. Quando a França exige verificação de idade no Instagram, um adolescente pode usar o login de um dos pais. Quando o UK exige configurações padrão seguras para crianças, um jovem de 14 anos pode desativá-las após um clique rápido de confirmação de idade.

Nenhuma destas leis controla o que acontece no dispositivo de uma criança depois de contornar as restrições a nível da conta — e a contornar não é difícil. As ferramentas estão disponíveis gratuitamente, bem documentadas e, muitas vezes, ativamente partilhadas entre adolescentes.

Este não é um argumento contra a regulamentação. Responsabilizar legalmente as plataformas por conceber produtos que são prejudiciais para as crianças é necessário e há muito devido. Mas é um argumento para explicar por que a legislação, por si só, não pode ser a principal estratégia de proteção dos pais.

Existe também a questão do cronograma. A Austrália é a que age mais rapidamente, e a sua proibição entrou em vigor quinze meses depois de ter sido publicamente proposta pela primeira vez. O KOSA está no US Congress desde 2022. O tempo médio desde a introdução até a fiscalização para as leis neste artigo é de aproximadamente três anos. Uma criança que tem dez anos hoje terá treze antes que as leis atualmente pendentes atinjam a fiscalização total.


Por Que os Pais Não Podem Esperar Pelos Governos

A lacuna entre a intenção legislativa e a proteção prática é ampla, e as razões são estruturais, e não uma falha de vontade política.

A Fiscalização Demora Anos Após a Promulgação

Promulgação e fiscalização são eventos separados. A UK's Online Safety Act foi sancionada em outubro de 2023. A fiscalização da Fase 1 começou em julho de 2025 — vinte e um meses depois. A proibição da Austrália foi aprovada em novembro de 2025 e a fiscalização começou em dezembro de 2025 (incomumente rápido), mas a conformidade total em todas as plataformas ainda está a ser verificada. As leis aprovadas em 2026 não serão totalmente fiscalizadas antes de 2028, na maioria das jurisdições.

O WhitelistVideo opera num cronograma totalmente diferente: funciona hoje, no dispositivo atual da criança, independentemente de onde qualquer lei se encontra no seu ciclo legislativo ou de fiscalização.

As Plataformas Cumprem o Mínimo

Quando as regulamentações exigem que as plataformas implementem verificação de idade ou padrões seguros para crianças, as plataformas têm fortes incentivos comerciais para implementar a letra da lei, minimizando o atrito que reduz as inscrições e o envolvimento. Uma plataforma que torna a verificação de idade genuinamente difícil perde utilizadores para concorrentes cuja verificação de idade é mais fácil de contornar. A corrida regulatória tende para a implementação tecnicamente mais permissiva e compatível.

Os controlos parentais a nível do dispositivo, como o WhitelistVideo, não estão sujeitos a esta dinâmica. Um pai que aprova 15 canais para o seu filho não precisa da cooperação do YouTube para aplicar essa lista — a fiscalização acontece no dispositivo, não na plataforma.

As Leis Visam o Comportamento da Plataforma, Não o Conteúdo

Mesmo a lei mais rigorosa nesta análise — a proibição australiana para menores de 16 anos — não restringe o conteúdo disponível no YouTube para uma criança que o acede através de um caminho não social. O volume de conteúdo do YouTube que psicólogos infantis, educadores e pais consideram prejudicial para crianças não é coberto por nenhuma legislação existente. O foco regulatório tem sido nas plataformas de redes sociais e nos motores de recomendação algorítmica; o YouTube ocupa uma área cinzenta de definição que a maioria das leis não abordou diretamente.

Esta é precisamente a lacuna que o whitelisting de canais preenche: aborda diretamente a questão do conteúdo, e não a questão da conta. Um pai que usa o WhitelistVideo controla qual conteúdo do YouTube é acessível, independentemente de o seu filho ter uma conta YouTube, da verificação de idade que a plataforma realiza ou das regulamentações de que país se aplicam.

O Problema da Jurisdição

Uma criança num país sem regulamentação significativa pode aceder ao mesmo conteúdo que uma criança num país com a regulamentação mais rigorosa do mundo, se tiver acesso a uma VPN ou a um dispositivo fora da visibilidade parental. A legislação é específica da jurisdição; a internet não o é.

A fiscalização do WhitelistVideo é independente da jurisdição por design. Funciona no dispositivo da criança — na Austrália, nos US, no UK, na EU, em França, Espanha, Alemanha ou em qualquer outro lugar — e aplica a mesma lista de canais definida pelos pais, independentemente da lei local. Uma VPN não o contorna porque os controlos operam abaixo da camada de rede, ao nível do navegador e do dispositivo.


A Solução Controlada Pelos Pais: Funcionando Independentemente da Jurisdição

O panorama legislativo acima aponta para uma conclusão consistente: a proteção mais fiável opera a nível do dispositivo, sob controlo parental, independentemente do que governos ou plataformas façam.

A abordagem de whitelist — em vez de depender dos próprios controlos parentais de uma plataforma ou de esperar que a legislação entre em vigor — atribui a autoridade de tomada de decisão aos pais no dispositivo específico da criança:

  • Independente da jurisdição: Funciona na Austrália, nos US, no UK, na EU e em qualquer outro lugar, independentemente do estado da regulamentação local
  • Independente da plataforma: Não está sujeito a decisões de conformidade da plataforma ou ao ritmo da fiscalização regulatória
  • Resistente a bypass: A fiscalização a nível do dispositivo é significativamente mais difícil de contornar do que as restrições a nível da conta
  • Imediato: Entra em vigor hoje, e não quando a legislação é aprovada numa comissão da House ou quando a Ofcom conclui um ciclo de auditoria

O WhitelistVideo aborda especificamente o YouTube — a plataforma que se situa mais consistentemente fora dos atuais quadros regulatórios — permitindo que os pais aprovem canais específicos. Apenas vídeos de canais aprovados são reproduzidos. O algoritmo, as recomendações, os Shorts e todo o conteúdo não aprovado são bloqueados a nível do dispositivo. Como funciona sem uma conta YouTube, não pode ser contornado ao terminar a sessão — a lacuna que a legislação a nível da conta deixa bem aberta.

As funcionalidades mapeiam-se diretamente para o que estas regulamentações estão a tentar alcançar:

  • O que a proibição da Austrália visa — manter conteúdo prejudicial longe das crianças — o WhitelistVideo entrega hoje, no YouTube, através de whitelisting de canais no dispositivo real da criança.
  • O que o opt-out de algoritmo do KOSA visa — remover o "buraco de coelho" algorítmico da experiência das crianças — o WhitelistVideo consegue, garantindo que as recomendações só podem mostrar canais aprovados.
  • O que os padrões apropriados à idade do UK e da EU visam — um ponto de partida mais seguro e controlado pelos pais — o WhitelistVideo implementa através de uma lista de canais construída pelos pais, que é o único YouTube disponível no dispositivo da criança.

Os governos estão a levar a segurança infantil a sério, e as leis que estão a ser aprovadas são importantes. Mas o processo legislativo opera num cronograma medido em anos. O consumo de mídia das crianças opera num cronograma medido em semanas. Os pais que querem agir agora não precisam de esperar por uma votação no Senate ou por um prazo de fiscalização regulatória.

A proteção disponível hoje, em qualquer dispositivo, em qualquer país, começa com uma whitelist dos pais. Faça download do WhitelistVideo e configure-o antes que a próxima sessão comece.

Não Espere Pela Legislação Para Proteger o Seu Filho

O WhitelistVideo funciona em todos os países, em todos os dispositivos — hoje. Aprove os canais que o seu filho pode assistir. Bloqueie todo o resto. Nenhuma VPN o contorna. Não é necessário cronograma regulatório.

Experimente WhitelistVideo grátis — a configuração leva menos de cinco minutos.

Comece a Proteger o Seu Filho Hoje →

Perguntas Frequentes

KOSA — o Kids Online Safety Act — foi aprovado pelo US Senate por 91-3 em julho de 2024, uma das maiores margens bipartidárias na história recente do Senado. No início de 2026, o projeto de lei permanece em negociação na House. Se aprovado, exigiria que as plataformas de redes sociais fornecessem o mais alto nível de configurações de privacidade por padrão para menores, restringisse as recomendações algorítmicas para utilizadores com menos de 17 anos e desse aos pais ferramentas para monitorizar e limitar o uso dos seus filhos. Não proíbe menores de plataformas de forma direta.

Sim — as VPNs são a solução mais comum que as crianças usam para contornar restrições de idade geográficas. Quando a Austrália implementou a sua proibição para menores de 16 anos em dezembro de 2025, os downloads de VPN entre adolescentes australianos dispararam em poucos dias. Leis que exigem verificação de idade no lado da plataforma (em vez de dependerem da idade auto-declarada) são mais resistentes a bypasses de VPN, mas adolescentes determinados ainda encontram soluções alternativas. É precisamente por isso que ferramentas a nível parental como o WhitelistVideo, que operam no próprio dispositivo da criança, permanecem essenciais ao lado da legislação.

Os sistemas de verificação de idade atualmente usam um ou mais dos seguintes métodos: verificação de identidade governamental (passaporte, digitalização de carta de condução), verificação de cartão de crédito (assumindo que os titulares são adultos), estimativa de idade facial usando IA, dados de operadoras de rede móvel (as operadoras conhecem as idades dos clientes) e portais de consentimento parental. Cada método tem prós e contras entre precisão, privacidade e atrito. A EU, o UK e a França estão a pilotar diferentes combinações destas abordagens. Nenhum método único é simultaneamente sem atrito e totalmente fiável em 2026.

Sim. WhitelistVideo é uma extensão de navegador e aplicação móvel que opera no dispositivo da criança, independentemente do país onde se encontra ou das regulamentações locais aplicáveis. Controla o acesso ao YouTube através de whitelisting de canais — apenas canais pré-aprovados são reproduzidos — e funciona em Windows, macOS, Chromebook, iOS e Android. Como opera a nível do dispositivo em vez de depender das próprias configurações parentais do YouTube, não é afetado por restrições geográficas ou alterações de política da plataforma.

Em meados de 2026, a Austrália tem a legislação mais abrangente e ativamente aplicada — uma proibição rigorosa de contas de redes sociais para crianças menores de 16 anos, com plataformas a enfrentar multas de até AUD 49,5 milhões por não conformidade sistémica. A França segue de perto com uma proibição para menores de 15 anos apoiada por verificação de idade obrigatória, com aplicação total prevista a partir de setembro de 2026. A Fase 1 da UK's Online Safety Act (julho de 2025) exige design apropriado à idade e a Ofcom tem agora poderes de aplicação. Os US e a EU permanecem em fases anteriores, com legislação significativa pendente mas ainda não totalmente promulgada.

Read in other languages:

Compartilhe este artigo

Published: April 7, 2026 • Last Updated: April 7, 2026

Você Também Pode Gostar

Ajuda com IA

Obtenha Respostas Instantaneas com IA

Pergunte a qualquer assistente de IA sobre controles parentais do YouTube, guias de configuracao ou solucao de problemas.

ChatGPT

ChatGPT

Perplexity

Perplexity

Claude

Claude

Gemini

Gemini

Clique em 'Perguntar' para abrir a IA com sua pergunta preenchida. Para Gemini, copie a pergunta primeiro.

Resumir com