
Meta e ByteDance aceitam que a UE avalie a proteção de menores no Instagram e TikTok
As empresas por trás do Instagram e do TikTok concordaram que a Comissão Europeia examine seus sistemas para proteger os jovens. Esse movimento voluntário ocorre sob o guarda-chuva da nova Lei de Serviços Digitais (DSA) da UE, que obriga as grandes empresas de tecnologia a gerenciar os riscos que seus serviços possam gerar. 🛡️
O alcance da revisão e o que está em jogo
Uns auditores externos, escolhidos de forma independente, serão os responsáveis por analisar como essas plataformas projetam suas funcionalidades para proteger a privacidade e a saúde mental dos adolescentes, e para evitar que acessem conteúdos potencialmente prejudiciais. As descobertas dessa revisão são cruciais.
Possíveis resultados da auditoria:- Se forem detectadas falhas, a Comissão Europeia poderá abrir um procedimento formal por infração.
- Esse processo poderá resultar em sanções econômicas muito elevadas se as empresas não se adequarem à regulamentação.
- A medida busca forçar uma mudança tangível no design e na operação das redes sociais.
As plataformas devem demonstrar que seus algoritmos não priorizam o engajamento em detrimento do bem-estar dos adolescentes.
Um ambiente regulatório europeu mais rigoroso
Essa ação reflete a postura cada vez mais rigorosa dos reguladores europeus em relação aos gigantes tecnológicos. O foco está especialmente em como seus algoritmos de recomendação e suas decisões de design afetam os usuários mais jovens. A aceitação voluntária da Meta e da ByteDance chega antes de uma possível designação oficial.
Contexto da designação "serviços de grande porte":- Ser designadas como "serviços online de grande porte" sob a DSA implica obrigações de conformidade permanentes e mais rigorosas.
- Essa avaliação pode ser vista como um passo prévio a essa designação formal.
- O objetivo final é criar um ambiente digital mais seguro para os menores.
O desafio para o modelo de negócios
O desafio fundamental para o Instagram e o TikTok será provar que seus sistemas não estão otimizados para maximizar o tempo de tela em detrimento da saúde mental. Isso poderá levar a repensar elementos centrais de seu engajamento, como os "curtidas", se os reguladores determinarem que contribuem para um uso viciante. O resultado dessa avaliação poderá marcar um precedente significativo para toda a indústria. ⚖️