As autoridades da União Europeia anunciaram nesta quinta-feira que iniciarão uma investigação sobre o Facebook e o Instagram, ambas pertencentes à Meta, por possíveis violações das regras de conteúdo online da UE, especialmente relacionadas à segurança das crianças. Este processo está sendo conduzido com base na Lei de Serviços Digitais (DSA, na sigla em inglês), que entrou em vigor no ano passado.
De acordo com a DSA, as empresas de tecnologia têm a responsabilidade legal de tomar medidas para combater o conteúdo ilegal e prejudicial que circula em suas plataformas. Se as investigações encontrarem evidências de violações, as empresas podem enfrentar multas significativas.
Esta ação ressalta o crescente escrutínio sobre as grandes plataformas de mídia social em relação à proteção da segurança online, especialmente para os usuários mais jovens.
A Comissão Europeia anunciou a abertura de uma investigação detalhada sobre as plataformas do Facebook e Instagram, operadas pela Meta, em razão de preocupações relacionadas à segurança e ao bem-estar das crianças. Esta medida foi tomada devido à suspeita de que essas plataformas não estariam lidando de maneira adequada com os potenciais riscos que apresentam para os jovens usuários.
Uma das principais preocupações da Comissão diz respeito à possibilidade de que os sistemas, incluindo algoritmos, utilizados pelo Facebook e Instagram possam incentivar comportamentos viciantes entre as crianças, além de contribuir para a ocorrência dos chamados “efeitos de buraco de coelho”.
Estes efeitos referem-se à tendência de os usuários, especialmente crianças, serem atraídos para uma navegação contínua e prolongada, muitas vezes sem perceber o tempo passar, o que pode resultar em impactos negativos na saúde mental e bem-estar.
A Meta apresentou um relatório de avaliação de risco em setembro, o que indicaria uma medida inicial de reconhecimento e resposta às preocupações levantadas pelas autoridades europeias. No entanto, a Comissão Europeia optou por prosseguir com uma investigação mais aprofundada para examinar minuciosamente a adequação das medidas propostas pela Meta e avaliar se estas são suficientes para proteger os interesses e a segurança das crianças que utilizam essas redes sociais.
A Comissão está expressando sua preocupação em relação aos procedimentos utilizados pela Meta para verificar a idade dos usuários e garantir que menores de idade não tenham acesso a conteúdo inadequado na plataforma. Esta preocupação é baseada na possibilidade de crianças estarem expostas a material que não é apropriado para sua faixa etária.
A Meta, em resposta, afirma que já desenvolveu ao longo de uma década mais de 50 ferramentas e políticas voltadas especificamente para proteger crianças em suas plataformas. Um porta-voz da empresa destacou que essas medidas foram implementadas com o objetivo de garantir a segurança e bem-estar dos jovens usuários.