A Advocacia-Geral da União (AGU) organizou uma audiência pública que reúne representantes de diversas plataformas digitais e organizações, com o objetivo de discutir políticas de moderação de conteúdo. Tal iniciativa acontece em um contexto de mudanças nas diretrizes da Meta, responsável por plataformas como Instagram e Facebook. A preocupação da AGU surge a partir da resposta da Meta a uma notificação extrajudicial, onde a empresa confirma alterações em suas políticas. Estas mudanças permitem, por exemplo, que os usuários associem doenças mentais a gênero ou orientação sexual em discussões, especialmente em contextos religiosos ou políticos, o que a AGU vê como um risco para a violação de direitos fundamentais.
Quem Participa da Audiência?
Estão convidadas para o evento diversas plataformas digitais como Alphabet (que controla Google e YouTube), TikTok, Kwai, X e LinkedIn. Além destes, participam organizações que atuam na esfera digital, como o Instituto de Tecnologia e Sociedade (ITS), InternetLab e Netlab. Agências de checagem de informação, como Aos Fatos e Agência Lupa, também estão na lista de convidados, assim como acadêmicos e entidades de direitos humanos.
O foco é claro: reunir diferentes perspectivas para discutir a aplicação da legislação nacional em relação à moderação de conteúdo, enquanto busca-se proteger os direitos fundamentais dos cidadãos. No entanto, não foi divulgado quais dos convidados confirmaram presença até o momento da audiência.
Qual é a Importância da Moderação de Conteúdo nas Redes?
A moderação de conteúdo nas plataformas digitais é um tema de extrema relevância, já que envolve a responsabilidade sobre o que é permitido e o que deve ser restrito. Ao alterar suas políticas, as plataformas podem impactar diretamente a liberdade de expressão, a segurança online e a proteção contra discursos de ódio. A AGU acredita que essas mudanças devem ser discutidas abertamente para garantir que as normas locais sejam seguidas.
Com a ascensão do discurso de intolerância e desinformação, a moderação eficaz nas redes se torna primordial. O governo federal, através do novo ministro da Secretaria de Comunicação Social, Sidônio Palmeira, até considerou recorrer ao Supremo Tribunal Federal (STF) para assegurar que tais diretrizes sejam adequadas à legislação vigente.
Que Medidas Podem Ser Adotadas para Assegurar a Legislação?
Durante a audiência, os participantes discutem medidas práticas para garantir que as plataformas cumpram a legislação brasileira. Entre as possíveis ações estão a implementação de diretrizes mais rígidas contra conteúdos que incitem ao ódio ou desinformação, bem como a criação de mecanismos mais transparentes para motivar a auto-regulação por parte das plataformas.
Outro foco importante é o fortalecimento da cooperação entre agências governamentais, plataformas e organizações de direitos humanos, assegurando um equilíbrio entre liberdade de expressão e a proteção de outros direitos.
O Caminho da Discussão para o Futuro
Este evento é um passo importante rumo ao entendimento e possível reformulação das políticas digitais no Brasil. As decisões tomadas daqui em diante podem definir um novo padrão para a interação e para a proteção de direitos nas redes sociais. Todas as vozes presentes na audiência têm a oportunidade de influenciar como as futuras políticas de moderação serão moldadas, refletindo as complexidades da sociedade contemporânea.
As discussões podem abrir caminho para uma legislação mais robusta e eficaz, alinhando a liberdade de expressão com a necessidade de proteger indivíduos e grupos de possível discriminação e ataque online.