ABCPública participa de audiência sobre regulação da Internet no STF

A ABCPública apresentou sugestões nesta terça-feira, 28 de março, na audiência pública realizada pelo Supremo Tribunal Federal sobre a responsabilização de plataformas de Internet na divulgação de conteúdos postados por seus usuários. Duas ações a cargos dos ministros Dias Toffoli e Luiz Fux, que envolvem o Google e o Facebook,  ensejam o debate que pode decidir sobre a constitucionalidade do artigo 19 do Marco Civil da Internet. Esse dispositivo garante que apenas decisões judiciais podem determinar a retirada de conteúdos das plataformas, assegurando que elas só podem ser responsabilizadas civilmente caso desobedeçam a justiça. 

Assista ao vídeo com a exposição do vice-presidente de Relações Governamentais da ABCPública, e depois confira os principais pontos abaixo. 

 

Neste outro vídeo, o representante da Associação Brasileira de Centros de Inclusão Digital apoia uma posição da ABCPública. Representantes de entidades como o Instituto Brasileiro de Defesa do Consumidor e Instituto Alana, participantes da audiência, também corroboraram nossa posição.

  1. Corresponsabilização cível dos provedores de aplicação de internet (plataformas) na disseminação e conteúdos ilegais e desinformação, quando omissos frente a notificações extrajudiciais de retirada de conteúdo, considerando ser necessária uma intepretação que deixe claros os limites da expressão “após ordem judicial específica”, “e nos limites técnicos” e “dentro do prazo assinalado”, contidas no caput artigo 19 da Lei nº 12.965, de 23 de abril de 2014 (Marco Civil da Internet).
  2. Negativas de retirada de conteúdo devem ser fundamentadas, nos termos de uso, na legislação vigente e em jurisprudência aplicável.
  3. Inexigibilidade de decisão judicial para concessão pelas plataformas de direito de resposta, ou qualquer outro conteúdo de reparação e esclarecimento. A negativa pelas plataformas para a utilização desse direito deve ser fundamentada nos termos de uso, na legislação e na jurisprudência.
  4. Assegurar o respeito ao princípio do art. 5º, inciso V da Constituição Federal, pelo qual o direito de resposta e conteúdos de reparação e esclarecimento devem ser proporcionais ao agravo em seu formato, tamanho e, especialmente, alcance, sejam eles publicados por determinação judicial ou notificação extrajudicial.  Portanto, a mera publicação de decisão judicial não configura reparação adequada, proporcional ao agravo.
  5. O conteúdo danoso – ilegal ou de desinformação – que tiver tráfego de dados subsidiado pelas plataformas (zero rating), deverá ter sua reparação também com tráfego subsidiado.
  6. Adoção da “autorregulação regulada” ou “corregulação” (enforced self regulation) que exija das plataformas gerenciamento adequado dos riscos de suas atividades, o “dever de cuidar”, em sintonia com normas modernas, cujo o exemplo mais recente é o Ato de Serviços Digitais da União Europeia. 
  7. Critérios de moderação – tanto algorítmica quanto sob supervisão humana – devem ser transparentes e auditáveis por controles internos e externos independentes, custeados pelas plataformas.
  8. Transparência e acessibilidade dos usuários aos termos de uso das plataformas. Textos prolixos e herméticos têm sido mecanismo reiterado de desestímulo ao conhecimento das regras e consequente opacidade, dificultando o uso dos direitos e a contestação dos abusos e omissões. Portanto, para além de termos de uso detalhados as plataformas devem ser obrigadas a disponibilizar uma versão em linguagem simples (plain language), esquemática e com recursos de diagramação e design do direito, que facilitem a leitura e compreensão.
  9. Notificações extrajudiciais, alertas, denúncias de conteúdo danoso feitas por Serviços Públicos de Comunicação devem ter tratamento e resposta prioritários (até 48 horas úteis), com prazos encurtados (24 horas) para assuntos de maior impacto social, tais como os relativos ao Estado Democrático de Direito, Processos Eleitorais ou Judiciais, Saúde Pública, Pedofilia e discursos de ódio como racismo, intolerância religiosa, misoginia, homofobia e transfobia.
  10. O abuso do direito de notificar e denunciar deve ser monitorado e punido com suspensão temporária do usuário.
  11. Aplicação de multas por descumprimento de determinações legais e judiciais, que devem ter proporcionalidade ao fluxo financeiro das plataformas e seu poder financeiro, de modo a não inviabilizar seus modelos de negócio, mas também gerando efetivo efeito correcional, para que apenas pagar as multas não seja mais vantajoso que aplicar leis e sentenças e corrigir problemas.
  12. Transparência algorítmica, com a sinalização pelas plataformas dos conteúdos ofertados por recomendação do algoritmo, por preferências do usuário, por publicidade e propaganda direcionada ou aleatória, como forma de educação midiática
  13. Direito do usuário pleitear, a cada 6 meses, os dados e tratamentos que levaram à recomendação algorítmica de conteúdos, aí incluídas a publicidade e a propaganda.
  14. Ressaltamos que o foro adequado para a regulação é o Congresso Nacional, mas enquanto tais decisões não são tomadas é preciso que algo seja feito, e o STF pode assim sinalizar aos parlamentares os marcos constitucionais, jurisprudenciais e doutrinários sobre o tema.

Clique aqui para assistir à íntegra da Audiência.

Compartilhe

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *