Notícias

Saiba os argumentos de Toffoli sobre regulamentação de big techs por conteúdos nas redes

Ministro do STF propõe obrigação de plataformas monitorarem conteúdos ilícitos e possibilidade de punição, mesmo sem uma notificação

O ministro Dias Toffoli, do Supremo Tribunal Federal (STF), votou, nesta quinta-feira (5), para aumentar a responsabilidade das plataformas digitais por conteúdos postados pelos usuários na internet.
O julgamento será retomado na próxima quarta-feira (11), com o voto do ministro Luiz Fux.

Em seu voto, Toffoli propôs a adoção de um dever de monitoramento pelas plataformas sobre conteúdos ilícitos, com a possibilidade de punição, mesmo que não haja uma notificação, pedindo a derrubada de publicações. Para o ministro, a regra atual que estabelece o regime de responsabilidade das chamadas big techs é inconstitucional.

Punição sem decisão

Toffoli votou para tornar como regra geral a responsabilização da plataforma após notificação extrajudicial do usuário pedindo a remoção de alguma publicação. Se ela deixar de tomar alguma providência, poderá ser punida (mesmo sem uma decisão judicial).

Hoje, como regra geral, essa responsabilidade só ocorre quando a plataforma deixa de cumprir uma decisão judicial mandando remover alguma publicação. A proposta de nova regra valeria para conteúdos “ofensivos” e “ilícitos” que vão de danos à honra e à imagem até materiais “inequivocamente desinformativos”, como as “notícias fraudulentas”.

“Responsabilidade objetiva”

O ministro também propôs fixar um rol de critérios de “responsabilidade objetiva”. São situações em que as plataformas devem ter um dever de monitoramento e de remoção – independentemente de terem sido ou não notificadas por alguém – sob pena de serem responsabilizadas caso mantenham as publicações no ar.
Entram nessa responsabilidade objetiva conteúdos como crimes contra o Estado de direito, violência e desinformação capaz de afetar o processo eleitoral.

Toffoli concluiu na tarde desta quinta (5) o seu voto no julgamento sobre o regime de responsabilidade das plataformas. O ministro é o relator de um dos processos sobre o assunto. Ele começou a votar na última quinta (28). A Corte julga dois recursos sobre o assunto. O outro caso é relatado por Luiz Fux, que será o segundo a votar, na quarta.

Notificação extrajudicial

Toffoli votou para que as plataformas sejam passíveis de responsabilização a partir do momento em que recebam uma notificação extrajudicial do usuário pedindo a remoção de alguma publicação, sem a necessidade de uma decisão da Justiça.

Se as redes não analisarem o pedido de derrubada do conteúdo questionado, poderão ser punidas, conforme o voto do ministro. Segundo a proposta, a plataforma poderá avaliar caso a caso e manter no ar a publicação se entender que o conteúdo é lícito. Nesses casos, a demanda poderá ser levada para a Justiça avaliar a manutenção ou não do post.

Atualmente, conforme o artigo 19 do Marco Civil da Internet, a plataforma só pode ser punida se deixar de cumprir uma decisão judicial determinando a derrubada de conteúdo. Pela lei, só existem duas exceções a esse comando, estabelecidas no artigo 21:

divulgação de imagens ou vídeos com cenas de nudez
ou atos sexuais de caráter privado ou para violação de direitos autorais.
Nesses casos, a plataforma deve remover o conteúdo a partir de notificação extrajudicial – se deixar de adotar providência, pode ser punida.

Ou seja, pelo voto do ministro, a regra geral passa a ser essa do artigo 21, com uma ampliação para ter efeito em situações de conteúdos “ofensivos” e “ilícitos”. Segundo a explicação dada pelo ministro, entram nessas duas categorias: ofensas e danos à intimidade, à vida privada, à honra e imagem, além de conteúdos “inequivocamente desinformativos”, como as “notícias fraudulentas”.

Responsabilidade objetiva

No caso da responsabilidade objetiva, a proposta é mais rigorosa. As plataformas passariam a ter que remover publicações que tratem de uma lista de temas para não serem punidas. Essa remoção teria que ser feita diretamente pela plataforma, sem uma provocação prévia de usuário nem de decisão judicial.

Entram nessa categoria conteúdos com crimes contra o Estado de Direito, atos de terrorismo, racismo, violência contra criança, mulheres e pessoas vulneráveis, tráfico de pessoas, incitação à prática de violência física ou sexual e fatos “notoriamente inverídicos ou gravemente descontextualizados” com potencial de causar dano ao processo eleitoral. Segundo Toffoli, em caso de dúvida, a plataforma pode esperar ser eventualmente notificada por algum usuário para derrubar a publicação.

“Havendo dúvida razoável sobre essas práticas, a plataforma pode se valer do artigo 21 e aguardar a notificação. Se depois o Judiciário entender que a responsabilidade era objetiva, ela [plataforma] vai ser responsabilizada não a partir da notificação, mas a partir do fato”.

As plataformas também passariam a ter responsabilidade objetiva por contas inautênticas e os chamados “perfis falsos” e por eventuais danos causados por publicações que tenham impulsionadas para alcançar um público maior.

Exceções

Segundo Toffoli, não entram na regra proposta de responsabilidade:

provedores de serviço de e-mail;
provedores de reuniões fechadas por vídeo ou áudio (como Zoom ou Meets);
provedores de mensagens privadas interpessoais (como WhatsApp ou Telegram);

Com relação aos serviços de mensagem, eles podem ser responsabilizados se ficar constatado uma função como “rede social”, como grandes grupos, comunidades, canais ou listas de transmissão. Se houver disseminação de conteúdo ilícito nesses formatos, incide a regra geral da notificação extrajudicial. Em casos de marketplace, só há responsabilidade (no caso, solidária com o anunciante) nos casos de anúncio de venda de produtos proibidos ou sem certificação.

Outra exceção é para veículos jornalísticos. Nesses casos, a responsabilidade por conteúdo é regulada pela lei do Direito de Resposta, de 2015.

Análise

O Marco Civil da Internet é uma lei de 2014 que estabelece princípios, garantias, direitos e deveres para o uso da Internet no Brasil. A Corte julga dois recursos apresentados por Facebook e Google. As empresas questionam as regras para funcionamento das plataformas e o regime de responsabilidade sobre conteúdos postados por usuários.

Os casos têm repercussão geral reconhecida, ou seja, o que for definido valerá para todos os casos semelhantes na Justiça. O recurso do Facebook foi apresentado após a plataforma ter sido condenada a indenizar uma dona de casa que foi vítima de um perfil falso com conteúdo ofensivo.

O recurso do Google discute o caso de uma professora que pediu a retirada de uma comunidade do Orkut com conteúdo pejorativo contra ela. A questão nesse caso é se a empresa hospedeira do conteúdo tem ou não a obrigação de fiscalizar e retirar conteúdo do ar.

Como é hoje

Atualmente, o Marco Civil da Internet só responsabiliza civilmente as plataformas se não houver cumprimento de decisão judicial determinando a remoção de conteúdo postado por usuários. A garantia está no artigo 19 da lei. A responsabilidade civil envolve o dever de indenizar eventuais danos, por exemplo.

As duas exceções a esse comando são: divulgação de imagens ou vídeos com cenas de nudez ou atos sexuais de caráter privado ou para violação de direitos autorais. Nesses casos, a plataforma deve remover o conteúdo a partir de notificação extrajudicial.

Big techs

Facebook e Google se manifestaram em 27 de novembro. As big techs admitiram a possibilidade de um aumento de responsabilidade das plataformas sobre publicações que envolvam conteúdos relacionados a tentativa de golpe de Estado ou de abolição violenta do Estado de Direito.

As duas companhias defendem o modelo atual de regulação do setor, e pedem que o Supremo confirme sua validade. Ambas, no entanto, fizeram proposições caso a Corte decida que é preciso mudar a atual forma de tratamento do assunto.

Elas admitem uma responsabilidade maior para um rol limitado de temas e só para publicações em que se seja possível identificar objetivamente crimes ou condutas irregulares previstas em lei. Além de golpe, foram citados casos como terrorismo e abuso infantil, por exemplo.

Redação GOYAZ

Redação Ligação Direta: 36024225 Redação Plantão Whatsapp: ( 62) 983035557

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Botão Voltar ao topo