Garcia Pereira Advogados Associados

No último dia 18 de fevereiro de 2022, foi publicado importante acórdão do Superior Tribunal de Justiça (STJ) que trata da questão da responsabilidade civil de provedores de aplicação — no caso, o Facebook — por conteúdos ilícitos de terceiros. A discussão referia-se ao fato de que, mesmo sendo notificada pelas vítimas — o pai em nome próprio e em nome do seu filho menor — a plataforma recusou-se a excluir a publicação ilícita — foto do pai com o seu filho menor acompanhada de acusação falsa de pedofilia — sob o fundamento de que ela não seria contrária aos seus termos de uso.

Inconformados, pai e filho ingressaram com ação de obrigação de fazer cumulada com perdas e danos que, ao ser apreciada pelo STJ, foi julgada procedente, sob o fundamento de que o art. 19, do Marco Civil da Internet — ao prever a necessidade de ordem judicial que determine a exclusão de conteúdos de terceiros como pressuposto da responsabilidade dos provedores de aplicação — não pode ser interpretado de forma isolada e em desconsideração às demais normas incidentes sobre esse tipo de situação.

Vale ressaltar a ementa do julgado ora sob exame[1], que bem sintetiza suas razões de decidir:

“DIREITO CIVIL, INFANTO JUVENIL E TELEMÁTICO. PROVEDOR DE APLICAÇÃO. REDE SOCIAL. DANOS MORAIS E À IMAGEM. PUBLICAÇÃO OFENSIVA. CONTEÚDO ENVOLVENDO MENOR DE IDADE. RETIRADA. ORDEM JUDICIAL. DESNECESSIDADE. PROTEÇÃO INTEGRAL. DEVER DE TODA A SOCIEDADE. OMISSÃO RELEVANTE. RESPONSABILIDADE CIVIL CONFIGURADA.

1. O Estatuto da Criança e do Adolescente (art. 18) e a Constituição Federal (art. 227) impõem, como dever de toda a sociedade, zelar pela dignidade da criança e do adolescente, colocando-os a salvo de toda forma de negligência, discriminação, exploração, violência, crueldade e opressão, com a finalidade, inclusive, de evitar qualquer tipo de tratamento vexatório ou constrangedor.

1.1. As leis protetivas do direito da infância e da adolescência possuem natureza especialíssima, pertencendo à categoria de diploma legal que se propaga por todas as demais normas, com a função de proteger sujeitos específicos, ainda que também estejam sob a tutela de outras leis especiais.

1.2. Para atender ao princípio da proteção integral consagrado no direito infantojuvenil, é dever do provedor de aplicação na rede mundial de computadores (Internet) proceder à retirada de conteúdo envolvendo menor de idade – relacionado à acusação de que seu genitor havia praticado crimes de natureza sexual – logo após ser formalmente comunicado da publicação ofensiva, independentemente de ordem judicial.

2. O provedor de aplicação que, após notificado, nega-se a excluir publicação ofensiva envolvendo menor de idade, deve ser responsabilizado civilmente, cabendo impor-lhe o pagamento de indenização pelos danos morais causados à vítima da ofensa.

2.1. A responsabilidade civil, em tal circunstância, deve ser analisada sob o enfoque da relevante omissão de sua conduta, pois deixou de adotar providências que, indubitavelmente sob seu alcance, minimizariam os efeitos do ato danoso praticado por terceiro, o que era seu dever.

2.2. Nesses termos, afigura-se insuficiente a aplicação isolada do art. 19 da Lei Federal n. 12.965/2014, o qual, interpretado à luz do art. 5º, X, da Constituição Federal, não impede a responsabilização do provedor de serviços por outras formas de atos ilícitos, que não se limitam ao descumprimento da ordem judicial a que se refere o dispositivo da lei especial.

3. Recurso especial a que se nega provimento.” (grifos nossos)

Como se pode observar, o caso concreto dizia respeito à omissão deliberada da plataforma que, mesmo tendo sido notificada formalmente quanto ao conteúdo ilícito, manteve-se omissa e nada fez para retirar o conteúdo e mitigar o dano.

Diante de tal situação, o voto do relator, ministro Antonio Carlos Ferreira, considerou relevante a omissão da plataforma, uma vez que a vinculação do referido conteúdo estava “em total desacordo com a proteção conferida pelo Estatuto da Criança e do Adolescente”, o qual “compele toda a sociedade — no que se incluem as pessoas jurídicas e seus responsáveis — a velar pela dignidade do menor, pondo-o a salvo de exposição vexatória ou constrangedora”. Para o relator, o ECA ainda estaria em consonância com o art. 227 da Constituição Federal, que consagra o princípio da prioridade absoluta da criança e do adolescente.

Ponto fundamental do raciocínio do relator foi a de que a interpretação do art. 19 do Marco Civil, longe de ser isolada, precisa ocorrer em conformidade com as demais normas do ordenamento jurídico e sempre à luz da Constituição. Acresce que, ainda que houvesse antinomia entre as normas, deveria prevalecer o ECA, razão pela qual não se poderia subordinar a responsabilidade da plataforma à prévia ordem judicial.

Verdade seja dita que o julgamento não foi unânime, tendo o ministro Marco Buzzi restado vencido. Entretanto, tanto o ministro Raul Araújo como a ministra Isabel Gallotti acompanharam o relator.

De forma geral, o julgamento ora sob exame é muito importante no que diz respeito à necessidade de proteção das crianças, que estão sujeitas à crescente exposição no meio digital e aos riscos daí decorrentes. Como já tive oportunidade de destacar em parecer oferecido diante de consulta do Instituto Alana[2], não faz nenhum sentido que o art. 19 do Marco Civil possa se sobrepor ao princípio do melhor interesse da criança, até diante da estatura constitucional deste, e das normas protetivas previstas no ECA.

Além dos fundamentos deduzidos no referido julgamento do STJ, o parecer mencionado, cujo texto é público, ainda trata de outro ponto que considero fundamental para o debate. Na época do Marco Civil, acreditava-se que as plataformas eram neutras em relação a conteúdos de terceiros, o que justificaria a sua ausência de responsabilidade, salvo diante de ordem judicial.

Entretanto, já faz algum tempo que se sabe que tal postura de neutralidade é fantasiosa, pois as plataformas selecionam, filtram, ordenam e escolhem os conteúdos que cada usuário irá receber e ganham muito dinheiro com isso. Exercem, portanto, um considerável controle de conteúdo, que vai muito além da sua parte mais visível — a chamada moderação ex post — e envolve um intrincado e obscuro conjunto de medidas adotadas ex ante para decidir que conteúdo cada usuário vai receber.

Ora, a partir do momento em que se sabe que as plataformas exercem significativo controle sobre o fluxo informacional, não há razão para não se exigir delas os correspondentes deveres de cuidado, mesmo em relação a adultos. Afinal, o dever geral de cuidado decorre da própria relação de consumo, pautada na boa-fé objetiva e nas diversas outras normas do Código de Defesa do Consumidor.

Dessa maneira, abre-se a discussão sobre a possibilidade de responsabilizar as plataformas não só quando deixam de agir diante de notificações de usuários, mas também em outras situações nas quais fique claro que teriam o dever de agir. Para tal constatação, é fundamental ter em mente que muitas vezes tais agentes adotam arquiteturas ou modelos de monetização que viabilizam, facilitam ou mesmo estimulam as práticas ilícitas ou a sua disseminação.

Daí por que o referido precedente do STJ tem importância que transcende aos casos de crianças e adolescentes. Na verdade, propõe uma nova forma de se ver o problema, pois a simples conclusão de que o art. 19 do Marco Civil não pode ser interpretado de forma isolada já possibilita uma série de reflexões a partir do necessário diálogo com outras normas que, para além do ECA, também se aplicam às relações entre plataformas e usuários, como é o caso do CDC.

Sob essa perspectiva, o acórdão do STJ pode ser visto como um exemplo de aplicação prática de princípio muito caro para a regulação jurídica: o que exige o equilíbrio entre poder e responsabilidade, razão pela qual a responsabilidade das plataformas deve ser proporcional ao poder que têm sobre o fluxo informacional.

Apenas para se ter noção do alcance desta reflexão, basta lembrar que estamos prestes a enfrentar uma das eleições mais críticas da nossa história, sendo reconhecido que os riscos da desinformação e das fake news não serão minimamente contidos se as plataformas não exercerem adequadamente o seu respectivo dever de cuidado.

Dessa maneira, para além da proteção das crianças e dos consumidores, a questão que daí decorre é: o art. 19 do Marco Civil realmente dá conta sozinho da responsabilidade das plataformas quando o bem sob risco é a própria democracia? Qual é o dever de cuidado que delas se espera em situações assim, a partir de uma leitura conjunta e global do ordenamento jurídico à luz da Constituição?

Ou respondemos essas perguntas de modo urgente e adequado ou o cenário que se anuncia pode ser bastante sombrio.

[1] REsp 1783269/MG, Rel. Ministro ANTONIO CARLOS FERREIRA, QUARTA TURMA, julgado em 14/12/2021, DJe 18/02/2022.

[2] FRAZÃO, Ana, Dever geral de cuidado das plataformas diante de crianças e adolescentes. https://criancaeconsumo.org.br/biblioteca/dever-geral-de-cuidado-das-plataformas-diante-de-criancas-e-adolescentes/.