No último dia 18 de fevereiro de 2022, foi publicado importante acórdão do Superior Tribunal de Justiça (STJ) que trata da questão da responsabilidade civil de provedores de aplicação — no caso, o Facebook — por conteúdos ilícitos de terceiros. A discussão referia-se ao fato de que, mesmo sendo notificada pelas vítimas — o pai em nome próprio e em nome do seu filho menor — a plataforma recusou-se a excluir a publicação ilícita — foto do pai com o seu filho menor acompanhada de acusação falsa de pedofilia — sob o fundamento de que ela não seria contrária aos seus termos de uso.
Inconformados, pai e filho ingressaram com ação de obrigação de fazer cumulada com perdas e danos que, ao ser apreciada pelo STJ, foi julgada procedente, sob o fundamento de que o art. 19, do Marco Civil da Internet — ao prever a necessidade de ordem judicial que determine a exclusão de conteúdos de terceiros como pressuposto da responsabilidade dos provedores de aplicação — não pode ser interpretado de forma isolada e em desconsideração às demais normas incidentes sobre esse tipo de situação.
Vale ressaltar a ementa do julgado ora sob exame[1], que bem sintetiza suas razões de decidir:
“DIREITO CIVIL, INFANTO JUVENIL E TELEMÁTICO. PROVEDOR DE APLICAÇÃO. REDE SOCIAL. DANOS MORAIS E À IMAGEM. PUBLICAÇÃO OFENSIVA. CONTEÚDO ENVOLVENDO MENOR DE IDADE. RETIRADA. ORDEM JUDICIAL. DESNECESSIDADE. PROTEÇÃO INTEGRAL. DEVER DE TODA A SOCIEDADE. OMISSÃO RELEVANTE. RESPONSABILIDADE CIVIL CONFIGURADA.
1. O Estatuto da Criança e do Adolescente (art. 18) e a Constituição Federal (art. 227) impõem, como dever de toda a sociedade, zelar pela dignidade da criança e do adolescente, colocando-os a salvo de toda forma de negligência, discriminação, exploração, violência, crueldade e opressão, com a finalidade, inclusive, de evitar qualquer tipo de tratamento vexatório ou constrangedor.
1.1. As leis protetivas do direito da infância e da adolescência possuem natureza especialíssima, pertencendo à categoria de diploma legal que se propaga por todas as demais normas, com a função de proteger sujeitos específicos, ainda que também estejam sob a tutela de outras leis especiais.
1.2. Para atender ao princípio da proteção integral consagrado no direito infantojuvenil, é dever do provedor de aplicação na rede mundial de computadores (Internet) proceder à retirada de conteúdo envolvendo menor de idade – relacionado à acusação de que seu genitor havia praticado crimes de natureza sexual – logo após ser formalmente comunicado da publicação ofensiva, independentemente de ordem judicial.
2. O provedor de aplicação que, após notificado, nega-se a excluir publicação ofensiva envolvendo menor de idade, deve ser responsabilizado civilmente, cabendo impor-lhe o pagamento de indenização pelos danos morais causados à vítima da ofensa.
2.1. A responsabilidade civil, em tal circunstância, deve ser analisada sob o enfoque da relevante omissão de sua conduta, pois deixou de adotar providências que, indubitavelmente sob seu alcance, minimizariam os efeitos do ato danoso praticado por terceiro, o que era seu dever.
2.2. Nesses termos, afigura-se insuficiente a aplicação isolada do art. 19 da Lei Federal n. 12.965/2014, o qual, interpretado à luz do art. 5º, X, da Constituição Federal, não impede a responsabilização do provedor de serviços por outras formas de atos ilícitos, que não se limitam ao descumprimento da ordem judicial a que se refere o dispositivo da lei especial.
3. Recurso especial a que se nega provimento.” (grifos nossos)
Como se pode observar, o caso concreto dizia respeito à omissão deliberada da plataforma que, mesmo tendo sido notificada formalmente quanto ao conteúdo ilícito, manteve-se omissa e nada fez para retirar o conteúdo e mitigar o dano.
Diante de tal situação, o voto do relator, ministro Antonio Carlos Ferreira, considerou relevante a omissão da plataforma, uma vez que a vinculação do referido conteúdo estava “em total desacordo com a proteção conferida pelo Estatuto da Criança e do Adolescente”, o qual “compele toda a sociedade — no que se incluem as pessoas jurídicas e seus responsáveis — a velar pela dignidade do menor, pondo-o a salvo de exposição vexatória ou constrangedora”. Para o relator, o ECA ainda estaria em consonância com o art. 227 da Constituição Federal, que consagra o princípio da prioridade absoluta da criança e do adolescente.
Ponto fundamental do raciocínio do relator foi a de que a interpretação do art. 19 do Marco Civil, longe de ser isolada, precisa ocorrer em conformidade com as demais normas do ordenamento jurídico e sempre à luz da Constituição. Acresce que, ainda que houvesse antinomia entre as normas, deveria prevalecer o ECA, razão pela qual não se poderia subordinar a responsabilidade da plataforma à prévia ordem judicial.
Verdade seja dita que o julgamento não foi unânime, tendo o ministro Marco Buzzi restado vencido. Entretanto, tanto o ministro Raul Araújo como a ministra Isabel Gallotti acompanharam o relator.
De forma geral, o julgamento ora sob exame é muito importante no que diz respeito à necessidade de proteção das crianças, que estão sujeitas à crescente exposição no meio digital e aos riscos daí decorrentes. Como já tive oportunidade de destacar em parecer oferecido diante de consulta do Instituto Alana[2], não faz nenhum sentido que o art. 19 do Marco Civil possa se sobrepor ao princípio do melhor interesse da criança, até diante da estatura constitucional deste, e das normas protetivas previstas no ECA.
Além dos fundamentos deduzidos no referido julgamento do STJ, o parecer mencionado, cujo texto é público, ainda trata de outro ponto que considero fundamental para o debate. Na época do Marco Civil, acreditava-se que as plataformas eram neutras em relação a conteúdos de terceiros, o que justificaria a sua ausência de responsabilidade, salvo diante de ordem judicial.
Entretanto, já faz algum tempo que se sabe que tal postura de neutralidade é fantasiosa, pois as plataformas selecionam, filtram, ordenam e escolhem os conteúdos que cada usuário irá receber e ganham muito dinheiro com isso. Exercem, portanto, um considerável controle de conteúdo, que vai muito além da sua parte mais visível — a chamada moderação ex post — e envolve um intrincado e obscuro conjunto de medidas adotadas ex ante para decidir que conteúdo cada usuário vai receber.
Ora, a partir do momento em que se sabe que as plataformas exercem significativo controle sobre o fluxo informacional, não há razão para não se exigir delas os correspondentes deveres de cuidado, mesmo em relação a adultos. Afinal, o dever geral de cuidado decorre da própria relação de consumo, pautada na boa-fé objetiva e nas diversas outras normas do Código de Defesa do Consumidor.
Dessa maneira, abre-se a discussão sobre a possibilidade de responsabilizar as plataformas não só quando deixam de agir diante de notificações de usuários, mas também em outras situações nas quais fique claro que teriam o dever de agir. Para tal constatação, é fundamental ter em mente que muitas vezes tais agentes adotam arquiteturas ou modelos de monetização que viabilizam, facilitam ou mesmo estimulam as práticas ilícitas ou a sua disseminação.
Daí por que o referido precedente do STJ tem importância que transcende aos casos de crianças e adolescentes. Na verdade, propõe uma nova forma de se ver o problema, pois a simples conclusão de que o art. 19 do Marco Civil não pode ser interpretado de forma isolada já possibilita uma série de reflexões a partir do necessário diálogo com outras normas que, para além do ECA, também se aplicam às relações entre plataformas e usuários, como é o caso do CDC.
Sob essa perspectiva, o acórdão do STJ pode ser visto como um exemplo de aplicação prática de princípio muito caro para a regulação jurídica: o que exige o equilíbrio entre poder e responsabilidade, razão pela qual a responsabilidade das plataformas deve ser proporcional ao poder que têm sobre o fluxo informacional.
Apenas para se ter noção do alcance desta reflexão, basta lembrar que estamos prestes a enfrentar uma das eleições mais críticas da nossa história, sendo reconhecido que os riscos da desinformação e das fake news não serão minimamente contidos se as plataformas não exercerem adequadamente o seu respectivo dever de cuidado.
Dessa maneira, para além da proteção das crianças e dos consumidores, a questão que daí decorre é: o art. 19 do Marco Civil realmente dá conta sozinho da responsabilidade das plataformas quando o bem sob risco é a própria democracia? Qual é o dever de cuidado que delas se espera em situações assim, a partir de uma leitura conjunta e global do ordenamento jurídico à luz da Constituição?
Ou respondemos essas perguntas de modo urgente e adequado ou o cenário que se anuncia pode ser bastante sombrio.
[1] REsp 1783269/MG, Rel. Ministro ANTONIO CARLOS FERREIRA, QUARTA TURMA, julgado em 14/12/2021, DJe 18/02/2022.
[2] FRAZÃO, Ana, Dever geral de cuidado das plataformas diante de crianças e adolescentes. https://criancaeconsumo.org.br/biblioteca/dever-geral-de-cuidado-das-plataformas-diante-de-criancas-e-adolescentes/.