Em 2018, dediquei uma das minhas colunas para refletir sobre decisão do DPDC que condenara a empresa Decolar por geopricing e geoblocking[1]. Naquela oportunidade, apontei que o ponto crucial da discussão é saber se esse tipo de discriminação, para além de eventual racionalidade econômica por parte das empresas, seria compatível com o ordenamento jurídico.
Com efeito, a discriminação de preços não é, por si só, ilícita, havendo vários casos em que, mesmo do ponto de vista antitruste, seria possível imaginar a sua licitude, especialmente quando fundada em critérios objetivos e racionalmente justificáveis tanto sob a ótica econômica como jurídica.
O problema apontado pelo DPDC no caso do geopricing e do geoblocking é que o critério da localização, ainda que objetivo, não foi considerado adequado para justificar a discriminação. Isso mostra que um dos pontos sensíveis do tema é precisamente a escolha do discrímen.
Mais do que isso, é necessária igualmente a análise da relação entre meios e fins, pois a discriminação não apenas precisa ser justificável, do ponto de vista da finalidade, como o critério escolhido deve ser adequado e congruente diante dos fins legítimos apresentados.
Por essa razão, a análise da licitude da prática ora sob exame envolve diversos desafios, a começar pela própria possibilidade da discriminação personalizada em si. Afinal, o Código de Defesa do Consumidor prevê, em seu art. 6º, II, o direito básico à igualdade nas contratações, considerando como práticas vedadas, em seu art. 39, dentre outras, recusar atendimento às demandas dos consumidores, na exata medida de suas disponibilidades de estoque, e, ainda, de conformidade com os usos e costumes (inc. II); prevalecer-se da fraqueza ou ignorância do consumidor, tendo em vista sua idade, saúde, conhecimento ou condição social, para impingir-lhe seus produtos ou serviços (inc. IV); exigir do consumidor vantagem manifestamente excessiva (inc. V); e elevar sem justa causa o preço de produtos ou serviços (inc X).
Verdade seja dita que há vários mercados em que a precificação individualizada decorre da necessidade de cálculo de risco, de que são exemplos os contratos de seguro e de crédito. Assim, considera-se legítima a discriminação personalizada, desde que não seja indevida ou abusiva.
Entretanto, nos mercados de aquisição de produtos e serviços em geral, a situação é bastante diferente, pois o funcionamento deles não depende do cálculo individualizado de risco. Dessa maneira, nesses mercados é bastante questionável se está presente a justa causa mencionada pelo CDC como pressuposto para a elevação do preço de produtos ou serviços, ainda mais quando a diferenciação é feita por critérios que, longe de serem objetivos e impessoais, podem ser bastante subjetivos e personalizados.
O problema torna-se ainda mais grave quando se verifica que a precificação personalizada tem sido implementada por sistemas algorítmicos cada vez mais sofisticados, os quais se inserem no contexto de uma economia movida a dados estruturada na extração maciça de dados dos usuários, muitas vezes sem o seu consentimento ou sem nem mesmo a sua ciência.
Logo, há todo um leque de incentivos para que a discriminação ocorra com base em dados sensíveis indevidamente extraídos dos consumidores – como estados de depressão, ansiedade, compulsão por compras, vícios etc. – ou deles obtidos por inferências sub-reptícias, muitas das quais revelam não apenas dados sensíveis, mas sobretudo grandes fragilidades e vulnerabilidades dos usuários.
Soma-se a isso vários outros problemas dos sistemas algorítmicos:
a completa opacidade, o que impossibilita um controle efetivo sobre a própria existência da discriminação, seus supostos fins e a adequação e congruência dos critérios utilizados diante dos fins legítimos pretendidos;
as dificuldades – ou mesmo a impossibilidade – de explicação de decisões algorítmicas[2], o que aumenta a margem para a ocorrência de abusos e discriminações abusivas ou incorretas;
a assimetria informacional, o que faz com que agentes econômicos, a depender do caso, ajam em uma perspectiva de certeza diante dos consumidores, podendo facilmente se antecipar aos movimentos e reações destes últimos ou manipulá-los em larga extensão[3].
Assim, se já havia vários argumentos que poderiam apontar para a ilicitude da precificação personalizada como regra, o mundo digital potencializa várias dessas preocupações.
Não obstante todas essas dificuldades, o debate recente tem colocado em discussão alguns argumentos favoráveis à precificação personalizada, desde que estejam presentes alguns pressupostos que assegurariam a soberania do consumidor, tais como a existência de mercados competitivos, de ampla informação e de consentimento qualificado por parte do consumidor.
Todavia, como já tive oportunidade de abordar em colunas anteriores, além de muitos mercados estarem cada vez mais concentrados – o que afasta, em muitos casos, a possibilidade de o consumidor insatisfeito desviar sua demanda para outro ofertante do produto ou serviço –, é cada vez mais difícil se falar em soberania do consumidor[4].
Com efeito, o mundo digital agrava vários problemas decorrentes das limitações de racionalidade dos consumidores e da assimetria informacional, induzindo o consumidor para escolhas que podem prejudicá-lo. Daí os riscos das dark patterns e das diversas formas de manipulação.
Ademais, diante da opacidade dos sistemas algorítmicos e da própria dificuldade para encontrar explicações racionais de suas decisões, é cada vez mais difícil supor que o consumidor poderá efetivamente compreender a extensão do seu consentimento quando se refere à utilização dos seus dados pessoais.
Daí porque há boas razões para concluir que os incentivos para a extração indevida de vantagens do consumidor podem ser bem maiores do que os incentivos existentes para se aproveitar da precificação personalizada como um instrumento de expansão de oferta – cobrando mais de quem pode pagar mais para cobrar menos de quem pode cobrar menos – ou mesmo de subsídios cruzados. Aliás, do ponto de vista da discriminação ilícita, há vários estudos que mostram que os mais vulneráveis socialmente, como os pobres e os negros, são os que mais podem sofrer os efeitos da discriminação algorítmica[5].
Quando o agente que pratica a precificação individualizada ainda é titular de posição dominante, a questão torna-se ainda mais grave. Se hoje há evidências empíricas de que o aumento de concentração nos mercados está levando a uma apropriação indevida do excedente do consumidor[6], com maior razão haverá incentivos para que isso ocorra diante das características do meio digital.
Outro ponto que precisa ser destacado é que, em muitos casos, a precificação personalizada decorrerá não propriamente da maior eficiência do agente econômico, mas sim da exploração indevida de um ativo – os dados pessoais – que é de titularidade dos consumidores e que, em muitos casos, passa a ser utilizado contra eles.
Não é sem razão que Acemoglu[7] mostra que sistemas de inteligência artificial, ao possibilitarem que agentes saibam mais dos seus consumidores do que eles próprios, abrem as portas para a manipulação comportamental, que tem como efeito mais do que simplesmente transferir excedentes dos consumidores para os agentes econômicos, uma vez que acabam distorcendo a própria composição do consumo, criando novas ineficiências.
Além da dimensão econômica, ainda é preciso considerar em que medida a precificação individualizada é compatível com os princípios da LGPD, notadamente os da finalidade, da transparência e da não discriminação. Aliás, é significativo que a recente regulação de inteligência artificial pela China cria fortes restrições para criação de modelos de classificação de usuários, assim como veda tratamento diferenciado em práticas comerciais, obviamente incluindo aí a precificação, especialmente quando este é baseado em perfis de hábitos e tendências dos consumidores[8].
Por essas razões, é preciso analisar a questão da precificação personalizada com maior atenção, inclusive para verificar se muitas das opiniões favoráveis não estão se baseando em premissas cada vez mais descoladas da realidade, não estão ignorando os riscos reais desse tipo de prática, especialmente no mundo digital e no contexto de sistemas algorítmicos de precificação, e não estão desconsiderando que eventuais eficiências econômicas daí decorrentes não podem se dar ao preço da violação dos direitos dos consumidores e dos titulares de dados pessoais.
[1] FRAZÃO, Ana. Geopricing e geoblocking: as novas formas de discriminação de consumidores. Os desafios para o seu enfrentamento. Jota. https://www.jota.info/opiniao-e-analise/colunas/constituicao-empresa-e-mercado/geopricing-e-geoblocking-as-novas-formas-de-discriminacao-de-consumidores-15082018
[2] FRAZÃO, Ana. Decisões algorítmicas e direito à explicação. Jota. https://www.jota.info/opiniao-e-analise/colunas/constituicao-empresa-e-mercado/decisoes-algoritmicas-e-direito-a-explicacao-24112021
[3] FRAZÃO, Ana. Liberdade de contratar e alocação de riscos. Jota. https://www.jota.info/opiniao-e-analise/colunas/constituicao-empresa-e-mercado/liberdade-de-contratar-e-alocacao-de-riscos-10062020
[4] FRAZÃO, Ana. O mito da soberania do consumidor. Jota. https://www.jota.info/opiniao-e-analise/colunas/constituicao-empresa-e-mercado/o-mito-da-soberania-do-consumidor-01122021; FRAZÃO, Ana, A falácia da soberania o consumidor. Economia digital pode tornar o consumidor ainda mais vulnerável. Jota. https://www.jota.info/opiniao-e-analise/colunas/constituicao-empresa-e-mercado/falacia-soberania-do-consumidor-08122021
[5] O´NEIL, Cathy. Weapons of math destruction. How big data increases inequality and threatens democracy. EUA: Crown, 2016. FRAZÃO, Ana. Discriminação Algorítmica. Série. Jota. https://www.jota.info/opiniao-e-analise/colunas/constituicao-empresa-e-mercado/discriminacao-algoritmica-16062021
[6] PHILIPPON, Thomas. The Great Reversal. How America gave up on free markets. Cambridge: The Belknap Press of Harvard University, 2019.
[7] ACEMOGLU, Daron. Harms of AI, . https://www.nber.org/papers/w29247, p. 18.
[8] Ver LEMOS, Ronaldo. China cria primeira regulação para algoritmos. Cryptoid. https://cryptoid.com.br/protecao-de-dados/china-cria-a-primeira-regulacao-para-algoritmos/