Secciones
Referencias
Resumen
Servicios
Buscar
Fuente


REGULAÇÃO DA INTELIGÊNCIA ARTIFICIAL NO ÂMBITO DA CONCORRÊNCIA: UMA MANEIRA DE PROMOVER OU INIBIR A INOVAÇÃO?
ARTIFICIAL INTELLIGENCE REGULATION IN THE CONTEXT OF COMPETITION: A WAY TO PROMOTE OR INHIBIT INNOVATION?
REGULACIÓN DE LA INTELIGENCIA ARTIFICIAL EN EL ÁMBITO DE LA COMPETENCIA: ¿UNA MANERA DE PROMOVER O INHIBIR LA INNOVACIÓN?
Revista Opinião Jurídica, vol. 22, núm. 40, pp. 162-180, 2024
Centro Universitário Christus

Artigo


Recepción: 26 Agosto 2024

Aprobación: 15 Octubre 2024

DOI: https://doi.org/10.12662/2447-6641oj.v22i40.p162-180.2024

RESUMO

Objetivo: Este artigo tem como objetivo analisar a potencial regulação da inteligência artificial (IA) no contexto do direito da concorrência, especificamente no campo do antitruste, no Brasil. A pesquisa busca avaliar se uma futura regulação da IA tende a promover ou inibir a inovação, considerando o papel da União Europeia (UE), que se tem destacado nesse debate global, especialmente com a aprovação do “AI Act” pelo Parlamento Europeu.

Metodologia: A análise foi conduzida por meio do método indutivo, com base em uma revisão documental e bibliográfica. O estudo abrangeu relatórios, artigos acadêmicos e projetos de Lei sobre IA no contexto brasileiro.

Resultados: Os resultados indicam a necessidade de uma regulação da IA que esteja em conformidade com os princípios do direito da concorrência. O artigo sugere que essa regulação deve estabelecer diretrizes claras sobre o uso de sistemas de IA, bem como definir os deveres e as obrigações dos atores envolvidos. Ao promover um equilíbrio entre inovação tecnológica e segurança jurídica, a regulação pode incentivar o avanço tecnológico sem comprometer os direitos fundamentais e o combate eficaz às práticas anticompetitivas.

Contribuições: O estudo contribui para o debate sobre a regulação da IA no âmbito do antitruste, destacando a importância de uma abordagem regulatória que harmonize inovação e concorrência leal. A pesquisa sugere que uma regulação adequada pode não apenas promover a inovação, mas também garantir a proteção da concorrência no mercado digital.

Palavras-chave: Inteligência artificial, regulação, antitruste, inovação.

ABSTRACT

Objective: This article aims to analyze the potential regulation of artificial intelligence (AI) within the context of competition law, specifically in the field of antitrust in Brazil. The research seeks to assess whether future AI regulation tends to promote or inhibit innovation, considering the role of the European Union (EU), which has stood out in this global debate, especially with the approval of the “AI Act” by the European Parliament.

Methodology: The analysis was conducted using the inductive method, based on a documentary and bibliographic review. The study covered reports, academic articles, and AI law proposals within the Brazilian context.

Results: The results indicate the need for AI regulation that aligns with the principles of competition law. The article suggests that such regulation should establish clear guidelines on the use of AI systems, as well as define the duties and obligations of the actors involved. By promoting a balance between technological innovation and legal certainty, regulation can encourage technological advancement without compromising fundamental rights and the effective fight against anticompetitive practices.

Contributions: The study contributes to the debate on AI regulation in the antitrust field, highlighting the importance of a regulatory approach that harmonizes innovation and fair competition. The research suggests that appropriate regulation can not only promote innovation but also ensure the protection of competition in the digital market.

Keywords: Artificial intelligence, regulation, antitrust, innovation.

RESUMEN

Objetivo: Este artículo tiene como objetivo analizar la posible regulación de la inteligencia artificial (IA) en el contexto del derecho de la competencia, específicamente en el campo del derecho antimonopolio en Brasil. La investigación busca evaluar si una futura regulación de la IA tiende a promover o inhibir la innovación, considerando el papel de la Unión Europea (UE), que se ha destacado en este debate global, especialmente con la aprobación del "AI Act" por parte del Parlamento Europeo.

Metodología: El análisis se realizó mediante el método inductivo, basado en una revisión documental y bibliográfica. El estudio abarcó informes, artículos académicos y proyectos de ley sobre IA en el contexto brasileño.

Resultados: Los resultados indican la necesidad de una regulación de la IA que esté en conformidad con los principios del derecho de la competencia. El artículo sugiere que dicha regulación debe establecer directrices claras sobre el uso de los sistemas de IA, así como definir los deberes y obligaciones de los actores involucrados. Al promover un equilibrio entre la innovación tecnológica y la seguridad jurídica, la regulación puede incentivar el avance tecnológico sin comprometer los derechos fundamentales ni la lucha efectiva contra las prácticas anticompetitivas.

Contribuciones: El estudio contribuye al debate sobre la regulación de la IA en el ámbito del derecho antimonopolio, destacando la importancia de un enfoque regulatorio que armonice la innovación con la competencia leal. La investigación sugiere que una regulación adecuada puede no solo promover la innovación, sino también garantizar la protección de la competencia en el mercado digital.

Palabras clave: Inteligencia artificial, regulación, derecho antimonopolio, innovación.

1 INTRODUÇÃO

Nos últimos anos, os sistemas de Inteligência Artificial (IA) têm se desenvolvido rapidamente e se estabelecido como uma das inovações mais promissoras e, ao mesmo tempo, desafiadoras do mundo contemporâneo. A IA, ramo da ciência da computação que utiliza algoritmos para simular a capacidade humana de reconhecer problemas, analisar dados e tomar decisões, tem desempenhado um papel de grande relevância e chamado a atenção da comunidade científica (Wimmer, 2019) e da sociedade como um todo.

No entanto, a despeito do potencial positivo, o avanço acelerado da IA tem suscitado preocupações em diversas áreas, incluindo a concorrência comercial, haja vista que a capacidade da IA de coletar, processar, armazenar e analisar grandes volumes de dados pode favorecer as empresas dominantes no mercado e dificultar, ainda mais, a entrada de novos concorrentes (Athayde; Guimarães, 2019) que, em regra, não dispõem dos mesmos recursos para elevados investimentos em tecnologia.

Com o avanço da tecnologia e a crescente necessidade de se estabelecer limites à concorrência no mercado digital, a União Europeia (UE), ocupante de uma posição de pioneirismo e protagonismo nesse debate, já conta com um robusto pacote de regulamentação, e, no dia 13 de março deste ano, o Parlamento Europeu decidiu, por maioria de votos, aprovar o projeto do AI Act (regulamento da União Europeia o qual estabelece regras em matéria de inteligência artificial) que, cumpre ressaltar, contempla, em sua redação, um equilíbrio entre a proteção de direitos fundamentais e a promoção da inovação e já tem contribuído, mesmo antes de ser aprovado, para o fortalecimento e amadurecimento desse tema no Brasil.

É importante ressaltar que, embora esse debate da IA se desdobre em diversas dimensões, o foco deste artigo será limitado ao contexto do direito concorrencial com o objetivo de verificar, ainda que preliminarmente, se essa regulação tenderá a promover ou a inibir a inovação.

Para tanto, serão explorados alguns desafios acerca do avanço da Inteligência Artificial, de modo a verificar quais as perspectivas para uma regulação brasileira de IA adequada e se há a necessidade de se buscar uma atualização da legislação antitruste, haja vista que o direito da concorrência tradicional que pune os cartéis ou os abusos de posição dominante já não tem sido suficiente para regular, com eficácia, o mercado digital e, com o avanço da IA, esse desafio tem se agravado (Reis, 2023) cada vez mais.

A partir da compreensão de como essas mudanças têm impactado o mercado, as estruturas de poder e os próprios direitos e as garantias constitucionais da sociedade, será realizada uma breve análise a respeito da viabilidade dessa regulação como uma ferramenta eficaz ou não para coibir práticas anticompetitivas no mercado digital, sem que isso promova um desestímulo à inovação.

2 O PAPEL FUNDAMENTAL DO ANTITRUSTE E OS NOVOS DESAFIOS

Inicialmente, cumpre esclarecer que o papel fundamental do antitruste é evitar abusos do poder econômico e garantir que as empresas atuem em um ambiente de livre concorrência, protegido de práticas anticompetitivas, causadas por qualquer mecanismo. Nesse sentido, a legislação e as políticas correspondentes têm como objetivo proteger e, ao mesmo tempo, fortalecer a dinâmica competitiva, que supõe ser o mecanismo mais efetivo para promover a eficiência na produção, impulsionar a inovação tecnológica e estimular a criação de novos produtos (Farina, 1994). Na prática, o direito da concorrência visa a combater a formação de monopólios que possam prejudicar essa dinâmica e, consequentemente, afetar negativamente os interesses dos indivíduos (concorrentes e/ou consumidores).

Nesse cenário, com o avanço constante e acelerado da IA, novos desafios e novas questões complexas têm sido colocados no campo do antitruste que, quando criado, não estava sequer inserido em uma conjuntura contexto digital. O ambiente virtual, a aplicação de algoritmos e sistemas de IA introduziram novos elementos que têm demandado uma análise cuidadosa para garantir que essa inovação inserida nas práticas comerciais não agrave ainda mais as situações de violações legais às políticas antitrustes.

No contexto operacional, a aplicação de algoritmos e sistemas de IA oferece às empresas a capacidade de processar grandes volumes de dados, tomar decisões de maneira mais eficiente e influenciar as decisões dos próprios consumidores (usuários). Essas práticas trazem consideráveis benefícios em termos de eficiência e análise avançada, mas também suscitam preocupações em relação a possíveis comportamentos anticompetitivos, pois a capacidade dos algoritmos de processar informações complexas rapidamente pode levar a ações colusivas e, consequentemente, prejudicar a concorrência saudável no mercado (Athayde; Guimarães, 2019).

A utilização de algoritmos para fixação de preços de forma coordenada entre empresas concorrentes, por exemplo, é uma conduta que pode resultar em acordos implícitos de complexa detecção e agravar a formação de cartéis (Athayde; Guimarães, 2019).

Nesse sentido, Ezrachi e Stucke (2017) reconhecem a possibilidade de que ocorra um “conluio algorítmico tácito”, na medida em que as informações da concorrência no mercado digital passam a ser coletadas nos próprios sistemas de IA, o que possivelmente causará uma estabilização de preços não negociada expressamente entre os agentes que tende a prejudicar a concorrência e acarretar desvantagens ao consumidor.

Para esses autores, a detecção dessa situação requer a presença de três fatores específicos. Primeiramente, é necessário que o mercado seja concentrado e os produtos exibam homogeneidade, de modo a facilitar a identificação de padrões pelos sistemas. Em segundo lugar, é preciso que exista um mecanismo confiável de reação aos descontos dos concorrentes, com o objetivo de diminuição de seus lucros. Por fim, defendem que é crucial que a influência externa no mercado seja reduzida, as barreiras de entrada sejam elevadas e os agentes externos sejam impedidos de modificarem as condições de preço. Presentes esses fatores, possivelmente a competição será reduzida em razão de uma estabilização tácita dos preços (Ezrachi; Stucke, 2017).

Uma outra prática passível de ser considerada como anticompetitiva é a utilização de algoritmos de recomendação personalizada que resulta em comportamentos discriminatórios ou favorecimento de determinados produtos ou serviços em detrimento de outros. Com isso, limitam-se as escolhas dos consumidores e restringem ainda mais a concorrência (Athayde; Guimarães, 2019).

Com o avanço da IA, é possível, ainda, que robôs sejam capazes de superar humanos na obtenção de preços supracompetitivos, sem necessidade de comunicação direta e, com maior probabilidade, causar danos aos consumidores (Athayde; Guimarães, 2019), ou seja, é possível supor, de imediato, que sem um arcabouço legal sólido e efetivo que regule a IA no âmbito do antitruste, ocorra uma multiplicidade de práticas anticompetitivas a curto prazo tendente a gerar danos de difícil reparação.

Outro desafio para as autoridades antitruste, como já antecipado, é a própria detecção dessas práticas anticompetitivas por meio da utilização de algoritmos, pois podem ser difíceis de serem rastreadas e comprovadas, uma vez que as decisões são tomadas por sistemas automatizados, e não por pessoas. É necessário, portanto, desenvolver novas abordagens e ferramentas capazes de garantir algum nível de detecção desses algoritmos de IA que tendem a causar injustiças, abusos e ilegalidades.

A Organização para Cooperação e Desenvolvimento Econômico (OCDE), em 2017, emitiu um alerta contundente sobre o potencial comportamento anticompetitivo das empresas ao utilizarem algoritmos. Isso se deve à facilidade de alcançar acordos não formais, o que levanta preocupações significativas quanto à necessidade de regulamentação e fiscalização eficazes para mitigar o impacto negativo da colusão algorítmica no mercado.

É importante observar que a própria OCDE reconhece que o uso de algoritmos pode desencadear diversas outras falhas de mercado e afetar substancialmente a seleção e organização da informação em escala global. Portanto, muitos especialistas têm começado a considerar a possibilidade de reformas regulatórias na economia digital, uma vez que a governança desse setor tem sido predominantemente deixada ao mercado.

Contudo, nessa fase, verifica-se que ainda há preocupações de que qualquer intervenção regulatória possa gerar impactos negativos sobre a concorrência, superando seus potenciais benefícios. Portanto, caso sejam consideradas soluções regulatórias, é fundamental que as preocupações em matéria de concorrência sejam um dos elementos prioritários a serem endereçados, e que outros fatores relacionados também sejam cuidadosamente avaliados.

Embora os riscos associados aos algoritmos sejam evidentes, esta é uma área de alta complexidade técnica e incertezas, em que tanto a falta de intervenção quanto o excesso de regulamentação podem acarretar custos significativos e, hoje atualmente, inestimáveis, para a sociedade, especialmente ao ser considerada a celeridade notável pela qual a IA se desenvolve. Dessa forma, quaisquer ações a serem adotadas, em um futuro próximo, deverão ser submetidas a uma avaliação aprofundada e a uma abordagem cautelosa, mesmo diante da urgência imposta por essa acelerada evolução tecnológica.

Nesse contexto desafiador, estudiosos lançam luzes sobre as diversas facetas das práticas anticompetitivas relacionadas a algoritmos. Ezrachi e Stucke (2015) categorizam em quatro tipos distintos as práticas de condutas anticompetitivas com algoritmos.

A primeira, conhecida como "The Messenger," envolve a automação de acordos humanos e é punível pela legislação antitruste atual, uma vez que requer a existência de um acordo formal entre as empresas. Na segunda categoria, chamada "Hub and Spoke," um algoritmo central coordena as ações das empresas, mas a concorrência ainda pode prevalecer, tornando a legislação antitruste eficaz. A terceira categoria, denominada "Predictable Agent," implica que as empresas utilizam algoritmos independentes com resultados previsíveis, mas a dificuldade reside na prova de intenções anticompetitivas, tornando desafiadora a aplicação da legislação antitruste. Por fim, na quarta categoria, "Autonomous Machine," os algoritmos autônomos tomam decisões independentes, apresentando o maior desafio, visto que não envolvem acordos humanos, tornando os conceitos de "acordo" e "intenção" obsoletos.

Além disso, é importante considerar que as práticas de colusão algorítmica podem ser ainda mais desafiadoras para as autoridades antitruste devido à complexidade e ao sigilo, até o momento, que cercam os algoritmos. A dificuldade de detecção e comprovação dessas práticas torna essencial a busca por soluções que garantam a concorrência justa e a proteção dos consumidores, como já sinalizado. Expandir a definição de "acordo" no contexto antitruste e estabelecer regras claras para o acesso a informações sigilosas são medidas que podem contribuir para enfrentar esse desafio crescente.

À medida que a tecnologia evolui, é crucial que as autoridades antitruste estejam preparadas para lidar com as complexidades e os desafios apresentados pela colusão algorítmica, a fim de garantir um ambiente de mercado competitivo e o mais equilibrado possível.

Nesse cenário de indefinições e incertezas, é possível concluir que a utilização da IA, em termos concorrenciais, poderá agravar fragilidades já existentes e criar novas vulnerabilidades. Assim, quais medidas poderão ser adotadas para lidar com essas avassaladoras mudanças no âmbito digital?

3 MEDIDAS DE REGULAÇÃO NO ÂMBITO DIGITAL ADOTADAS PELA UNIÃO EUROPEIA E A POSSÍVEL INFLUÊNCIA NO BRASIL

Com a evolução dessa tecnologia e a demanda por regras que combatam a concorrência desleal no mercado digital, a União Europeia (UE) tem desempenhado um papel de destaque, pois já possui um conjunto abrangente de regulamentação das plataformas digitais.

Desde maio de 2022, entrou em vigor o Digital Markets Act (DMA), regulamento que objetiva combater, previamente, as práticas anticoncorrenciais dos “gigantes da Internet” e corrigir os desequilíbrios e abusos decorrentes desse domínio no mercado digital europeu (Reis, 2023). O Parlamento europeu considerou que o elevado poder de mercado de grandes plataformas no mercado digital, além de enfraquecer a concorrência ao impedir a entrada de novos agentes, permite a execução de práticas comerciais desleais.

Em fevereiro de 2024, entrou em vigor o Digital Service Act (DSA), regulamento que objetiva tanto criar um espaço digital mais seguro, em que direitos fundamentais dos usuários (consumidores) sejam protegidos, quanto auxiliar as pequenas empresas da UE a se desenvolverem (Reis, 2023).

Em 14 de junho de 2023, foi aprovado pelo Parlamento Europeu o primeiro regulamento de Inteligência Artificial do mundo, o denominado “AI Act”. Em 8 de dezembro de 2023, o Parlamento Europeu e o Conselho chegaram a um acordo político sobre esse regulamento e, em 13 de março de 2024, ele foi aprovado por maioria de votos do Parlamento Europeu, mas organizações ainda terão um período de transição variável para implementação das medidas de conformidade exigidas (European..., 2023).

Dentre os motivos expostos no processo de aprovação, foi reconhecido que a utilização da IA pode melhorar previsões, otimizar operações, alocar recursos de forma mais eficiente e personalizar serviços, resultando em benefícios para a sociedade e o meio ambiente, além de proporcionar vantagens competitivas para as empresas e para a economia da Europa. Assim, é possível concluir que o principal objetivo dessa regulação é exigir o uso responsável, equilibrado e ético dos sistemas de IA justamente para garantir a sustentabilidade dos benefícios trazidos por essa inovação (Rivelli; Silveira, 2023).

Dragoș Tudorache, membro do Parlamento Europeu, explica que o "AI Act" visa proteger os cidadãos e, ao mesmo tempo, fomentar a inovação, garantindo que não haja impactos negativos na criatividade e no avanço da inteligência artificial na Europa (Ziady, 2023).

No Brasil, a discussão em torno da regulação das plataformas digitais tem ganhado cada vez mais ênfase. Nesse contexto de incentivo “regulatório” das plataformas digitais, é notória uma atuação inicial do Poder Judiciário, uma vez que as iniciativas do Supremo Tribunal Federal (STF) e Tribunal Superior Eleitoral (TSE) para combater as “fake news” afetou diretamente o progresso do projeto de lei que visa regular essas plataformas em escala nacional (Berardo; Baqueiro; Matos, 2022).

Conforme informações obtidas em divulgação de evento realizado pela Autoridade Nacional de Proteção de Dados (2023), em relação às tentativas de regulação da IA no Brasil, foi proposto, em 2020, na Câmara dos Deputados, o Projeto de Lei nº 21/2020 que se propõe estabelecer o marco legal para o desenvolvimento e uso da IA pelo poder público, pelas empresas, por entidades diversas e pelas pessoas físicas.

Acreditando na influência da UE, as discussões a respeito do tema se intensificaram a partir de 2022, momento em que foi formada, no Senado Federal, uma Comissão de Juristas (CJSUBIA) responsável por subsidiar a elaboração da minuta do substitutivo do Projeto de Lei nº 21/2020 (Brasil, 2020), levando em consideração o conteúdo do referido projeto, bem como dos PLs 5.051/2019 (Brasil, 2019) e 872/2021 (Brasil, 2021).

Com a criação da CJSUBIA, houve um avanço significativo desse debate no Brasil, “pois a partir dela foram realizadas diversas audiências públicas com mais de 50 (cinquenta) especialistas, em formato multissetorial, com a participação de representantes do poder público, setor empresarial, sociedade civil e comunidade científico-acadêmica” (ANPD, 2023, p. 1).

Em maio de 2023, a CJSUBIA concluiu seus trabalhos com a elaboração de um Relatório Final, que continha um anteprojeto de lei, posteriormente transformado no atual PL nº 2.338/2023. De um lado, esse projeto estabelece direitos para proteger as pessoas impactadas pelos sistemas de IA, de outro, define um arranjo institucional de fiscalização e supervisão, cria condições de previsibilidade acerca da sua interpretação e confere segurança jurídica para a inovação e o desenvolvimento tecnológico. Contudo, em que pese o esforço do legislador em conciliar a “inovação” com os direitos e as garantias individuais, o cenário de regulação ou não ainda gera muitas dúvidas e preocupações, sobretudo em razão da falta de transparência existentes e que ainda podem ser provocadas e agravadas por esses sistemas de IA (ANPD, 2023).

A fim de contribuir com o debate público, em julho de 2023, a Autoridade Nacional de Proteção de Dados (ANPD) publicou uma análise preliminar do PL nº 2.338/2023 (ANPD, 2023) e, em linhas gerais, identificou diversos pontos de interação com a Lei Geral de Proteção de Dados (LGPD), em especial, no que diz respeito à tutela de direitos, à classificação de sistemas de IA de alto risco e aos mecanismos de governança.

Além disso, a ANPD demonstrou apoio ao fomento à inovação, incluindo a proposta de criação de ambientes de regulação experimental, conhecidos como "sandboxes regulatórios", desde que sejam concebidos com o propósito de promover a inovação responsável.

Apesar disso, conforme notícia veiculada pelo Senado Federal (Brasil, 2024), o diretor de Relações Governamentais da Associação Brasileira das Empresas de Software (Abes), Marcelo Almeida, criticou o fato de somente 5% do conteúdo deste projeto de lei tratar de inovação e desenvolvimento. Ele defende que o fato de 95% tratar de direitos e obrigações poderá “contribuir para a paralisia do avanço tecnológico”. Miguel Matos, presidente do Conselho de Comunicação Social do Congresso Nacional, favorável à aprovação do projeto, confirma a percepção de que a matéria prioriza a proteção de dados pessoais e os direitos fundamentais.

Conforme consta, ainda, na análise preliminar realizada pela ANPD, o PL nº 2.338/2023 estabelece uma regulação baseada em riscos e uma modelagem regulatória baseada em direitos. Partindo da premissa de que "não há um trade-off entre a proteção de direitos e liberdades fundamentais, a valorização do trabalho e a dignidade da pessoa humana em relação à ordem econômica e à criação de novas cadeias de valor", o projeto busca harmonizar esses elementos, de acordo com a Constituição Federal (Hustinx, 2017 apudANPD, 2023, p. 2; Gellert, 2017 apudANPD, 2023, p. 2).

Essa escolha de política regulatória ao estabelecer uma importante aproximação com a normativa brasileira de proteção de dados pessoais, que também busca compatibilizar a abordagem baseada em direitos (rights-based approach) com a abordagem baseada em risco (risk-based approach), parece estar tomando uma direção acertada (Hustinx, 2017 apudANPD, 2023; Gellert, 2017 apudANPD, 2023).

Nesse contexto, a ANDP conclui que o PL 2.338/2023 proíbe sistemas de IA de risco excessivo, define quais sistemas são considerados de alto risco e estabelece obrigações em relação a esses sistemas, ao mesmo tempo em que prevê direitos para as pessoas naturais afetadas pelo funcionamento desses sistemas. Portanto, representa um importante passo na regulamentação da inteligência artificial no Brasil, pois busca encontrar um equilíbrio entre a proteção de direitos individuais e a promoção da inovação responsável.

Atualmente, apesar de o PL 2.338/2023 estar em processo avançado de votação, a professora Dora Kaufman (Brasil, 2024, p. 40), especialista em IA, entende que ele ainda “não está maduro para ser votado”.

4 TRANSPARÊNCIA COMO PILAR FUNDAMENTAL NA REGULAÇÃO DA IA

Nesse contexto de ascensão dos sistemas de IA e da consequente necessidade de definir os seus contornos éticos e legais, a transparência emerge como um dos principais pilares para uma regulação eficaz, pois, indubitavelmente, desempenhará um papel crítico na administração de riscos.

Acerca do conceito de transparência, o Instituto Igarapé explanou, conforme consta no Relatório Final da CJSUBIA (Brasil, 2022, p. 787), que “o conceito de transparência é extremamente amplo”, e destacou que

a abertura implica em dois esforços distintos, direcionados a diferentes públicos: de um lado, a explicabilidade desses sistemas para um público amplo e leigo, principalmente aqueles que serão impactados pela ferramenta, e, do outro lado, a capacidade de serem auditados de modo independente por especialistas (Brasil, 2022, p. 787).

Para o Instituto de Pesquisa em Direito e Tecnologia do Recife (IP.rec) e o Centro de Ensino e Pesquisa em Inovação da Escola de Direito da Fundação Getúlio Vargas (CEPI/FGV), a transparência, “mais do que exaustiva, […] deve ser precisa, concreta e aplicável” (Brasil, 2022, p. 241).

Nesse sentido, na 8ª reunião da CJSUBIA por videoconferência, Courtney Lang (Brasil, 2022, p. 20) destaca que é “importante notar que a transparência não é um fim, e, sim, um meio pelo qual podemos lidar com a responsabilidade e o empoderamento de sistemas”. Portanto, a necessidade de compreender como esses sistemas operam e tomam decisões se torna premente à medida que os horizontes do conhecimento humano e, consequentemente, os limites da tomada de decisões significativas continuam a se expandir rapidamente.

É inquestionável que esse empoderamento tecnológico proporcionado pela IA afeta diretamente a vida das pessoas e empresas públicas e privadas e em diversas áreas como educação, saúde, finanças, concorrência, dentre outras. Contudo, para que esse impacto seja positivo e seguro, é indispensável que a transparência desses sistemas seja suficiente para permitir a supervisão humana, a mitigação de danos e a responsabilização adequada e equânime. Em outras palavras, é essencial que haja mecanismos que possibilitem o rastreamento, bem como a explicação de como uma decisão, por meio do uso dessa tecnologia, foi alcançada.

Mireille Hildebrandt (Brasil, 2022) argumenta que, embora não sejam necessárias a clareza e a compreensão das pessoas sobre todos os intrincados funcionamentos internos dos sistemas de IA, é fundamental a supervisão correta desses sistemas para que eventual contestação seja viabilizada.

Para Hilbebrandt (Brasil, 2022), essa possibilidade de supervisão não apenas tende a oferecer uma maior segurança sobre os sistemas em si, mas também a desempenhar um relevante papel na identificação e na correção de eventuais problemas éticos ou legais que possam surgir nas decisões e conteúdo por eles produzidos. A proposta é que, embora a eliminação total dos riscos seja inviável, é essencial antecipá-los, registrá-los e garantir uma segurança robusta, que esteja em contínuo aperfeiçoamento.

Apesar da importância e da aparente necessidade da regulação, sobretudo para esses fins mencionados, inúmeros desafios são e serão apresentados, uma vez que os sistemas de IA são notoriamente complexos e difíceis de se compreender. Encontrar o equilíbrio entre abrir espaço para a inovação tecnológica e, ao mesmo tempo, proteger os direitos constitucionais como a livre concorrência, por exemplo, emerge como o principal desafio nesse contexto. A complexidade inerente dos sistemas de IA, com suas redes neurais profundas e algoritmos sofisticados, muitas vezes, desafia até mesmo os especialistas da área, tornando a tarefa de regulamentação ainda mais desafiadora.

Dora Kaufman (Brasil, 2022) destacou que propostas de regulamentação, em todo o mundo, têm contemplado uma modalidade de auditoria, mas observou que essas regulamentações carecem de detalhes práticos sobre como implementá-las. Acrescenta que essa deficiência possa estar associada ao fato de que os sistemas de IA se modificam quando da entrada de novos dados. Considerando isso, ela (Brasil, 2022, p. 424) sugere que o foco de uma auditoria deve ser nas “variáveis iniciais, que são os parâmetros decididos pelos desenvolvedores” e que tentar entender a complexidade técnica dos algoritmos de IA tende a ser ineficaz.

Nessa perspectiva, o Laboratório de Políticas Públicas e Internet (Lapin), conforme consta do Relatório Final da CJSUBIA (Brasil, 2022), manifesta que “a inteligibilidade de sistemas de IA não deve consistir necessariamente em uma descrição precisa e detalhada de como os algoritmos funcionam”, pois eventualmente será “um excedente informacional que pode ser inútil ou até prejudicial”.

Almeida (2022, p. 115) enfatizou a necessidade de “estabelecer práticas para auditoria e regras para tornar os sistemas mais transparentes”. A transparência, de fato, desempenhará um papel vital na construção da confiança do público em relação à tecnologia. Quanto mais compreensíveis esses sistemas forem, maior será o nível de confiabilidade.

Em síntese, a regulamentação, baseada no pilar fundamental da transparência, tenderá a contribuir para um ambiente tecnológico de riscos reduzidos e incentivo à utilização responsável desses sistemas. Contudo, em face da complexidade inerente, pode não ser realista esperar um elevado nível de compreensão técnica dos usuários, mas a transparência desses sistemas é crucial para, em alguma medida, estarem disponíveis as informações mínimas necessárias que viabilizarão o controle necessário, seja de um viés discriminatório (na perspectiva comercial), seja de uma prática anticompetitiva.

Portanto, a regulamentação, em termos de transparência, objetiva que os algoritmos sejam rastreáveis, acessíveis e explicáveis dentro dos limites legais e éticos, de modo que, a título de exemplo, os segredos comercial e industrial não sejam desprotegidos por esse nível de transparência.

5 REGULAÇÃO DA IA COMO ESTÍMULO OU INIBIÇÃO DA INOVAÇÃO?

A implementação de regulamentações jurídicas que orientem e limitem o comportamento das empresas dominantes pode ser vista como uma medida efetiva para, inclusive, proteger a própria inovação, o que, em um primeiro momento, pode parecer contraditório, mas acredita-se que somente assim será viável garantir a concorrência justa e equitativa, de modo a expandir as oportunidades da própria inovação, além de proteger direitos e garantias fundamentais dos indivíduos.

Estudos têm explorado questões como a definição de "acordo" e "intenção" no contexto da IA, bem como a responsabilidade dos desenvolvedores e dos usuários de algoritmos em casos de infrações competitivas. Essas pesquisas são fundamentais para compreender os desafios enfrentados pelas autoridades antitruste e possibilitar o desenvolvimento de estratégias eficazes de regulamentação, capazes de ir além de construções superficiais e principiológicas (Frazão, Ana; Mulholland, Caitlin, 2023).

Assim, como o antitruste nasceu em uma realidade completamente distinta do contexto tecnológico atual, o estabelecimento de limites ao avanço da IA também tem se apresentado como uma resposta necessária e urgente a essa nova necessidade, pois a própria inovação depende de um terreno de livre concorrência para existir, na medida em que a busca é por uma “largada” equânime para todos os “competidores”.

Em contrapartida, a regulamentação de IA também pode ser vista como um limitador da inovação quando aplicada de forma excessivamente restritiva, o que pode, inclusive, desencorajar empresas a investirem em pesquisas e desenvolvimento de soluções baseadas em IA, levando a um ambiente de menor inovação nesse segmento. Sobre esse ponto, cumpre destacar que, de acordo com pesquisa publicada na revista Exame, estimam-se investimentos em IA que podem alcançar US$ 200 bilhões até 2025 a nível global, em decorrência dos potenciais ganhos de produtividade gerados por sua eficiência (Lopes, 2023).

Todavia, a falta de regulamentação ou regulamentação insuficiente (com ausência de sanções adequadas) pode permitir que empresas utilizem a IA de forma anticompetitiva, resultando em abuso de poder e limitação da concorrência. A ausência de limites adequados pode favorecer, inclusive, a criação de barreiras à entrada de novos concorrentes e prejudicar a diversidade e a própria inovação no mercado.

A busca pelo equilíbrio entre a promoção da inovação e a necessidade de regulação da IA é crucial. O Poder Público deve adotar uma abordagem cautelosa que leve em consideração tanto os benefícios quanto os riscos da IA para a concorrência. É necessário garantir que as regulamentações sejam claras, flexíveis e capazes de acompanhar, dentro do possível, o ritmo acelerado dessa evolução tecnológica, mas que não ignore a necessária responsabilização em caso de violações legais.

Uma estratégia que pode ser eficaz, além da criação de uma lei geral de IA, seria o incentivo à criação de uma comissão permanente envolvendo autoridades antitruste, especialistas em IA e integrantes da indústria, a fim de definir diretrizes e políticas que sejam sensíveis aos variados contextos e às particularidades dos setores em que a IA é aplicada. Além da criação dessas novas políticas, é imprescindível uma atualização dos normativos tradicionais do direito concorrencial, a fim de compatibilizá-los com a nova realidade e construir um arcabouço sólido sobre essa relevante questão.

A regulamentação da IA, bem como os normativos que devem ser atualizados devem considerar não apenas os efeitos imediatos, mas também as possíveis consequências para a concorrência e inovação. Isso requer uma abordagem que leve em consideração fatores, como o poder de mercado das empresas, a natureza dos dados utilizados pelos algoritmos e o impacto potencial no bem-estar social.

Dessa forma, ao estabelecer limites e restrições adequadas, a regulamentação da IA poderá incentivar a inovação ao criar um ambiente mais equitativo. Empresas menores e startups que utilizam a IA em seus processos de negócios podem se beneficiar de um ambiente regulatório que impeça práticas anticompetitivas de empresas dominantes e que rotineiramente abusam desse domínio.

Portanto, a regulamentação da IA, se bem definida e executada, harmonizada com os princípios da concorrência, poderá estimular, ao invés de limitar, a inovação, resultando em benefícios para a sociedade como um todo que já está sendo inserida em um contexto repleto de nuances incertas, complexas e desafiadoras.

Nesse sentido, Frazão (2024) alerta que a omissão regulatória pode ter consequências desastrosas, o que reforça a necessidade de um modelo regulatório da IA. Contudo, é fundamental uma regulação adaptável a diversos cenários, resiliente diante de eventos inesperados e que também seja capaz de evitar ou conter inovações predatórias, exploratórias ou violadoras dos direitos fundamentais.

6 CONSIDERAÇÕES FINAIS

Diante das análises realizadas, torna-se evidente a necessidade premente de uma regulação robusta para a IA que esteja alinhada não apenas com as demandas legítimas da inovação, mas também com os preceitos do direito concorrencial. O equilíbrio entre fomentar o progresso tecnológico e proteger a livre concorrência emerge como um desafio prioritário, especialmente diante das potenciais ameaças concorrenciais advindas do uso indiscriminado desses sistemas que refletem na sociedade como um todo.

A complexidade intrínseca da IA, aliada à sua rápida evolução, impõe um cenário desafiador para a identificação e o controle de práticas anticompetitivas. Nesse contexto, é imperativo que a regulação estabeleça diretrizes que sejam traduzidas em deveres e obrigações claros, para além dos princípios e das boas práticas de governança. Tal abordagem tende a proporcionar não apenas uma maior segurança jurídica, mas também a balizar a atuação das empresas, de modo a prevenir abusos de poder econômico potencializados por essa tecnologia.

A ênfase na criação de uma regulamentação sólida, transparente e confiável, sobretudo no que tange às aplicações de alto risco, segue a recomendação da Comissão Europeia. A abordagem baseada em níveis de risco, que pondera a probabilidade e gravidade dos potenciais riscos para os usuários, destaca-se como uma estratégia sensata. Ao privilegiar setores sensíveis, essa abordagem tende a permitir um direcionamento mais eficaz dos esforços regulatórios, com foco nas áreas em que os impactos negativos sejam mais significativos.

No relatório final elaborado pela CJSUBIA (Brasil, 2022), é destacado que, para Lang (Brasil, 2022, p. 162), é necessária a participação dos “acionistas” na definição sobre o que constitui um “sistema de alto risco de IA”. Segundo Lang (Brasil, 2022, p. 163), “a decisão da IA é de alto risco quando pode haver um resultado negativo, indesejado em termos de segurança, liberdade, discriminação e de direitos humanos”. Essa perspectiva enfatiza a relevância de envolver os diversos atores na tomada de decisões, a fim de garantir uma definição mais assertiva de critérios para sistemas de IA de alto risco.

É fundamental que as discussões em torno dessa regulação persistam, continuem amadurecendo, incorporem diversas perspectivas e considerem as necessidades dos diferentes atores envolvidos. O objetivo desse marco legal deve não somente combater abusos, mas também promover um ambiente propício à entrada de novos agentes e investimentos, com a finalidade de estimular ainda mais a inovação.

Dessa forma, ao adotar uma abordagem humana participativa e abrangente, é possível construir uma base normativa que não apenas acompanhe o avanço acelerado da IA, mas também que oriente o seu desenvolvimento de maneira ética, justa e compatível com os princípios de livre concorrência e inovação responsável.

Por fim, é relevante destacar que, como os elementos das plataformas digitais apresentam distinções significativas em relação aos mercados tradicionais, será fundamental que a legislação antitruste evolua em paralelo com a proposta de regulação abrangente da IA.

Essa sincronia será essencial não só para tratar sobre a temática de forma mais aprofundada, mas também para prevenir uma multiplicidade de práticas anticompetitivas a curto prazo.

REFERÊNCIAS

ATHAYDE, Amanda; GUIMARÃES, Marcelo. Bumblebee antitruste? a inteligência artificial e seus impactos no direito da concorrência. In: FRAZÃO, Ana; MALHOLLAND, Caitilin (org.). Inteligência artificial e direito: ética, regulação e responsabilidade. São Paulo: Thomson Reuters Brasil, 2019.

AUTORIDADE NACIONAL DE PROTEÇÃO DE DADOS (ANPD). Análise Preliminar do Projeto de Lei nº 2338/2023, que dispõe sobre o uso da Inteligência Artificial. [S. l.]: ANPD, 2023. Disponível em: https://www.gov.br/anpd/pt-br/assuntos/noticias/analise-preliminar-do-pl-2338_2023-formatado-ascom.pdf. Acesso em: 16 jan. 2024.

BERARDO, José Carlos; BAQUEIRO, Paula; MATOS, Diego. PL das Fake News é o veículo certo para regulação concorrencial de plataformas?: proposta do PL 2630/30 afeta indiretamente a dinâmica da concorrência do setor no Brasil. Jota, 11 nov. 2022. Disponível em: https://www.jota.info/artigos/pl-das-fake-news-e-o-veiculo-certo-para-regulacao-concorrencial-de-plataformas. Acesso em: 7 jul. 2023.

BRASIL. Agência Nacional de Proteção de Dados (ANPD). Análise preliminar do Projeto de Lei nº 2.338, de 2023. Disponível em: https://www.gov.br/anpd/pt-br/assuntos/noticias/analise-preliminar-do-pl-2338_2023-formatado-ascom.pdf. Acesso em: 20 jan. 2024.

BRASIL. Agência Senado Federal. Regulação do uso de IA tem apoio de debatedores. Brasília, DF, 2024. Disponível em: https://www12.senado.leg.br/noticias/materias/2024/06/11/debatedores-defendem-regulamentacao-do-uso-de-inteligencia-artificial. Acesso em: 14 jun. 2024.

BRASIL. Câmara dos Deputados. Projeto de Lei nº 21/2020. Deputado Eduardo Bismark. Estabelece fundamentos, princípios e diretrizes para o desenvolvimento e a aplicação da inteligência artificial no Brasil; e dá outras providências. Câmara dos Deputados, 2020. Disponível em: https://www.camara.leg.br/propostas-legislativas/2236340. Acesso em: 23 jan. 2024.

BRASIL. Ministério da Justiça e Segurança Pública. ANPD fará evento online sobre Regulação de Inteligência Artificial. Brasília, DF, 2023. Disponível em: https://www.gov.br/anpd/pt-br/assuntos/noticias/anpd-fara-evento-online-sobre-regulacao-de-inteligencia-artificial. Acesso em: 8 jul. 2023.

BRASIL. Senado Federal. Projeto de Lei n° 5051, de 2019. Senador Styvenson Valentim. Estabelece os princípios para o uso da Inteligência Artificial no Brasil. Brasília, DF, 2019. Disponível em: https://www25.senado.leg.br/web/atividade/materias/-/materia/138790. Acesso em: 23 jan. 2024.

BRASIL. Senado Federal. Projeto de Lei nº 872, de 2021. Senador Veneziano Vital do Rêgo. Dispõe sobre o uso da Inteligência Artificial. Brasília, DF, 2021. Disponível em: https://www25.senado.leg.br/web/atividade/materias/-/materia/147434. Acesso em: 23 jan. 2024.

BRASIL. Senado Federal. 8ª Reunião da Comissão de Juristas responsável por subsidiar a elaboração de substitutivo sobre inteligência artificial no Brasil, com a participação de LANG, Courtney, p. 20; Notas taquigráficas. Disponível em: chrome-extension://efaidnbmnnnibpcajpcglclefindmkaj/https://legis.senado.leg.br/escriba-servicosweb/reuniao/pdf/10794. Acesso em: 4 nov. 2024.

BRASIL. Senado Federal. Relatório final elaborado pela Comissão de Juristas responsável por subsidiar a elaboração de substitutivo sobre inteligência artificial no Brasil, com a participação de ALMEIDA, Virgilio de, p. 115; HILDEBRANDT, Mireille, p. 568; KAUFMANN, Dora, p. 424; LANG, Courtney, p. 162–163. Brasília, DF, 2022. Disponível em: https://www.stj.jus.br/sites/portalp/SiteAssets/documentos/noticias/Relato%CC%81rio%20final%20CJSUBIA.pdf. Acesso em: 20 jan. 2024.

EUROPEAN Lawmakers Reach a Political Agreement on the AI Act. Hunton Andrews Kurth Privacy: privacy & information security law Blog. 11 Dec. 2023. Disponível em: https://www.huntonprivacyblog.com/2023/12/11/european-lawmakers-reach-a-political-agreement-on-the-ai-act/. Acesso em: 10 jan. 2024.

EZRACHI A.; STUCKE, M. E. Algorithmic Collusion: Problems and Counter-Measures. OECD Roundtable on Algorithms and Collusion. OECD Directorate for Financial and Enterprise Affairs Competition Committe, 2017.

EZRACHI, A.; STUCKE, M. E. Artificial Intelligence & Collusion: When Computers Inhibit Competition. 8 abr. 2015. University of Illinois Law Review, v. 2017, 2017, Oxford Legal Studies Research Paper n. 18/2015. University of Tennessee Legal Studies Research Paper, n. 267, 2015. Disponível em: https://ssrn.com/abstract=2591874. Acesso em: 31 out. 2023.

FARINA, Elizabeth Maria Mercier Querido. Desregulamentação e o controle do abuso do poder econômico: teoria e prática Deregulation and antitrust policies: theory and practice. Revista de Economia Política, v. 14, n. 3, 1994.

FRAZÃO, Ana. Por que regular a inteligência artificial? Reflexões sobre os riscos e as incertezas inerentes à utilização da tecnologia. In: CUEVA, Ricardo Villas Bôas; TAUK, Caroline Somesom; GALDINO, Flávio; TEPEDINO, Gustavo; MENDES, Laura Schertel (org.). Direitos fundamentais e novas tecnologias: homenagem ao professor Danilo Doneda. São Paulo: Editora GZ, 2024.

FRAZÃO, Ana; MULHOLLAND, Caitlin. Podcast Direito Digital: regulação da Inteligência Artificial. 2022. Podcast. Disponível em: https://www.anafrazao.com.br/podcast-direito-digital-regulacao-da-inteligencia-artificial/. Acesso em: 4 jul. 2023.

KAUFMAN, Dora. Pronunciamento durante a 76ª sessão de debates temáticos no Senado Federal, realizada em 11 de junho de 2024, destinada a debater a regulamentação do uso da inteligência artificial no Brasil e o Projeto de Lei nº 2338/2023. Diário do Senado Federal, Brasília, DF, n. 86, 2024. Disponível em: https://legis.senado.leg.br/diarios/ver/116533?sequencia=40. Acesso em: 4 nov. 2024.

LOPES, André. Goldman Sachs: IA pode gerar US$ 200 bilhões globalmente até 2025. Exame, Brasil, 11 ago. 2023. Disponível em: https://exame.com/inteligencia-artificial/goldman-sachs-preve-que-ia-possa-gerar-us-200-bilhoes-globalmente-ate-2025/. Acesso em: 4 nov. 2024.

OCDE. Algorithms and Collusion: Competition Policy in the Digital Age. 2017. Disponível em: https://www.oecd.org/competition/algorithms-collusion-competition-policy-in-the-digital-age.htm. Acesso em: 2 jul. 2023.

REIS, Patrice. Desafios da Transição Digital – Digital Market Act e Digital Service Act. Universidade de Coimbra, Portugal, 6 jun. 2023. Notas de aula.

RIVELLI, Fabio; SILVEIRA, Ricardo Freitas. Impactos da aprovação da 1ª lei sobre IA do mundo. Migalhas, 27 de junho de 2023. Disponível em: https://www.migalhas.com.br/coluna/ia-em-movimento/388892/impactos-da-aprovacao-da-1-lei-sobre-ia-do-mundo. Acesso em: 7 jul. 2023.

WIMMER, Miriam. Inteligência artificial. Um panorama dos principais desafios. Direito Digital: debates contemporâneos. São Paulo: Thompson Reuters, 2019.

ZIADY, Hanna. Europa lidera corrida para regulamentar a inteligência artificial. CNN Brasil, Londres, 18 juN. 2023. Disponível em: https://www.cnnbrasil.com.br/tecnologia/europa-lidera-corrida-para-regulamentar-a-inteligencia-artificial-entenda-como/#goog_rewarded. Acesso em: 7 jul. 2023.

NOTA

O artigo “Regulação da inteligência artificial no âmbito da concorrência: uma maneira de promover ou inibir a inovação?” foi elaborado por Adrise Lage de Mendonça Mendes, com base nos conhecimentos adquiridos no curso de extensão de Mestrado intitulado "Desafios da transição digital e ecológica na Europa e no mundo", organizado pela Associação de Estudos Europeus de Coimbra, da Faculdade de Direito da Universidade de Coimbra (AEEC/FDUC), em Portugal, e complementados por pesquisas aprofundadas decorrentes dessa experiência. O referido curso contou com a participação de renomados professores, dentre os quais se destacam as coautoras Grace Ladeira Garbaccio e Maria Matilde da Costa Lavouras Francisco, cujas contribuições acadêmicas foram fundamentais para o desenvolvimento deste artigo. Além de ministrarem aulas que trouxeram valiosas perspectivas teóricas e práticas, as professoras também desempenharam um papel crucial em sua revisão, realizando ajustes textuais e formais que contribuíram significativamente para a sua conformidade aos rigorosos padrões acadêmicos exigidos por esta publicação. Em suma, o artigo reflete um esforço colaborativo que visa proporcionar uma reflexão equilibrada sobre o tema e contribui com novas perspectivas para o debate acadêmico e jurídico em torno da regulação da inteligência artificial no contexto concorrencial.

Notas de autor

Editora responsável: Profa. Dra. Fayga Bedê https://orcid.org/0000-0001-6444-2631


Buscar:
Ir a la Página
IR
Visor de artículos científicos generados a partir de XML-JATS por