PRIMEIRAS IMPRESSÕES SOBRE A PROPOSTA BRASILEIRA PARA UM MARCO LEGAL DA IA
Em tempos de ChatGPT e de debates sobre o poder das plataformas, dos algoritmos e big data, o futuro exige cautela, superar a autorregulação [1] e desenvolver mínimos de proteção ou governança global [2]. Como afirma Sartor, a inteligência artificial (IA) "precisa" do Direito, pois só assim poderá ser centrada na pessoa humana [3]. O presente texto reúne impressões iniciais sobre a proposta para um marco legal da inteligência artificial (PL 2.338/2023), que deve ser fortemente defendido, pois coloca o Brasil entre os países que possuem regulação geral sobre o tema, regulando os riscos desta tecnologia e consagrando a proteção dos consumidores.
Assim, mister destacar, primeiramente, que essa proposta se insere em tendência global de regulamentação dos riscos envolvendo a IA, superando regras anteriores soft law e limitadas a princípios (a exemplo do PL 21/2020). Segundo, que os direitos consagrados na proposta estão, em linha gerais, sintonizados com o espírito da proposta europeia de regulação da inteligência artificial (AI Act, COM 2021/206 final), muitas vezes considerada como potencial modelo global na matéria [4].
a) A crescente regulamentação da inteligência artificial no contexto internacional
A proposta brasileira de um marco legal da inteligência artificial se insere num contexto global de crescentes discussões sobre governança da IA [5].
Mesmo antes do surgimento das propostas recentes de regulação da IA, tais tecnologias já estavam sujeitas a um arcabouço jurídico [6]. Em muitas jurisdições, elas são regidas, inter alia, por regras de proteção de dados pessoais, de direitos humanos, do consumidor, direito constitucional, entre outras. As regras existentes, porém, são muitas vezes insuficientes para responder aos desafios que surgiram ou se intensificaram com a difusão acelerada da IA nos últimos anos, em razão da crescente disponibilidade de dados (big data), pela crescente capacidade computacional de microprocessadores e também com o desenvolvimento e difusão das técnicas de aprendizado de máquina (machine learning) [7]. Esses elementos facilitaram a difusão de ferramentas automatizadas para fornecer avaliações, recomendações e prescrições para decisões de entidades públicas e privadas que têm efeitos jurídicos, tais como as relacionadas à entrada de imigrantes em determinada jurisdição [8], detecção de fraude fiscal [9], liberdade condicional para réus na Justiça Criminal [10], classificação de risco de crédito [11], entre outras. Ao mesmo tempo em que a automatização traz benefícios, fornecendo elementos para facilitar o trabalho humano, também traz desafios, como a potencial falta de transparência e inteligibilidade sobre como recomendações são geradas, falta de acurácia e robustez dos resultados em certos casos, tendência a incorporar discriminação ou vieses na análise dos dados, violação de regras de proteção de dados pessoais, entre outros.
A necessidade de responder a esses desafios de uma fase de difusão mais intensa da IA, inicialmente, foi respondida não por leis estatais, mas por meio de soft law [12]. Em primeiro lugar, por códigos de autorregulamentação de entidades privadas desenvolvendo sistemas de inteligência artificial [13]. Em segundo lugar, diferentes entidades internacionais ou intergovernamentais elaboraram princípios éticos gerais para regular a matéria, como a OCDE [14] e a Unesco [15]. Em terceiro lugar, entidades da indústria (como a IEEE) começaram a estabelecer standards técnicos que especificam e dão significado a princípios abstratos como transparência, explicabilidade e não-discriminação no campo da IA [16].
Apesar de sua importância, esses instrumentos, isoladamente, compartilham uma limitação: sua implementação depende da adoção voluntária pelas entidades implementando a IA. Não há mecanismos para impor juridicamente seu cumprimento. Para responder a essa limitação, diferentes jurisdições ou entidades supranacionais estão em processo de elaboração de propostas cogentes, em diferentes moldes, para regular riscos trazidos pela utilização da IA. Dentre as diferentes iniciativas, a proposta europeia (AI Act, 2021) [17], é considerada por muitos como potencial modelo global para regulações sobre a matéria.
b) Os direitos estabelecidos na proposta brasileira de um marco legal da IA
Nesta seção, realizamos comparação preliminar entre os direitos estabelecidos na proposta brasileira e a proposta europeia (2021) [18], e, mais amplamente, com outras disposições pertinentes no direito europeu.
O artigo 5 do marco legal da IA estabelece as disposições gerais a respeito dos direitos garantidos a pessoas afetadas por sistemas de inteligência artificial, em seguida elaborados nos artigos 6 a 12 da proposta.
Primeiramente, é consagrado o direito de usuários de sistemas de IA à informação prévia quanto às suas interações com sistemas de IA (Artigo 5, I e 7). Há um requisito de conformidade similar, por exemplo, no Artigo 52 da proposta europeia sobre "Obrigações de transparência aplicáveis a determinados sistemas de inteligência artificial", que no seu inciso I estabelece que "Os fornecedores devem assegurar que os sistemas de IA destinados a interagir com pessoas singulares sejam concebidos e desenvolvidos de maneira que as pessoas singulares sejam informadas de que estão a interagir com um sistema de IA".
Segundo, o marco consagra o direito "a explicação sobre a decisão, recomendação ou previsão tomada por sistemas de inteligência artificial" (artigo 5, II em conjunto com artigo 8). No contexto da União Europeia, alguns consideram que um direito à explicabilidade de decisões automatizadas já tinha sido estabelecido pelo Regulamento sobre Proteção de Dados Pessoais, embora até hoje haja controvérsia sobre a existência desse direito [19]. No contexto do projeto europeu, o artigo 13 estabelece um requisito de conformidade em relação a sistemas de IA de alto risco, ao determinar que estes "devem ser concebidos e desenvolvidos de maneira que assegure que o seu funcionamento seja suficientemente transparente para permitir aos utilizadores interpretar o resultado do sistema e utilizá-lo corretamente".
Em seguida, o marco legal, no seus Artigo 5, III e IV, e 9 a 11, estabelece o "direito de contestar decisões ou previsões de sistemas de inteligência artificial que produzam efeitos jurídicos ou que impactem de maneira significativa os interesses do afetado", bem como o "direito à determinação e à participação humana em decisões de sistemas de inteligência artificial, levando-se em conta o contexto e o estado da arte do desenvolvimento tecnológico". Esses direitos, intimamente ligados, já haviam sido estabelecidos, no caso europeu, pelo Regulamento sobre Proteção de Dados Pessoais, no seu artigo 22, III, resguardando aos usuários afetados por decisões automatizadas com efeitos jurídicos (que fossem autorizadas no contexto da regulação) o "direito de, pelo menos, obter intervenção humana por parte do responsável, manifestar o seu ponto de vista e contestar a decisão". Na proposta europeia, a supervisão humana é estabelecida como requisito de conformidade, ademais, em relação a sistemas de alto risco, no seu Artigo 14. A existência de um direito à contestação também é estabelecido no recentemente aprovado Regulamento Europeu sobre Serviços Digitais, em relação às decisões automatizadas de plataformas digitais e prestadores de serviços intermediários que possam afetar seus usuários.
Em quarto lugar, o marco legal estabelece o "direito à não-discriminação e à correção de vieses discriminatórios diretos, indiretos, ilegais ou abusivos". No caso europeu, há várias diretivas anti-discriminação, aplicáveis a diferentes tipos de casos, com potencial efeito em relação a recomendações tomadas por sistemas de IA. Ademais, a Convenção Europeia de Direitos Humanos contém disposição vedando a discriminação (Artigo 14).
Finalmente, o Marco legal consagra um "direito à privacidade e à proteção de dados pessoais, nos termos da legislação pertinente" (Artigo 5, VI), estabelecendo uma referência à legislação brasileira sobre proteção de dados pessoais. Na Europa, o Regulamento Europeu sobre Proteção de Dados Pessoais se aplica a temas com potenciais efeitos sobre sistemas de IA (vide Case C-511/18, Corte de Justiça da União Europeia).
De maneira mais ampla, o marco legal também segue a opção da proposta europeia de estabelecer diferentes regras para distintos sistemas de IA conforme a classificação do seu grau de risco, estabelecendo um equilíbrio entre a necessidade de regulamentação legal e proteção dos usuários com a liberdade para inovar. Pois se a inovação e a transformação tecnológica devem contribuir para o desenvolvimento da sociedade, não devem limitar os direitos já conquistados pelos consumidores e titulares dos dados.
Balanço de forças e diálogo de fontes que o marco legal da inteligência artificial terá que fazer levando em conta potenciais futuras normas com efeito sobre os riscos emergentes no âmbito digital (vide a proposta de emenda constitucional estabelecendo que "o desenvolvimento científico e tecnológico assegurará a integridade mental e a transparência algorítmica"), bem como os direitos humanos, tema ao qual pretendemos voltar em outra oportunidade.
Referências bibliográficas
ALMEIDA, V.; SCHERTEL MENDES, L.; DONEDA, D. On the development of AI Governance Frameworks, in IEEE Internet Computing, 2023, vol. 27, Issue 1, p. 70-74.
AMARILES, D. R.; BAQUERO, PM, Promises and limits of law for a human-centric artificial intelligence, Computer Law & Security Review, Volume 48, 2023, p. 8, disponível em: https://www.sciencedirect.com/science/article/pii/S0267364923000067.
AMARILES, D. R. Algorithmic Decision Systems Automation and Machine Learning in the Public Administration. In: The Cambridge Handbook of The Law of Algorithms. Cambridge: Cambridge University Press, 2021. p. 291ss.
ANGWIN, Julia; LARSON, Jeff; MATTU, Surya; KIRCHNER, Lauren. Machine bias. ProPublica. 23.05.2016. Acesso em: 23.04.2023.
DEMPSEY, Mark; MCBRIDE, Keegan; HAATAJA, Meeri; BRYSON, Joanna. Transnational digital governance and its impact on artificial intelligence. In: The Oxford Handbook of AI Governance. Oxford University Press, 2022.
DERAVE, C., GENICOT, N., & HETMANSKA, N. (2022). The Risks of Trustworthy Artificial Intelligence: The Case of the European Travel Information and Authorisation System. European Journal of Risk Regulation, 13(3), 389-420.
FLORIDI, L. The End of an Era: from Self-Regulation to Hard Law for the Digital Industry. Philos. Technol. 34, 619–622 (2021). https://doi.org/10.1007/s13347-021-00493-0
KATZ, Daniel Martin. Quantitative Legal Prediction – or – How I Learned to Stop Worrying and Start Preparing for the Data Driven Future of the Legal Services Industry. Emory Law Journal, Vol. 62, 2013, p. 913 e ss. Disponível em: https://ssrn.com/abstract=2187752.
MARQUES, C. L.; BAQUERO, P. M. Global governance strategies for transnational consumer protection: New perspectives to empower societal actors, in Revista de Direito do Consumidor, vol. 143/2022, p. 167 – 188, Set - Out / 2022.
SARTOR, Giovanni. L´intelligenza artificiale e il diritto, Torino: Giappichelli Ed, 2022.
SHI, S., TSE, R., LUO, W. et al. Machine learning-driven credit risk: a systemic review. Neural Comput & Applic 34, 14327–14339 (2022). https://doi.org/10.1007/s00521-022-07472-2
SMUHA, Nathalie A. ; AHMED-RENGERS, Emma; HARKENS, Adam; LI, Wenlong; Maclaren, James; PISELLI, Riccardo; YEUNG, Karen. How the EU Can Achieve Legally Trustworthy AI: A Response to the European Commission’s Proposal for an Artificial Intelligence Act. Disponível em: https://ssrn.com/abstract=3899991
[1] ALMEIDA, V.; SCHERTEL MENDES, L.; DONEDA, D. On the development of AI Governance Frameworks, in IEEE Internet Computing, 2023, vol. 27, Issue 1, p. 70-74.
[2] MARQUES, C. L.; BAQUERO, P. M. Global governance strategies for transnational consumer protection: New perspectives to empower societal actors, in Revista de Direito do Consumidor, vol. 143/2022, p. 167 – 188, Set - Out / 2022.
[3] SARTOR, Giovanni. L´intelligenza artificiale e il diritto, Torino: Giappichelli Ed, 2022, p. 139.
[4] https://www.europarl.europa.eu/news/en/press-room/20230505IPR84904/ai-act-a-step-closer-to-the-first-rules-on-artificial-intelligence . Acesso 15.05.2023)
[5] 2023 Stanford AI Index Report, p. 267-268. Disponível em: https://aiindex.stanford.edu/wp-content/uploads/2023/04/HAI_AI-Index-Report_2023.pdf. Acesso em: 24.04.2023.
[6] Dempsey, Mark & Mcbride, Keegan & Haataja, Meeri & Bryson, Joanna. Transnational digital governance and its impact on artificial intelligence. In: The Oxford Handbook of AI Governance. Oxford University Press, 2022.
[7] Katz, Daniel Martin. Quantitative Legal Prediction – or – How I Learned to Stop Worrying and Start Preparing for the Data Driven Future of the Legal Services Industry. Emory Law Journal, Vol. 62, 2013, p. 913 e ss. Disponível em: https://ssrn.com/abstract=2187752. Acesso em 23.04.2023.
[8] Derave, C., Genicot, N., & Hetmanska, N. (2022). The Risks of Trustworthy Artificial Intelligence: The Case of the European Travel Information and Authorisation System. European Journal of Risk Regulation, 13(3), 389-420.
[9] Amariles, D. R. Algorithmic Decision Systems Automation and Machine Learning in the Public Administration. In: The Cambridge Handbook of The Law of Algorithms. Cambridge: Cambridge University Press, 2021. p. 291 e seguintes.
[10] ANGWIN, Julia; LARSON, Jeff; MATTU, Surya; KIRCHNER, Lauren. Machine bias. ProPublica. 23.05.2016. Acesso em: 23.04.2023.
[11] Shi, S., Tse, R., Luo, W. et al. Machine learning-driven credit risk: a systemic review. Neural Comput & Applic 34, 14327–14339 (2022). https://doi.org/10.1007/s00521-022-07472-2.
[12] Floridi, L. The End of an Era: from Self-Regulation to Hard Law for the Digital Industry. Philos. Technol. 34, 619–622 (2021). https://doi.org/10.1007/s13347-021-00493-0.
[13] Por exemplo, “AI at Google: Our Principles”, disponível em: https://blog.google/technology/ai/ai-principles/.
[14] "OECD AI Principles", disponível em: https://legalinstruments.oecd.org/en/instruments/OECD-LEGAL-0449.
[15] "Unesco Recommendation on the Ethics of Artificial Intelligence", disponível em: https://unesdoc.unesco.org/ark:/48223/pf0000380455.
[16] European Commission, AI Watch: AI Standardisation Landscape, disponível em: https://www.standict.eu/sites/default/files/2021-07/jrc125952_ai_watch_task_9_standardization_activity_mapping_v5.1%281%29.pdf.
[19] Sobre a controvérsia, veja Amariles, DR & Baquero, PM, Promises and limits of law for a human-centric artificial intelligence, Computer Law & Security Review, Volume 48, 2023, p. 8, disponível em: https://www.sciencedirect.com/science/article/pii/S0267364923000067.