Marco regulatório da inteligência artificial no Brasil: o momento e a hora certas para protagonismo. No dia 15 de agosto, foi aprovada a criação, pelo Senado Federal, de uma comissão temporária interna para examinar projetos de lei sobre inteligência artificial (IA) atualmente em tramitação.

Há pelo menos quatro projetos no Senado: o PL 5.051/19, do senador Styvenson Valentim (Podemos-RN); o PL 872/2021, do senador Veneziano Vital do Rêgo (MDB-PB); o PL 21/20, do deputado Eduardo Bismarck (PDT-CE) e que já foi aprovado pela Câmara dos Deputados; e o recente PL 2.338/23, assinado pelo presidente da casa, Rodrigo Pacheco (PSD-MG), e que reflete os entendimentos da Comissão de Juristas que, em 2022, desenvolveu uma novo projeto de lei, com forte inspiração no (criticado) projeto de lei da União Europeia, o AI Act.

A análise do PL 2.338/23 e do relatório dessa Comissão de Juristas deve ser o principal objeto de trabalho da comissão do Senado, que agora pode decidir os caminhos da regulação do tema no Brasil: afinal, desenvolveremos um marco regulatório coerente e original com a realidade brasileira? Ou mais uma vez tropicalizaremos, de forma mambembe, uma experiência europeia?

OS PROJETOS DE LEI EM DISCUSSÃO NO SENADO

Como dito anteriormente, são quatro PLs em discussão atualmente no Senado. O mais antigo deles, o PL 5.051/19, é extremamente principiológico e desenvolvido em um momento de infância das discussões regulatórias sobre IA – motivo pelo qual dificilmente pode se tornar uma referência no debate.

Inteligencia artificial

O mesmo vale para o PL 872/21 mas que, diferentemente de seu antecessor e do PL 2.338/23, traz uma sessão específica sobre governança estratégica e o papel do Poder Público, inclusive no estímulo à educação digital – e que pode ser aproveitado como primeiro rascunho para uma discussão mais ampla e estratégica.

O PL 21/20, vindo da Câmara dos Deputados em 2021, já é mais completo e bem desenvolvido. Seus principais pontos positivos são a estrutura de fundamentos e princípios; as definições legais, mais abertas, agnósticas e com maior possibilidade de se manterem relevantes com o tempo são de altíssimo nível; o diálogo com a Lei Geral de Proteção de Dados e outras leis é bem-feito e coerente; e há um avanço em diretrizes estratégicas, já trazidas pelo PL 872/21, mas que aqui mostram uma maturidade maior, especialmente nas obrigações que estabelece ao Poder Público.

Mas, da mesma forma que o PL 5.051/19 e o PL 872/21, o PL 21/20 é um documento muito amplo e pouco propositivo. Riscos de vieses e discriminação são pouco tratados, assim como a discussão sobre direitos autorais. Disposições sobre riscos excessivos foram ignoradas, assim como orientações sobre governança e o papel do setor privado na criação de boas práticas e códigos de conduta – temas que são atualmente essenciais em qualquer discussão sobre governança digital.

O PL 21/20 também foi criticado por diferentes setores por ser supostamente “alinhado com os interesses das big techs”. Após a realização de audiências públicas e aprovação de um novo texto na Câmara, o projeto seguiu para o Senado e, por razões não justificadas pela Comissão de Juristas (pelo menos no relatório final da comissão), preferiu-se pela apresentação de um novo projeto do zero, o PL 2.338/23.

Há várias formas de interpretar essa decisão, desde concorrência legislativa até o ambiente adversarial “anti big techs” que tem se formado no Brasil e em outros países nos últimos anos. Mas, ainda que seja uma escolha legítima, é sintomático do momento de crise que passa a governança da internet – e que retomarei nas linhas finais deste artigo.

De qualquer forma, é inegável que o PL 2.338/23 é o mais completo entre os quatro. O trabalho desenvolvido pela Comissão de Juristas é técnico e bem-feito. Os princípios, a centralidade de valores humanos e disposições sobre risco excessivo, por exemplo, são excelentes bases para uma discussão legislativa madura sobre o tema.

Contudo, seu resultado pode (e deve, em nome de um debate democrático saudável) ser analisado e avaliado por diferentes perspectivas e, a nosso ver, seu principal problema é tratar IA muito mais como uma tecnologia-fim e não como uma tecnologia-meio, aplicada em diferentes indústrias e setores – que, aliás, participaram muito pouco nos debates da comissão de juristas.

Outro ponto importantíssimo tem a ver com a abordagem: ao buscar corrigir as propostas vagas anteriores, foi-se do 8 ao 80, sugerindo uma proposta hiperdetalhista, e que pode aumentar a concentração econômica.

Boa regulação pode – e deveria – incentivar a inovação e promover o bem-estar social ao mesmo tempo, mas criar uma nova lei cheia de obrigações específicas e sanções milionárias não vai necessariamente reduzir os riscos à sociedade, e pode até mesmo aumentar o poder das gigantes – que possuem mais recursos para lidar com pesadas obrigações regulatórias do que outras.

Há alguns outros motivos pelos quais o PL 2.338/23 não deveria ser uma referência única de política pública para o tema de IA no país:

(i) estabelece poder excessivo a uma autoridade reguladora centralizada, o que pode facilitar movimentos de captura e marginalizar a participação de órgãos descentralizados, como o Ministério Público e Judiciário, na aplicação de baixo pra cima da lei, o que permitiria vozes mais plurais e participativas em comunidades fora dos principais centros de poder;

(ii) adota um modelo extremamente semelhante ao AI Act europeu, com pouca reflexão sobre as consequências de sua aplicação no contexto brasileiro. As investidas recentes da UE contra as chamadas big techs não são necessariamente ações humanitárias, mas parte de uma geopolítica internacional, e o risco aqui é que, sob a justificativa de diálogo com o ““global””, corremos o risco de nos tornar não só meros espectadores da revolução tecnológica de EUA e China, como também cobaias dos experimentos regulatórios com efeitos sequer testados;

(iii) parte de premissas específicas sobre tecnologia, em vez de propor um modelo agnóstico – o que pode levar a sua rápida caducidade. Por exemplo, listas de classificação de IA de alto risco no corpo da lei podem não só ser limitantes como rapidamente ultrapassadas com a velocidade da inovação, e o mesmo se pode dizer sobre o detalhamento excessivo dos tipos de instrumentos de governança, cuja utilidade prática pode ser questionada;

(iv) a influência excessiva da ótica de proteção de dados gera consequências adversas para uma legislação mais robusta e duradoura. Claro, é inegável a importância e intersecção entre os temas do PL 2.338/23 com proteção de dados pessoais; contudo, ao propor que as discussões a partir dessa ótica sejam trazidas ao centro do debate (e não como um componente com peso equivalente aos demais, como propriedade intelectual e tratamento de dados não-pessoais), criam-se diferentes problemas, como confusões conceituais e marginalização do papel da ANPD como regulador independente e agnóstico para diferentes aplicações tecnológicas.

PARTICIPAÇÃO CÍVICA NA CONSTRUÇÃO DO MARCO REGULATÓRIO DE IA

Acredito que a forma de revertermos o vira-latismo que às vezes contamina nossa cultura jurídica é buscarmos nossa antropofagia própria – engolindo influências estrangeiras, incorporando-as a nossa identidade e, a partir daí, desenvolver um pensamento legislativo brasileiro e original.

E o caminho para isso passa por um processo radical de participação política em legislações que envolvam a internet. No Brasil, temos 165 milhões de pessoas conectadas em média 10 horas por dia – e estamos as ouvindo pouco. E por isso que o espaço do Legislativo é tão importante nesse processo – assim como do CGI.br, órgão importantíssimo e que infelizmente não tem tido o espaço que merece nessa discussão.

Assim como foi feito no Marco Civil da Internet, acredito que essa é uma oportunidade para retomarmos a conversa sobre cultura participativa digital, abrir as portas das Casas Legislativas, ouvir, ouvir e ouvir. Não devemos nos apressar por conta de concorrências legislativas: democracia se faz com tempo, diálogo e participação.

Três passos podem ser tomados pelo Senado se quisermos percorrer esse caminho.

Em primeiro lugar, o Senado poderia chamar outros setores para discussão. Isso inclui ouvir especialistas além daqueles relacionados a tecnologias de internet. Esses setores podem incluir:

  • agropecuária;
  • aeroespacial e defesa;
  • automotiva e componentes;
  • química;
  • equipamentos médicos e hospitalares;
  • semicondutores e eletrônicos;
  • óleo e gás;
  • energia;
  • construção civil…

enfim, diferentes setores que utilizam IA diariamente em suas atividades e que podem ser potencialmente afetados com uma regulação adversa, além de representantes de micro e pequenas empresas, jornalistas, profissionais de arte e entretenimento e educadores e educadoras.

Segundo, o Senado pode abrir espaço para ouvir lideranças de outros países do Sul Global, entendendo quais são as principais preocupações de nações fora do eixo EUA/China/Europa, e como podem ser referência complementares para desenvolvimento da nossa proposta legislativa.

O diálogo com a América do Sul é essencial, assim como países populosos como Índia, Indonésia, Nigéria, África do Sul e Coreia do Sul, e que enfrentam dilemas semelhantes aos nossos em diferentes áreas.

Terceiro, e mais importante: o Senado deve abrir espaço para participação popular massiva, de baixo pra cima, na elaboração desse projeto. Isso pode se dar de diferentes maneiras:

(i) atualmente, o Legislativo possui o portal E-Cidadania, que pode ser aproveitado para realização de consultas públicas e com comentários artigo por artigo, de maneira semelhante ao que ocorreu com o Marco Civil da Internet e, mais recentemente, com a discussão sobre educação digital promovida pela SECOM. O CGI.br também promove consultas públicas com excelência, e pode ser uma fonte inestimável de suporte.

(ii) a realização de audiências públicas em que lideranças comunitárias sejam envolvidas é de vital importância. Não é necessário termos somente “especialistas em direito digital” em painéis; pelo contrário, precisamos ouvir especialistas em gente, pessoas que representam movimentos marginalizados e comunidades minorizadas, fazê-los parte do processo legislativo, trazendo-os também para dentro da discussão sobre tecnologia.

(iii) por fim, sugere-se que essas audiências também possam ser feitas em diferentes cidades além de Brasília, de preferência em todas as cinco regiões do país. Levar o Legislativo Federal mais próximo do público é uma função necessária para uma participação mais diversa e significativa.

A DIFÍCIL BUSCA PELO CONSENSO

Mais uma vez, estamos diante de um momento em que o Brasil pode recuperar sua liderança na governança global da rede. Cabe a nós sermos originais nessa missão – mas, infelizmente, não termino o artigo com uma nota otimista.

O cenário político da governança digital é hoje muito diferente do que se observou em 2014, com o Marco Civil da Internet. Claro que, àquela época, já haviam posturas opostas e debates acalorados.

Contudo, a extrapolação do cenário de polarização das redes sociais também contamina a governança e, junto com o papel cada vez mais político dos tribunais superiores, mostram um cenário em que ninguém estranharia uma regulação goela abaixo, com debates reduzidos ou, pior, sem que a busca do consenso seja sequer uma tentativa.

Há uma fenda na governança digital, e infelizmente não vejo muito interesse coletivo em consertá-la. O trabalho multissetorial não deveria se dar somente entre acadêmicos de diferentes jurisdições e disciplinas, mas também junto a profissionais da prática profissional – tanto do setor jurídico e de compliance, como (principalmente) de tecnologia aplicada. Minha preocupação é que a situação esteja se tornando mais adversarial do que colaborativa, e que pontes estejam sendo queimadas em vez de construídas.

E somente com a colaboração contínua podemos não apenas controlar a IA, mas criar uma sociedade mais inclusiva, diversa e, no final das contas, melhor para todos e todas.

Marco regulatório da inteligência artificial no Brasil

Por Pedro Ramos, professor do Ibmec, mestre em Direito pela FGV e bacharel em direito pela USP, com especialização pela University of Southern California. Membro do conselho consultivo do Interactive Advertising Bureau Brasil. Coordenador do grupo de estudos GTech/Ibmec. Sócio do Baptista Luz Advogados, onde coordena as áreas de Mídia, Tecnologia e Proteção de Dados. Autor dos livros “Direito & Mídia Digital” (ed. Dialética) e “Neutralidade da Rede” (ed. IASP). Atuou na área consultiva, atendendo clientes de tecnologia e comunicação, empresas unicórnios e grandes grupos brasileiros que o procuram para resolver desafios de transformação digital.

Ouça o RH Pra Você Cast, episódio 139: “G4 Educação encontra na Inteligência Artificial o equilíbrio para melhorar a jornada das pessoas“. Novas tecnologias, por melhores que sejam, costumam trazer consigo uma certa resistência. A moda da vez, o ‘empolgante e polêmico’ ChatGPT, se encaixa perfeitamente nesse cenário. Para alguns, a Inteligência Artificial é revolucionária e extremamente eficaz para o desenvolvimento de projetos pessoais e profissionais. Para outro grupo, a nova moda chega para ‘acomodar’ as pessoas, tornando-as intelectualmente dependentes e podendo substituí-las no mercado de trabalho.

Opiniões à parte, é fato que a Inteligência Artificial e a tecnologia como um todo chegaram para facilitar o dia a dia até mesmo do mais humanizado os setores empresariais: o RH. Para quem tem a mente aberta de aproveitar todo o seu potencial, a transformação é notável. Exemplo disso ocorre na G4 Educação. Todas as vantagens e benefícios identificados pela empresa quem revela é uma das maiores entusiastas da IA no RH, Marcela Zaidem. A Diretora de Pessoas dá as melhores dicas para quem quer dominar o equilíbrio entre pessoas e digital. Confira o RH Pra Você Cast clicando diretamente no app abaixo:

Não se esqueça de seguir nosso podcast e interagir em nossas redes sociais:

Facebook
Instagram
LinkedIn
YouTube

Capa: Depositphotos