As inteligências artificiais estão em alta no RH. Do recrutamento ao desligamento, a utilização das tecnologias se destacam por agilizar os processos e por torná-los mais assertivos. Até mesmo o tão falado ChatGPT já se tornou uma ferramenta muito visada pelo setor.

Em meio à empolgação com os robozinhos, porém, há um fator que não pode ser ignorado: a legislação. O Brasil tem leis sobre o uso de IA? Quem é punido se o ChatGPT contribui para a divulgação de uma informação falsa? Como evitar violações à propriedade intelectual?

O advogado Rodrigo Azevedo, sócio coordenador da Área de Propriedade Intelectual e Direito Digital do escritório Silveiro Advogados, traz alguns mitos e verdades a respeito de questões polêmicas sobre o uso de ferramentas de IA no país. Confira:

Inteligencia artificial

Mitos

– Enquanto não houver lei específica, o uso de IA não está sujeito a qualquer norma legal no Brasil.

“Embora não exista uma normativa específica que regule o uso dos sistemas de IA no Brasil, o ordenamento jurídico brasileiro possui diversas leis que se aplicam à contratação e utilização de ferramentas dessa natureza”, explica o especialista.

Como exemplos, cita o Código de Defesa do Consumidor (para situações envolvendo defeitos em produtos como dispositivos de voz com IA), o Marco Civil da Internet (para casos envolvendo deep fakes na internet), a Lei da Propriedade Industrial ou a Lei dos Direitos Autorais (para violações à propriedade intelectual) e a LGDP (a Lei Geral de Proteção de Dados, para questões envolvendo dados pessoais).

– Profissionais liberais não estão autorizados a usar o ChatGPT nas suas atividades profissionais.

“Efetivamente, têm sido divulgados alguns casos pontuais de responsabilização de profissionais por informações equivocadas trazidas por ferramentas de Inteligência Artificial, por violação à privacidade ou à propriedade intelectual. Contudo, a legislação brasileira não proíbe o uso desses recursos por profissionais liberais”, pontua Azevedo.

Basta que se adotem as cautelas apropriadas, como checar os resultados propostos pela ferramenta, evitar reproduzi-los diretamente e não incluir dados pessoais ou informações confidenciais de clientes.

Veja mais: IA sem limites? Empresa usa ChatGPT para garantir papo com os mortos

Verdades

– Não existe uma legislação específica sobre Inteligência Artificial no Brasil. 

Está em trâmite no Senado o Projeto de Lei 2338/2023 (Marco Legal para Inteligência Artificial), que busca regular a matéria ao proteger direitos fundamentais e garantir a implementação de sistemas seguros e confiáveis.

“Trata-se de um passo importante e necessário para endereçar os riscos do uso dos sistemas de Inteligência Artificial, sem frear o desenvolvimento tecnológico no Brasil”, afirma Azevedo.

– Ferramentas de Inteligência Artificial podem discriminar pessoas. 

“A discriminação algorítmica é um dos riscos presentes no uso de sistemas de IA que exigirão controles e explicações dos desenvolvedores de IA”, salienta o advogado.

Segundo ele, tratamentos de dados que gerem resultados discriminatórios podem suscitar a aplicação da LGPD, fazendo com que os provedores dessas aplicações sejam responsabilizados perante os cidadãos prejudicados. Já há precedentes nesse sentido na União Europeia.

– Ferramentas de Inteligência Artificial podem violar direitos de propriedade intelectual. 

O advogado explica que atualmente há um debate global sobre eventuais violações de direitos autorais dos criadores de conteúdos que são utilizados como base de aplicações de IA.

“A resposta para essa questão dependerá principalmente do quanto os materiais de base são reproduzidos – mesmo que parcialmente – pela ferramenta, ou, de outro lado, se são apenas utilizados para aprendizagem da máquina. Isso porque o direito autoral protege a expressão, e não as ideias subjacentes às obras.” A recomendação é não reproduzir os conteúdos gerados por ferramentas de IA, mas que estes sirvam de inspiração para criações independentes, realizadas pelo usuário. “Outra alternativa é contratar versão paga das ferramentas, a qual normalmente possui mais salvaguardas contra a violação de direitos de terceiros e, inclusive, permite a inserção de modelos de documentos do próprio usuário”, manifesta.

– Ferramentas de Inteligência Artificial podem contribuir para disseminar notícias falsas e desinformação. 

“A própria OpenAI adverte em seu website que, às vezes, o ChatGPT escreve respostas que soam muito plausíveis, mas que são incorretas ou não fazem sentido. Isso acontece porque esses modelos de linguagem aprendem a imitar padrões de textos que foram alimentados durante o treinamento, e não porque ele de fato compreende o que está escrevendo”, salienta o advogado. “É importante sempre checar a informação trazida pelo ChatGPT, a fim de se evitar a reprodução de notícias falsas.”

O PL das Fake News, atualmente em tramitação, tenta endereçar o tema. “A matéria é extremamente controvertida pois envolve dois valores igualmente importantes para a sociedade: a liberdade de expressão, de um lado, e o combate à desinformação e às fraudes em geral, de outro”, finaliza.

Por Redação