Por: Daniel Pinheiro Pereira
A inteligência artificial (IA) já faz parte de boa parte da rotina das pessoas
que, muitas vezes, nem ao menos se dão conta disso. Interações com assistentes
virtuais e sugestões oferecidas pelos mecanismos de buscas ou pelas
plataformas de streaming são apenas alguns dos exemplos mais simples de
utilização.
A revolução ocorrida com o surgimento do ChatGPT, em meados de
novembro de 2022, colocou a IA em grande evidência no cenário mundial e foi
possível perceber um crescimento exponencial de aplicações utilizando desse tipo
de tecnologia generativa.
Com capacidade de automatizar processos, analisar grandes volumes de
dados e aprender com padrões, a IA opera de forma transversal nos mais
diversos setores da economia como na indústria, na medicina, na publicidade, nos
investimentos, no entretenimento e está redefinindo a maneira como empresas,
governos e indivíduos interagem.
Obviamente essa transformação gerou uma corrida global para
regulamentação da IA. Recentemente, em março de 2024, foi aprovado o AI ACT
que é a regulação da IA na União Europeia e pretende garantir o desenvolvimento
e utilização da tecnologia de forma segura, ética, responsável e atinge até mesmo
fornecedores estrangeiros, desde que seus sistemas impactem os indivíduos no
território da UE.
Anteriormente, no último trimestre de 2023, os Estados Unidos já haviam
anunciado diretrizes para o uso seguro da IA em seu território, através de uma
ordem executiva do presidente Joe Biden com uma abordagem mais abrangente
sobre proteção aos riscos potenciais.
No Brasil, ao tempo em que este artigo é elaborado, tramita no Congresso
o PL 2.338/23 que, provavelmente, dará origem ao nosso Marco Regulatório da
Inteligência Artificial. O texto atual é substitutivo, apresentado pelo Senado, ao PL
21/2020, que possuía uma redação mais principiológica.
O texto enfatiza a importância dos direitos fundamentais, a transparência
que deve permear os sistemas de IA, impõe uma classificação de riscos dos
diferentes modelos de IA, além de estabelecer responsabilidades para
fornecedores e operadores da tecnologia.
O projeto ainda traz capítulo destinado aos direitos autorais possibilitando
que titulares de direitos proíbam a utilização de seus conteúdos no
desenvolvimento dos sistemas de IA. Além disso, o fornecedor de sistemas de IA,
que utilize conteúdo protegido por direitos autorais, deverá informar quais obras
foram utilizadas no treinamento dos sistemas.
De uma maneira geral, percebe-se que as diretrizes globais, que buscam
regular a IA, acabam reforçando ainda mais, direta ou indiretamente, a
necessidade das empresas em manter uma cultura de governança e compliance,
independentemente se os outputs gerados por seus sistemas de IA irão impactar
pessoas de dentro ou de fora da corporação.
Inobstante as legislações específicas, muitas delas ainda em elaboração,
como a brasileira, devemos lembrar a já incidência dos demais estatutos vigentes
como Código Civil, Código de Defesa do Consumidor, Proteção de Dados, Leis
trabalhistas, o que nos deixa muito claro que o dever de vigilância não fica restrito
apenas aos desenvolvedores fornecedores de sistema.
Empresas contratantes desses serviços, mesmo que leigas no assunto,
também devem manter monitoramento constante sobre o comportamento da
tecnologia, a fim de evitar e mitigar riscos apresentados pelo sistema.
Nesse sentido, imagine um contratante que pretende oferecer aos seus
clientes um chatbot dotado de IA e em determinado momento o sistema comete
“alucinações” ou profere mensagens de conteúdo discriminatório aos usuários.
Nesse caso, mesmo que a empresa não tenha propriamente desenvolvido aquele
aplicativo, estará enquadrada numa cadeia de responsabilidade perante o
ofendido/vítima. As corporações deverão estar atentas e adotar políticas de
mitigação de riscos que partem desde uma fase prévia à contratação de
determinado sistema, passam por um período exaustivo de testes antes de
disponibilizá-lo e que seguirá através de monitoramento até o fim do ciclo de vida
daquela aplicação.
Embora a regulamentação da IA pareça ser importante para proteger os
direitos e interesses dos cidadãos, legislar sobre tecnologia é sempre um desafio
tendo em vista o risco da norma se mostrar obsoleta, ou seja, não acompanhar o
avanço tecnológico e, por consequência, se mostrar inútil ou insuficiente.
Além disso, é essencial garantir que as regulamentações não criem
obstáculos desnecessários para a inovação e o desenvolvimento da tecnologia. É
necessário um habilidoso jogo de equilíbrio entre promover a inovação e proteger
os valores e direitos fundamentais da sociedade. Regulamentações
excessivamente restritivas correm o risco de sufocar a criatividade e a
experimentação necessárias para impulsionar avanços significativos.
Escritório Aliado: Lippert Advogados