Ética e inteligência artificial: uma associação imprescindível para regulação e utilização justa e positiva da tecnologia

A crescente utilização da inteligência artificial traz, além de benefícios, dilemas éticos que não podem ser negligenciados. Veja como a regulação pode mitigar riscos e promover o uso responsável da tecnologia.
Inteligência artificial e ética - CRON

É indiscutível que a inteligência artificial tem transformado vários setores, incluindo a indústria, a medicina e o direito. Trata-se de uma tendência irrefreável com avanços tecnológicos que proporcionam inúmeros benefícios. 

Contudo, ao mesmo tempo em que surgem tantos ganhos, também surgem inúmeros dilemas éticos que precisam ser observados, estudados, catalogados e, por vezes, corrigidos. 

Assim, por mais que, à primeira vista, inteligência artificial e ética façam parte de dois grupos de estudo distintos, eles se conectam cada vez mais: quanto maior o avanço tecnológico, maiores os dilemas éticos referentes à possibilidade de utilização ampla e irrestrita, como enviesamento dos próprios algoritmos, pouca transparência de dados, entre muitos outros.

O objetivo deste artigo, portanto, é demonstrar a necessidade dessa associação entre ética e inteligência artificial, dando destaque para a regulamentação da matéria, em especial no Brasil.

O que é ética?

Ética é uma palavra que deriva do grego antigo, mais especificamente do termo ethos. Ethos, para os gregos, possuía duas variações:

  1. Êthos, que significava caráter; e
  2. Éthos, que inicialmente indicava costume, mas evoluiu para abarcar a ideia também de moral. 

A ética, assim, é um conjunto de princípios que indicam posturas consideradas corretas ou incorretas. Quando se fala sobre ética, discute-se sobre antagonismos como bem e mal, justiça e injustiça, certo e errado. 

A ética orienta, portanto, decisões cotidianas dos seres humanos, balizando aquilo que se considera adequado e inadequado, seja em questões pessoais que envolvam amigos e familiares ou, inclusive, questões de políticas públicas.

Tradicionalmente, a ética é um campo do conhecimento estudado pela filosofia. No entanto, com a ampliação das interações sociais, tem sido cada vez mais analisada e debatida, tendo amplo destaque no campo da inteligência artificial, em especial quando falamos sobre inteligência artificial no direito.

O que é inteligência artificial (IA)?

De uma forma mais simplificada, podemos considerar que inteligência artificial (IA) é um conjunto de soluções tecnológicas que buscam se assemelhar, isto é, simular, a inteligência humana.  

De acordo com a Resolução nº 332/2020 do Conselho Nacional de Justiça, o conceito técnico de inteligência artificial é:

“um conjunto de dados e algoritmos computacionais, concebidos a partir de modelos matemáticos, cujo objetivo é oferecer resultados inteligentes, associados ou comparáveis a determinados aspectos do pensamento, do saber ou da atividade humana”.

Desse modo, o que se pretende com a inteligência artificial, sem dúvidas, é a possibilidade de alcançar soluções para problemas complexos da mesma forma como os seres humanos são capazes de fazer.

Em linhas gerais, a inteligência artificial conta com três elementos principais: input, algoritmo e output. O algoritmo ainda se divide em algoritmo programado e não programado[1]. 

A melhor forma de entender esses conceitos é observar a forma como se relacionam na prática.

Nos algoritmos programados, há o fornecimento de informações, isto é, os inputs, e o programa fará aquilo pelo qual foi planejado para executar, gerando, ao final, um resultado, ou seja, o output. 

Nos casos de algoritmos não programados, também são fornecidas informações (input) e o programa deve fornecer respostas (output) para o dilema que lhe foi apresentado. Contudo, nessa hipótese, a própria máquina aprende sozinha e alcança uma conclusão: daí a utilização de um termo muito conhecido por quem atua na área ou já estudou algo sobre o tema, o machine learning (aprendizado de máquina)

Com o machine learning, os sistemas tanto aprendem quanto melhoram seu desenvolvimento a partir de dados por ele consumidos. O exemplo mais famoso, atualmente, é o ChatGPT, que foi treinado a partir de consumo de dados.

Qual a relação entre inteligência artificial e ética?

Com o avanço constante da inteligência artificial, cada vez mais surgem questões acerca dos seus limites e da adequação de sua utilização. A grande dúvida é: até que ponto é ético (ou seja, correto), utilizarmos de inteligência artificial? Até que ponto ela é neutra e não produz enviesamentos, discriminações ou disparidade de armas, beneficiando aqueles mais ricos que podem pagar por ela?

É por isso, inclusive, que os mais variados setores têm debatido sobre seu uso e implicações. Debate-se a utilização da inteligência artificial no cinema – seja na criação de roteiros, seja na própria utilização da imagem dos atores –, na literatura, na engenharia, na medicina, no direito e em várias outras áreas do conhecimento. Portanto, esses dois temas, que a princípio são destoantes entre si, têm convergido e gerado incontáveis debates.

Quais questões éticas a inteligência artificial pode levantar?

Sem dúvidas, os debates éticos gerados em torno da inteligência artificial são inúmeros. Para fins deste artigo, contudo, focaremos em apenas quatro: (i) complicações do mercado de trabalho, (ii) vieses e discriminação, (iii) privacidade e segurança de dados, (iv) responsabilidade e transparência na tomada de decisão.

Complicações do mercado de trabalho

Em 2023, roteiristas e atores de Hollywood entraram em greve, lutando por um acordo sobre a utilização da inteligência artificial no cinema.

De um lado, os roteiristas criticavam a utilização de inteligência artificial e algoritmos para a criação de textos de filmes e séries, substituindo-os. Além disso, os atores questionavam a utilização de suas imagens por meio de recursos de inteligência artificial. Esses recursos permitem gravar cenas completas, inclusive com reprodução de voz e expressões faciais, com base apenas nos dados já existentes (filmes ou séries anteriores, por exemplo).

Do outro lado, empresas de produção de filmes e séries, como a Sony, a Disney e a Warner, por exemplo, têm testado a IA nos últimos anos, buscando reduzir custos. Alguns exemplos de como a tecnologia vem sendo utilizada são as réplicas digitais incrivelmente realistas, para “ressuscitar” estrelas de cinema falecidas, e a geração de figurantes por computador para diminuir a necessidade de atores em cenas de batalha. 

Apesar de a questão ter se destacado como uma “greve de Hollywood”, outras profissões possuem o mesmo receio. 

Ainda no campo da produção audiovisual, muitos dubladores sinalizaram seu inconformismo, uma vez que o avanço da inteligência artificial já tem permitido a tradução instantânea na própria voz do falante, eliminando a necessidade da dublagem.

Na medicina, a criação de softwares cada vez mais precisos que permitem identificar doenças, além de cirurgias realizadas por máquinas sofisticadas, têm gerado receio nos profissionais.

A inteligência artificial no direito também tem gerado muitas inseguranças. Isso porque, sistemas como o ChatGPT se tornaram excelentes executores de documentos jurídicos (sejam contratos ou até mesmo petições submetidas ao judiciário). Há um temor de que parte dos advogados sejam eliminados do mercado de trabalho.

Alguns estudiosos da área tecnológica afirmam que esse temor é desnecessário e que não haverá substituição de profissões, mas apenas um aprimoramento dos profissionais, que se aperfeiçoarão em outras competências.

Nesse contexto, somente uma avaliação ética é capaz de indicar se é adequado que a popularização da inteligência artificial torne alguns trabalhos obsoletos, aperfeiçoando os profissionais em outras áreas e habilidades, ou se, por outro lado, é necessário refreá-la um pouco, impedindo que seja utilizada como substituição de determinadas profissões.

Vieses e discriminação

Para além das repercussões no mercado de trabalho, que são mais conhecidas e debatidas, existem outros debates a respeito da inteligência artificial que devem ser analisados através da ética.

Dessa maneira, perceba que por detrás de cada sistema de inteligência artificial está um ser humano. É esse indivíduo ou grupo que cria o algoritmo e introduz os sistemas de execução. Esse algoritmo, portanto, está sujeito à influência e ao próprio enviesamento e tendências discriminatórias daquele indivíduo ou grupo que o tenha projetado.

Um dos exemplos mais famosos é o do COMPAS (Correctional Offender Management Profiling for Alternative Sanction), algoritmo utilizado nos Estados Unidos como uma ferramenta auxiliar para decisões a respeito da liberdade provisória para presos em flagrante. O COMPAS foi criado para cruzar informações do indivíduo preso, determinando a possibilidade de reincidência criminosa. 

A partir do resultado por ele fornecido, o juiz avalia se cabe ou não a liberdade provisória. Estudos empíricos realizados, concluíram, contudo, que o algoritmo do COMPAS tende a considerar que, em situações similares, pessoas negras possuem maior risco de reincidência do que pessoas brancas. Ou seja, o algoritmo, enviesado, produz resultados discriminatórios.

Se não bastasse, além do risco de influência do grupo ou indivíduo que tenha criado o próprio algoritmo, há também o risco de que ele seja abastecido com informações preconceituosas, gerando tendências inadequadas e prejudiciais à sociedade. Podemos citar, como exemplo, o robô Tay da Microsoft.

A ideia da Microsoft era lançar o robô Tay para interagir com usuários do Twitter, especialmente adolescentes, sendo perspicaz ao conversar com humanos e chamando atenção para a rede social. Contudo, ao ser abastecido com o conteúdo do Twitter, em menos de um dia o robô começou a enviar mensagens preconceituosas (envolvendo racismo, antissemitismo e xenofobia) e teve que ser desativado.

Privacidade e segurança dos dados

Os modelos de inteligência artificial possuem capacidade para coletar diversas informações pessoais e analisá-las com agilidade. Na verdade, dados pessoais vêm sendo amplamente utilizados para o treinamento das ferramentas, levantando discussões éticas a respeito da forma como essas informações são catalogadas e armazenadas. Além disso, questiona-se a sua utilização com interesses desleais, prejudicando o bem estar dos indivíduos envolvidos.

Recentemente, inclusive, a Autoridade Nacional de Proteção de Dados (ANPD) emitiu uma Medida Preventiva suspendendo a vigência da nova política de privacidade da Meta no Brasil, que permitia o uso de dados pessoais para treinamento de sistemas de IA. A medida foi tomada após a ANPD constatar violações à Lei Geral de Proteção de Dados (LGPD), incluindo o uso inadequado de hipótese legal para o tratamento de dados pessoais e a falta de clareza na divulgação de informações sobre a política de privacidade.

Essa intervenção ressalta a importância de regulamentações robustas para proteger a privacidade dos usuários e assegurar que suas informações não sejam exploradas de maneira indevida. A relação entre inteligência artificial e ética aqui se dá para garantir o respeito aos direitos de privacidade e segurança dos dados pessoais.

Responsabilidade e transparência na tomada de decisões

Outro dilema ético que surge é a possibilidade de favorecimento de dados pouco transparentes, algo também conhecido como “opacidade dos algoritmos”.

Vale usar como exemplo, mais uma vez, o COMPAS. O COMPAS havia indicado que Eric Loomis, um norte-americano, ao ser preso, possuía alto risco de reincidência. Diante disso, não lhe foi concedida liberdade provisória. Por mais que Loomis tenha recorrido e questionado a decisão, os tribunais estadunidenses não informaram quais foram os critérios utilizados pelo COMPAS para considerá-lo um sujeito com alto risco de reincidência[2].

Dessa maneira, recorrentemente, não é possível conhecer os dados utilizados pela inteligência artificial para se alcançar um resultado, o que implica em uma ausência de transparência. E, claro, essa ausência de transparência pode impactar nas decisões tomadas com apoio da inteligência artificial.

Regulamentação do uso da inteligência artificial no Brasil

Diante dessas questões éticas, debate-se a necessidade de maior regulamentação a respeito da inteligência artificial. Algumas diretrizes já foram criadas no cenário mundial, como, por exemplo, aquelas criadas pela OCDE, Unesco, Comissão Alemã de Ética de Dados e pelo ministério da economia do Japão.

Aliás, a diretriz criada pela OCDE, em 2019, estabeleceu que alguns princípios devem ser observados para a utilização da inteligência artificial, como, por exemplo, valores centrados no ser humano e na justiça, com transparência, devendo contribuir para o bem-estar de todas as partes envolvidas, gerando um impacto positivo não só para pessoas, como para o meio ambiente.

No Brasil, chama a atenção a Resolução 332/2020 do Conselho Nacional de Justiça (CNJ) e o Projeto de Lei nº 2.338/2023, que busca estabelecer princípios e diretrizes para a aplicação da inteligência artificial.

Diretrizes para lidar com os desafios entre inteligência artificial e ética 

A Resolução nº 332 do Conselho Nacional de Justiça dispõe que sempre que se utilizar mecanismos de inteligência artificial no processo de tomada de decisões, deve-se respeitar critérios éticos, isto é, aplicando transparência, previsibilidade, critérios de auditoria e imparcialidade das decisões judiciais.

A resolução prevê que o modelo de inteligência artificial, com seus algoritmos, deve ser testado antes do uso amplo pelo judiciário, para que se possa identificar preconceitos e tendências discriminatórias. Uma vez verificado que o modelo possui tendência preconceituosa e enviesada, deve-se adotar medidas corretivas ou, se infrutíferas, deve ser descontinuado, registrando as razões pelas quais optou-se por encerrá-lo.

A resolução do CNJ também esclarece o que significa, efetivamente, transparência em modelos de inteligência artificial, em especial na inteligência artificial aplicada ao direito. Desse modo, conforme o art. 8º daquela resolução, transparência significa:

  • Divulgação responsável dos dados, 
  • Indicação não só dos objetivos, como também dos resultados pretendidos com o uso da inteligência artificial;
  • Mecanismos de auditoria e, principalmente, uma explicação satisfatória a respeito da forma de realização dessa auditoria.

Para evitar o enviesamento e as tendências discriminatórias, a resolução também prevê que os dados utilizados no treinamento da inteligência artificial aplicada ao direito devem ser oriundos de fontes reconhecidamente seguras, em especial, fontes governamentais.

Tal resolução prevê, ainda, que as equipes de pesquisa, desenvolvimento e implantação dos sistemas de inteligência artificial devem ser plurais, em busca de ampla diversidade de gênero, raça, etnia, cor, orientação sexual, pessoas com deficiência, entre outros, para evitar, ao máximo, vieses discriminatórios, garantindo participação representativa em todas as etapas do processo de criação dos algoritmos.

Além disso, diante dos riscos e dilemas éticos envolvidos na utilização da inteligência artificial, é claro que há necessidade de tornar seus operadores cada vez mais responsáveis em relação à criação e uso. Por esse motivo, a Resolução nº 332/2020 do Conselho Nacional de Justiça prevê punição a todos aqueles operadores que tenham descumprido os princípios e regras estabelecidos.

Aplicações da inteligência artificial na advocacia

Apesar de todas as discussões éticas, a inteligência artificial na advocacia tem o potencial de revolucionar o sistema jurídico, com automação de tarefas repetidas, elaboração de contratos digitais, petições e outros documentos jurídicos, confecção de pesquisa jurisprudencial avançada, com, inclusive, análise preditiva dos resultados judiciais. 

Os benefícios, se bem utilizados, são incontáveis. É claro, porém, que envolverá a necessidade de uma atualização constante para aprimoramento dos advogados, que deverão, sobretudo, aprender a associar seus serviços com aquilo que a inteligência artificial proporciona.

Conclusão

A utilização da inteligência artificial cria desafios éticos que devem ser estudados com a seriedade e o zelo necessários. É necessário, portanto, criar uma regulamentação adequada, aliando inteligência artificial e ética, para uma utilização justa e positiva da tecnologia. 

Esse diálogo entre ética e inteligência artificial deve ser contínuo e cada vez mais aprofundado, garantindo à sociedade que o avanço tecnológico acompanhará os valores humanos fundamentais

No direito e mais especialmente na advocacia, é indiscutível que os profissionais deverão estar sempre atualizados, acompanhando o avanço tecnológico, para que possam oferecer as melhores soluções aos seus clientes. 

Uma das diretrizes básicas do escritório CRON Advocacia é que todos os seus funcionários estejam sempre na vanguarda da inovação tecnológica, garantindo que seus clientes se beneficiem ao máximo do avanço da inteligência artificial no direito.

Se você tem dúvidas ou precisa de orientação sobre esse tema ou gostaria de conhecer melhor os nossos serviços, entre em contato conosco

Caso tenha gostado do nosso conteúdo, por favor, avalie-nos no Google. Sua opinião é extremamente valiosa para nós!


[1] e [2]: JUNIOR, Claudio do Nascimento Mendonça, NUNES, Dierle José Coelho. Desafios e oportunidades para a regulação da inteligência artificial: a necessidade de compreensão e mitigação dos riscos da IA. Revista Contemporânea, v. 3. n. 7. ISSN: 2447-0961, DOI: 10.56083/RCV3N7-024. Publicado em 07 jul. 2023, p. 7763 e 7764.

Larissa Rodrigues - CRON
Larissa Rodrigues
Advogada | larissa@cron.adv.br | + posts

Bacharel em Direito pela Universidade Federal de Minas Gerais (UFMG).

Compartilhar:

Posts Recentes

Envie-nos uma mensagem