Ver mais notícias

INTELIGÊNCIA ARTIFICIAL E DISCRIMINAÇÃO: OS VIESES DO RECRUTAMENTO 4.0

Vivemos um mundo cada vez mais digital, a inteligência artificial domina o mundo desde que nascemos, nossas casas, o mundo corporativo, nossas vidas, nos movimenta, influencia e nos facilita, muitas vezes mais inteligente que o próprio cérebro humano e quase sempre mais rápida e eficaz.

A inteligência artificial é fundamentada em algoritmos, muitas vezes treinados, mas nem sempre, utilizando-se de entradas e saídas conhecidas, o que envolve o aprendizado de máquina ou machine learning.

Turing, no ano de 1950, tentou contornar as dificuldades à pergunta "podem as máquinas pensar?" É muito difícil de se definir o que significa pensar.  Turing superou a pergunta se as máquinas podem pensar por outra formulação, embasada no desafio do jogo da imitação ou "teste de Turing" [1]. O computador é treinado via programação para imitar um ser humano pensante, usando de um sistema lógico de alternativas. A máquina recebe treinamento, via programação, para esta imitação, por meio de um sistema lógico de alternativas. A nova pergunta que se alinhou na sequência foi "será que existem computadores digitais que se comportam bem no jogo da imitação?" [2].

A aprendizagem supervisionada é a mais comum, refere-se a algoritmos que aprendem por meio de um conjunto de dados de treinamento, de modo que quando um novo elemento chega aos dados de entrada, o mesmo poderá prever também as variáveis de saída que lhe correspondem e o mesmo poderá ser classificado como algoritmo de classificação ou algoritmo de regressão.

Já a aprendizagem não supervisionada consiste naquela em que os dados não são rotulados com o escopo de aprendizagem, não se utilizando de atributos de saída.

Por fim, a terceira classificação consiste na aprendizagem por reforço, na qual se ensina o software pela prioridade e qual a ação que este deverá priorizar, como um automóvel autônomo que deverá chegar ao seu destino priorizando que não haja qualquer acidente independentemente de outras condições.

O que podemos identificar de comum nos três tipos de aprendizado é que o algoritmo irá aprender com base em experiências passadas. Importante destacar que esta divisão não é rígida, podendo o mesmo algoritmo misturar as diversas formas de aprendizado, já que este poderá, por exemplo, ter um modelo descritivo que após validação proveja previsões, sendo preditivo.

Nas relações de trabalho podemos ter vários benefícios, como automação e melhoria no desempenho de tarefas, redução de custos, otimização do processos de trabalho dos empregados, permitindo inclusive que os empregados ignorem tarefas repetitivas, dedicando-se às tarefas mais complexas, mas não são apenas benefícios e deveremos ter cuidados.

Logo, a implantação de inteligência artificial no local de trabalho poderá ter efeitos tanto positivos como negativos nas condições de trabalho e no bem-estar dos empregados. A inteligência artificial poderá, por exemplo, fornecer informações úteis para melhorar a segurança do meio ambiente de trabalho. 

A natureza preditiva da inteligência artificial, decorrente de uma aprendizagem supervisionada, poderá ser utilizada para detectar até as falhas em um sistema de produção. Um colega robô poderá mesmo agilizar pesquisas e outras análises que poderiam consumir horas na busca de informações.

No entanto, devemos ter cuidados com os riscos que as novas tecnologias poderão trazer para a empresa e que possam vir a gerar prejuízos, incluindo-se ações individuais e coletivas, ou mesmo sanções da Autoridade Nacional de Proteção de Dados, adiadas para agosto de 2021, pela Lei 14010./2021, como com uma discriminação no tratamento de dados sensíveis de candidatos ou candidatas, devido aos vieses que podem ser oriundos ou originados pelo aprendizado da inteligência artificial e que poderão inclusive atingir interesses metaindiviuais dos titulares de dados que se habilitaram ou poderão se habilitar para o processo seletivo.

A máquina aprende com os dados que lhe foram inseridos, muitas vezes sendo "tão inteligente" que identifica e vai mesmo além do que o homem pretende ensinar; assim, ela poderia, mesmo sozinha, chegar a conclusões não esperadas, ou potencializar os erros e as falhas,  diferenciando trabalhadores ou sendo um chefe tão efetivo que pune os próprios trabalhadores, trazendo efeitos negativos e práticas ilícitas como assédio moral, se utilizada para avaliação de produtividade ou práticas discriminatórias, se utilizada em processos seletivos.

Se um sistema de IA for utilizado para determinar a duração e o tempo de cada tarefa atribuída a um trabalhador, a consequência poderá ser a diminuição de sua autonomia e o próprio medo do trabalhador perder seu emprego, já que a máquina não levará em consideração problemas de saúde, pausas para toiletes ou banhos, se o empregado mora no local de trabalho, que foi o que já ocorreu, por exemplo, com um algoritmo utilizado pela Amazon, que sozinho preparava advertências e mesmo dispensava trabalhadores, tendo sido a baixa produtividade a razão pela qual mais de 300 empregados perderam o emprego na unidade de Baltimore, em apenas um ano, o que poderíamos denominar de verdadeira "escravatura eletrônica".

"Em geral, no setor de logística são usados softwares de medição para calcular a produtividade, mas no nosso país não foi utilizado um sistema que rastreia o desempenho dos trabalhadores e estabelece automaticamente aqueles a serem demitidos com base na incapacidade de atingir determinadas metas" [3].

Também é possível que o aprendizado, a partir de um conjunto de dados, induza um viés, discriminando e repetindo preconceitos anteriores, mas muitas vezes uma região poderá ter mais homens, mulheres, brancos, negros, o que poderia influenciar no aprendizado da máquina.

Machine learning no recrutamento 4.0
Uma das problemáticas da machine learning é a possibilidade de tratamento diferenciado, de uma discriminação negativa do titular de dados, que ofenderia já diretamente a Lei Geral de Proteção de Dados. O artigo 6, inciso IX, da LGPD: "IX - não discriminação: impossibilidade de realização do tratamento para fins discriminatórios ilícitos ou abusivos" [4].

Se tratamos dados sensíveis adotando uma das bases legais do artigo 11 da Lei 13.709/2018 temos uma prática lícita, mas desde que o tratamento não seja discriminatório, uma vez, que, devemos atender sempre o princípio da boa-fé e os demais princípios da Lei Geral de Proteção de Dados, previstos no artigo 6º.e que incluem não apenas a finalidade, adequação, necessidade, que equivale à minimização no Regulamento Geral de Proteção de Dados da União Europeia, como a transparência, prevenção, segurança, qualidade de dados, livre acesso, responsabilidade e prestação de contas, assim como o princípio da não discriminação. Estes dez princípios deverão estar sempre concomitantemente presentes em todos os tratamentos de dados ou teremos uma desconformidade à Lei Geral de Proteção de Dados.

A discriminação positiva, ou real, para corrigir desigualdades, protegendo minorias, não é vetada pela LGPD, mas a discriminação negativa ofende um dos princípios basilares da LGPD e se estamos diante de vieses em processo seletivo passamos a enfrentar práticas discriminatórias de dados sensíveis por algoritmos e a empresa será responsável por esta prática já que o robô será equiparado a um empregado, ou preposto do empregador, ainda que dotado de inteligência artificial e não humana, nos termos do artigo 932 do código civil: "são também responsáveis pela reparação civil: (…) 'III - o empregador ou comitente, por seus empregados, serviçais e prepostos, no exercício do trabalho que lhes competir, ou em razão dele'" [5].

 Logo estamos diante de um alto risco se os sistemas de IA possuírem  vieses discriminatórios, no sentido de que esses sistemas podem favorecer ou prejudicar injustamente algumas pessoas.

O artigo 20 da LGPD também dispõe sobre o tratamento automatizado e enfrenta a problemática da discriminação pela inteligência artificial:

"Artigo 20. O titular dos dados tem direito a solicitar a revisão de decisões tomadas unicamente com base em tratamento automatizado de dados pessoais que afetem seus interesses, incluídas as decisões destinadas a definir o seu perfil pessoal, profissional, de consumo e de crédito ou os aspectos de sua personalidade (Redação dada pela Lei nº 13.853, de 2019).

§ 1º O controlador deverá fornecer, sempre que solicitadas, informações claras e adequadas a respeito dos critérios e dos procedimentos utilizados para a decisão automatizada, observados os segredos comercial e industrial.

§ 2º Em caso de não oferecimento de informações de que trata o § 1º deste artigo baseado na observância de segredo comercial e industrial, a autoridade nacional poderá realizar auditoria para verificação de aspectos discriminatórios em tratamento automatizado de dados pessoais" [6].

Com base neste dispositivo garante-se a possibilidade de revisão de decisões tomadas unicamente com base em tratamento automatizado de dados pessoais e que afetem os seus interesses. Poderá a Autoridade Nacional de Proteção de Dados realizar uma auditoria para verificação de aspectos discriminatórios em tratamento automatizado e por meio de uma inteligência artificial, de dados pessoais.

Recrutamento 4.0
Em decorrência do avanço e surgimento de novas tecnologias, incluindo a inteligência artificial, novas máquinas pensantes e robôs, que podem substituir o homem em determinadas tarefas, como parte do recrutamento, oferecendo maior efetividade e velocidade no desenvolvimento de tarefas, incluindo parte do processo de recrutamento, as empresas vêm aderindo a estas novas tecnologias pensantes, como a leitura e seleção de currículos e o que poderia demorar horas poderá ser realizado agora em apenas segundos e com a condução de um recrutamento muito mais eficaz. Nasce assim o recrutamento 4.0 , mas os riscos devem ser sempre avaliados em contraposição aos benefícios oferecidos.

No recrutamento 4.0, o software, o novo recrutador, o qual passa a ser um robô, recebe treinamento com base em dados de processos seletivos anteriores dos últimos anos, recebendo informações de candidatos com o objetivo de treinamento da máquina.

Case Amazon
No ano de 2014 a empresa de comércio eletrônico Amazon lançou um sistema algorítmico com o qual esperava otimizar recursos e economizar tempo e mão de obra, além de encontrar um sistema neutro de contratação de pessoal, mas não ocorreu o que esta esperava e a Amazon teve que demitir o seu mais novo recrutador, já que este acabou sendo sexista [7].

O sistema recebeu informações, no treinamento, de candidatos a empregos na Amazon durante um período de dez anos, sendo treinado para observar padrões. Ocorre que, a maioria destes eram homens, o que poderia ter resultado no preconceito que afetou sua tomada de decisão. Desta forma o algoritmo "aprendeu sozinho que os candidatos do sexo masculino eram uma preferência". A tecnologia funcionava analisando os formulários de emprego e dando aos candidatos uma pontuação de uma a cinco estrelas [8].

Em 2015, restou claro o viés sexista na seleção de candidatos pela empresa, principalmente daqueles que buscavam vagas mais técnicas e tipicamente masculinas, como desenvolvedor de software e onde os dados de treinamento eram na sua maioria de pessoas do sexo masculino.

Em seguida, o algoritmo passou a penalizar currículos que incluíam a palavra "feminino" [9].

O programa foi revisado para tentar erradicar o preconceito, mas a Amazon não podia mais confiar nele e preferiu abandonar o projeto.

Conclusão
A inteligência artificial é muito bem vinda na eliminação de tarefas pesadas e repetitivas, mas podemos nos deparar por vieses, muitas vezes incrontroláveis pelo ser humano, já que dependendo do treinamento dado à máquina nem sempre os conseguiremos eliminar.

Uma inteligência artificial que concede um salário mais alto a um  empregado homem que a uma mulher terá viés discriminatório, assim como aquela que priorize ou elimine homens ou mulheres.

Se eliminamos maçãs do aprendizado da máquina esta não reconhecerá mais maçãs, o que teria uma solução mais simples, mas não podemos eliminar "homens" para não discriminar mulheres. E se o robô estiver tratando dados de currículos de uma atividade mais buscada por homens?  Como aparentemente ocorreu com a Amazon. Ou uma região onde exista uma prevalência de pessoas brancas, ou do sexo masculino?

Não poderemos eliminar todos os currículos de candidatos homens, como a uma maçã,  para contermos os vieses discriminatórios. O google conseguiu consertar o seu algoritmo racista eliminando todas as imagens de gorilas dos dados de treinamento e conseguiu resolver o problema, como fariamos no caso das maçãs.  Muitas vezes as práticas ilícitas, de fato, ocorrem em virtude do que o operador que está atrás da máquina programou, mas nem sempre...não podemos eliminar todos os curriculos de homens para resolver este problema, nem currículos sem outras características sensíveis para beneficiarmos minorias, para ensinar a máquina a contratar equitativamente homens e mulheres. Poderíamos até pensar em inserir o mesmo número de currículos de homens e mulheres, mas ainda assim poderiamos descobrir outros dados sensíveis e outros vieses novos que podem surgir...