IA E IMPULSIONAMENTO NAS REDES SOCIAIS: DILEMA DA DISSEMINAÇÃO DE FAKE NEWS
No último dia 13 de março, o Centro de Inovação, Administração e Pesquisa do Judiciário da FGV Conhecimento, com a liderança do ministro Luis Felipe Salomão, do STJ (Superior Tribunal de Justiça), promoveu um seminário para discutir sobre a liberdade de expressão, redes sociais e democracia, que reuniu especialistas, representantes dos Poderes Legislativo, Executivo e Judiciário, além de representantes da sociedade civil. A partir de uma ótica estritamente técnica, destacamos que no âmago desse debate estão os temas de cidadania digital, regulação e responsabilização das redes sociais pelo impulsionamento de determinados conteúdos.
Disney
De fato, a inserção da população mundial nas redes sociais e o impacto dessas mídias na vida cotidiana são fenômenos de complexidade crescente. Cabe recordar alguns eventos recentes que, de modo direito e indireto, sofreram influência dessas plataformas [1], como o referendo do Brexit, bem como as eleições americanas e a brasileira.
No Brasil, as estatísticas [2] das redes sociais impressionam: são 171,5 milhões de usuários ativos nas redes sociais; o que representa 79,9% da população brasileira. Os brasileiros passam, em média, 3 horas e 49 minutos por dia nas redes, o que faz com o país seja o segundo com maior tempo médio gasto nessas mídias.
É nesse contexto que as preocupações com a regulação desse espaço aparecem. Apesar das dificuldades inerentes à politização da matéria, algumas premissas objetivas devem ser colocadas: a primeira é a de que o ambiente digital não pode ser livre de interferências normativas. Se no espaço físico é preciso obedecer regras claras no que diz respeito à privacidade, à honra e às instituições; o mesmo deve ser replicado para os perfis sociais.
Muitas das manifestações agressivas ou contrárias às diretrizes das redes sociais ocorrem por meio de perfis falsos. Nesse sentido, também merece destaque o fato de que a Constituição prevê como direito fundamental a livre manifestação de pensamento, porém é vedado o anonimato (artigo 5º, IV).
Com relação à responsabilização pelos conteúdos, cabe fazer uma diferenciação entre a publicação de conteúdo de terceiros e a monetização de conteúdos. O artigo 19 do Marco Civil da Internet prevê que o provedor de aplicações de internet (incluídas as redes sociais) somente poderá ser responsabilizado civilmente por danos decorrentes de
conteúdo gerado por terceiros se, após ordem judicial específica, não tomar as providências para tornar indisponível o conteúdo apontado como infringente, nos limites técnicos do seu serviço e dentro do prazo assinalado, ressalvadas as disposições legais em contrário.
Essa lei estabelece a responsabilização subsidiária no caso de publicação que viole a intimidade decorrente da divulgação, sem autorização de seus participantes, de imagens, de vídeos; ou de materiais que contenham cenas de nudez ou de atos sexuais de caráter privado quando deixar de promover a indisponibilização desse conteúdo após o recebimento de notificação pelo participante ou seu representante legal, no âmbito e nos limites técnicos do seu serviço.
Ou seja, via de regra, a rede social, tida como intermediária de conteúdo de terceiro, não deve ser responsabilizada. Ocorre que esse modelo fica aquém do alcance e dos impactos gerados pelas publicações nas redes sociais atualmente. Tendo em vista contribuir com essa discussão, alguns especialistas defendem que esse regime seja revisto e ampliado. Uma das situações mais debatidas no seminário promovido pela FGV foi a questão do impulsionamento de conteúdo.
Nesses casos, a rede social lucra com a promoção de postagens para um determinado público-alvo, que via de regra, já demonstrou, por meio de buscas e "curtidas", o interesse no assunto.
É justamente nessa seara que entra a inteligência artificial que, com toda a sua potencialidade, trata os dados e informações dos usuários da rede para fazer chegar a eles conteúdos cada vez mais direcionados às suas preferências. Dessa forma, um usuário que tenha "curtido" uma postagem de arquitetura verá prontamente na sua timeline outras publicações semelhantes.
Se, em um breve momento, isso foi visto como um mecanismo facilitador de buscas de conteúdos, hoje, o cenário é bastante diferente. O principal motivo é que os algoritmos das redes fomentam a criação de "bolhas" em determinados assuntos. Assim, por exemplo, na seara política, uma pessoa que tenha curtido postagens de um perfil de esquerda, receberá cada vez mais conteúdos dessa natureza. O mesmo vale para o caso de um indivíduo que tenha curtido perfis de direita.
Dessa maneira, fomenta-se o acesso apenas a um tipo de parâmetro; o que cria uma falsa sensação de hegemonia de determinada visão. Esse ciclo vicioso contribui, diretamente, para o fenômeno da polarização do debate e para a consolidação de uma sociedade com perspectivas mais
antagônicas ou extremistas.
Na rede social, as relações se desenvolvem por afinidade de posições e pontos de vista, de modo que o debate fica cada vez mais restrito a pessoas de um mesmo grupo.
A dinâmica é relativamente simples: a formação desses grupos faz com que os usuários interajam entre si com frequência e fiquem mais à vontade e seguros para externarem opiniões que sejam aderentes ao conteúdo publicado. Nesse ambiente de conexão digital, indivíduos com preferências semelhantes são atraídos entre si pelos algoritmos e a formação de "comunidades" ocorre de forma quase instantânea, dada a velocidade de reprodução e alcance dos conteúdos publicados nessas mídias.
Acontece que, eventualmente, esses conteúdos podem ser danosos às imagens de terceiros, reproduzirem violência de gênero e às minorias, ou disseminarem informações falsas; o que se torna ainda mais agravado quando são impulsionados pelos algoritmos das redes.
De maneira a contribuir para a melhora desse cenário caótico, o Congresso se mobilizou para a elaboração de um projeto de lei que regulasse a questão de maneira mais atualizada que o Marco Civil da Internet. Nesse sentido, o PL nº 2.630 [3], de 2020, de relatoria do deputado Orlando Silva, prevê obrigações para concretização da
transparência em relação a impulsionamentos e publicidade nas redes sociais.
O artigo 18 estabelece o dever dos provedores de disponibilizarem mecanismos para fornecer aos usuários as informações do histórico dos conteúdos impulsionados e publicitários com os quais a conta teve contato nos últimos seis meses, detalhando informações a respeito dos critérios e procedimentos utilizados para perfilhamento que foram aplicados em cada caso.
Trata-se de uma medida com o nítido intuito de tornar o tratamento de dados pela inteligência artificial mais claro para os usuários das redes, ainda que o PL não regulamente, especificamente, o uso da IA nessas plataformas.
No que concerne, propriamente, ao impulsionamento de conteúdos de cunho eleitoral, os provedores devem disponibilizar acesso a uma série de informações que incluem o valor gasto e características gerais da audiência contratada, por exemplo.
O projeto legislativo apresenta um modelo de autoregulação regulada, em que as plataformas praticam a moderação do conteúdo, a partir de critérios estabelecidos nos seus termos de uso, sob o amparo de um órgão regulador com atribuições que abrangem a elaboração de diretrizes e normativas relativas aos seus procedimentos de análise de contas e conteúdos.
No meio acadêmico, ganha corpo a proposta de que as redes devam ser
responsabilizadas pelo impulsionamento de conteúdos falsos e discursos de ódio, tendo em vista que monetizam essa matéria e o fato de promoverem o impulsionamento equivaleria a uma adesão ao que está sendo veiculado. A responsabilização dessas plataformas também se justifica pelo uso de IA para impulsionar esses tipos de conteúdos, uma vez que essas mídias deixam de ser inertes para atuarem como direcionadoras dessas informações para um determinado público.
Contudo, cabe frisar que se por um lado o uso de IA contribui perniciosamente para o fomento à polarização, por outro também são usadas pelas plataformas para combaterem publicações de conteúdos como pornografia, pedofilia e direitos autorais, por exemplo. Na hipótese de um resultado mais duvidoso apresentado pela IA, uma equipe específica analisa a publicação e, caso seja um conteúdo desse tipo, é excluída da plataforma.
Nesse sentido, alguns especialistas têm defendido que esse mesmo fluxo seja aplicado para retirar das redes discursos de ódio, de violência de gênero, raça e minorias e antidemocráticos. Essas sugestões têm sido discutidas tanto no âmbito do Supremo Tribunal Federal (com a liderança do ministro Alexandre de Moraes) quanto do Superior Tribunal de Justiça com representantes das principais big techs e plataformas. O objetivo é construir uma solução que viabilize um ambiente de internet mais saudável e, consequentemente, menos hostil.
Assim, mais uma vez, a transparência algorítmica ocupa o centro do debate como ponto mais sensível e complexo de uma regulação que encontra obstáculos e fortes resistências, mas que precisa avançar para evitar que as redes virem, literalmente, uma "terra sem lei". O tema segue em discussão nas Casas legislativas.
[1] Cf. Do Brexit a Trump: como o Facebook pode estar se tornando decisivo em eleições. BBC News Brasil, 8 mai. 2017. Disponível em: < https://www.bbc.com/portuguese/geral-39842815>. Acesso em: 15 mar. 2023.
[2] Cf. Pesquisa indica recursos mais relevantes de mídias sociais + 95 estatísticas de redes em 2022. Disponível em: < https://resultadosdigitais.com.br/marketing/estatisticas-redes-sociais/>. Acesso em: 20 mar. 2023.
[3] Cf. CÂMARA DOS DEPUTADOS. Substitutivo ao Projeto de Lei n° 2.630, de 2020. Lei Brasileira de Liberdade, Responsabilidade e Transparência na Internet. Disponível em: < https://www.camara.leg.br/midias/file/2022/03/fake.pdf >. Acesso em: 20 mar. 2023.