No início do século XXI, a presença da inteligência artificial (IA) parecia ainda algo saído da ficção científica. Atualmente, as interfaces que utilizam algoritmos são inúmeras. Quer se trate de redes sociais, de sítios de compras em linha ou da Internet das coisas, evitar a IA parece ser um exercício cada vez mais difícil. Pelo contrário, todos os sectores procuram utilizar os algoritmos para melhorar os serviços prestados aos cidadãos, aos doentes e até aos estudantes.
IA tendenciosa
Mas a utilização destes algoritmos não está isenta de problemas. Os especialistas estão a apontar e a denunciar os preconceitos dos algoritmos. Sejamos claros: as máquinas não discriminam de propósito. Pelo contrário, reproduzem os julgamentos tendenciosos que ainda estão muito presentes nas nossas sociedades, apesar dos avanços das últimas décadas. Por exemplo, os anúncios de emprego nas redes sociais são apresentados de acordo com o sexo do utilizador: empregos de engenharia ou construção para os homens, empregos de enfermagem ou ensino para as mulheres.
Os utilizadores do Facebook, do Twitter e de outras redes sociais são igualmente afectados pelas decisões, por vezes injustas, tomadas pelos algoritmos. Embora os GAFAM empreguem pessoas para moderar o que é dito em linha, esses funcionários não podem analisar os milhões de interações que ocorrem a cada segundo. Por conseguinte, as inteligências artificiais punem as palavras que vão contra a política do sítio. Mas isto pode levar a situações absurdas, uma vez que não podem ter em conta o contexto.
Por exemplo, as palavras que difamam as pessoas LGBTQI2S+ são geralmente proibidas. Isto levou a que um grupo de direitos que denunciava este tipo de linguagem... fosse censurado por conteúdo de ódio. Uma vez que o algoritmo é incapaz de compreender que muitas associações activistas estão a tentar reapropriar-se de insultos para os fazer perder o seu poder homofóbico.
Saúde e justiça desiguais
No entanto, os exemplos mais evidentes foram no domínio dos cuidados de saúde nos Estados Unidos. Os algoritmos são capazes de ajudar o pessoal médico quando chega o momento de diagnosticar um doente. No entanto, foi demonstrado que um sistema de inteligência artificial impede que doentes negros com insuficiência renal recebam os transplantes de que necessitam. Um preconceito perigoso e difícil de explicar.
Esta é provavelmente uma das principais críticas à IA: é difícil compreender como é que ela toma estas decisões. Por exemplo, os algoritmos demonstraram a sua capacidade de diferenciar as radiografias de pacientes de diferentes etnias. No entanto, mesmo os autores do estudo não conseguem compreender como é que as IA conseguem uma taxa de sucesso mínima de 80%, ou mesmo de 99% para alguns. Isto levanta sérias questões num domínio em que a discriminação sistémica conduz a mais mortes.
O preconceito racial é provavelmente o mais elevado, de acordo com um relatório do Institute for Human-Centered Artificial Intelligence da Universidade de Stanford. A sua análise dos últimos cinco anos mostra que os riscos não diminuíram, muito pelo contrário. As IA de reconhecimento facial que analisam o rosto de uma pessoa negra ofereceram aos utilizadores vídeos sobre primatas... Esta situação é preocupante no sector da justiça, onde os algoritmos são cada vez mais utilizados para determinar penas e multas. Por conseguinte, será necessário que o pessoal da justiça mantenha uma abordagem humana, apesar das sugestões da máquina.
Soluções técnicas e humanas
A solução para contrariar estes enviesamentos estará nas mãos de quem os concebeu. Porque as máquinas têm tanta dificuldade como os humanos em reconhecer os seus erros de avaliação. É preciso compreender, como defende Aurélie Jean, que a ciência algorítmica não é maniqueísta. É certo que há obviamente mudanças a fazer para combater os preconceitos. Mas temos de nos lembrar que os algoritmos são ferramentas. Fundamentalmente neutros, tanto podem ajudar a humanidade como prejudicá-la.
Então, o que é que se pode fazer para eliminar estes preconceitos? Algumas pessoas têm propostas técnicas. As grandes empresas tecnológicas já estão a organizar programas de "caça aos bugs" nos sistemas operativos e nos navegadores Web. Os caçadores de bugs passam o seu tempo à procura de vulnerabilidades e comunicam-nas para que as empresas as possam corrigir através de actualizações. E se fosse implementada uma iniciativa semelhante com a IA? Pessoas especializadas poderiam analisar as decisões e ver onde o algoritmo erra para poder ser melhorado.
Para combater os preconceitos de género nos algoritmos de contratação, os especialistas estabeleceram uma definição estatística de igualdade. Isto permite-lhes dar luz verde a uma inteligência que equilibra bem os dados entre homens e mulheres, e luz vermelha às que têm preconceitos. Esta abordagem baseada em dados poderia ser mais facilmente integrada no código de IA e adaptada também à questão da raça. No entanto, os programadores ainda precisam de estar dispostos a implementar esses mecanismos. Muitos deles preferem guardar ciosamente os segredos dos seus programas. Será então necessário introduzir leis que responsabilizem as empresas de IA em caso de discriminação?
Outra parte da solução passa pela representatividade. A grande maioria dos projectistas de IA são homens brancos. Por isso, é de admirar que os preconceitos afectem as mulheres e as pessoas de outras etnias? A inclusão destes grupos nas empresas que produzem algoritmos poderia ajudar a reduzir significativamente estes preconceitos. Aumentar a presença de rostos não brancos nas bases de dados para melhorar o reconhecimento facial, entre outras coisas.
Ilustração : Fakurian Design on Unsplash
Referências
Eikholt, Sebas. "Aviso de especialistas sobre a exploração da IA e os seus preconceitos ocultos". Smarthealth. Última atualização: 23 de setembro de 2021. https://smarthealth.live/fr/2021/09/23/les-experts-mettent-en-garde-contre-les-prejuges-lies-a-lia-dans-les-soins-de-sante/.
Grison, Thibault. "AI e moderação de rede social: um caso de livro didático de 'discriminação algorítmica'." The Conversation. Última atualização: 9 de setembro de 2021. https://theconversation.com/ia-et-moderation-des-reseaux-sociaux-un-cas-decole-de-discrimination-algorithmique-166614.
"Inteligência Artificial: Arma de Discriminação Massiva?" Revista Décideurs. Última atualização: 11 de dezembro de 2020. https://www.magazine-decideurs.com/news/intelligence-artificielle-arme-de-discrimination-massive.
Jean, Aurélie. "La Science Des Algorithmes N'est Pas Manichéenne". Le Point. Última atualização: 23 de maio de 2021. https://www.lepoint.fr/invites-du-point/aurelie-jean-la-science-des-algorithmes-n-est-pas-manicheenne-23-05-2021-2427670_420.php.
Leprince-Ringuet, Daphné. "Repôr as ligações algorítmicas da IA graças aos programas de recompensa de bugs?" ZDNet França. Última atualização: 16 de março de 2021. https://www.zdnet.fr/actualites/reperer-les-biais-algorithmiques-de-l-ia-grace-aux-programmes-de-bug-bounty-39919477.htm.
Maquet, Clémence. "Inteligência artificial: que abordagem aos vieses algorítmicos?" Siècle Digital. Última atualização: 11 de maio de 2021. https://siecledigital.fr/2021/05/11/intelligence-artificielle-quelle-approche-des-biais-algorithmiques/.
Mélin, Anna. "Vieses algorítmicos: um grande desafio em nossas sociedades digitalizadas". Internet Cities. Última atualização: 16 de julho de 2021. https://www.villes-internet.net/site/les-biais-algorithmiques-un-defi-majeur-dans-nos-societes-numerisees/.
Nast, Condé. "Esses algoritmos olham para os raios X - e de alguma forma detectam sua raça". Wired. Última atualização: 5 de agosto de 2021. https://www.wired.com/story/these-algorithms-look-x-rays-detect-your-race/.
Prades, Arnaud. "Para evitar os problemas da IA, é melhor se concentrar no fator humano do que nas questões técnicas". JDN. Última atualização: 30 de junho de 2021. https://www.journaldunet.com/solutions/dsi/1503581-pour-eviter-les-biais-de-l-intelligence-artificielle-mieux-vaut-s-interesser-au-facteur-humain-qu-aux-questions-technologiques/.
Pérignon, Christophe. "'Um programa $% sexista ': como detetar e corrigir vieses de IA." A Conversação. Última atualização: 15 de março de 2021. https://theconversation.com/un-de-programme-sexiste-comment-detecter-et-corriger-les-biais-des-ia-156874.
Richard, Philippe. "Como os seres humanos, a dificuldade da IA em detetar seus erros de apreciação". Techniques De L'Ingénieur. Última atualização: 13 de setembro de 2021. https://www.techniques-ingenieur.fr/actualite/articles/comme-les-etres-humains-lia-repere-difficilement-ses-erreurs-dappreciation-99116/.
Trujilo, Elsa. "Aux Etats-Unis, Un Algorithme Accusé D'avoir Défavorisé Des Patients Noirs Pour Des Greffes De Rein." BFMTV. Última atualização: 27 de outubro de 2020. https://www.bfmtv.com/tech/aux-etats-unis-un-algorithme-accuse-d-avoir-defavorise-des-patients-noirs-pour-des-greffes-de-rein_AN-202010270161.html.
"VÍDEO: os algoritmos que nos rodeiam são racistas e sexistas?" Franceinfo. Última atualização: 19 de agosto de 2021. https://www.francetvinfo.fr/societe/droits-des-femmes/video-les-algorithmes-qui-nous-entourent-sont-ils-racistes-et-sexistes_4721831.html.
Zignani, Gabriel. ""Juízes, policiais e advogados terão que se apropriar da justiça algoritmizada"". La Gazette Des Communes. Última atualização: 21 de julho de 2021. https://www.lagazettedescommunes.com/757552/les-juges-policiers-et-avocats-vont-devoir-sapproprier-la-justice-algorithmisee/.
Veja mais artigos deste autor