Profissionais abordam a importância do combate ao viés racial e discriminação na Inteligência Artificial e sociedade; métricas mais confiáveis e considerar a diversidade em profissionais da tecnologia estão entre as soluções apontadas.
*Foto de capa: Andrey Suslov/Shutterstock
Na mesma proporção que as pautas sobre racismo ganham destaque na sociedade, os problemas em relação a essa questão se expandem, sobretudo, na tecnologia. Um levantamento da Rede de Observatório da Segurança revelou que 90,5% das prisões realizadas por meio de reconhecimento facial no Brasil envolvem pessoas negras, enquanto apenas 9,5% são de pessoas brancas.
No entanto, muitas dessas pessoas detidas sequer têm antecedentes criminais, levantando preocupações sobre como seus rostos acabaram no banco de dados de suspeitos. Esse fenômeno alarmante destaca a necessidade de abordar a discriminação e o viés racial nos sistemas de Inteligência Artificial (IA). “Assume-se que avanços tecnológicos caminham para melhorar a humanidade de alguma forma, mas isso nem sempre é verdade. O encarceramento em massa, por exemplo, é fruto de uma tecnologia humana – a prisão – para lidar com pessoas que não se conformam à sociedade e ameaçam algum status quo. O uso de novas tecnologias, como vigilância por câmera e reconhecimento facial, acabam por exacerbar o racismo que já temos no sistema prisional. Então, perceber que o uso de tecnologia não é uma justificativa em si é importante”, diz Valdinei Freire, professor Doutor na EACH-USP.
Para ele, o viés algorítmico não é um conceito novo, e é reflexo dos dados obtidos em nossa sociedade. “Se a base de treinamento exibe padrões discriminatórios, os mesmos padrões serão replicados nas decisões dos sistemas inteligentes”, pontua Freire.
Em linha com Freire, o desenvolvedor de software da ZBRA e doutorando na Universidade Federal de Pernambuco, Dayvid Castro, acrescenta que “os dados são a primeira fonte de viés e, por isso, é essencial trabalhar com dados de qualidade, representativos e balanceados”, enfatiza.
Sistemas inclusivos e diversidade
Segundo Dayvid Castro, o conceito de Constitutional Inteligência Artificial é uma solução possível para controlar o conteúdo gerado por assistentes de linguagem e evitar material nocivo à sociedade, o que inclui conteúdo de cunho racial. “Para isso são necessárias métricas mais confiáveis para quantificar o quão justo é um sistema, sendo que as atuais podem não ser suficientes para identificar vieses”, argumenta.
Já Freire ressalta a importância de considerar a diversidade das pessoas para evitar exclusão ou discriminação. “Um programador ou pesquisador engajado racialmente pode identificar, criar e escolher técnicas que possam diminuir as diferenças de erros que observamos com relação a etnia e gênero nos sistemas atuais.”, aponta o especialista.
Uma área emergente e com potencial é a Data-Centric AI, segundo Castro. Isso porque ela foca na qualidade dos dados, portanto há uma oportunidade para alinhar objetivos de justiça e equidade no desenvolvimento de técnicas centradas em dados. “Um exemplo de iniciativa para construir sistemas de visão computacional mais inclusivos é a Monk Skin Tone (MST), desenvolvida pelo professor Ellis Monk de Harvard”, destaca.
Para ambos os especialistas, o compromisso com a redução do viés racista e outras formas de discriminação deve estar no mesmo patamar do nível de atenção dado à redução de erros gerados pelos sistemas de IA. A conscientização sobre essas questões é um passo importante para garantir que a tecnologia seja desenvolvida e implementada de maneira justa e inclusiva para todos.
Especialistas e sociedade unidos
Produzido pela Universidade de Stanford em conjunto com especialistas da indústria e da academia, o relatório AI Index de 2023 também é reconhecido como uma fonte importante de informações sobre os aspectos éticos das Inteligência Artificial. O documento destaca o aumento de incidentes e controvérsias envolvendo IAs, inclusive casos de discriminação racial e de gênero, e enfatiza a necessidade de aprimorar a responsabilidade e a transparência no campo da Inteligência Artificial.
Para enfrentar esses desafios, os especialistas destacam a importância do trabalho em conjunto, envolvendo desenvolvedores, pesquisadores, reguladores e a sociedade como um todo. “Não se trata de ignorar por completo os dados da base de treinamento ou as avaliações, mas, sim, de fazer o uso dessa informação até o limite de não produzir desigualdades pré-designadas”, analisa Freire.
Ambos enfatizam que é crucial que as empresas e as organizações que utilizam IA sejam transparentes quanto aos seus processos e algoritmos. Eles ainda incentivam a adoção de diretrizes éticas e o estabelecimento de comitês internos para garantir que os sistemas de Inteligência Artificial sejam desenvolvidos e implementados de maneira responsável.
Em última análise, o sucesso na construção de sistemas de IA mais justos e inclusivos deve iniciar desde a coleta de dados, e depende da cooperação e do compromisso contínuo de todos os envolvidos no campo. “Da mesma forma que acontece com o aprendizado de máquina, temos que garantir que as decisões tomadas pelas várias instituições de nossa sociedade não reproduzam os padrões discriminatórios do passado”, conclui Freire.