Da imprensa de Gutenberg à internet, dos computadores pessoais aos smartphones que usam tecnologia 5G, das escassas consultas em lugares remotos às telecirurgias. As ondas de inovação carregam consigo possibilidades de democratizar o acesso à informação, melhorar a qualidade de vida de muitos e, assim, talvez levar à construção de uma sociedade mais justa.
O assunto do momento é a inteligência artificial e seu potencial transformador. Direta ou indiretamente, ela já permeia muito do que fazemos e consumimos. Segundo uma recente pesquisa da McKinsey, 72% das empresas já usam IA e 65% exploram a IA generativa em pelo menos uma função de negócio. Quase 100% dos entrevistados já fizeram uso de ferramentas de Gen AI pelo menos uma vez no trabalho ou fora dele.
A capacidade dos sistemas de IA de processar, analisar, sintetizar e criar a partir de uma enorme quantidade de dados carrega esperanças de que eles possam reduzir a zero vieses nos processos de tomada de decisão que tradicionalmente são influenciados pela subjetividade (e falha) humana. Porém, à medida que nos adentramos nesse reino, nos deparamos com riscos reais de os modelos reproduzirem padrões que perpetuam estereótipos e preconceitos.
A principal fonte de vieses em IA não está nos algoritmos em si, mas nos dados usados para treinar e desenvolver os modelos. Esses dados, geralmente coletados de registros existentes, podem refletir disparidades sociais, raciais e de gênero prevalentes na sociedade. Como resultado, reforçam padrões e exacerbam diferenças.
Considere, por exemplo, um cenário em que um determinado algoritmo de IA usado no setor de saúde é projetado para prever níveis de risco de pacientes para certas doenças. Se o algoritmo for treinado somente com dados históricos, ele pode perpetuar vieses existentes no sistema de saúde, potencialmente levando a resultados – como diagnósticos e recomendações – falhos para grupos de pacientes sub-representados (recomendo, inclusive, a leitura deste artigo da McKinsey sobre o gap na saúde da mulher).
O que pode ser feito
O copo meio cheio desta discussão é que estamos no início de uma nova onda tecnológica e, portanto, num momento de inflexão. É hora de estabelecermos práticas que promovam a construção de uma inteligência artificial diversa e inclusiva, em vez de escolher tratar o tema como uma reflexão tardia.
Para empresas comprometidas em combater vieses nos modelos de IA, é importante refletir sobre os seguintes pontos:
Defina diversidade como um valor essencial
Estabeleça o combate a vieses como um princípio orientador em todos os esforços relacionados à IA. Assegure que esse compromisso permeie a cultura organizacional e os processos de tomada de decisão.
Invista na detecção e mitigação de vieses
Realize avaliações e testes constantes para identificar, mensurar e corrigir vieses nos modelos de IA. Implemente estratégias nos diferentes estágios de desenvolvimento, do planejamento à implementação.
Crie comitês de diretrizes
Estruture grupos de trabalho dedicados a avaliar potenciais riscos e promover diretrizes éticas para o desenvolvimento da IA assegurando transparência nos dados e nos processos.
Promova a diversidade dos dados e a representatividade das equipes
Assegure-se de que os modelos de IA sejam treinados usando conjuntos de dados diversos e representativos que reflitam o espectro completo da população. Promova treinamentos de conscientização para programadores e capacitações para grupos sub-representados, promovendo a inclusão e a diversidade nas equipes.
Essas e outras ações podem ajudar a moldar um futuro em que a tecnologia serve a todos de maneira mais justa. Cada passo dado hoje para promover a diversidade e a inclusão pavimenta o caminho para um amanhã mais brilhante. A colaboração entre humanos e máquinas – o que chamamos de “inteligência híbrida” – tem o potencial de criar uma sociedade em que a inovação é guiada pela ética e pelo compromisso com a diversidade.