+

blog red

red blog

17.AGO.2023

Os riscos de IAs enviesadas ? e como evitá-los

Os riscos de IAs enviesadas ? e como evitá-los

Já estamos acostumados com as mudanças constantes do mercado digital. Mas, nos últimos meses, as evoluções da Inteligência Artificial (IA) e seus impactos na rotina de quem trabalha online têm tirado o sono de muitos profissionais de marketing e criadores de conteúdo.

Um dos motivos dessa preocupação é que, embora os sistemas de IA tenham se tornado parte integrante de nossas vidas diárias e transformado a maneira como as pessoas interagem com a tecnologia, eles são suscetíveis a vieses que podem levar a consequências não intencionais — como em qualquer criação humana.

Em um relatório recente da HubSpot, profissionais de marketing, vendas e atendimento ao cliente expressaram hesitação em utilizar ferramentas de IA considerando a possibilidade de produzir informações enviesadas.

Mas não me interpretem mal: não estou dizendo que o uso de aprendizado de máquina (machine learning) é prejudicial para esses profissionais. O que quero enfatizar é a importância de contar com uma supervisão humana e integrações corretas para evitar informações erradas e tendenciosas na produção de conteúdo.

Por isso, neste artigo, busco aprofundar o conceito de viés de IA, explorar exemplos reais enviesados em sistemas de IA e discutir estratégias para profissionais de marketing e criadores de conteúdo que visem mitigar possíveis danos causados pelo uso da Inteligência Artificial. Mas antes, vamos entender o conceito: o que é o viés da IA?

O que é o viés da IA?

Se pesquisarmos “viés” no dicionário, temos a seguinte definição: “distorção ou tortuosidade na maneira de observar, de julgar ou de agir”. Assim, podemos dizer que o viés da IA se refere a uma discriminação sistemática e possivelmente injusta nos resultados fornecidos pela Inteligência Artificial sobre determinado tópico, a partir de um julgamento ou favoritismo.

Esses vieses podem surgir de várias fontes, incluindo dados tendenciosos, algoritmos defeituosos ou uma implementação inadequada da tecnologia. Isso acontece porque os sistemas de IA são programados para aprender com os dados existentes disponíveis online, tomando decisões com base em padrões e correlações nesses dados.

Dessa forma, se os dados usados no aprendizado de máquina são tendenciosos ou contêm preconceitos sociais inerentes, o sistema de IA pode inadvertidamente replicar e até mesmo ampliar esses vieses ao tomar decisões.

Como a IA pode apresentar vieses?

Pesquisas e investigações nos trazem elementos para entender a presença de vieses na IA e o seu impacto. Por exemplo, um novo artigo do MIT e da Universidade de Stanford descobriu que os sistemas de reconhecimento facial de empresas de tecnologia renomadas apresentavam taxas de erro mais altas para mulheres e pessoas com tons de pele mais escuros.

Os experimentos revelaram que as taxas de erro na determinação do gênero de homens de pele clara ficaram consistentemente abaixo de 0,8%, enquanto para mulheres de pele mais escura, as taxas de erro foram significativamente maiores, ultrapassando os 20% em um caso e os 34% em dois outros casos.

Devido à tendência de identificar erroneamente esses indivíduos com mais frequência, os sistemas de Inteligência Artificial podem levar a potenciais discriminações em âmbitos como aplicação da lei e processos de contratação.

Isso se torna ainda mais crítico se considerarmos que, em muitas situações, essas técnicas são utilizadas para identificar possíveis criminosos e procurados pela justiça.

As descobertas do estudo também levantam preocupações sobre o treinamento da máquina e a avaliação das redes neurais usadas nesses programas. Assim, os resultados da pesquisa destacam a importância de examinar vieses em sistemas de análise facial, sugerindo também uma investigação mais aprofundada sobre possíveis disparidades em outras aplicações de IA.

Outro exemplo é o uso da Inteligência Artificial na análise de crédito para empréstimos. Os algoritmos de aprovação de empréstimos, também conhecidos como algoritmos de pontuação de crédito, são frequentemente usados por instituições financeiras para avaliar a credibilidade dos solicitantes de empréstimos.

Assim, se o algoritmo atribuir pontuações de risco mais altas com base em fatores associados a grupos minoritários, os indivíduos dessas comunidades podem ter dificuldade em conseguir empréstimos ou obter condições desfavoráveis. Ou seja, mais uma vez, teríamos a perpetuação das desigualdades sistêmicas, gerando limitações nas oportunidades econômicas.

Sobre esse tema, Aracely Panameño, diretora de assuntos latinos do Centro de Crédito Responsável, explica que “a qualidade dos dados que você está colocando no algoritmo de aplicação é crucial. […] Se os dados que você está inserindo são baseados em discriminação histórica, então você está basicamente consolidando a discriminação na outra ponta”.

Já quando se trata de algoritmos de busca de empregos, a preocupação é que vieses possam levar a vantagens ou desvantagens injustas para determinados grupos de candidatos.

Outro levantamento revelou que o algoritmo de busca de empregos do Google exibia viés de gênero, favorecendo cargos executivos com salários mais altos nos resultados de pesquisa para candidatos do sexo masculino.

Fica evidente que, se um algoritmo de pesquisa de empregos classifica de forma consistente cargos executivos com salários mais altos para candidatos predominantemente do sexo masculino, isso pode perpetuar as desigualdades de gênero existentes no mercado de trabalho.

Como mitigar o risco de IAs enviesadas?

A Inteligência Artificial já é uma realidade no dia a dia dos profissionais de marketing e criadores de conteúdo, e abrir mão dessa tecnologia não é uma boa decisão. Dessa forma, alguns cuidados são importantes na hora de usar a IA, para mitigar o risco viés da IA.

Além de verificar sistematicamente o material disponibilizado pelo aprendizado de máquina, vale atentar aos seguintes pontos:

1. Forneça dados de treinamento diversificados e representativos: é fundamental garantir que os sistemas de IA sejam treinados com conjuntos de dados diversos e representativos para mitigar vieses, considerando populações variadas do ponto de vista demográfico, com origens e perspectivas distintas. Com essa base, ao ampliar o conjunto de dados, os modelos de IA podem aprender a tomar decisões mais justas e inclusivas.

2. Realize avaliações constantes e testes rigorosos: os sistemas de IA devem passar por verificações e testes completos, com periodicidade adequada, para identificar e corrigir possíveis vieses. Auditorias independentes podem ser realizadas para avaliar o desempenho e potenciais vieses dos modelos de IA, o que ajuda a identificar quaisquer padrões discriminatórios não intencionais e possibilita tomar medidas corretivas. Esse monitoramento deve envolver a revisão de feedback, assim como a análise de relatórios de usuários e dados de desempenho para garantir resultados justos e informações corretas.

3. Supervisão e intervenção humana: a ação humana desempenha um papel fundamental para assegurar resultados confiáveis, justos e éticos ao usar a IA. Ainda que a Inteligência Artificial possa automatizar processos e fornecer resultados eficientes, a intervenção humana proporciona as verificações e os contrapesos necessários para prevenir preconceitos, avaliar resultados e alinhar decisões aos princípios éticos.

Os seres humanos aportam compreensão do contexto, conhecimento especializado e raciocínio ético. Assim, são capazes de avaliar de forma crítica os resultados gerados pela IA, identificar e mitigar vieses, assim como intervir em cenários complexos ou recentes, em que a IA pode não ter uma boa performance. Os profissionais humanos são as peças-chave para um trabalho responsável com a Inteligência Artificial, garantindo que esses sistemas sejam projetados e usados de uma forma correta e benéfica para todas as partes, promovendo assim a confiança dos usuários.

Percebemos que IAs enviesadas representam um desafio significativo em um mundo cada vez mais digitalizado. Mas também sabemos que é possível lidar com esse cenário adotando uma abordagem multifacetada, que envolve o fornecimento de dados de treinamento diversificados, avaliações rigorosas, monitoramento contínuo, estruturas éticas e intervenção humana.

Ao implementar essas estratégias, tenho certeza de que profissionais de marketing e criadores de conteúdo podem contribuir para o desenvolvimento de sistemas de IA justos e inclusivos, mitigando possíveis danos e promovendo um futuro com mais igualdade!

Via Rock Content

Veja também

+AGENDE UMA CONVERSA
×

Solicitar orçamento


×

Trabalhe conosco

Anexar currículo pdf

×

AGENDE UMA CONVERSA