Os algoritmos são racistas, misóginos e xenófobos. O que podemos fazer?

Embora este problema não seja novo, só agora está a ser amplamente reconhecido e discutido. vamos analisar mais de perto como o enviesamento algorítmico pode ser prejudicial a certos grupos de pessoas.

Nos últimos anos, tem havido uma consciência crescente do potencial de enviesamento algorítmico contra certos grupos de pessoas. Este viés pode surgir da utilização de conjuntos de dados antigos com viés inerente, bem como da sub-representação de certos grupos no desenvolvimento de algoritmos. Embora este problema não seja novo, só agora está a ser amplamente reconhecido e discutido. vamos analisar mais de perto como o enviesamento algorítmico pode ser prejudicial a certos grupos de pessoas.

Os algoritmos são racistas, misóginos e xenófobos. O que podemos fazer? 1

Como os algoritmos podem impactar certos grupos de pessoas

O enviesamento algorítmico pode ter uma série de impactos negativos em certos grupos de pessoas. Em primeiro lugar, pode levar a resultados imprecisos ou injustos. Em segundo lugar, pode perpetuar os preconceitos e disparidades sociais existentes. E, em terceiro lugar, pode criar barreiras ao progresso social e económico para aqueles que já estão em desvantagem

Por exemplo, considerar um cenário em que uma instituição financeira está a utilizar um algoritmo para determinar a elegibilidade do empréstimo. Se o algoritmo for treinado em dados tendenciosos contra candidatos com baixos rendimentos, então é provável que produza resultados tendenciosos que irão prejudicar esses candidatos. Isto poderia levar à recusa injusta de empréstimos e, em última análise, prejudicar a mobilidade social e económica desses indivíduos

Da mesma forma, se um algoritmo utilizado para reconhecimento facial for treinado em dados predominantemente de homens brancos, então é mais provável que produza resultados imprecisos para as mulheres e minorias. Isto poderia levar a falsos positivos em cenários de aplicação da lei, o que poderia ter sérias implicações para a segurança e bem-estar desses indivíduos

À medida que a aprendizagem de máquinas se torna cada vez mais predominante na sociedade, é importante estar ciente dos potenciais enviesamentos que poderiam ser incorporados nestes algoritmos. O viés de género é um tipo de viés que pode ocorrer nos algoritmos, e que pode ter Consequências de Alcance. Neste post do blogue, vamos explorar o que é o viés de género, como pode ocorrer nos algoritmos, e que medidas podem ser tomadas para o evitar.

O que é o preconceito de género?

O preconceito de género ocorre quando existe uma diferença na forma como um algoritmo trata homens e mulheres. Isto pode acontecer por várias razões, mas na maioria das vezes ocorre porque o conjunto de dados utilizado para treinar o algoritmo é enviesado a favor de um género ou de outro. Por exemplo, se um algoritmo for treinado num conjunto de dados de 100 homens e 20 mulheres, é mais provável que aprenda padrões que são específicos dos homens, uma vez que eles constituem a maioria dos dados. Como resultado, este algoritmo é mais susceptível de discriminar as mulheres quando é aplicado no mundo real

Soluções para a polarização Algorítmica

Então, o que pode ser feito para resolver este problema? Em primeiro lugar, é necessário que haja uma maior consciência entre os criadores de algoritmos sobre o potencial de enviesamento. Eles precisam de estar atentos aos conjuntos de dados que estão a utilizar, e assegurar-se de que são representativos de toda a população. Em segundo lugar, devem ser tomadas medidas para evitar que o enviesamento se infiltre nos algoritmos durante as fases de desenvolvimento e teste. Por exemplo, os testes cegos poderiam ser utilizados para evitar que os programadores introduzissem acidentalmente enviesamentos nos seus algoritmos

Os testes cegos significam que os programadores não recebem qualquer informação sobre o conjunto de dados do teste, excepto pelo seu tamanho; não lhes é dito nada sobre a demografia dos indivíduos representados no conjunto de dados. Isto impede-os de fazer suposições ou introduzir preconceitos com base nas suas próprias crenças ou preconceitos pessoais

Há algumas coisas que designers e programadores podem fazer para evitar preconceitos de género nos algoritmos. Em primeiro lugar, precisam de estar conscientes da possibilidade de enviesamento e certificar-se de que compreendem as medidas disponíveis para o minimizar. Segundo, precisam de utilizar conjuntos de dados que sejam representativos de ambos os géneros. E, terceiro, precisam de implementar medidas especificamente concebidas para reduzir o enviesamento de género.

Fonte e mais informação

Leiam as últimas notícias do mundo da tecnologia no Google News , Facebook  e Twitter e também no nosso Grupo de Telegram
Todos os dias vos trazemos dezenas de notícias sobre o mundo Android em Português. Sigam-nos no Google Notícias. Cliquem aqui e depois em Seguir. Obrigado!
Deixe um comentário