facebook

Des chercheurs pointent les dangers de l’intelligence artificielle pour les personnes LGBTQI+

Une étude scientifique pointe les risque que fait courir l'intelligence artificielle aux personnes LGBTQI+. Mais elle peut également résoudre de nombreux problèmes.

"Bien que nous nous efforcions d’assurer la cohérence de nos systèmes, il peut arriver que le contexte apporté habituellement par nos équipes manque, nous amenant à commettre des erreurs", reconnaissait Twitter auprès de 20 Minutes. En cause, ses algorithmes ont censuré des militants LGBTQI+ et/ou féministes, suspendant leur compte pour s'être réapproprié des insultes homophobes, notamment. Ce mea culpa du bout des lèvres du réseau social ne peut pas faire l'impasse sur les limites de l'intelligence artificielle.

Une aide et un risque

Quatre chercheurs du spécialiste de l'intelligence artificielle Deepmind mettent en évidence comment l'intelligence artificielle discrimine les personnes LGBTQI+. "Les avancées de l'intelligence artificielle (IA) représentent à la fois un potentiel d'aide pour résister à l'oppression et en même temps un risque d'exacerber les inégalités existantes", écrivent-ils dans un article scientifique publié récemment.

À LIRE AUSSI : « Nous détectons 95% des contenus haineux avant même qu’ils ne soient publiés », assure Facebook

De façon étonnante, c'est l'absence d'utilisation de données concernant l'orientation sexuelle et l'identité de genre qui est dénoncé. "L'orientation sexuelle et l'identité de genre sont typiquement des caractéristiques qui ne sont pas observées. Elles sont fréquemment inconnues ou jugées impossibles à mesurer". Bien évidemment, de telles données sont particulièrement sensibles. Mais ne pas les prendre en compte empêche de voir les discriminations que peuvent engendrer les systèmes d'intelligence artificielle. L'étude souligne que, si des progrès ont été importants dans la réduction des biais de genre ou les discriminations des personnes racisées, "l'équité algorithmique pour les personnes queers reste gravement sous-explorée".

De nombreux champs d'application

Les personnes LGBTQI+ souffrent régulièrement de biais induits par l'apprentissage automatique. Plusieurs champs sont explorés par la recherche scientifique. Dans le recrutement, par exemple, l'intelligence artificielle peut utiliser des données qu'elle ne devrait pas regarder : l'intonation de la voix, la gestuelle, des éléments de vie personnelle. Et en tirer des conclusions désastreuses.

L'intelligence artificielle peut être à la fois une avancée médicale et un risque. "Alors que les systèmes d'IA peuvent aider les médecins à identifier des personnes à risque, ces modèles peuvent également exposer les individus qu'ils veulent soutenir. Ces systèmes peuvent empêcher les personnes LGBTQI+ d'être recrutées ou les conduire à des primes d'assurances plus élevées."

À LIRE AUSSI : Instagram et Facebook refusent désormais les publicités pour les « thérapies de conversion »

Evidemment, l'étude souligne que l'orientation sexuelle et l'identité de genre sont des aspects particulièrement privés de l'identité. "Outer des personnes queers peut mener à la détresse émotionnelle mais aussi à des risques physiques et sociaux, notamment dans des zones où les discriminations contre les personnes LGBTQI+ est importante, où l'homosexualité est criminalisée ou persécutée", note l'étude.

La nécessité d'une approche intersectionnelle

"Pour que l'algorithme soit juste avec les personnes queers, il est important de développer des méthodes qui renforce l'équité des minorités sans avoir accès directement à qui appartient à ces groupes", indique l'article scientifique. Les chercheurs recommandent d'utiliser différentes techniques de respect de la vie privée. Mais aussi que les géants du numérique aient une approche intersectionnelle pour évaluer leurs modèles d'IA.

À LIRE AUSSI : La Corée du Sud censure le baiser gay de « Bohemian Rhapsody », les internautes répliquent

 

Crédit photo : Unsplash / Manuel Del Moral


Sur le même sujet

TÊTU
TÊTU La crème
de l'actualité LGBT
Toutes les semaines, dans votre boite mail