» » » POURQUOI LES TECHNOLOGIES SONT-ELLES RACISTES ?

POURQUOI LES TECHNOLOGIES SONT-ELLES RACISTES ?

Posté dans : Techno | 0

Des distributeurs de savon automatiques qui refusent de servir des mains noires, des photomatons qui jugent non conformes des photos d’identité de Noirs, un système de reconnaissance faciale qui classe des noirs dans la catégorie « gorilles », des appareils photos incapables de capturer des images correctes d’un Blanc et d’un Noir côte-à-côte, des moteurs de recherche servant des stéréotypes racistes en guise de résultats, une intelligence artificielle qui tient des propos haineux, des filtres de retouche de selfie qui blanchissent les peaux noires pour les rendre belles… la liste des épisodes où les machines se sont révélées racistes s’allonge.

 

Un article du Huffington Post rapporte l’histoire insolite d’un manager de Facebook face à un distributeur automatique de savon refusant de servir ses mains noires. On y voit l’appareil préférer servir un mouchoir blanc que ses mains. Même bizarrerie en 2015 au Marriott Marquis Hôtel à Atlanta. Le distributeur, placé sur un lavabo de l’hôtel, délivre du savon aux mains blanches et ignore les mains noires. « Whites Only ? » (réservé aux blancs ?) titre le créateur de la vidéo en référence à la ségrégation raciale qui, jusqu’aux années 60 aux États-Unis, interdisait l’accès de certains lieux publics aux personnes de couleurs. 

Crédit : Youtube

« Ils savaient que les peaux noires ne rendaient pas bien en photo.

Mais les consommateurs de leurs films étaient des Blancs. »

Ce genre de discrimination technologique avait été épinglé dans les années 1970 par le cinéaste Jean-Luc Godard qui refusa d’utiliser les pellicules Kodak incapables de fixer correctement les peaux foncées. «À l’époque, ils savaient que les peaux noires ne rendaient pas bien en photo. Mais les consommateurs de leurs films étaient des Blancs. Les ingénieurs ont calibré les appareils sur l’épiderme d’une femme blonde à la peau pâle appelée Shirley. C’est elle qui a donné son nom à la “Shirley Card”, la charte des couleurs utilisées comme référence dans le développement photographique», explique Lorna Roth, chercheuse à l’université de Concordia. Kodak a rectifié le tir face aux plaintes.

50 ans plus tard, où en sommes-nous ?

À l’heure où la consommation de technologies par les Noirs ne fait plus de doute, ces caprices technologiques à caractère racial ont-ils disparu ? La réponse est non. Et ces incidents ne sont pas isolés. D’autres ont été rapportés sur la toile soulevant chaque fois l’indignation des internautes. En 2015, Google s’excusait après que son système de reconnaissance faciale a classé deux jeunes Noirs dans la catégorie « gorilles ». Idem pour HP en 2009 à cause d’une webcam incapable de reconnaître les visages noirs. Chez Nikon, c’est un appareil photo « intelligent » qui affiche ce message d’avertissement pour un cliché d’une femme aux yeux bridés : « quelqu’un a-t-il cligné des yeux ? » Réponse ironique du sujet : « Non, je suis juste asiatique. » Plus récemment, l’application FaceApp a provoqué un tollé à cause d’un filtre qui blanchissait les peaux noires pour les rendre belles. En 2016, Tay, l’intelligence artificielle de Microsoft a été réduite au silence car elle commençait à tenir des propos injurieux et racistes.

« Ça fait toujours ça avec nous autres Noirs. » 

Dans son livre Trop Noire Pour Être Française, Isabelle Boni-Claverie raconte cette anecdote : « Mon passeport ayant expiré, je me suis rendue dans une antenne de la préfecture de Paris pour le renouveler. Pour mes photos d’identité, j’ai pris soin d’aller dans un Photomaton qui me garantissait des photos aux normes officielles. Raté. Ma photo a été refusée. J’étais beaucoup trop sombre dessus (…). J’ai demandé comment il se faisait qu’un Photomaton agréé par la préfecture de police (…) délivre des photos qui n’étaient pas aux normes. Le chef, un Antillais, a entendu ma question. Il est sorti de son bureau d’un air résigné : « Ça fait toujours ça avec nous autres Noirs. Les photos ne sont pas acceptées. »

Le high tech, générateur de clichés

Un article du Point relate l’expérience d’internautes recevant des résultats de recherche très stéréotypés sur les moteurs tels que Google. Avec les mots-clés « trois adolescents noirs » l’un d’eux obtient des images de jeunes Noirs tristes et austères, en prison pour certains. En remplaçant le mot « noirs » par blancs », les photos proposées sont toutes festives et illuminés de sourires. Avec les mots-clés « coiffure adaptée au monde du travail » une internaute américaine a vu s’afficher des photos de jeunes femmes blondes. Avec « coiffure inadaptée au monde du travail », le moteur de recherche offrit des images de femmes afro-américaines aux cheveux naturels. À votre tour, faites ce test. Entrez les mots « pourquoi les blancs » dans le champs de recherche Google et observez ce que vous propose la fonctionnalité Autocomplete qui complète automatiquement les premiers mots-clés entrés dans le champs de recherche sur la base de prédictions. Édifiant, n’est-ce pas ?

Capture écran des prédictions inappropriées de Google

Omniprésente dans nos vies, nous consultons ces technologies, souvent avant de solliciter un autre humain, pour la météo, le trafic routier, la préparation des repas, les destinations vacances, les maladies, la recherche de l’âme soeur, le recrutement de collaborateurs, la conception de bébés, l’éducation des enfants, la formation des adultes, etc. Quelle influence ces intelligences artificielles, dépourvues d’émotions et de sens moral mais plus présentes dans notre quotidien que nos parents et amis, ont-elles sur notre vision du monde et nos rapports avec l’autre ?

Les technologies sont-elles vraiment racistes ?

Nous rendent-elles racistes ? Proposent-elles vraiment des produits et services « white only » et interdits aux « colored people. » ? Les machines et les intelligences artificielles n’éprouvent ni émotions ni sentiments, elles ne peuvent donc avoir des intentions. Leur fonctionnement trahit celui de leurs concepteurs, leur logique, leur mode de réflexion, leur biais, leur discrimination et leurs préjugés conscients ou inconscients.

Prenons l’exemple de ces distributeurs automatiques « racistes ». Ils sont en fait équipés de capteurs censés reconnaître la présence d’une main humaine pour déverser une dose de savon. S’ils ne reconnaissent pas une main noire, c’est qu’ils ont probablement été conçus, testés, réglés et validés par une équipe d’ingénieurs dans laquelle il n’y n’avait pas de Noir. Les machines de reconnaissance faciale apprennent à reconnaitre les visages sur la base du grand nombre de photos qu’elles reçoivent de leurs concepteurs et qu’elles prennent pour références. Il y a-il des personnes noires dans ces banques d’images ou dans les équipes qui conçoivent ces bases de données ? Selon le New York Times, en 2015, 60% des employés de Google étaient caucasiens et seulement 2% étaient noirs. Quant aux moteurs de recherches et aux intelligences artificielles, leurs algorithmes sont conçus pour observer et reproduire le comportement de leurs concepteurs et des internautes. Les programmes informatiques imitent donc les stéréotypes humains.

Comment y remédier ?

Si les machines ne sont pas responsables de leurs actions, il est possible de mettre en place des gardes-fous : des banques de données variées, une diversité représentative des consommateurs au sein des entreprises, des modérateurs humains.

Dans un milieu où la majorité des chercheurs et techniciens est blanche, la prise en compte des spécificités des personnes non blanches ne va pas de soi. En dehors de marchés de niches, le consommateur type est encore vu comme occidental, donc blanc. Il est important de remettre en question cette norme implicite pour que les technologies proposées soient réellement inclusives et pertinentes. La Silicon Valley, sanctuaire de l’innovation et de la modernité, en prend conscience et reconnait en son manque de diversité un handicap.

Pour le combler et réguler les prédictions de sa fonctionnalité Autocomplete, Google fait de sa communauté d’internautes, multiculturelle par essence, une force de police digitale chargée de dénoncer les réponses inappropriées de son moteur.  » Le contenu qui apparaît dans ces fonctionnalités est généré de manière algorithmique et reflète ce que les gens recherchent et ce qui est disponible sur le Web. Cela peut parfois conduire à des résultats inattendus, inexacts ou offensants. À partir d’aujourd’hui, nous permettons de manière plus facile aux utilisateurs de répertorier directement le contenu qui apparaît dans les prévisions de saisie automatique et dans les extraits en vedette », annonce le blog officiel du groupe.

 

NSAF Teaser  de hyphen_labs sur Vimeo.

Les fondatrices de Hyphen Labs ont choisi, elles, de challenger les conventions et de placer les besoins collectifs au centre de leur narration. Leur dernier projet, NeuroSpeculative AfroFeminims, est parti d’un constat : il y a très peu de Noirs représentés dans le monde de la réalité virtuelle. Leur équipe, multiculturelle, a produit un film immersif dans lequel la culture noire est la culture par défaut. Les femmes noires occupent des postes clés dans l’industrie technologique et ce sont elles qui conçoivent les produits et les services du futur. Les objectifs du projet : créer l’empathie nécessaire au processus de création d’innovations utiles (se mettre dans la peau de Noirs permet de mieux comprendre leurs besoins et problématiques), stimuler les conversations, observer l’impact psychologique et physiologique d’images de femmes noires leaders, et sensibiliser l’industrie technologique sur la nécessité et l’intérêt de recruter des Noirs. Les résultats de l’étude devraient être révélés bientôt. Une initiative à suivre.

Et maintenant, à quand un label « Appellation de Diversité Contrôlée » pour les produits qu’on nous vend ?

On en discute ici ?

Suivre Carole Fleurival:

Marketing, Communication

Carole likes to get involved in projects that make sense, move the lines, create added value, improve the life of communities and / or create bridges between France, Africa and Overseas. If you share the same goals, you should probably go a long way together.

Derniers billets de