« Race After Technology : outils abolitionnistes pour le nouveau code Jim » par Ruha Benjamin Automatique traduire
«Race After Technology: Abolitionist Tools for the New Jim Code» est un livre non romanesque de 2019 du Dr Ruha Benjamin. Benjamin est sociologue et anthropologue de formation et professeur d’études afro-américaines à l’Université de Princeton. « Race After Technology » a reçu plusieurs prix, dont le Oliver Cromwell Cox Book Award (2020) de l’American Sociological Association Section on Race & Ethnic Minorities ; Mention honorable pour le prix du livre sur les communications, l’information, les technologies et la sociologie des médias (CITAMS) (2020); et le Brooklyn Public Library Literary Prize for Nonfiction (2020). «Race After Technology» concerne ce que Benjamin appelle «le New Jim Code». Ce sont de nouvelles technologies présentées comme bénignes et pures, mais qui renforcent, perpétuent et accélèrent les inégalités sociales. Le livre explore les formes que prend cette iniquité codée et propose des suggestions pratiques pour la combattre. Ce guide d’étude fait référence à l’édition 2019 de Polity Press. Veuillez noter que ce guide fait référence à la violence policière.
Dans l’introduction, Benjamin explore les implications sociales et politiques des noms. Les technologies de filtrage des candidatures rejettent fréquemment les candidats portant des noms noirs, un exemple du «New Jim Code», où les technologies qui semblent objectives reproduisent, renforcent et accélèrent les inégalités sociales. Au nom de la diversité et du multiculturalisme, certains algorithmes adaptent le contenu aux téléspectateurs. Cependant, cela peut également les cibler pour une hyper-surveillance par les forces de l’ordre. Benjamin insiste sur le fait que la race est elle-même une technologie pour l’injustice et nous demande de considérer les conséquences humaines d’un progrès technologique incontrôlé. Chapitre 1 : « Inégalités techniques : les robots sont-ils racistes ? » décrit les résultats extrêmement blancs d’un concours de beauté international de 2016 jugé entièrement par l’intelligence artificielle. Lorsque les préjugés des designers s’immiscent dans la technologie, cela peut avoir des conséquences plus larges dans des domaines comme la santé ou la prison. Le chapitre 2 décrit également comment les robots peuvent reproduire les préjugés humains à mesure que nous les programmons pour qu’ils nous ressemblent. Benjamin suggère que nous soyons conscients de la race lors de la conception de l’IA, ainsi que de considérer comment l’optimisation des technologies pour certains peut conduire à de pires expériences pour d’autres. Parce que la vie des gens est tellement affectée par l’innovation technologique, nous devons être plus attentifs à la technologie que nous concevons. Chapitre 2 : « Discrimination par défaut : le pépin est-il systémique ? » explore comment les pépins, bien que perçus comme de petites erreurs, reflètent des préjugés sociaux répandus. Les problèmes dans les logiciels de police prédictive, par exemple, ont fait des prédictions incorrectes qui surestiment la criminalité dans les communautés noires et latines. La conception architecturale a également historiquement renforcé les hiérarchies sociales. Bien que le design puisse intentionnellement ou non cibler certaines populations, ces inégalités affectent tout le monde. Loin d’être purs, les problèmes dans les algorithmes sont révélateurs de problèmes systémiques plus importants. Chapitre 3 : «Exposition codée : la visibilité est-elle un piège?» décrit les manières discriminatoires dont la technologie a rendu les Noirs à la fois invisibles et hypervisibles. Certaines technologies sont conçues sans penser aux Noirs, ce qui entraîne un accès inégal. D’un autre côté, certains ciblent excessivement les Noirs, comme la fonction flash améliorée du Polaroid ID2 conçue pour mieux photographier les Sud-Africains noirs pour les livrets qui restreignaient leurs mouvements pendant l’apartheid. Être hypervisible, c’est être stéréotypé. Entre l’eugénisme, l’ADN médico-légal et la reconnaissance faciale, le gouvernement a armé de nouvelles technologies de surveillance et de contrôle. Chapitre 4: « Bienveillance technologique : les correctifs nous résolvent-ils ? » explore comment les solutions technologiques aux problèmes sociaux reproduisent souvent d’autres inégalités. Par exemple, les bracelets de cheville «résolvent» la surpopulation carcérale en étendant la portée de l’État de surveillance. De même, les technologies conçues pour prédire quelles communautés ont le plus besoin de soins médicaux peuvent coder négativement ces communautés comme étant coûteuses et nécessiteuses. Benjamin insiste pour que nous soyons vigilants face aux correctifs technologiques qui prétendent résoudre un problème social mais présentent un autre dilemme. Dans le chapitre 5 : «Réoutiller la solidarité, réimaginer la justice», Benjamin encourage la résistance à l’iniquité codée. Par exemple, la technologie de réalité virtuelle a été conçue comme un outil d’empathie en percevant la réalité de quelqu’un d’autre, mais elle est inadéquate car la perception est plus que la vue. Benjamin suggère que nos solutions ne doivent pas toujours se présenter sous la forme d’un nouveau design tendance. Elle plaide pour une société plus inclusive et un ralentissement des progrès technologiques pour laisser place à un design soucieux de la race. Des groupes militants comme Data for Black Lives se battent pour la justice des données et encouragent une démocratisation des données. Benjamin insiste pour que nous ne soyons pas distraits par les nouvelles technologies. Au lieu de cela, nous devrions explorer des méthodes alternatives créatives pour abolir le New Jim Code et construire des systèmes justes.
Vous ne pouvez pas commenter Pourquoi?