AGIR






OUTILS LIBRES

browsers
Firefox
messengers
Jappix - Thunderbird
search
Duckduckgo - Quaero - Scroogle
servers
all2all - domaine public - Telekommunisten
networks
Appleseed - Crabgrass - Diaspora - elgg - OneSocialWeb - pip.io
microblog
identi.ca

RELATED SITES

Ada Lovelace Institute - AI Now - Algorithm Watch - Algorithmic Justice League - AlgoTransparency - Atlas of Surveillance - Big Brother Watch - Citizen Lab - Conspiracy Watch - Constantvzw - controle-tes-donnees.net - Data Detox Kit - Digital Freedom Fund - Domaine Public - Do Not Track Electronic Frontier Foundation - europe-v-facebook - Fight for the Future - Forbidden Stories - Gender Shades - Google Spleen - greatfire.org - Guard//Int - hiljade.kamera.rs - Homo Digitalis - Human Rights Watch - Inside Google - Inside Airbnb - Liberties - LobbyPlag - Make Amazon Pay - Manifest-No - Ministry of Privacy - More Perfect Union - myshadow.org - Naked Citizens - Ni pigeons, ni espions - No-CCTV - Non à l’Etat fouineur - Nothing to Hide - noyb - NURPA - Online Nudity Survey - Open Rights Group - Ordinateurs de Vote - Pixel de tracking - Police spies out of lives - Prism Break - Privacy.net - Privacy International - Privacy Project - La Quadrature du Net - Radical AI Project - Reset the Net - Save the Internet - Souriez vous êtes filmés - Sous surveillance - Spyfiles - StateWatch - Stop Amazon - Stop Data Retention - Stop Killer Robots - Stop Spying - Stop The Cyborgs - Stop the Internet Blacklist ! - Stop the Spies - Stop Watching Us - Sur-ecoute.org - Technopolice - Tech Transparency Project - Transparency Toolkit - URME Surveillance - Watching Alibaba - Where are the Eyes ? - Who Targets Me ? - Wikifémia - Wikileaks

Société

Les algorithmes qui nous entourent sont-ils racistes et sexistes ?

analyse - 3 janvier 2020

lire sur le site originel >>> (francetvinfo.fr)

Des femmes automatiquement défavorisées dans l’obtention d’un crédit, des distributeurs de savon qui ne détectent pas les peaux noires… Les algorithmes qui nous entourent sont-ils racistes et sexistes ?
En 2017, une informaticienne nommée Joy Buolamwini s’est rendu compte qu’un logiciel censé reconnaître son visage n’y parvenait pas. La raison ? L’algorithme du logiciel ne détectait pas sa peau noire. Cette discrimination est le résultat d’un "biais algorithmique". "Les premiers algorithmes de (...)



Mots-clés de l'article

algorithme - biais - biométrie - carte - facial - main - racisme - reconnaissance - sexisme - Apple - discrimination - francetvinfo.fr -

VOIR TOUS LES MOTS-CLÉS