AGIR






OUTILS LIBRES

browsers
Firefox
messengers
Jappix - Thunderbird
search
Duckduckgo - Quaero - Scroogle
servers
all2all - domaine public - Telekommunisten
networks
Appleseed - Crabgrass - Diaspora - elgg - OneSocialWeb - pip.io
microblog
identi.ca

RELATED SITES

Ada Lovelace Institute - AI Now - Algorithm Watch - Algorithmic Justice League - AlgoTransparency - Atlas of Surveillance - Big Brother Watch - Citizen Lab - Conspiracy Watch - Constantvzw - controle-tes-donnees.net - Data Detox Kit - Digital Freedom Fund - Domaine Public - Do Not Track Electronic Frontier Foundation - europe-v-facebook - Fight for the Future - Forbidden Stories - Gender Shades - Google Spleen - greatfire.org - Guard//Int - hiljade.kamera.rs - Homo Digitalis - Human Rights Watch - Inside Google - Inside Airbnb - Liberties - LobbyPlag - Make Amazon Pay - Manifest-No - Ministry of Privacy - More Perfect Union - myshadow.org - Naked Citizens - Ni pigeons, ni espions - No-CCTV - Non à l’Etat fouineur - Nothing to Hide - noyb - NURPA - Online Nudity Survey - Open Rights Group - Ordinateurs de Vote - Pixel de tracking - Police spies out of lives - Prism Break - Privacy.net - Privacy International - Privacy Project - La Quadrature du Net - Radical AI Project - Reset the Net - Save the Internet - Souriez vous êtes filmés - Sous surveillance - Spyfiles - StateWatch - Stop Amazon - Stop Data Retention - Stop Killer Robots - Stop Spying - Stop The Cyborgs - Stop the Internet Blacklist ! - Stop the Spies - Stop Watching Us - Sur-ecoute.org - Technopolice - Tech Transparency Project - Transparency Toolkit - URME Surveillance - Watching Alibaba - Where are the Eyes ? - Who Targets Me ? - Wikifémia - Wikileaks

Société

Les assistants vocaux que vous utilisez au quotidien sont paramétrés par défaut pour avoir des voix de femmes. Cela créerait des biais sexistes, selon un rapport de l’ONU.

plainte - 22 mai 2019

lire sur le site originel >>> (numerama.com)

Siri dans certaines langues, Alexa, Cortana, Google Assistant"¦ La plupart des assistants vocaux personnels sont paramétrés pour avoir d’office une voix féminine. Le problème, c’est que cela contribuerait à renforcer des stéréotypes sexistes. Les Nations Unies (ONU) ont publié un rapport ce mercredi 22 mai qui explique pourquoi.
Du flirt et des remerciements
Le rapport montre que les assistants vocaux répondent souvent aux insultes, critiques ou propos déplacés par des phrases nonchalantes, des (...)



Mots-clés de l'article

biais - Alexa - Amazon - Apple - Cortana - discrimination - domotique - GigEconomy - Google - Microsoft - numerama.com - Siri -

VOIR TOUS LES MOTS-CLÉS