AGIR






OUTILS LIBRES

browsers
Firefox
messengers
Jappix - Thunderbird
search
Duckduckgo - Quaero - Scroogle
servers
all2all - domaine public - Telekommunisten
networks
Appleseed - Crabgrass - Diaspora - elgg - OneSocialWeb - pip.io
microblog
identi.ca

RELATED SITES

Ada Lovelace Institute - AI Now - Algorithm Watch - Algorithmic Justice League - AlgoTransparency - Atlas of Surveillance - Big Brother Watch - Citizen Lab - Conspiracy Watch - Constantvzw - controle-tes-donnees.net - Data Detox Kit - Digital Freedom Fund - Domaine Public - Do Not Track Electronic Frontier Foundation - europe-v-facebook - Fight for the Future - Forbidden Stories - Gender Shades - Google Spleen - greatfire.org - Guard//Int - hiljade.kamera.rs - Homo Digitalis - Human Rights Watch - Inside Google - Inside Airbnb - Liberties - LobbyPlag - Make Amazon Pay - Manifest-No - Ministry of Privacy - More Perfect Union - myshadow.org - Naked Citizens - Ni pigeons, ni espions - No-CCTV - Non à l’Etat fouineur - Nothing to Hide - noyb - NURPA - Online Nudity Survey - Open Rights Group - Ordinateurs de Vote - Pixel de tracking - Police spies out of lives - Prism Break - Privacy.net - Privacy International - Privacy Project - La Quadrature du Net - Radical AI Project - Reset the Net - Save the Internet - Souriez vous êtes filmés - Sous surveillance - Spyfiles - StateWatch - Stop Amazon - Stop Data Retention - Stop Killer Robots - Stop Spying - Stop The Cyborgs - Stop the Internet Blacklist ! - Stop the Spies - Stop Watching Us - Sur-ecoute.org - Technopolice - Tech Transparency Project - Transparency Toolkit - URME Surveillance - Watching Alibaba - Where are the Eyes ? - Who Targets Me ? - Wikifémia - Wikileaks

Société

Philippe Besse : « Les décisions algorithmiques ne sont pas plus objectives que les décisions humaines »

analyse - 28 août 2020

lire sur le site originel >>> (cnil)

Suite à la réunion organisée les 28 et 29 mai par le Défenseur des droits, en partenariat avec la CNIL, autour des enjeux de transparence des algorithmes et des biais discriminatoires, LINC s’est entretenu avec Philippe Besse, professeur de Mathématiques à l’université de Toulouse-INSA. Spécialiste des questions de discrimination algorithmique, Philippe Besse évoque, outre les enjeux de transparence inhérents à l’usage de ces outils, les moyens qui pourraient être mis en œuvre pour assurer leur loyauté. (...)



Mots-clés de l'article

algorithme - biais - biométrie - consentement - Europe - facial - législation - racisme - reconnaissance - recrutement - santé - sexisme - technologisme - travail - USA - CNIL - cnil.fr -

VOIR TOUS LES MOTS-CLÉS