Sur son blog, Cathy O’Neil, nous rappelle ce qu’était la phrénologie, cette pseudo-science inventée au XIXe siècle qui pensait découvrir les caractéristiques intellectuelles et comportementales de chacun en mesurant les caractéristiques physiques des crânes et des visages. Une pseudoscience qui a tenté de trouver une association statistique entre le fasciés et les mœurs et qui, dans ses pires dérives a justifié le racisme et la criminalité.
Cathy O’Neil n’hésite pas à dresser le parallèle entre la phrénologie et l’analyse de données en se référant à un article de la NPR consacré au recrutement à l’heure des jeux vidéo et du Big Data. L’article en question revient sur Pymetrics, une start-up du recrutement qui souhaite utiliser la mesure de votre manière de jouer pour améliorer le recrutement. La startup s’intéresse par exemple à mesurer votre attention aux détails ou votre tolérance au risque pour trouver de nouveaux critères permettant de décider de la pertinence d’un recrutement. Pymetrics est loin d’être la seule société à utiliser la “psychologie organisationnelle” pour déterminer les traits de personnalité des gens, même ceux qui permettraient d’estimer le rendement au travail !
La journaliste de la NPR a ainsi testé RoundPegg, un test qui permet de mesurer les valeurs des employés pour voir s’ils sont en adéquation avec celles de la société qui les embauche. Sur un principe assez proche, elle a également testé Knack, une application qui propose aux gens de jouer pour mesurer leur style de jeu afin de déterminer leurs qualité au travail (voir également notre dossier sur le sujet : L’emploi à l’épreuve des algorithmes).
Pour Cathy O’Neil, nous sommes en train de remplacer la mesure des crânes par une autre pseudoscience, à base d’analyse comportementale et de Big Data. “Il n’y a aucune raison de penser que ce genre de chose est moins biaisé ou discriminatoire que la phrénologie”.
MAJ : La Technology Review revient sur une tentative très concrète de développement d’un système de machine learning d’analyse faciale permettant de déterminer si le visage des gens semblent digne de confiance ou pas. Un moyen de comprendre comment nos idées pré-conçues dépendent de signaux sociaux subtils et permettre – ce qui est bien plus inquiétant – aux robots de les répéter…
Laisser un commentaire