Le calcul de risque, cette « révolution industrielle » de l’administration publique produite à notre insu

Couverture du livre de Vincent Dubois, Contrôler les assistésAvec Contrôler les assistés, genèses et usages d’un mot d’ordre (Raisons d’agir, 2021), le sociologue Vincent Dubois (@vduboisluv) signe une somme très complète et très riche de sciences sociales.

Exigeante, cette longue enquête décortique les transformations du contrôle à l’égard des bénéficiaires de l’aide sociale des Caisses d’allocations familiales (CAF). Le livre permet de prendre la mesure de l’évolution des politiques publiques et notamment, pour nous qui nous intéressons aux transformations numériques, souligne le rôle fondamental de l’intégration de la fouille de données, du croisement des fichiers et d’une rationalisation numérique qui produisent une répression plus sévère et plus forte des assistés. Vincent Dubois montre comment, depuis 2000, nous sommes passés, très progressivement, avec le numérique, à « l’âge industriel » du contrôle par un changement de méthode et de finalités. Il souligne également combien l’analyse automatisée a épousé le modèle managérial, politique, économique et idéologique libéral qui s’est peu à peu mis en place durant la même période. Il pointe combien la raison statistique a été mise au service de la raison idéologique du contrôle au détriment de l’aide, du conseil, de l’assistance…

Finalement, en plongeant dans la transformation du contrôle, Vincent Dubois livre une autre histoire des transformations que produit le recours à l’informatique depuis une vingtaine d’années. Une histoire à bas bruit, que nous avons souhaitée éclairer avec lui.

InternetActu.net : Pourriez-vous pour commencer nous raconter comment et quand est né le traitement automatisé (data mining ou fouille de données) à la CAF ?


Vincent Dubois : La mise en place de la fouille de données à la CAF commence au niveau local. À l’origine, ce n’est pas quelque chose de pensé, ni une politique nationale, rationnelle ou programmatique. L’utilisation de techniques de prédiction statistique part de la rencontre fortuite entre l’agent comptable d’une caisse locale et d’une cadre de cette même caisse. L’agent était confronté à d’importants cas de fraude et s’est rendu compte qu’il était exposé à des poursuites, car il n’aurait pas entrepris toutes les démarches nécessaires pour prévenir une telle fraude. Sa cadre dirigeante va l’informer de l’existence de techniques statistiques pour détecter les risques d’erreurs et de fraudes, des techniques déjà mobilisées dans l’assurance et les sociétés de téléphonie mobile, notamment pour identifier les mauvais payeurs. C’est donc très tôt, au début des années 2000 que cette caisse met en place une expérimentation pour détecter les risques de fraude. Fort de ses premiers résultats, la méthode est peaufinée par des échanges entre la caisse locale et nationale après 2005. Des tests à grande échelle sont lancés pour produire des modèles. Et à partir de 2010, la fouille de données est généralisée. Cela fait donc plus de 10 ans que ces techniques y sont utilisées. La fouille de données et la prévision statistique sont devenues l’outil principal de détection et de déclenchement des contrôles des allocataires.

Cette façon de regarder l’histoire par le petit bout de la lorgnette est intéressante. Elle souligne combien l’adoption de ces outils s’est expérimentée de manière itérative, progressivement voire prudemment. La CNAF a été non seulement précurseure, mais également bon élève en matière de pratiques, tant et si bien qu’elles ont été imitées et généralisées depuis à d’autres organismes. Ces techniques de fouilles de données sont notamment utilisées depuis par Pôle emploi et l’administration fiscale, même si elles ont été adoptées plus tardivement et d’une façon peut-être un peu moins généralisées.

Donc très concrètement, ce développement technique s’est fait d’une manière très empirique. Les ciblages qui avaient lieu auparavant, eux, se basaient sur des observations ou des hypothèses de risques de fraudes ou d’erreurs, selon les allocataires ou les situations, mais restaient faits de manière hypothético-déductive. Avec la fouille de données, c’est l’inverse. La CNAF a fait réaliser 5000 contrôles, à grande échelle, sur la base d’un échantillon aléatoire d’allocataires. L’étude de ces 5000 dossiers a identifié des cas d’erreurs, de fraudes, d’indus… qui ont ensuite été utilisés pour reconstruire des agencements entre critères et variables qui caractérisaient les cas et pour construire des modélisations statistiques. Différents modèles ont été conçus avant d’être testés et mis en œuvre à grande échelle. Ces enquêtes à grande échelle sont réalisées de manière périodique pour ajuster les modèles aux évolutions des facteurs de risque.

Plusieurs modèles ont été dégagés de ces calculs de corrélation, notamment un facteur de risque global de la fraude et des modèles de risques plus spécifiquement adaptés à certains types de situations, comme la question de l’isolement ou la déclaration de ressources. Et ces modèles sont utilisés conjointement. Leur sélection repose sur leur « efficacité »… Cela signifie que la sélection ne repose pas tant sur des choix préalables que sur les rendements que les différents modèles produisent.

À l’origine donc, c’est bien la question de la lutte contre la fraude qui déclenche la mobilisation autour de ces outils et leur systématisation. La façon dont la fouille de données est mobilisée aujourd’hui garde trace de ses origines. Elle reste orientée vers la lutte contre la fraude, et plus généralement l’identification des indus, c’est-à-dire des sommes perçues à tort par les allocataires, car le montant de leurs revenus n’a pas été mis à jour ou que leur situation personnelle a changé.

Ce n’est pourtant pas exclusif d’autres usages possibles de ces techniques de fouille de données. Elles peuvent également être mobilisées pour détecter le non-recours aux droits ou le recours partiel, au bénéfice des allocataires, comme c’est le cas en Belgique ou au Royaume-Uni par exemple… Mais pour l’instant, en France, elles sont peu mobilisées pour cela. Ce qui laisse à penser que ce n’est pas la technique de fouille de données qui détermine ses effets, mais bien les usages qui en sont faits.

Internetactu.net : En quoi cette technique a-t-elle épousé les transformations politiques du contrôle ?


Vincent Dubois : Une autre manière de lire cette histoire, c’est de rentrer effectivement dans le type de conception inhérente à ces outils et l’affinité qu’ils peuvent avoir avec des manières de penser et des modèles d’organisation. Si on met en perspective l’usage de type de statistiques dans l’histoire longue des usages statistiques à des fins de gouvernement des populations comme dirait Foucault, on constate que la statistique classique porte sur la population dans son ensemble pour dégager des tendances, des moyennes, qui sont aussi des normes sociales. Avec la fouille de données, l’unité d’observation n’est plus la population, mais l’individu. C’est le comportement et la situation individuelle qui sont désormais l’objet de la connaissance. Ce changement de perspective est directement en affinité avec la philosophie néolibérale du sujet et du fonctionnement social qui considère, pour le dire vite et simplement, que la société et ses problèmes ne sont que le résultat de l’agrégation des comportements individuels. Le chômage par exemple n’est pas le produit de la structure du marché de l’emploi, mais le résultat de l’agrégation des individus à travailler ou pas.

La fouille de données est en affinité avec ce qui s’est imposé comme le principe managérial des organisations, notamment pour les organismes de protection sociale, à savoir la maîtrise des risques. Cette notion qui peut paraître vague est pourtant révélatrice d’une transformation de ces organismes et de leurs orientations. La notion de risque est consubstantielle aux politiques sociales et à l’État providence et part du principe que le travail, la maladie ou la vieillesse dépassent les responsabilités individuelles et doit être assumé de façon collective. Pourtant, cette maîtrise des risques dont on parle ici n’est pas tant le risque inhérent au fonctionnement social qu’une vision plus pragmatique et réduite : à savoir le risque financier que les bénéficiaires font courir aux organismes payeurs. La maîtrise des risques est également un principe managérial qui vise à prévenir leur survenance. Si la typologie des risques est souvent entendue de manière large, en pratique, le risque est surtout défini de manière précise et est profondément lié aux erreurs de déclaration des allocataires. Si cette notion de maîtrise des risques reste très englobante, c’est pour mieux faire disparaître le cœur de cible dans un principe managérial global. Un cœur de cible qui est à l’origine de la diffusion d’un impératif de contrôle à l’ensemble des organismes de protection sociale. La statistique prédictive ici correspond parfaitement à une politique dont l’objectif est de limiter le risque avant même qu’il ne survienne. Il y a eu une rencontre qui n’était pas totalement programmée entre la statistique prédictive et l’organisation des institutions de contrôle, mais qui a permis le renforcement de l’une et de l’autre. L’usage du data mining a pris sens dans le principe d’organisation même de la protection sociale et celui-ci s’est opérationnalisé dans la mise en œuvre même de cette technique, en renforçant l’individualisation et la responsabilisation des allocataires.

InternetActu.net : La fouille de données produit donc un score de risque de fraude pour chaque allocataire depuis 2011 à la CAF. Elle est utilisée depuis 2013 par Pôle emploi. Depuis 2014, par l’administration fiscale… Comment s’est répandu ce scoring, ce calcul des risques, cette « révolution industrielle » de l’administration publique ?


Vincent Dubois : Chaque utilisation est différente. À Pôle emploi, l’automatisation est surtout utilisée pour contrôler l’effectivité de la recherche d’emploi ainsi que pour la lutte contre la fraude, mais la focale y est plus réduite qu’à la CAF (l’enjeu consiste surtout à surveiller les escroqueries aux Assedics, fausses adresses, fausses fiches de payes… et emplois fictifs). Dans l’administration fiscale, la fouille de données s’est développée récemment mais ne conduit au déclenchement que d’environ 10 % des contrôles des particuliers, la proportion étant supérieure à 60 % pour celui des bénéficiaires d’aide sociale. Il faut rappeler ici le rôle joué par la création en 2008 de la Délégation nationale à la lutte contre la fraude (DNLF). Cette innovation institutionnelle est venue concrétiser les prises de position politiques du président Sarkozy dénonçant la fraude sociale et surtout la fraude aux prestations. Cette délégation interministérielle a eu la mission de coordonner les échanges, de favoriser les bonnes pratiques, de former et d’assurer une veille technique pour l’ensemble des services concernés par différents types de fraudes. Elle est créée alors que la fouille de données est en voie de généralisation à la CNAF et qu’elle y produit des résultats probants. Elle est rapidement devenue la technique mise en avant dont la DNLF a prôné la diffusion et la généralisation.

Internetactu.net : À côté de la statistique prédictive et du data mining, votre enquête de terrain pointe une autre transformation qui bouleverse le travail des administrations : le croisement de données ! Plus qu’un croisement d’ailleurs, c’est plutôt un « échange » voir même des accès croisés, qui renforcent le contrôle et produisent des vérifications de masse, peu coûteuses, et « efficaces ». Nous sommes passés d’un contrôle artisanal à un contrôle industriel, sous la pression de forces politiques qui ont valorisé et justifié le contrôle, mais qui a été structuré par une pléthore d’outils, de base de données et de modalités d’échanges de données. À la lecture de votre livre, en comprenant comment s’opèrent les contrôles, on découvre à quoi servent ces bases de données et portails d’information et comment ils sont mobilisés. Mais surtout, on découvre très concrètement que le respect de la vie privée et l’étanchéité des services publics, voire privés, sont devenus des vains mots. La séparation des administrations publiques et la séparation des pouvoirs qui leurs sont conférés ne sont-elles pas largement en train de disparaître ?


Vincent Dubois : Effectivement. La fouille de données et l’échange de données, même s’ils renvoient à des pratiques différentes (d’un côté des outils de détection et de l’autre des outils de contrôle), peuvent être regroupés dans un même ensemble d’usages. Il est frappant de constater le caractère concomitant et exponentiel de l’usage de ces techniques. Frappant de constater également le caractère très itératif de de développement. Nous ne sommes pas confrontés à un métafichier centralisé qui contrôlerait la population… comme l’était la menace du fichier Safari dont l’histoire raconte qu’il a donné lieu à la loi informatique et libertés de 1978, non ! La réalité est bien plus réticulaire que centralisée, mais cela ne l’empêche pas d’atteindre une forme de surveillance jamais vue. Cet ajout assez progressif d’accès et de croisement de données n’en réalise pas moins une surveillance tentaculaire.

Pour comprendre ce qu’il s’est passé, il faut tenter d’en démêler les fils chronologiques. Rappelons d’abord que la CAF, du fait de ce qu’elle traite, dispose d’une précision et d’une quantité de données personnelles sans commune mesure. Du fait de la batterie de critères et de leur diversité nécessaires pour accorder des aides, les organismes sociaux savent tout de la vie des personnes : santé, logement, travail, famille…

Au début des années 90, on a un premier mouvement d’informatisation, important et précoce, avec la création de systèmes internes aux organismes de protection sociale, comme la GED (gestion électronique des documents). En 1995, le NIR (Numéro d’inscription au répertoire, plus connu sous le nom de numéro de sécurité sociale) est autorisé pour le croisement des fichiers. Ca a favorisé le passage au caractère industriel du croisement des fichiers, car son usage a fait disparaître les nombreuses erreurs d’identification qui pouvaient exister notamment sur les noms, adresses et leurs orthographes. Ensuite ont été progressivement mis en place des protocoles d’échanges de données bilatérales, de façon itérative encore : entre la CAF et l’ANPE pour les bénéficiaires du RSA puis du RMI, entre la CAF et l’administration fiscale, etc. Un ensemble de conventions décidées de gré à gré se sont ajoutées les unes aux autres conduisant à une généralisation des possibilités d’échange de données. Ensuite, ont été constituées des bases de données « internes ». Il faut rappeler qu’il n’y avait pas de fichier national des allocataires, chaque caisse locale avait son fichier, ce qui créait notamment des risques de multiaffiliation. En 2006 est venu le RNCPS (Répertoire national commun de la protection sociale) : un répertoire qui permet à chaque organisme de protection sociale grâce aux identifiants uniques d’avoir accès aux fichiers consignés par les autres organismes sociaux. Puis la Déclaration sociale unique qui va faciliter l’unification des données en matière de ressources des allocataires. L’accès à d’autres fichiers n’a cessé de progresser… notamment l’accès direct à Ficoba (Fichier national des comptes bancaires et assimilés qui permet d’accéder aux relevés bancaires) pour contrôler la structure des ressources et dépenses des allocataires, vérifier leur train de vie ou la dissimulation de ressources non déclarées…

Ces évolutions décrivent une multiplication progressive et diversifiée d’une multitude de possibilités de croisement et d’accès à des données personnelles qui ont renforcé l’information que les organismes peuvent obtenir sur des personnes. Elles ont aussi considérablement renforcé l’efficacité des contrôles. Les croisements de ressources sont automatisés et déclenchent des contrôles en cas d’incohérence. Auquel s’ajoute le droit d’accès enfin, de façon plus individualisé et artisanal, qui permet d’accéder à des données pour des vérifications au cas par cas.

InternetActu.net : une autre transformation liée au numérique – mais pas seulement, elle est également liée à la normalisation, à des modalités de structuration des décisions, de cadrages des critères – tient également des documents utilisés, de la rationalisation des indications, des rapports. La rationalité n’est pas seulement dans les chiffres et les données, elle s’inscrit jusqu’à la normalisation des pratiques. Quels sont les effets de ces pratiques, de cette révolution de la normalisation et des traitements ?


Vincent Dubois : D’une manière générale, la structuration de la politique de contrôle a été marquée par un effort de rationalisation, qui rime avec une forme de nationalisation que l’on constate avec l’amoindrissement des latitudes d’appréciation laissées aux caisses locales. Effectivement, la technicisation par la fouille et l’échange de données est allée de pair avec la rationalisation des données. Si on regarde très concrètement le cas des enquêtes à domiciles par exemple, au début des années 2000, les contrôleurs étaient peu encadrés dans l’organisation pratique de leur travail. Les décisions liées à la qualification des situations d’isolement et la rédaction des rapports étaient assez libres dans leurs décisions et préconisations. Qualifier une décision d’isolement ou de vie maritale, malgré la jurisprudence relevait beaucoup des impressions du contrôleur. Par exemple, je me souviens d’un contrôle à domicile de personnes âgées qui habitaient ensemble et parlaient d’un arrangement amiable… Une version que le contrôleur avait retenue, n’imaginant pas que des personnes âgées puissent finalement se mettre en couple. Ne pas retenir la vie maritale serait impossible aujourd’hui. Notamment du fait des outils d’aide à la décision qui ont été créés, qui reposent sur des constats critérisés, des modalités de pondération de ces critères les uns par rapport aux autres et de la notation sur le degré de certitude de ces différents critères. La décision entre une situation d’isolement ou de vie maritale se fait désormais par le biais d’une formule Excel !

Cette automatisation de la décision… on peut voir soit positivement, comme une posture normative, un rempart logique contre les décisions individuelles des contrôleurs. On peut également la voir négativement, car elle conduit à une forme de déréalisation du traitement des dossiers. Les situations sociales sont souvent complexes et mouvantes et ne se laissent pas appréhender sur la base de critères standards et formalisés… Les contextes familiaux et les situations complexes échappent aux catégories bureaucratiques standards. La normalisation réduit la prise en compte de circonstances qualitatives, de ce qui pouvait être pris comme circonstances atténuantes. La standardisation conduit à une rigueur plus grande à la fois par la rectitude de l’application des critères et à la fois par la sévérité des décisions produites.

Ces transformations en tout cas sont très frappantes jusqu’à leur matérialité même. Au début des années 2000, les rapports des contrôleurs étaient souvent manuscrits, rédigés sur papier libre, formulés selon des styles propres aux préférences des contrôleurs, circonstanciés, souvent descriptifs de situations, narratifs plus que fonctionnels, mais livraient des ambiances, des réalités de situations. Désormais standardisés, les contrôleurs ne remplissent plus que des critères formels depuis des trames de plus en plus rigides, avec très peu d’espace de rédaction libres. Cette rationalité bureaucratique sous forme technologisée de formulaire en ligne qui ne laisse de choix que dans la réponse préremplie de menus déroulants produit une forme de déréalisation. Reste à savoir si nous sommes là face à un progrès qui prévient l’arbitraire et qui garantit une plus grande égalité. Ou face à une décision sans âme qui ne fait plus rentrer en ligne de compte les situations sociales.

InternetActu.net : le risque n’est-il pas d’une rationalisation de critères qui demeurent appréciatifs ?


Vincent Dubois : Oui. On évalue depuis des critères situationnels et de fait plus que depuis des critères juridiquement strictement définis, comme ceux liés à un statut. Face à des situations complexes et instables, l’administration fait souvent face à des situations indéterminables. Sur quels critères peut-on établir une vie maritale si la mère des enfants maintient des liens avec le père ? S’il vient trois jours par semaine ? S’il est là tous les week-ends ? Où placer le curseur ? Dans la logique des situations personnelles, la situation de précarité est marquée par une grande instabilité familiale, professionnelle, résidentielle… Or, l’administration doit arrêter des décisions dans un flux de changements. On a beau formaliser, multiplier les critères rationalisés… on ne réduira jamais le réel aux critères ! Dans les régimes assurantiels, on a des droits ouverts selon des critères de droit, de statut, de condition. Dès qu’on bascule dans des critères de faits, de situations ou de comportements… on est confronté à des difficultés. Le problème qui explique l’essor du contrôle, c’est le développement d’un système social où les prestations sont versées sur des critères de faits sont de plus en plus importants. Ce n’est donc pas un hasard si le contrôle concerne les populations les plus stigmatisées, comme celles qui bénéficient du Revenu de solidarité active ou de l’Allocation de parent isolé, car elles reposent plus que d’autres sur une qualification de situations ou de comportements.

InternetActu.net : Avec le numérique, le contrôle a changé de statut et réorienté les politiques publiques, expliquez-vous. La vérification est devenue plus coercitive et punitive, prise une spirale rigoriste inédite, qui vise à restreindre de manière toujours plus forte les règles d’attribution, les montants, les durées, les conditions d’attribution, les sanctions…), comme si l’État social se contractait. L’automatisation procède-t-elle plus à l’érosion des droits où à l’extension du contrôle ?


Vincent Dubois : L’extension du contrôle est certaine, pour les multiples raisons qu’on vient d’évoquer. La réponse informatique permet un traitement de masse des dossiers d’une façon peu coûteuse – notamment parce qu’il nécessite moins d’effectifs et qu’il produit une efficacité inédite du recouvrement – et aussi – c’est une justification souvent avancée ! – parce qu’il permet un contrôle à l’insu des contrôlés ! L’automatisation et l’informatisation ont été un vecteur très important de l’intensification des contrôles, de leur généralisation, de leur effectivité croissante et de la sévérité des décisions.

Sur la question de l’érosion des droits, peut-être faudrait-il déplacer la réponse en s’intéressant plus avant à ce qui se joue avec la dématérialisation des démarches. La thèse récente de Clara Deville sur « les chemins du droit » des bénéficiaires du RSA en milieu rural revient sur l’émergence – timide ! – de la notion de non-recours comme préoccupation officielle et la promotion de l’administration électronique. La dématérialisation est souvent vue comme la solution miracle, alors que, pour les personnes en précarité, elle est surtout un obstacle supplémentaire à l’accès aux droits. Dans ce cadre, le numérique ajoute des difficultés à celles qui existaient déjà en matière d’accès. Nous avons encore besoin d’enquêtes sur ces enjeux. Dans les démarches administratives, il y a des critères de compétences bien sûr – techniques pour savoir manier l’outil, mais également linguistique pour comprendre le vocabulaire administratif… -, mais aussi des critères liés aux situations ! Dans les situations standards, il est facile de rentrer dans les cases, même si elles sont rigidifiées par les formulaires numériques. Par contre, dès que les situations sont complexes, la dématérialisation renforce les obstacles. L’administration électronique, outre les questions d’accès, nous fait basculer dans une administration à distance qui renforce les problèmes d’accès déjà présents, notamment pour les populations les plus précaires. L’absence de face à face, pourtant primordiale, comme je le soulignais dans un précédent livre, La vie au guichet, empêche de se faire expliquer les démarches ou d’expliquer sa situation. L’obstacle classique du vocabulaire est ici renforcé, durcit, tout comme difficulté à « rentrer dans les cases », à qualifier sa situation sans explications ni accompagnement. Avec l’administration électronique, quand votre situation n’est pas prévue dans le menu déroulant, la discussion est close.

InternetActu.net : Votre livre est l’un des rares, si ce n’est le premier, à éclairer la question du « scoring » pratiqué par les administrations publiques. En tant que citoyens, nous ne savons rien des scores de risques qui sont affectés à nos profils. Si, notamment, la Loi pour la République numérique de 2016 prévoit l’ouverture des algorithmes publics et la publication des règles qui président à ces calculs, pour l’instant, ces publications concernent seulement les règles de calculs des droits et taxes. Comment se fait-il que ces calculs, pratiqués pourtant depuis 10 ans par la CAF, nous soient invisibles ? Comment expliquer cette discrétion pour ne pas dire ce secret dans la « révolution industrielle » des administrations publiques ?


Vincent Dubois : Il faudrait mener une enquête sur la transformation et le déclin de la CNIL. La réponse tient en partie au résultat de transformations juridiques liées notamment au droit européen, de transformations organisationnelles et un certain déclin des idéaux de liberté publique du fait des renouvellements générationnels au sein de la commission, tout autant qu’un rapport de force qui a sans doute affaibli la place de la CNIL dans le champ bureaucratique. De manière très concrète, tout cela a conduit à ce que les croisements de données et la création de bases de données dédiées ne soient plus soumis à autorisations préalables, mais instruites en interne par des délégués à la protection des données en discussion avec les administrations… Et que les avis de la CNIL ne soient désormais plus contraignants. Ces transformations du rôle de la CNIL ont ouvert une possibilité de croisement de données qu’on pensait impensable en 1978…

InternetActu.net : dans votre livre, vous écrivez d’ailleurs : « Trente ans après la loi informatique et libertés de 1978, les fichiers et croisements d’informations ont cependant été réalisés » dans une « ampleur bien plus importante que les projets qui l’avaient initialement suscitée »…


Vincent Dubois : Cela tient certainement beaucoup à la façon dont les choses se sont mises en place. Il n’y a pas eu un projet massif et centralisé auquel s’opposer, qui aurait créé débats et controverses… Le fait que ces questions aient été traitées au cas par cas, via des accords de gré à gré, à diluer leur mise en place, et ce alors que leur généralisation a été lente et très progressive. Nous n’avons pas été confrontés à un système généralisé, mais à une facilitation des procédures. Or, qui s’émeut d’une convention d’échanges de données entre deux organismes publics ?… Pourtant, mis bout à bout, l’ensemble de ces conventions font bien systèmes et produisent une efficacité redoutable.

Ensuite, la fouille de données se pare des atours d’une neutralité statistique et mobilise des techniques relativement complexes. Cette technicité permet de laisser de côté l’approfondissement des débats sur leurs usages ou leurs limites. Au final, il faut pouvoir faire une enquête comme la mienne pour saisir comment les données sont effectivement utilisées. Les administrations (mais on peut étendre le constat aux entreprises privées, comme la banque ou l’assurance par exemple) sont peu enclines à dévoiler les fonctionnements de leurs algorithmes, comme on le constate avec Parcoursup. Pourtant, il y a là un vrai enjeu démocratique. Nous devons connaître les informations personnelles que les administrations utilisent, comment et à quelles fins.

InternetActu.net : Dans ce nouveau paysage d’une surveillance omnipotente, y’a-t-il encore une place pour que les contrôlés puissent s’adapter, trouver des espaces ou des modalités pour prolonger les modes de « fraudes de survie » dans lesquels ils sont le plus souvent ? Le nombre de fraudes identifiées a été multiplié par 30 entre 2004 et 2017, mais leurs montants seulement par 16 et au prix d’un élargissement sans fin de la définition de la fraude (qui a largement dépassé la notion d’escroquerie organisée). Dans cette surveillance, toujours plus stricte, de plus en plus réactive, « ce sont presque toujours les allocataires les plus précaires qui sont le plus contrôlés », à savoir les individus isolés ou ceux dont les conditions d’emplois sont les plus irrégulières. Le risque n’est-il pas que les méthodes de calcul toujours plus précises toujours plus volatiles et évolutives (notamment la fin de l’annualisation des droits et prestations) se fassent au détriment des plus précaires sans leur laisser d’espaces d’adaptation, de tolérance ?


Vincent Dubois : Décrire l’expérience du contrôle vu du côté des contrôlés nécessiterait une autre enquête. Elle est difficile à réaliser, car il est difficile d’accéder aux personnes contrôlées… Je ne désespère pas pourtant qu’on puisse la réaliser un jour.

L’ajustement des pratiques des allocataires à ces systèmes semble se réduire. D’abord parce qu’il est difficile de s’adapter à des modèles de détection qu’on ne connaît pas vraiment. Néanmoins, il y a toujours des effets d’ajustements, liés à l’information qui circule, à l’expérience des contrôles qui forge des compétences pour s’y ajuster… Reste que, par nature, la fouille de données pour lutter contre la fraude ne cesse de s’ajuster à l’évolution des fraudes documentées, on l’a dit. Le système n’est pas fixe et établi, mais rétroagit. Les usages de fraudes sont régulièrement remodélisés pour améliorer les formes de contrôle.

Ce n’est pourtant pas un modèle sans failles. L’une des limites qui a été identifiée par exemple, c’est que le modèle est national, global, et qu’il est donc aveugle aux disparités locales. La même variable en fonction de contextes différents n’a pas la même signification. Être chômeur dans un bassin d’emploi où il y a beaucoup de chômage n’a pas la même signification ni les mêmes implications que de l’être dans un contexte où le taux de chômage est très faible. Cela nécessite certainement un travail pour intégrer des variables contextuelles aux modèles.

Enfin, une autre limite tient certainement à l’auto-alimentation de ces techniques. Devoir déclarer plus régulièrement des ressources produit mécaniquement des erreurs, des retards… Plus on suit au plus près et de façon continue les situations, en temps réel, plus les critères font l’objet d’erreurs… Et plus on les contrôle !

Propos recueillis par Hubert Guillaud, le 16/06/2021.

À lire aussi sur internetactu.net

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *