Pour Elise Degrave, professeure à la Faculté de droit de l’UNamur et directrice de recherches au NADI/Crids, le numérique doit non seulement relever du choix personnel, à plus forte raison dans les services publics qui sont incontournables puisque le citoyen n’a pas le choix de sont interlocuteur. Mais il doit également être contrôlé lorsque des données à caractère personnel leur servent de « carburant ».
Se retrancher derrière l’outil
Elise Degrave : « Or les algorithmes sont opaques et les traitements de données sont inobservables. Au final, on doit constater que le numérique est invisible. Au risque de le rendre invincible, car l’invisibilité du numérique, doublée d’un caractère technique, donne une apparence de complexité aux questions à réguler, qui peut décourager les responsables politiques de s’en saisir pleinement. D’autant qu’on peut légitimement se demander si certains, peu à l’aise avec ces outils et leurs effets, n’auraient pas tendance à se retrancher derrière l’outil pour ne pas avoir à en assumer les éventuelles conséquences électoralement peu porteuses. »
Perdu devant son écran
« Par ailleurs, la contestation citoyenne tend à s’étouffer en ce domaine. À regret, car ce sont bien souvent les questions, les contestations voire les transgressions qui font évoluer la société en général, et le droit en particulier. Même si une décision injuste concerne une masse de personnes, l’invisibilité du numérique compromet l’identification du problème initial. Et chacun étant seul et perdu devant son écran, l’énergie physique d’un groupe, qui incite à réfléchir ensemble et peut faire naître l’envie de manifester, disparaît. Ainsi, pour que le numérique se déploie de manière harmonieuse dans un État de droit, il est urgent que les responsables politiques se saisissent pleinement de ces questions. Trois pistes d’action, au moins, peuvent être envisagées. »
Pour une AFSCA des algorithmes
« Premièrement, puisque les biais algorithmiques mettent en péril le droit à l’égalité et à la non-discrimination, ils devraient être contrôlés, en mettant en place une » AFSCA » des algorithmes, autorité indépendante spécifiquement dédiée à cette mission. »
Renforcer la transparence des données
« Deuxièmement, pour obvier au risque d’erreurs en chaîne dans les décisions fondées sur des échanges de données, la transparence des traitements de données devrait être renforcée en mettant en place un tracking des données, à l’image de ce qui se fait lorsque l’on commande un produit sur Internet et que le parcours du produit est disponible en temps réel. Il y va du respect du droit à l’égalité et la non-discrimination, du droit à la vie privée et du droit à la transparence administrative. »
Analyse d’impact
« Troisièmement, pour lutter effectivement contre les inégalités sociales numériques, chaque outil numérique devrait faire l’objet d’une analyse d’impact avant sa mise en place, permettant de mesurer notamment les économies que cette mesure permettra de réaliser. Et il serait judicieux de songer alors à réaffecter ces économies dans la mise en place de dispositifs inclusifs, tels que la formation d’agents pour aider les personnes fragilisées à effectuer leurs démarches administratives, sur papier ou en ligne. Il s’agit là de quelques pistes d’action essentielles, pour éviter, tant que faire se peut, que numérisation rime avec exclusion sociale et culturelle. »