La digitalisation croissante des relations entre les citoyens et les services publics bousculent (notamment) le droit fondamental à l’égalité et à la non discrimination: c’est le constat d’Elise Degrave, professeure à la Faculté de droit de l’UNamur et directrice de recherches au NADI/Crids qui prêche pour un numérique choisi et contrôlé. Sur le plan juridique, constate-t-elle, la logique du tout numérique et de la gouvernance algorithmique transpose voir renforce les inégalités sociales.
Elise Degrave : « Lorsqu’on évoque les difficultés des personnes par rapport au numérique, on parle souvent de « fracture numérique « . Assez clivant, ce terme peut induire l’idée qu’il y a d’un côté les « forts », qui ont accès au numérique, qui en maîtrisent l’usage et sont peu concernés par cette problématique, et de l’autre côté, les « faibles », dont on préfère penser qu’ils sont minoritaires, n’ont pas de matériel informatique ou n’ont pas les compétences pour l’utiliser, et on gage du fait qu’un jour l’État leur paiera un ordinateur et que des personnes dévouées les aideront à monter dans le train du numérique. »
Une solution
« La pauvreté, l’analphabétisation, le handicap dans le monde physique, ne disparaîtront pas d’un coup de tablette magique dans le monde numérique. Au contraire même puisqu’à l’égard des inégalités sociales le numérique est ambivalent. Il est à la fois une solution et un problème. Il est une solution car il rend possible, par exemple, l’automatisation des droits pour octroyer d’office un droit sans que le bénéficiaire doive le demander. C’est le cas du tarif social « gaz et électricité » qui, grâce à des échanges de données entre administrations, permet une réduction automatique de la facture de certaines personnes. Cela contribue à diminuer le phénomène du « non-recours aux droits »
Mais aussi un problème
« Mais le numérique peut aussi renforcer les inégalités. Pour certains, il complexifie les démarches à effectuer, du fait de l’informatique, mais aussi de la standardisation qui accompagne souvent les démarches en ligne, consistant notamment à « cocher une case « . Or, certaines situations de vie sont atypiques, n’entrent dans aucune case, et sont malaisées à expliquer par mail. En outre, des « bugs » se produisent dans les coulisses des services, ce qui les rend d’autant plus difficiles à identifier, à contrôler et à corriger. Ainsi, s’agissant de l’automatisation des droits, même de tels croisements de données vertueux peuvent générer des inégalités. Si une donnée du processus est erronée, en bout de chaîne, le citoyen se verra refuser la réduction escomptée, alors même qu’il est dans les conditions légales pour l’obtenir. Et le fournisseur d’énergie sera bien en peine d’en expliquer la raison : actuellement, retrouver une erreur dans une donnée équivaut à chercher une aiguille dans une botte de foin, tant il reste à faire pour que la transparence dans l’utilisation des données des citoyens soit une réalité. »
Des algorithmes d’état
« Ajoutons à cela que les humains ne sont plus nécessairement les seuls à prendre des décisions importantes pour les individus. Par exemple, en matière de lutte contre la fraude, ce sont désormais des algorithmes qui, au départ d’une grande quantité de données traitées, indiquent aux inspecteurs les profils suspects qu’il convient de contrôler. Or, l’algorithme n’étant qu’une formule mathématique créée par un humain, il peut être affecté de « biais « , même non intentionnels, conduisant à contrôler une catégorie de la population, tels les pauvres ou les personnes d’origine étrangère, plutôt qu’une autre. Lorsque l’algorithme est appliqué à toute la population, comme c’est le cas des algorithmes de l’État, le choix algorithmique est un choix de société. En d’autres termes, si un algorithme a des conséquences racistes ou sexistes, ces conséquences auront le même impact que si elles étaient organisées par une loi, à la différence qu’une loi est débattue publiquement et fait l’objet de contrôle en amont et/ou en aval, ce qui n’est pas le cas de l’algorithme dont, la plupart du temps, on ignore même l’existence et le rôle. Cela signifie que des discriminations sont créées dans le monde « réel « , mais leur origine se trouve dans la stratosphère numérique, ce qui les rend difficilement saisissables. »
Pour un numérique choisi et contrôlé
Or des pistes existent pour faire du numérique une alternative « durable » qui tiennent compte des conséquences sociales qu’il peut induire et plus largement, du respect des droits fondamentaux. Ce qui implique, comme on le verra dans les deux prochains articles, que le numérique soit choisi et contrôlé.