Hubert Guillaud est le rédacteur en chef d’InternetActu.net, une précieuse source d’information et de veille sur les nouvelles technologies éditée par la Fing. Auteur de nombreux ouvrages et de plusieurs centaines d’articles, il est l’un des principaux observateurs français de cette transformation numérique qui, bien qu’incontournable et omniprésente dans la société, soulève encore de nombreuses questions quant à son manque de transparence ou son modèle de « gouvernance par les systèmes techniques ».
Où en sommes-nous dans la numérisation de la société ?
Nous en sommes arrivés à un niveau sans précédent, avec une accélération et une invisibilisation de la numérisation. Cette dernière touche désormais tous les secteurs : elle est partout et continue. Bien sûr, on constate immédiatement cette omniprésence avec les GAFAM et les réseaux sociaux, nos interactions collectives et individuelles. Mais la numérisation est aussi aujourd’hui intégrée dans la plupart de nos échanges : à l’école, vous ne discutez plus avec les professeurs sans passer par des mails, comme pour l’ensemble des services publics. La numérisation est très avancée et va même si loin qu’on ne parle plus d’un passage simple au numérique, mais d’un changement d’envergure, de nature, avec l’introduction de l’intelligence artificielle dans ces processus.
Un processus accéléré par la pandémie…
Les deux années de crise de la Covid-19 ont naturellement renforcé ce mouvement. Toute la réponse sanitaire a ainsi consisté à déployer des outils informatiques pour assurer le suivi de personnes malades, des tests, des certificats de vaccination… Pour passer l’échelle de la crise qui pouvait potentiellement toucher tout le monde, tout s’est fait presque exclusivement par les outils numériques. Sans parler du commerce en ligne ou de la dématérialisation…
En réalité, nous sommes entrés dans une modalité de gouvernance par les systèmes techniques. Et cela pose problème.
Ce qui a donné une place encore plus importante aux algorithmes. Jusqu’où peut-on leur faire confiance dans la prise de décision ?
En réalité, nous sommes entrés dans une modalité de gouvernance par les systèmes techniques. Et cela pose problème. Comment est faite cette gouvernance ? Que permet-elle ? Ou ne permet-elle pas ? La véritable transformation de ces dernières années est que nous sommes arrivés à une échelle industrielle du numérique, qui produit des systèmes, des sortes d’usines de l’automatisation. Cette vision industrielle pose un tas de questions sur notre rapport à la société. Que produit-elle ? Que favorise-t-elle ? Face aux « épreuves de la vie » qu’on subit (dont parle Pierre Rosanvallon dans son dernier livre), on peut se demander si ces algorithmes n’ont pas leur part de responsabilité. Il faudrait explorer cela un peu plus, mais on se retrouve face à des difficultés : aujourd’hui, tous ceux qui sont malades du Covid, ou présumés, sont renvoyés vers des plateformes, pas vers leur médecin. Il se passe quelque chose, comme si la finalité de la médecine était transformée…
Comment peut-on surveiller ces algorithmes ?
De plusieurs manières. D’abord, par leur ouverture : ils doivent être consultables, que d’autres professionnels puissent les consulter – des journalistes, des associations, des chercheurs, des praticiens… Malgré les très beaux discours sur l’ouverture du code et des données, l’open data, ça bloque. Parce que c’est compliqué. Parce que, derrière, les méthodes développées pour évaluer posent des questions légitimes. On a ainsi très peu d’informations de Bercy et des services sociaux sur comment ils détectent une fraude…, alors que les impôts viennent récemment d’utiliser pour la première fois de l’intelligence artificielle (IA) pour détecter des fraudeurs ! Ce souci de transparence est le même à propos des algorithmes de Parcoursup : comment chaque école classe-t-elle les élèves pour les sélectionner ? Il y a des choses cachées dans le code. Et partout où ce n’est pas ouvert, c’est qu’il y a un problème.
Ensuite, il y a la question de la gouvernance : qui travaille sur ces systèmes techniques ? Aujourd’hui, on voit surtout des ingénieurs travailler entre eux. Ils produisent des choses formidables, mais ils ne mêlent pas d’autres types d’utilisateurs dans leurs systèmes. C’est un énorme biais : soit on fait un système avec les gens, soit on n’en fait pas. Les intégrer permet d’être transparent, de faire preuve d’explicabilité sur la loyauté et la justice des systèmes techniques. Cette absence des utilisateurs crée de nombreux problèmes endémiques. On ne voit les systèmes que comme « des systèmes », en oubliant d’y mettre de la diversité. L’année prochaine, plus de 200 services publics seront dématérialisés, mais les problèmes resteront les mêmes : les interfaces continueront à être illisibles et très difficiles à utiliser, car les utilisateurs n’auront toujours pas été associés à ces transformations. Plus globalement, la discussion sur les systèmes techniques fait défaut dans la société. À la fois par manque d’ouverture et par un manque de co-conception avec les usagers.
Comment se positionne la France sur ces questions ?
Elle a été leader, avec la promulgation de la loi pour une République numérique en 2016 ainsi que les efforts entrepris depuis longtemps sur l’ouverture des données dès 2010 et la transparence des algorithmes. Mais il demeure encore de nombreuses insuffisances. Nous devrions faire un effort appuyé sur l’ouverture, sur la transparence, l’explicabilité et, encore une fois, associer les usagers à ces questions. La loi République numérique oblige les entreprises et services publics à rendre aux utilisateurs les données qu’ils utilisent sur eux, mais on ne parle pas des traitements qui en sont faits. Je suis ravi qu’une administration me rende mon adresse et mon code postal, mais je voudrais savoir si elle l’utilise pour faire un calcul. Et ça, on n’en parle pas. Il faut donc pousser ces efforts d’ouverture plus loin.
Apprendre à coder et développer des systèmes techniques ne peut se faire sans une réflexion à propos des impacts sur la société.
Comment peut-on éduquer à ces enjeux ?
Dans l’éducation, on sépare les questions dans des silos et c’est normal : les ingénieurs sont formés pour faire du code qui produit des systèmes techniques. C’est super ! Mais il faut aussi les intéresser aux impacts sociaux de ces systèmes. Apprendre à coder et développer des systèmes techniques ne peut se faire sans une réflexion à propos des impacts sur la société. Il faut prendre en compte autre chose que juste le travail de mathématiciens, d’ingénieurs ou de data scientists.
Et la sensibilisation des plus jeunes ?
Les plus petits sont pris dans ces systèmes techniques et il ne faut pas les laisser seuls avec les machines – ce que disent déjà un certain nombre d’éducateurs. Il faut les accompagner, leur expliquer comment ça marche. Mais il ne faut pas seulement leur apporter une explication technique : on doit également leur expliquer les impacts sur tout à chacun et toutes les conséquences derrière. Quand des enfants utilisent les réseaux sociaux, il faut leur dire de ne pas systématiquement répondre ou qu’il vaut mieux parfois bloquer quelqu’un. Ce n’est pas qu’un apprentissage technique, mais aussi un apprentissage social. C’est à tout le monde de le porter, aussi bien les parents que les associations.
Quels liens peut-on faire entre ce qui se passe sur les réseaux sociaux techniques et le tissu social ?
La chercheuse Danah Boyd explique dans un de ses livres que « c’est compliqué » ! Ces liens sont beaucoup plus complexes qu’on ne le pense. La technologie ne s’extrait pas de la société. Au contraire, elle rentre dedans. On ne peut pas la comprendre d’une manière qui soit neutre ou dépolitisée. Pour la comprendre, il faut justement l’analyser en y intégrant la société.
Peut-on (encore) faire confiance aux géants du web ?
À qui faites-vous confiance ? À personne, tant que cette dernière n’apporte pas des preuves de cette confiance. Je ne fais pas plus confiance à Facebook, que je ne fais confiance aux impôts ou à l’école de prime abord. Pour créer de la confiance dans les systèmes techniques, il faut mettre en action ce dont on a parlé : ouverture, transparence, co-conception… Ce qui n’est le cas nulle part.
Ce numérique industriel est majoritairement mis au service de l’économie. Son but est de produire des économies d’échelle, de nouvelles économies d’échelle, en extrayant du sens des données.
Comment peut-on contraindre ces sociétés à agir en ce sens ?
Par des règles et des lois. Ce n’est pas qu’une question d’amendes, mais d’obligations que doivent avoir ces sociétés en proportion aux enjeux qu’elles adressent. Cet été, Facebook a décidé de se séparer de tous les chercheurs extérieurs qui voulaient enquêter sur ce qu’ils font et produisent. Si on ne l’impose pas, Facebook ne sera jamais obligé d’ouvrir ses données à la recherche pour qu’on comprenne exactement ce qu’ils font et là où il y a des problèmes. On peut attendre des acteurs qu’ils décident de s’autoréguler, qu’ils édictent des chartes ou des codes de bonne conduite. C’est très joli, mais derrière, il faut des preuves et des données, qu’on puisse les surveiller et les sanctionner.
Le numérique est à la fois un fabuleux outil d’échange et un terrain d’expression du capitalisme le plus sauvage.
Ce numérique industriel est majoritairement mis au service de l’économie. Son but est de produire des économies d’échelle, de nouvelles économies d’échelle, en extrayant du sens des données. Ce n’est plus uniquement du pétrole dont les entreprises ont besoin, mais aussi des données et des informations, pour produire de la « scalabité », du passage à l’échelle. Ces dernières années, on constate que le numérique s’est clairement mis au service des économies et du capitalisme.
Un service de recherche, comme celui fourni par Google, ne devrait-il pas relever du service public ?
Sans doute, mais cela ne relève plus de l’économie, mais de la volonté politique et des moyens donnés. On pourrait imaginer de nationaliser des moteurs de recherche ou des réseaux sociaux, mais cela ne semble pas à l’ordre du jour, bien au contraire. C’est une question intéressante, mais elle n’est pas du tout à l’agenda politique.
La neutralité du web, est-ce une utopie ?
C’est un principe, comme celui d’utiliser des logiciels libres pour le faire fonctionner (ce qui est majoritairement le cas) ou d’ouvrir les données et les systèmes de traitement. L’enjeu, c’est d’essayer de le défendre au maximum. Mais il faut mettre des formes de régulation. La neutralité du web a beaucoup de difficultés à exister tant il y a des acteurs qui pèsent sur le réseau pour l’orienter dans un sens ou dans l’autre. Et il ne faut pas oublier les utilisateurs : est-ce que demain il y aura des préférences pour des très gros acteurs, vidéo par exemple, pour faire passer leur flux avant les autres ? On y est presque. C’est une question qui se pose, et qui, comme les autres, a besoin d’être soutenue.
Que souhaitez-vous dire à nos étudiants qui vont travailler dans l’informatique et les nouvelles technologies ?
Il n’y a pas que l’informatique dans la vie ! Intéressez-vous aux impacts et aux enjeux de ce que vous faites. Le calcul est un outil formidable, qui permet de faire des choses formidables. On peut tout faire, mais il faut une conscience pour ne pas faire n’importe quoi. Je me souviens d’un développeur qui travaillait sur un système capable de prendre en charge toutes les données qu’il voulait pour mettre au point son algorithme. Parmi ces données, il y avait la nationalité des gens concernés. Il a refusé de prendre en compte ce paramètre, car ça lui posait un problème éthique personnel. Il a réagi tout seul et c’est au fond une réaction politique. Pour traiter les données et les comprendre, on a besoin d’une conscience. Il ne faut jamais oublier cela.
À chaque fois qu’on se libère avec la technologie, on emprisonne quelque chose dedans.
La technologie sauvera-t-elle le monde ?
Absolument pas ! C’est même plutôt l’inverse qui est en train de se passer. Certes, la technologie permet de faire des choses formidables et on a toujours l’impression qu’elle va nous enlever de la difficulté, de la charge de travail, nous libérer et nous autonomiser, mais il ne faut pas oublier qu’à chaque fois qu’on se libère avec la technologie, on emprisonne quelque chose dedans. Quel monde veut-on lorsqu’on remplace des caissières par des ordinateurs ? La question n’est pas tant la technologie en elle-même que les valeurs qu’on lui donne, ce qu’elle produit, impacte, et où elle va. Si la technologie est mise au service d’une exploitation plus intensive du monde, elle ne nous sauvera pas.
Elle est donc à la fois un outil d’émancipation et d’aliénation ?
Bernard Stiegler dirait que c’est à la fois le poison et le remède. Je serais un peu plus radical : depuis trop longtemps, notre rapport à la technologie montre que plutôt de libérer, elle a énormément entravé. On peut faire beaucoup avec le calcul, des choses extrêmement fines depuis des données très détaillées, mais qu’est-ce qui doit être pris en compte pour que le calcul soit juste ? Est-ce la bonne méthode ? Est-elle explicable ? Si la technologie nous sert à produire un monde incompréhensible, comment pouvons-nous y adhérer ? Aujourd’hui, le déploiement de la technologie oublie totalement de regarder son impact et ses valeurs, ce qui pose un vrai problème. C’est une forme d’illusion sur elle-même. Croire en sa toute-puissance pose un énorme problème de société.
Justement, vous expliquez que nous sommes entrés « dans une forme d’hystérisation du calcul » et que le « projet de l’Intelligence artificielle » est de « rendre les calculs incompréhensibles aux humains »
C’est un fait : les calculs deviennent de plus en plus incompréhensibles. Il faut expliquer aux gens pourquoi l’algorithme aboutit à telle ou telle décision. On a tendance à faire des injonctions technologiques, mais comment les produit-on ? Pour qui ? Nous sommes face à un risque de systèmes totalement automatisés dont les ingénieurs ne savent pas expliquer eux-mêmes les résultats comme c’est le cas dans certaines techniques d’IA. Doit-on croire une vérité produite par un ordinateur ? Ça semble impensable. Il y a là une vraie lacune, une erreur de la technique et celle-ci, il faut la creuser et ne pas laisser advenir.
Peut-on tout de même envisager un autre modèle ?
Oui, mais il va avec un autre modèle de société, économique et politique. Tout est imbriqué. On peut donc espérer qu’un autre modèle de société est possible. On ne semble pas s’en approcher, mais on peut l’espérer.
Nous sommes dans des systèmes techniques qui nous poussent à nous engager en permanence.
Avez-vous des conseils de lecture ?
On a parlé du livre C’est compliqué : les vies numériques des adolescents de Danah Boyd : un ouvrage simple et accessible, qui est vraiment éclairant sur notre rapport à la technologie. Lisez Data Feminism de Catherine D’Ignazio et Lauren F. Klein, qui montre justement que l’ouverture des données pour elles-mêmes ne suffit pas. Il faut y associer les utilisateurs, les utilisatrices et les gens les plus éloignés des technologies pour arriver à produire un monde commun. Sur le même sujet, il y a Design Justice de Sasha Costanza-Chock qui s’intéresse aux algorithmes et comment les rendre plus justes. Je conseillerais enfin Brutalisme d’Achille Mbembe : c’est un philosophe qui ne réfléchit pas forcément aux questions techniques, mais qui s’y est un peu attelé dans ce livre et s’inquiète des dérives sécuritaires liées aux possibilités de calcul. Cette réflexion autour de la technologie est indispensable et il faut impérativement que ceux qui produisent des systèmes techniques n’oublient pas de penser le monde qu’ils produisent.
Et des conseils pour mieux utiliser les réseaux ?
Le premier est de choisir qui l’on suit. Sur Facebook ou Twitter, je suis beaucoup de chercheurs et de spécialistes liés à mes sujets de travail. Ça rend plus riche et apporte beaucoup plus que des éditorialistes ou des gens qui s’expriment pour s’exprimer. Suivons les chercheurs, écoutons-les. Ça prend un peu plus de temps, mais ça permet de réfléchir et ça évite de surréagir. Le second, en lien avec le premier, est de ne pas réagir pour réagir : nous sommes dans des systèmes techniques qui nous poussent à nous engager en permanence. Utilisons-les avec parcimonie. Réfléchissons un peu plus longtemps avant de liker, partager ou prendre position. Dans la technologie, on aurait justement besoin de dire un peu plus souvent qu’on ne peut pas, plutôt qu’on peut à tout prix.