Bernard Ourghanlian est directeur Technique et Sécurité de Microsoft France. Avec cet insatiable curieux, boulimique de la connaissance, nous avons parlé d’éthique, de recherche, d’intelligence artificielle et d’innovation. Si l’informatique quantique sera, à ne pas douter, la prochaine grande révolution, il rappelle que les technologies portent toutes en elles un côté positif et négatif. Et que nous avons le pouvoir de changer le monde, à condition de réfléchir tous ensemble à ce qu’on veut faire de nos découvertes.
Vous étiez le grand invité de la Semaine Recherche & Innovation 2020 de l’EPITA. Cette appétence pour la connaissance, cette curiosité, c’est l’un des messages forts que vous avez adressé aux étudiants. Sans curiosité, on ne peut pas devenir un bon chercheur ni influer sur l’innovation ?
Il faut être curieux, c’est sûr. Il faut aussi avoir l’envie d’apprendre chaque jour. Si l’on n’apprend rien, c’est une journée perdue. Il faut donc être dans cette logique-là, mais pas seulement : il faut aussi être ouvert aux autres. En effet, il est assez rare que l’innovation se fasse dans la solitude, dans sa chambre – il existe bien entendu quelques contre-exemples, mais ces derniers sont extrêmement rares. Il faut être capable de travailler avec les autres. La curiosité, l’envie d’apprendre, de découvrir des choses nouvelles et de découvrir ce qu’on ne sait pas, cela reste le moteur principal de l’innovation. C’est même un moteur extrêmement puissant.
Quand on invente, ce qui compte vraiment, c’est que l’invention puisse être utilisée. Et le jour où c’est le cas, cela devient une innovation : une innovation est une invention qui rencontre un usage. Tant que ce n’est pas utilisé, que les usages n’ont pas été trouvés, on reste dans le champ de l’invention.
Quel est l’objectif de la recherche et l’innovation ? De parvenir à créer de nouveaux outils répondant à des besoins qui, parfois, n’existent pas encore ?
Oui, cela fait partie des raisons pour lesquelles nous innovons. Derrière l’innovation, il y a de la recherche. Et derrière la recherche, il y a cette idée d’une sorte de dichotomie qui pourrait exister entre la recherche fondamentale et la recherche appliquée. Moi, cette dichotomie, je ne l’aime pas du tout car, fondamentalement, elle n’est liée qu’à des questions de temporalité. Par exemple, Microsoft travaille sur l’ordinateur quantique (voir plus loin) depuis 1997 et je n’étais pas donc encore là quand Alexei Kitaev a écrit son premier papier sur l’ordinateur quantique topologique. Or, quand on invente, ce qui compte vraiment, c’est que l’invention puisse être utilisée. Et le jour où c’est le cas, cela devient une innovation : une innovation est une invention qui rencontre un usage. Tant que ce n’est pas utilisé, que les usages n’ont pas été trouvés, on reste dans le champ de l’invention, on n’entre pas encore dans celui de l’innovation. Derrière l’usage se retrouvent également plein de questions. Prenons la Covid-19, pour rester dans l’actualité : elle a nous permis, paradoxalement, d’apprendre énormément de choses sur le monde et sur nous-mêmes. D’une part, on a pu, le cas échéant, se poser tout un tas de questions sur le sens de notre vie et des sujets qui sont plutôt d’ordre philosophique. D’autre part, cela nous a aussi permis de nous rendre compte que travailler chez soi, travailler à distance n’allait pas de soi, à la fois pour des raisons sociologiques – typiquement, dans diverses entreprises, le télétravail reste encore difficile car cela remet en cause un certain nombre de pratiques managériales, en particulier celles fondées sur le fait que le manager est là pour surveiller que les gens viennent le matin, qu’ils repartent le soir, qu’ils ont bien fait leurs heures… Bref, tout un côté « comptage des heures » qui transmet l’idée qu’il faut être présent, arriver avant le chef, partir après lui, etc. Cela démontre un vrai sujet, celui de l’évolution du management qui n’a pas encore eu lieu. Au-delà de ça, on s’est aussi rendu compte que travailler de chez soi n’allait pas de soi aussi parce qu’on n’était pas forcément équipé et que ce n’était pas si simple, comme pour la garde des enfants. Quand on est deux à télétravailler se pose la question de la répartition des rôles au sein du foyer, de la famille, alors que cette question était déjà réglée avant, plus ou moins bien, plus ou moins équitablement. La situation a nécessité de revisiter tout cela. Et derrière ce télétravail plus ou moins forcé, énormément de chercheurs de Microsoft, plutôt des anthropologues et des sociologues, se sont penchés sur ce que ça voulait dire de vivre confiné et de faire du télétravail, pour se rendre compte que beaucoup de choses nécessitaient des améliorations. Cela soulevait des questions portant aussi bien sur l’équipement des gens à leur domicile – certaines personnes s’étaient installées sur leur petite table de leur salon et, au bout d’une heure, avaient le dos « cassé » – que sur la relation de couple, la relation parents-enfants, la quête de sens… De ce fait, énormément de questions qui se sont posées ne relevaient pas de la technologie pure.
Car ce n’est pas à la technologie de s’adapter à nous, mais à nous de savoir ce que l’on veut faire de la technologie.
Oui et c’est un principe général. Il y a des technologies que l’on accepte et d’autres que l’on n’accepte pas. Le débat ayant actuellement lieu sur la 5G en France est très intéressant à ce niveau. C’est un débat « bien de chez nous », typiquement français, qui fait notamment suite à l’article publié dans le JDD faisant état d’un appel à un moratoire sur la 5G lancé par des politiques et notamment des maires. Il faut savoir que la 5G est aujourd’hui déjà adoptée et utilisée dans une trentaine de pays et que, si ce débat arrive chez nous, cela coïncide avec les enchères pour l’attribution des fréquences, fin septembre. Cela devient subitement un problème d’actualité et l’on se demande alors si l’on peut laisser cette invention devenir une innovation, si l’on peut se laisser se propager des usages. On vient se brancher directement sur le principe de précaution et, en amont du déploiement d’une technologie, on cherche à mener toutes les enquêtes permettant de prouver si cette technologie est nuisible ou non pour l’Homme. Or, les technologies ne sont jamais neutres. Même si les entreprises de technologie ont tendance à véhiculer un message marketing consistant à les présenter comme neutres, ce n’est pas le cas. Dans la réalité, les technologies ne sont pas neutres, mais bifaces : elles ont des côtés positifs et des côtés négatifs. La question que l’on doit se poser, dans une logique utilitariste, c’est plutôt de savoir si les technologies visées apportent plus de choses pour le bien commun si on les utilise que si on ne les utilise pas. C’est une question très vaste, qui dépasse les questions de santé ou de compétitivité. Par exemple, prenons les objets connectés et les voitures connectées : ils nécessiteront la 5G. De ce fait, quand des maires, récemment élus ou réélus, expliquent qu’il faudrait d’abord « équiper tout le monde avec la fibre », ils ne répondent pas à la question : je n’imagine pas qu’une voiture déroulera de la fibre derrière elle pour communiquer avec le reste du monde… Il y a donc tout un tas de sujets sur lesquels les discussions semblent un peu déconnectées de la réalité et où, en même temps, on trouve de vraies questions légitimes. Il est vrai que, si l’on met en place une technologie qui fait attraper un cancer du cerveau à 50 % de la population, on va probablement se dire que ce n’est pas une bonne avancée. Pour répondre à ces interrogations, il faut étayer le propos sur le plan scientifique et ne surtout pas s’imaginer que l’on sait par défaut la réponse. La crise de la Covid-19 a d’ailleurs mis en évidence tout un tas de biais cognitifs – dont nous sommes tous affublés – qui nous donnaient tous l’impression d’avoir une réponse à la question, comme si c’était une affirmation de ce que nous étions tous sensés déjà savoir. Finalement, avec beaucoup d’expérience, nous avons compris que nous ne savions pas grand-chose et que, globalement, il valait mieux une posture d’humilité qu’une posture visant à prétendre tout savoir sur le sujet.
On manque d’une capacité pédagogique, didactique, pour s’adresser au plus grand nombre à travers des médias de grandes audiences, pour essayer de vulgariser au sens positif du terme toute une série de technologies.
Justement, pensez-vous que qu’il y a un déficit dans la manière dont on parle des technologies et de la science, notamment dans les médias ?
C’est un sujet auquel je suis très sensible. Effectivement, je pense que l’on manque d’une capacité pédagogique, didactique, pour s’adresser au plus grand nombre à travers des médias de grandes audiences, pour essayer de vulgariser au sens positif du terme toute une série de technologies. Finalement, aujourd’hui, on demande au grand public de se prononcer sur des choses comme le nucléaire, les OGM, l’hydroxychloroquine, etc. Mais si tout le monde se croit capable de répondre, est-ce vraiment le cas ? Ce problème est d’autant plus renforcé par l’apparition des médias sociaux, qui ont la fâcheuse tendance à agréger des gens qui se ressemblent : on renforce des opinions que l’on a déjà en interagissant uniquement avec des gens qui pensent comme nous. Ce déficit de l’information traduit l’absence d’une réelle volonté de vulgariser la science au sens large. Le problème est même amplifié par la plupart de nos dirigeants politiques, qui n’ont que très rarement une culture scientifique. La plupart d’entre eux sont soit des politiciens professionnels sortis de l’ENA ou de Science Po, soit des avocats – être en profession libérale permet plus facilement de se mettre en suspension d’activité le temps d’un mandat. Bien sûr, ils peuvent aussi parfois être médecins, comme c’est actuellement le cas avec notre ministre de la Santé, mais c’est tout de même très rare. Dès lors, quand on y regarde de plus près, on se rend compte que la grande majorité des politiques ne possède quasiment pas de culture scientifique. De ce fait, quand on doit se saisir d’un sujet scientifique en France, le résultat est bien souvent pathétique. Il m’arrive pourtant d’être très souvent sollicité par des commissions parlementaires ou sénatoriales afin de leur donner une certaine forme d’opinion ou un éclairage sur un sujet spécifique. J’ai ainsi été interrogé par Cédric Villani sur l’intelligence artificielle ou par la commission de Paula Forteza sur l’informatique quantique. Et même si Cédric Villani est un cas particulier, la plupart de mes interlocuteurs n’ont pas la moindre formation scientifique. Ils vont s’emparer d’un sujet qu’ils considèrent important pour nos concitoyens, mais la seule chose qu’ils peuvent faire, c’est de s’entourer de gens plus ou moins spécialistes sur le sujet… L’idée, ce n’est pas non plus de rentrer dans ce qu’on pourrait appeler une « république des experts », mais de faire en sorte, qu’à minima, tous nos concitoyens aient le début du commencement de la compréhension d’un sujet avant de se mettre à en parler parce que leurs amis, les réseaux sociaux ou les médias en ont parlé de manière, hélas, très peu informée.
Vous êtes très attaché à la mixité. Si l’on imagine principalement des informaticiens et des ingénieurs au sein de vos équipes, elles sont aussi constituées d’anthropologues ou de sociologues. La clé de la réussite est-elle justement de mélanger les profils, les univers, les connaissances et les points de vue ?
C’est un point extrêmement important. Très concrètement, quand il s’agit de lutter contre les biais algorithmiques ou de l’IA, l’éclairage d’un sociologue est extraordinaire. Encore une fois, on parle d’innovations qui rencontrent des usages. Or, qui connaît mieux les usages qu’un anthropologue ou un sociologue ? Concevoir une interface homme/machine qui soit compréhensible par le commun des mortels et sur laquelle on n’est pas obligé de faire face à des menus ésotériques, c’est le travail d’artistes, qu’ils soient designers, musiciens… On a besoin de faire appel à des gens qui ne réfléchissent pas sous le même prisme. Je ne saurais trop insister sur ce point.
Justement, votre métier est de favoriser ce dialogue.
Mon poste correspond à la nécessité de créer des ponts : entre nos clients, ceux qui conçoivent nos produits et nos chercheurs (en France et à travers le monde). Mais je dois aussi créer des passerelles culturelles avec la France et la manière dont le pays perçoit les autres nations. Mon travail, notamment au Comité d’éthique de Microsoft où je représente la France, est d’une richesse extrême : on y côtoie des gens de tous les pays, avec des points de vue différents. Cette confrontation est passionnante. On se rend compte que sans ces ponts, les individus n’arrivent pas à se parler. Bien que la composante technique soit importante dans ma mission, je fais un grand travail de vulgarisation dans les deux sens : vulgariser la technologie la plus pointue auprès du grand public et vulgariser l’approche ou la compréhension du grand public vis-à-vis des chercheurs et des techniciens.
L’IA était un sujet passé de mode et, en ce sens, l’informatique est une succession de modes. Ainsi, elle passe son temps à alterner entre centralisation et décentralisation.
Microsoft et l’EPITA sont associées autour d’Impact AI (collectif de réflexion et d’action rassemblant des acteurs de l’IA). Pourquoi est-ce important pour un grand groupe d’être en lien avec un grand nombre d’institutions et de structures ?
Dans le cadre d’Impact AI, nous cherchons à nous poser des questions sur les impacts et les usages de l’IA, les freins et les questions éthiques, les sujets innovants… Nous sommes dans une logique où faire les choses de manière isolée n’aurait pas de sens : l’IA mobilise l’inconscient collectif (depuis 2001, l’Odyssée de l’espace ou Terminator) et s’est enrichie d’une certaine forme de crainte. Si l’on veut que ce sujet dépasse le cadre de l’invention pour se mettre vraiment au service d’un maximum de citoyens, il faut aller au-devant d’eux et ne pas rester dans son coin. Et ce n’est pas si simple. Voici un exemple typique de l’échec de l’innovation. On a considéré qu’Apple avait apporté une innovation très importante avec l’iPhone et l’iPad via son interface tactile. Mais Microsoft avait introduit un Tablet PC dès 2001. À l’époque, nous pensions qu’à travers l’utilisation d’un stylet, la possibilité d’utiliser l’écriture (y compris pour ceux qui écrivent très mal) allait constituer une nouvelle façon pour l’homme d’interagir avec la machine. Or, nous nous étions trompés en passant à côté d’un sujet : au lieu d’imaginer une interface avec laquelle on pourrait interagir avec ses doigts, on pensait que les gens allaient continuer à écrire avec un stylet. Cela aurait été pourtant pas très compliqué, mais nous n’avions pas imaginé le concept ! Typiquement, nous nous sommes trompés sur les scénarios d’usage, alors que nous avions sorti cet ordinateur près de cinq années avant les interfaces tactiles d’Apple. Cela montre combien il est important de comprendre comment une technologie va être utilisée avant même de l’introduire sur le marché. Car quand on invente, ce qui compte est comment va être utilisée cette invention. Encore une fois, une innovation, c’est une invention qui rencontre un usage.
Quelle est l’innovation qui vous a le plus marqué depuis ces 20 dernières années ?
L’intelligence artificielle. Pas tant que ce soit une vraie surprise, car j’ai connu l’IA pendant mes études, mais dans une vision très préliminaire fondée sur des règles. L’IA était un sujet passé de mode et, en ce sens, l’informatique est une succession de modes. Ainis, elle passe son temps à alterner entre centralisation et décentralisation : les ordinateurs centraux ont fait place aux PC qui ont permis de décentraliser, puis le Web a recentralisé… On se rend compte que l’informatique n’échappe pas aux modes. L’IA a été une forme de bonne surprise : l’idée que l’on se mette à utiliser les statistiques et avoir une approche probabiliste sur la modélisation est quelque chose à laquelle je ne m’attendais pas nécessairement. Les progrès réalisés conjointement par les évolutions algorithmiques, les capacités de collecte de données et de calcul ont participé du renouveau de l’IA qui était embourbée dans des concepts qui l’enfermait. Ça a été une vraie révolution.
Si l’on est capable d’avoir un ordinateur quantique suffisamment gros, capable de passer à l’échelle, on change complétement le monde du calcul dans lequel nous vivons. Et pas qu’un peu !
Et la prochaine révolution, c’est l’informatique quantique ?
J’y crois beaucoup. Elle utilise les propriétés infinitésimales de la matière, en particulier un phénomène quantique très difficile à concevoir, la superposition : une particule peut être dans plusieurs états simultanément. Cela peut paraître contre-intuitif. Au lieu d’avoir un interrupteur simplement ouvert ou fermé, cela revient à avoir un potentiomètre qui permet d’avoir l’ensemble des positions possibles, de totalement éteint à totalement allumé. L’objectif de l’informatique quantique est de pouvoir utiliser ce phénomène – il y en a plusieurs, mais c’est le principal – pour permettre de paralléliser les efforts. Prenons l’exemple de MIDI Maze (l’un des premiers jeux pratiqués sur ordinateur qui consistait à sortir d’un labyrinthe) : l’ordinateur classique va programmer un chemin pour voir s’il fonctionne et essayer les autres à la suite. On peut paralléliser le travail avec plusieurs ordinateurs pour qu’ils puissent explorer l’ensemble des chemins. Cela va être long. Avec un ordinateur quantique, on peut faire ce travail d’exploration de tous les chemins à la fois dans un temps exponentiellement plus court. On peut ainsi imaginer remplacer un certain nombre d’algorithmes par des algorithmes quantiques, donc exponentiellement plus courts. L’exemple qui a popularisé le quantique est l’algorithme de Shor, un algorithme de factorisation des nombres en nombres premiers : avec des très grands nombres, cela peut prendre très longtemps. Cette technologie est aujourd’hui utilisée dans le chiffrement : pour casser ces clés de chiffrement il faut un milliard d’années à un ordinateur classique. Avec un ordinateur quantique peu sophistiqué, il faudrait une centaine de secondes ! Si l’on est capable d’avoir un ordinateur quantique suffisamment gros, capable de passer à l’échelle, on change complétement le monde du calcul dans lequel nous vivons. Et pas qu’un peu ! On serait obligé de passer à un autre dispositif de chiffrement, car on pourrait par exemple déchiffrer tous les messages qui passent sur internet. Mais c’est aussi la possibilité d’explorer certains types de traitements, notamment chimiques, comme la capacité de créer un catalyseur afin de pouvoir capturer du CO². Si on en est capable, on pourrait résoudre la question du réchauffement climatique. Il s’agit bien plus qu’une hypothèse de travail et cela pourrait constituer la réponse à ce que l’on cherche. Mais si on n’y arrive pas, on s’oriente vers un monde absolument terrifiant. Ce genre de rêve, l’ordinateur quantique nous y donne accès.
Comment imaginez-vous l’avenir ?
Si l’on s’en sert pour le bien, le monde sera meilleur, sinon il sera pire : on peut imaginer aussi que cette technologie sombre entre les mains d’un État pour prendre un avantage militaire sur les autres, avec par exemple des virus qu’on ne pourra pas combattre. On peut imaginer des scénarios catastrophiques, mais aussi des scénarios qui changeront la vie de nos concitoyens. L’avenir sera ce qu’on en fait. Comme toutes les inventions auxquelles elles ont donné naissance, les technologies ont un côté positif et négatif, comme ce qu’a expliqué Robert Oppenheimer, « le père de la bombe atomique ». C’est pourquoi l’éthique est un sujet si important : nous devons, en tant qu’individus et tant que collectivité, réfléchir sur ce qu’on veut faire de ce que l’on découvre. Cela n’est pas écrit et nécessite un débat. D’où l’importance que le grand public, notamment à travers un journalisme de qualité, puisse appréhender ces questions complexes.