Impossible de parler IA sans citer son nom ! Eneric Lopez est le Directeur Intelligence Artificielle et Développeurs de Microsoft France. Ingénieur en Sciences Numériques de formation, ce mordu de technologies est un fin observateur de l’écosystème IA auquel il contribue activement. Rencontre…
📣Aujourd’hui, l’intelligence artificielle fait les gros titres, impossible de faire l’impasse ! Comment expliques-tu ce phénomène ?
E.L. Il y a une explication qui est technologique et une autre sociétale. L’explication technologique est liée au fait que l’intelligence artificielle n’est pas une nouveauté : si l’on fait un peu d’histoire c’est à la fin des années 1950 qu’on commence à voir l’intelligence artificielle et les algorithmes qui vont avec. Maintenant, pourquoi cela explose autant ? Nous observons la conjonction de trois phénomènes qui accélèrent les possibilités et les cas d’usage.
D’abord, nous générons de plus en plus de données. Or cette donnée est le fioul des algorithmes! Nous avons également une capacité de calcul incomparable grâce au cloud-computing, ce qui nous permet de faire tourner cette quantité de données. Et le dernier phénomène, ce sont les algorithmes. Même si c’est une technologie qui est ancienne, nous avons fait des progrès algorithmiques incroyables ces 10 ou 15 dernières années. C’est donc la conjonction de ces trois phénomènes qui accélèrent les cas d’usage. Aujourd'hui, l'intelligence artificielle fait le buzz et fait aussi l'objet de beaucoup de fantasmes !
On a vu l’intelligence artificielle dans plein de films, et c’est en général très stigmatisant : on a peur d’être remplacé par un robot ou une machine ou que celle-ci prenne le contrôle. En résumé, si l’intelligence fait aujourd’hui les gros titres, c’est parce qu’il y a davantage de possibilités et de cas d’usage, et parce que cela touche à quelque chose qui est très proche de nous et de notre humanité, à savoir notre propre intelligence.
🤗Comment les entreprises s’emparent-elles de cette technologie ? Certaines semblent dans une logique proactive et lancent des expérimentations, d’autres semblent plus dans une logique « wait and see »…
E.L. C’est un peu cela. Nous avons fait des études montrant que 70% des entreprises considèrent que l’intelligence artificielle va être éminemment stratégique pour elles dans les années à venir. Mais on s’aperçoit aussi en parallèle, que seules 30% d'entre elles sont passées à la mise en production de scénarios et d’expérimentations de façon industrielle.
Il existe également un clivage, caricatural mais malheureusement assez vrai : ce sont d’abord les grosses entreprises qui se lancent : parce qu’elles ont déjà entamé leur transformation numérique, parce qu’elles ont les compétences en interne, parce qu’elles voient peut-être plus les opportunités ou parce qu’elles sont peut-être plus challengées par la concurrence. Elles ont donc un besoin d’innover et de tester ces nouvelles technologies.
De l’autre côté, on trouve des entreprises plus petites qui ont un manque d’acculturation sur les possibilités offertes par l’intelligence artificielle ; qui ont le sentiment que c’est quelque chose pour les autres, réservées aux grandes entreprises ; ou alors qu’il faut des compétences pointues comme des data scientists. Or, on peut très vite mettre en œuvre de l’IA sur certains usages, parce qu’il existe de l’intelligence artificielle « sur étagère », prête à l’emploi, au travers des solutions SAAS ou d’API. Il y a donc un manque de compréhension du potentiel et de la facilité d’accès à l'IA.
Il y a également un autre aspect : on observe énormément d’expérimentations, mais on n’est pas encore sur un passage à l’échelle. On a eu beaucoup de phases de POC (proof of concept), de prototypes qui étaient un peu « tarte à la crème », comme les bots, sans qu’il y ait derrière de vraies recherches de valeurs « métiers ». L’industrialisation du sujet n’est parfois pas encore là.
👽Quels sont, selon toi, les facteurs clés d’une stratégie IA réussie ?
E.L. Il faut d’abord adopter une méthodologie en spirale qui s’élargit petit à petit. Ce doit être une stratégie progressive, étudiée et que l’on va valider au fur et à mesure. Je vais être très concret. Le premier pas sur l’IA ne doit pas être anecdotique, il faut que ce soit une décision stratégique. Il faut identifier son premier cas d’usage. Pour que ce cas d’usage soit un succès, il faut d’abord regarder où est-ce que cela va apporter de la valeur. Et lorsque je parle de valeur, je ne parle pas nécessairement de ROI, cela peut-être l’amélioration de l’expérience client, ou l’optimisation de mes stocks par exemple.
Il faut donc faire son premier cas d’usage là où on a d’une part de la donnée et d’autre part un véritable besoin. Ensuite on apporte la réponse à ce besoin et on implique les bonnes compétences : les compétences métiers, avec des collaborateurs capables de comprendre les sujets métiers derrière la donnée et également les compétences techniques et bons outils.
Dès le départ, aussi, il faut penser à la bonne conduite du changement qui va avec, parce que si vous proposez à quelqu’un de travailler avec une intelligence artificielle, alors que cela fait 20 ans qu’il réalise cette tâche ou qu’il le fait avec des humains, cela peut vite effrayer ! Il faut donc que les personnes soient sensibilisées, acculturées, motivées et partie prenante au choix, à la conception et à la mise en œuvre de la solution. Cette solution doit répondre à une de leur problématique et apporter de la valeur.
En amont, cela passe par la formation et de l’information, ainsi qu’un travail sur la culture de ses collaborateurs. Une fois le premier cas d’usage et la conduite du changement réalisés, on peut passer à d’autres cas, et industrialiser le recours à l’IA en ayant une approche holistique.
💡On néglige souvent la dimension humaine de ce type de projets. Quel est selon toi le rôle du changement culturel ?
E.L. Il y a deux choses. D’une part cela perturbe, parce que l’on va se dire « c’est une machine qui va faire des choses que je faisais moi-même ». De ce fait, j’ai confiance, pas confiance ? D’autre part, pour que l’intelligence artificielle fonctionne, il faut de la donnée. Or c’est en général le bien le plus précieux que les entreprises et les organisations, notamment le management, détiennent.
Aujourd’hui, on a des schémas managériaux basés sur la détention de l’information et du savoir, et sur la démultiplication de ceux-là. Si on veut faire de l’IA, il faut que la data soit disponible et dé-silotée, c’est à dire, par exemple que les collaborateurs du marketing partagent leur data avec ceux de la finance pour faire un algorithme qui va aider les commerciaux et les financiers. Cela demande donc une culture de la collaboration et du partage.
L’IA nécessite aussi une culture de l’empowerment de l’individu, parce que les personnes impactées par le processus doivent être incluses dans la création de l’algorithme ou de la solution à mettre en place. Qui mieux que quelqu’un sur le terrain pour connaître son job et ce qui est pertinent à mettre en place ? Il faut également muscler toutes les compétences qui permettent de faire ce que la machine ne pourra pas faire. Il faut donc préparer la collaboration Homme-machine, et se recentrer sur ce qui fait de nous des Hommes : notre ingéniosité.
💥Comprends-tu que cette technologie fasse encore aujourd’hui l’objet de peurs ?
E.L. Oui car on touche à des sujets d’éthique. C’est à dire : est-ce que la machine prend les décisions toute seule ? Est-ce que la data n’est pas biaisée ou non représentative ? L’exemple que je prends souvent et celui d’un algorithme que l’on utiliserait pour déterminer les salaires qui serait entraîner sur les données existantes: il fonctionnerait bien d’un point de vue technologique mais reproduirait le biais de notre société où il existe une inégalité salariale entre les hommes et les femmes.
Il y a également une réalité, celle de la donnée, notamment la donnée personnelle, donc une dimension éthique sur laquelle on doit travailler. Parce que si l’exploitation de la data est une opportunité, c’est aussi une source de peurs, avec parfois des différences d'appréhension liées à nos sociétés et cultures d’ailleurs.
Mais si l’on agite beaucoup le chiffon rouge -et c’est normal- je trouve que l’on ne met pas assez en regard les opportunités offertes par l’Intelligence artificielle. Il faut donc montrer toutes les opportunités offertes par l’IA, tout en mettant les gardes-fous nécessaires et il faut investir massivement pour faut former et informer les Hommes.
💬Peux tu nous parler du Comité Ethique de l’IA?
E.L. Chez Microsoft, depuis maintenant près de deux ans, nous avons créé un comité d’éthique interne appelé AETHER. Comme nous sommes fournisseur de technologies, nous devons nous assurer que celles-ci soient respectueuses des principes éthiques. Pour ce faire, nous avons d’abord déterminé nos six grands principes éthiques, que sont l’équité, la fiabilité, le respect de la vie privée, la diversité et l’inclusion, la transparence et enfin la responsabilité.
On s’assure dès lors que notre technologie soit en phase avec ces principes, et que les entreprises souhaitant utiliser nos services respectent également ces critères éthiques, quitte à refuser des appels d’offre. Au niveau global, on s’est rapidement dit qu’il fallait travailler tous ensemble, ce qui a donné le Partnership on AI avec les grands acteurs de la tech.
En France, avec le rapport fait par Cédric Villani et le plan AI for Humanity du Président Macron, un collectif, impact-ai.fr, dans lequel se retrouve une cinquantaine de membres travaillent autour de sujets sur des cas d’usage, en lien avec le gouvernement et la Commission Européenne. Le but étant de donner l’avis éclairé des entreprises qui travaillent sur le sujet de l’IA.
🎨Dernière question pour la fin ! Chez Kokoroe, nous sommes des férus d’éducation. Peux-tu nous dire dans quelle mesure l’intelligence artificielle va révolutionner les modes d’apprentissage ?
E.L. Déjà, les personnes qui vont vouloir apprendre pourront interagir de manière plus naturelle avec le contenu d’une formation, et une meilleure disponibilité de la part d’un correcteur. On ne peut pas toujours avoir un prof qui répond directement à nos questions, et même sur les plateformes avec du contenu « froid », il est parfois difficile d’interagir hormis quelques clics.
Mais si l’on met des outils d’interactions qui sont plus naturels, comme des chatbots, de la reconnaissance vocale, intégrant les questions/réponses les plus courantes, l’apprenant aura accès plus rapidement à des corrections ou du savoir, et ce de manière plus naturelle.
Ensuite, cela permettra de faire des parcours d’apprentissage beaucoup plus personnalisés, comme les recommandations par exemple. On va pouvoir orienter l’apprenant vers des formations qui correspondent vraiment à ses besoins, mais aussi identifier plus facilement les moments où l’apprenant décroche. Et puis cela va permettre de s'entraîner, de se former à son rythme tout en gardant un bon niveau de profondeur. En résumé, sur les modes d’apprentissage en tant que tels, l’intelligence artificielle va permettre un apprentissage beaucoup plus naturel, individualisé et personnalisable.
En revanche, si l’on se base sur ce que l’on va devoir apprendre, l’intelligence artificielle va nous pousser à développer davantage nos compétences humaines, nos soft skills. L’intelligence artificielle nous pose donc aujourd’hui des questions sur nos compétences de demain.
➡️ Découvrez notre formation "Décoder la transformation digitale"