Imed Boughzala, Titulaire de la chaire Intelligence Digitale d’Institut Mines- Télécom Business School et référent IMT Disrupt'Campus

Imed Boughzala est Professeur en Systèmes d’information et Directeur du département TIM (Technologies, Information & Management, ex-DSI) à Institut Mines-Télécom Business School et référent IMT Disrupt’Campus. Il est aussi titulaire d’un Executive MBA d’IMT-BS et du programme Management and Leadership in Higher Education de la Harvard Graduate School of Education.

Fondateur de l’équipe de recherche SMART BIS (Smart Business Information Systems) et Directeur actuel d’IS Lab, ses recherches actuelles portent sur l’intelligence digitale, la gouvernance des données et la transformation digitale des organisations.

Depuis septembre 2018, il co-pilote l’observatoire de la transformation digitale des établissements du supérieur en management et fait partie du Collège de Labellisation des dispositifs pédagogiques numériques de la FNEGE ( Fondation nationale pour l’enseignement de la gestion des entreprises 

Retrouvez les derniers articles de cette chronique :
Voir tous les articles

[Chronique] Intelligence digitale : la promesse de la suprématie quantique

Tout comme les individus et les organisations, les pays à travers leurs Etats doivent développer et investir dans leur intelligence digitale. Celle-ci consiste à pouvoir être en capacité d’anticiper, de s’adapter et parfois même de survivre aux innovations technologiques qui changent la société et l’économie. Pour garantir cette intelligence, chaque pays, devrait conserver son avance sur les autres en faisant de l’innovation technologique un cheval de bataille. Il s’agit de préserver sa souveraineté numérique et ceci en misant intelligemment au bon moment sur certaines technologies émergentes d’avenir pour être à la hauteur de leurs enjeux.

Intelligence digitale : la promesse de la suprématie quantiqueS’il y a une innovation technologique de rupture qui va révolutionner le monde dans l’avenir, ça serait la ou le quantique et toutes les technologies qui lui sont associées. La preuve, la France a annoncé le 21 janvier 2021 par la voix de son président Emmanuel Macron, un plan d’investissement dans les technologies quantiques de 1,8 milliard d’euros sur cinq ans via un partenariat public-privée pour développer une vraie industrie française du quantique impliquant les entreprises, les start-ups, le monde académique et scientifique, les fournisseurs de technologie…. Une annonce attendue par la communauté quantique depuis la parution des recommandations de la mission Forteza[1] en 2019 et l’annonce de nombreux plans au niveau mondial. Au-delà de la nature et de la répartition des investissements, elle placerait la France à la troisième place derrière les Etats-Unis et la Chine en termes d’investissement mais pas forcément en termes de prouesse technologique.

Ces technologies post-digitales font partie de la famille des DARQ (Distributed ledger, Artificial intelligence, extended Reality & Quantum computing). Il est urgent de comprendre leur réalité pour en faire un avantage demain particulièrement pour ceux qui espèrent la mobiliser à bon escient et profiter de ce virage technologique au moment opportun. Ces technologies quantiques (informatique, ordinateur, Internet, calculateurs, communications, capteurs, radars, …) sont susceptibles de changer radicalement les règles de jeu du monde dans lequel nous vivons actuellement.

Origine de la quantique

Si le sujet de la quantique commence à fleurir dans la presse, il n’en reste pas moins qu’il demeure beaucoup de flou autour et qu’elle est toujours difficile à expliquer. La quantique renvoie à la physique ou à la mécanique quantique et souvent aux premiers travaux du début du XXème siècle de Max Planck et d’Albert Einstein sur la quantification de l’énergie et la transformation de la lumière en paquets d’énergie (quanta ou quantum au pluriel). Ils font suite à la découverte de Thomas Young de la nature ondulatoire de la lumière (à partir de 1801).

Cette physique de l’infiniment petit poursuit les apports de la physique classique des phénomènes visibles du monde :  milieux solides, liquides et gazeux (la mécanique et la loi du mouvement, la thermodynamique, l’électromagnétique, etc.). Elle utilise les anciennes notions de temps, d’espace, de matière et d’énergie telles que définies par Newton. La physique quantique ne s’attaque pas par contre, comme le ferait la relativité générale, au monde macroscopique des planètes, des trous noirs et de la gravité.

L’informatique et l’ordinateur quantiques

Tout est parti du débat entre Albert Einstein et Niels Bohr lors du 5ème congrès Solvay de 1927 à Bruxelles autour du hasard fondamental[2]. Ainsi se sont développés des travaux autour de deux grands principes de la physique quantique à savoir, la superposition[3] et l’intrication[4] quantiques (i.e. le modèle de Bohr, le paradoxe du chat de Schrödinger[5], la théorie d’Everett sur les univers parallèles …) en passant par bien d’autres travaux plus récents qui se poursuivent jusqu’à aujourd’hui.

A travers ses deux grands principes, la physique quantique donne naissance à l’informatique quantique, par une nouvelle algorithmique basée sur le bit quantique (Qbit), et à l’ordinateur quantique, par ses composants qui exploitent les caractéristiques surprenantes de la matière.

D’une part, une algorithmique quantique donne une plus grande capacité dans la résolution des problèmes complexes grâce à des principes mathématiques avancés (i.e. l’algorithme par dichotomie, l’opérateur d’optimisation du voyageur de commerce, la classe NP-complet, la factorisation en nombres premiers, etc.). Elle permet d’accroître nos capacités de calcul d’une manière exponentielle, en termes de temps d’exécution et de nombre de variables (à résoudre) donnant ainsi un pouvoir prédictif et préventif puissant dans le traitement des programmes et la gestion des incidents.

Cette informatique nous amène à remettre en question notre logique binaire (0 ou 1, i.e. le Bit) pour passer au Qbit (une superposition d’états de 0 et de 1). Ces superpositions permettent des calculs beaucoup plus efficaces en requérant moins d’étapes que dans l’informatique classique. Et d’autre part, un ordinateur quantique plus performant aux capacités de calcul Haute Performance ridiculisant celles des plus puissants super-calculateurs d’aujourd’hui. Cet ordinateur semble promettre de contribuer à l’impératif de la sobriété numérique en ne consommant que très peu d’énergie grâce à des composants basés sur la suprématie quantique. En matière de calcul quantique, les américains sont de loin les leaders mondiaux avec des entreprises comme IBM, Honeywell ou Rigetti Computing… qui ont commencé la production des premiers ordinateurs quantiques. On pourrait citer deux stars en la matière celui de D-Wave Systems (à partir de 2007) et celui d’IBM (le dernier IBM Q en 2016). IBM a promis d’ailleurs un ordinateur quantique plus puissant d’ici 2023.

DR. IBM Q

Ces technologies quantiques permettront de nombreuses applications industrielles, comme par exemple, la production de capteurs beaucoup plus sensibles, ou la construction de moyens de communications inviolables. Parmi les acteurs de cette informatique, on trouve aussi Google, IonQ, Intel, Microsoft et Fujitsu. En France, Atos est depuis longtemps la référence. Elle serait la première à avoir développer des compétences en quantique ainsi que quelques start-ups depuis, sans oublier l’effort de recherche académique comme les travaux menés dans les écoles du groupe IMT (Télécom Paris, Mines Nancy, IMT-BS …) et d’autres comme l’école Polytechnique, l’université Paris Saclay, l’université Grenoble Alpes ou encore les établissements de recherche scientifique comme le CNRS, le CEA ou l’INRIA… Parmi les start-ups françaises qui se concentrent sur le sujet, on pourrait citer par exemple Alice&Bob, C12, NextGenQ, Pasqal et Quandela et Verqloud, etc.

Applications et implications

Bien que la quantique reste encore balbutiante, plusieurs prototypes commencent à sortir des laboratoires de recherche et d’innovation. Il faudra probablement attendre encore plusieurs années pour voir des applications commerciales viables et un ordinateur quantique stable. Si Gartner l’avait prévu pour l’année 2025, le cabinet en stratégie Boston Consulting Group annonce un vrai décollage vers l’année 2030.

Parmi les applications quantiques, on trouve la cybersécurité avec l’apport de la cryptographie quantique, la médicine avec la détection des maladies rares, la biologie/bio-informatique avec la simulation moléculaire et le séquencement ADN. Les mathématiques appliquées seraient également impactées avec le calcul haute performance, mais aussi les secteurs de l’énergie avec une distribution optimisée (Smart grid), du transport avec la gestion de flottes d’avion ou encore plus tard des réseaux de voitures autonomes. L’aéronautique/aérospatiale évoluerait lui aussi grâce à l’optimisation du remplissage des gros avions et des vaisseaux spatiaux, de même que les télécommunications avec le développement de la communication cerveau-machine (Brain Machine Interface).

On peut citer aussi la géophysique avec la prospection minière et l’étude sismologique, le domaine militaire pour le renseignement et la détection de la présence d’espions, la cryptographie et l’écoute électronique, les sciences des matériaux avec l’analyse des comportements des matériaux et le développement de nouvelles matières intelligentes (i.e. Smart material – pour les imprimantes 4D mais pas que), etc. Parmi les activités de la chaine de valeur de l’entreprise, seront concernés le marketing pour la maximisation des revenus publicitaires, la finance pour la prédiction des marchés ou la détection des fraudes en temps réel, la logistique – Supply Chain Management – pour l’optimisation et l’automatisation des processus, etc.

En somme, la promesse quantique semble belle et bien à nos portes. L’intelligence digitale pousse tous les parties prenantes à prendre date avec l’histoire : Etats, entreprises, start-ups, centres de recherche, fournisseurs de technologies, établissements de l’enseignement supérieur, etc. Si cette suprématie quantique porte en elle un grand potentiel de traitement de nombreux types de problèmes (simulation, modélisation, apprentissage des machines, traitement de langage naturel, optimisation…), plusieurs questions demeurent difficiles à répondre ;  à quoi ressemblera l’ordinateur quantique (probablement complètement différent de l’ordinateur classique ou même juste un composant dedans) ? est-ce que l’algorithmique quantique ne résoudrait que les problèmes complexes ? est-ce le Qbit remplacera-t-il à jamais le bit ? quelle compatibilité entre informatiques classique et quantique ? Y aurait-il des interfaces entre programmations/ ordinateurs classique et quantique ?

Au-delà de la recherche scientifique, les écoles d’ingénieurs et les écoles de management joueront un rôle très important dans l’enseignement et la formation (architecture, codage, mise sur le marché, stratégie digitale, gouvernance, usage, …). De nouvelles générations d’étudiants arriveront sur le marché de l’emploi pour mener à bien cette transition quantique de manière responsable et durable. IMT-BS (groupe IMT) via son laboratoire IS Lab dans le cadre de sa chaire sur l’intelligence digitale, se donne les moyens pour lancer des formations de sensibilisation au quantique pour les managers à la rentrée prochaine.

 

***

[1] https://forteza.fr/wp-content/uploads/2020/01/A5_Rapport-quantique-public-BD.pdf

[2] Lorsque le résultat d’une expérience ne peut être prédit avec certitude – i.e. – incertitude de la mesure donnant naissance à la notion du dé quantique, hypothèse réfutée par Einstein qui plaidait pour l’existence de variables cachées.

[3] Un même état quantique peut posséder plusieurs valeurs pour une certaine quantité observable (spin, position, quantité de mouvement, etc.). (Wikipédia)

[4] ou enchevêtrement quantique, est un phénomène dans lequel deux particules (ou groupes de particules) forment un système lié, et présentent des états quantiques dépendant l’un de l’autre quelle que soit la distance qui les sépare. (Wikipédia)

[5] Un chat est enfermé dans une boîte avec un flacon de gaz mortel et une source radioactive. Si un compteur Geiger détecte un certain seuil de radiations, le flacon est brisé et le chat meurt. Selon l’interprétation de Copenhague, le chat est à la fois vivant et mort. Pourtant, si nous ouvrons la boîte, nous pourrons observer que le chat est soit mort, soit vivant. (Wikipédia)


Commenter

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

elit. tristique et, ipsum ipsum felis libero ante. Phasellus justo