Jonas Landman est lauréat 2022 d’un prix solennel de thèse de la Chancellerie des Universités de Paris dans la catégorie prix en sciences « toutes spécialités » pour sa thèse intitulée Quantum Algorithms for Unsupervised Machine Learning and Neural Networks. Rencontre avec cet ancien doctorant de l’IRIF.

© Chancellerie des Universités. Les lauréats et lauréates 2022 d’Université Paris Cité. Jonas Landman : 4ème en partant de la droite.


Peux-tu te présenter succinctement ?

Je m'appelle Jonas Landman, j'ai grandi à Paris et étudié à l'Ecole Polytechnique en 2013 puis à UC Berkeley en 2017. Durant ma scolarité j'ai fait l'inverse d'une spécialisation, en me passionnant à la fois pour les mathématiques, la biologie, la physique théorique et expérimentale, l'intelligence artificielle, ou même la musique et l'économie. Puis fin 2017 j'ai eu une petite révélation avec la découverte de l'Ordinateur Quantique qui semblait englober beaucoup de mes sujets théoriques favoris, tout en promettant des applications intéressantes. En 2018 j'ai commencé ma thèse à l'IRIF - Institut de Recherche en Informatique Fondamentale, dans l'équipe Algorithmes et Complexité, sur le sujet des algorithmes quantiques en machine learning. Je suis désormais post-doctorant à la School of Informatics de l'Université de Edimbourg (UK) et à QC Ware.

Qu’est-ce qui t’a amené à faire de la recherche ?

C'est assez curieux finalement car j'ai continuellement tourné le dos à la recherche mais j'ai fini par en faire. Bien sûr, depuis petit j'ai une passion pour la Science et sa merveilleuse façon d'aller explorer et expliquer les phénomènes naturels. Mais je n'ai jamais eu la prétention d'apporter ma pierre à l'édifice, je voulais juste comprendre. En particulier je me disais qu'une fois la physique quantique et la relativité générale acquises, je m'arrêterais là. À Polytechnique, j'ai visité et travaillé dans quelques laboratoires, mais je trouvais l'ambiance un peu morne. Je me suis donc détourné de tout ça. À Berkeley je travaillais sur des sujets de biologie computationnelle et on m'a proposé d'y rester pour une thèse, mais je ne me voyais pas devenir chercheur. Et c'est finalement ce qui m'est arrivé après avoir rencontré mon futur directeur de thèse, Iordanis Kerenidis, en Californie. Une fois en thèse, on découvre tout un monde inconnu : l'ambiance des labos, les autres étudiants, les premiers articles, les conférences, la prise de parole. C'est très stimulant.

Qu’est-ce qu’un ordinateur quantique, comment le définir ?

Comme tout ordinateur, c'est une machine qui va manipuler et modifier de l'information pour faire des calculs, résoudre des problèmes. La spécificité de l'ordinateur quantique est que l'information dont on parle sera “quantique”. En effet l'information a toujours un support physique : des transistors ouverts (0) ou fermés (1) dans nos téléphones portables par exemple. Cette fois-ci on imagine de l'information sous forme d'état stable (0) ou excité (1) d'un électron par exemple, ou de tout autre système quantique à deux états. Alors l'information doit respecter les lois de la physique quantique, qui autorise au système d'être dans les deux états à la fois, entre autres. L'ordinateur quantique manipule ces nouvelles propriétés, et les chercheurs se demandent depuis les années 1990 comment cela pourrait améliorer la résolution de certains problèmes. Et ils ont trouvé plein de cas où, effectivement, utiliser un ordinateur quantique procure un avantage certain, par exemple en terme de rapidité. Restent alors à savoir jusqu'où pourra-t-on continuer à démontrer les avantages ou les limites dans plein de domaines. Je me suis concentré sur le domaine de l'intelligence artificielle.

Quels sont les fondements de l’intelligence artificielle et de l’ordinateur quantique ?

Ces deux domaines peuvent sembler éloignés, mais ils ont étonnement beaucoup de points en commun. Le formalisme mathématique de la physique quantique voit les systèmes quantiques comme des vecteurs (dans un espace de Hilbert exponentiellement large, où chaque vecteur de la base représente un résultat d’une mesure possible du système) et les évolutions de ces systèmes comme des matrices : on utilise l'algèbre linéaire. Il s'avère qu'en intelligence artificielle (ou “machine learning”), tout est aussi décrit avec l'aide d'algèbre linéaire: les images sont des vecteurs, les réseaux de neurones sont des séries de matrices etc. On peut donc tisser des liens et inventer des algorithmes à l'aide de ce langage commun. En 2009, trois chercheurs (Harrow Hassidim & Lloyd [1]) ont montré que l'ont pouvait inverser une matrice avec un ordinateur quantique de façon exponentiellement plus rapide que sur un ordinateur classique. Puis ont suivi d'autres résultats concernant la manipulation de matrices, leurs valeurs propres, leur décomposition, la projection sur des sous espaces vectoriels. De nombreux outils fondamentaux en machine learning.

Tu débutes ta thèse par une touche de philosophie. Selon toi, quel lien y-a-t-il entre la philosophie, les sciences de l’ordinateur et les mathématiques ?

Il me semble qu'autrefois la Philosophie et la Science ne faisaient qu'un. La motivation profonde de beaucoup de scientifiques et philosophes est l'envie de comprendre ce qu'il se passe et pourquoi. L'envie de poser des questions importantes et d'y répondre. Donc ce lien est plus qu'évident pour moi. Depuis l'avènement de la science moderne, on dirait que lorsqu'un sujet est traité scientifiquement, on le retire de la liste des questions philosophiques (la nature du vide, l'harmonie musicale, le vivant, certains comportements humains). Mais, pour le grand bonheur des curieux, il reste quelques questions avec un pied de chaque côté, pour en citer quelques-unes : Quelle est la nature de la conscience ? Le futur est-il déjà déterminé ? Comment savoir si nous vivons dans une simulation ? Quel est la part d'inné ou d'acquis dans ce que nous apprenons ? Les lois mathématiques de la nature sont-elles découvertes ou inventées ? Croiser l'éclairage philosophique avec l'apport de la biologie, des mathématiques, de la physique quantique et de l'informatique [2] est une des voies (la meilleure ?) pour mieux comprendre, ou simplement inventer de nouvelles questions.

Parmi les termes clés évoqués dans ta thèse, tu mentionnes l’apprentissage automatique non supervisé. Peux-tu nous expliquer de quoi s’agit-il ?

L'apprentissage supervisé correspond au cas où les données que l'on donne à l'ordinateur contiennent les réponses (par exemple des images de chats et chiens, avec pour chacune la réponse “chat” ou “chien”). Lors de l'entraînement, l'ordinateur cherche alors à répondre au mieux et corrige les paramètres de la fonction de prédiction à chaque fois qu'il fait une erreur. Dans l'apprentissage non supervisé, les réponses ne sont pas fournies lors de l'entraînement. L'ordinateur doit se débrouiller avec des images de chats et chiens et doit comprendre naturellement qu'il y a deux types d'animaux. On parle souvent de clustering car il s'agit de trouver des “groupes” dans les données, souvent très nombreuses et de très grande dimension.

Qu’envisages-tu après cette thèse ?

Ma thèse a porté principalement sur des algorithmes machine learning pour les ordinateurs quantiques idéaux, c'est-à-dire long terme. Les premiers ordinateurs quantiques font leur apparition de nos jours, mais sont imparfaits et de taille limitée. De nombreux chercheurs se demandent donc ce qu'il sera possible de faire avec ces premières générations de machines. C'est sur ces aspects que je souhaite poursuivre ma recherche dans le cadre de mon post-doctorat. Les algorithmes sont très différents, et les promesses sont souvent moindre. Je me demande si certaines idées sont vouées à l'échec ou seraient, au contraire, de bonnes pistes. Nous avons récemment proposé de nouveaux modèles quantiques pour le court terme [3] mais aussi démontré que les récentes méthodes de “variational quantum circuits” peuvent être reproduites approximativement sans même utiliser d'ordinateur quantique [4].

[1] Harrow et al. “Quantum algorithm for solving linear systems of equations”. In APS March Meeting Abstracts (Vol. 2010, pp. D4-002).
[2] S.Aaronson “Why Philosophers Should Care About Computational Complexity”. Computability: Turing, Gödel, Church, and Beyond (2013, vol. 261, p. 327)
[3] A.Cherrat et al. “Quantum Vision Transformers”. Preprint Arxiv:2209.08167
[4] J.Landman et al. “Classically Approximating Variational Quantum Machine Learning with Random Fourier Features”. Preprint Arxiv:2210.13200