NOTES ET LIENS:
Les Voix de la Tech, épisode 12 !
Également disponible en version intégrale sur Apple Podcasts.
Au programme : Cinq minutes plutôt que des milliards de milliards d’années pour résoudre le même calcul très complexe, c’est ainsi que Google a vanté, cette semaine, les capacités de Willow, son nouveau processeur quantique. Pour nous aider à comprendre, l’un des meilleurs vulgarisateurs de l’informatique quantique sera notre 2e Voix de la Tech, cette semaine : Olivier Ezratty, consultant, enseignant à Normale Sup, Epita et à l'école Centrale notamment. Il est aussi l’auteur de “Understanding Quantum Technologies", disponible à la fois en cinq volumes mais aussi en PDF Open Source. Olivier est enfin le co-présentateur des podcasts "Quantum" et "Decode Quantum" avec Fanny Bouton.
Et pour commencer, notre 1ère Voix de la Tech décrypte les dernières annonces d'OpenAI, qui a promis 12 annonces en 12 jours. Un véritable calendrier de l’avent de l'IA avec la version finale d’o1, le lancement mondial ou presque de Sora et chatGPT Pro à... 200 dollars par mois. Réplique de Google : l’annonce de Gemini 2.0, assez époustouflant. Alors, toutes ces IA tiennent-elles leurs promesses ? Pendant combien de temps l’intelligence Artificielle va-t-elle pouvoir garder ce rythme effréné d’innovations ?
🎧 Version intégrale : apple.co/4dVkHWV
Habillage musical par Eddy Gronfier (Twitter / X - Spotify)
Lire la transcription ci-dessous
(Attention, cette transcription est réalisée par une IA et peut contenir de erreurs)
Ho ho ho ! Hello there my friend !
Eh, ça va Père Noël, dis donc j'espère que tu parles français.
Est-ce que tu savais que le podcast "Les voix de la tech" sera présent au CES de Las Vegas ?
Ho ho ! Bien sûr ! C'est fantastique d'entendre que "Les voix de la tech" sera présent au CES de Las Vegas !
C'est un événement magique pour la technologie !
Ho ho ho ! Bien sûr ! C'est fantastique d'entendre que "Les voix de la tech" sera présent au CES de Las Vegas !
Tu n'auras qu'à écouter notre podcast "Les voix de la tech"
Ho ho ho ! Une semaine spéciale du CES 2025 depuis Las Vegas !
C'est effectivement un merveilleux cadeau pour les auditeurs !
J'écouterai les voix de la tech avec joie chaque jour du CES !
J'ai hâte de découvrir toutes les merveilles que vous partagerez ! Merci de me tenir au courant ! Ho ho ho !
Bonjour à tous ! Ici la voix de Benjamin Vincent !
Et ici la voix de Fabrice Neumann ! Bonjour et bienvenue, c'est l'épisode 12 !
"Les voix de la tech" chaque vendredi, en moins de 30 minutes !
C'est l'actu tech, chaque vendredi, en moins de 30 minutes !
Et si vous en voulez davantage, la version intégrale avec les interviews en entier vous attend sur Apple Podcasts !
5 minutes plutôt que des milliards de milliards d'années pour résoudre le même calcul très complexe, c'est ainsi que Google l'a vanté cette semaine, les capacités de Willow, son nouveau processeur quantique !
Eh oui, Benjamin, une annonce fracassante, qui pourrait faire croire que nos processeurs sont très complexes, sauf que c'est bien compliqué que ça !
Effectivement, la véritable avancée de Willow, c'est sa fiabilité, même si elle reste imparfaite, grâce à une innovation majeure dans la correction des erreurs quantiques.
Mais c'est compliqué à expliquer au grand public, Google a donc laissé la main au marketing, au détriment de la stricte rigueur scientifique, pour nous en mettre plein la vue avec un nombre d'années qui comptent 25 000 ans !
Autrement dit, Google a bien du mal à faire comprendre les progrès pourtant majeurs de son processeur quantique à 105 qubits. Mais d'ailleurs, c'est quoi un qubit et les ordinateurs quantiques, au fait, à quoi ça sert ?
Pour nous aider à comprendre ce que représente ce processeur quantique Willow et éclairer l'annonce de Google, l'un des meilleurs vulgarisateurs de l'informatique quantique va nous rejoindre
Cette voix ce sera celle d’Olivier Ezratti et chose rare, ce spécialiste sait expliquer simplement ce sujet pourtant si ardu. Il est consultant, enseignant à normal-sup, Epita et Centrale notamment, et il est aussi l'auteur d'un livre de plus de 1500 pages sur le sujet, mais promis, vous comprendrez tout.
Bientôt Noël et on dirait que les grands de la tech se précipitent pour annoncer tous leurs nouveaux outils d'IA avant la trêve des confiseurs Benjamin.
Oui, et c'est OpenAI, le créateur de Chat GPT, qui a initié cette frénésie le 5 décembre, en promettant une annonce par jour pendant 12 jours, un véritable calendrier de l'avent sans les chocolats sur le thème de l'intelligence artificielle.
La version finale d'O1, le modèle de langage le plus abouti de Chat GPT, le lancement mondial ou presque de Sora, le générateur de vidéos, et aussi un nouvel abonnement Chat GPT Pro à 200 dollars par mois.
Réplique de Google, l'annonce de Gemini 2.0, la deuxième génération de son IA générative et multimodal. Benoît Raphael, l'un des Voix de la tech, la deuxième génération de son IA générative et multimodal.
Alors toutes ces IA tiennent-elles leurs promesses ? Pendant combien de temps l'intelligence artificielle va-t-elle pouvoir garder ce rythme effréné d'innovation ?
C'est le programme dans un instant avec notre première première voix de la tech de la semaine.
Bonjour Maxime Derian, Bonjour Benjamin, Bonjour Fabrice,
Je vous présente en un mot, vous êtes anthropologue du numérique, vous avez été chercheur à la Sorbonne, au CNRS et à l'université du Luxembourg.
Vous êtes aujourd'hui consultant intelligent artificiel via la société Heruka et AI.
Et vous êtes aussi le co-créateur du thinktank Technoréalisme.org. On vous retrouvera mi-février à Paris, au Sommet Mondial de l'IA.
Si on vous a proposé Maxime d'être l'une de nos voix de la tech cette semaine, c'est parce que cette fin d'année 2024, elle est particulièrement intense dans ce domaine de l'intelligence artificielle que on suit tous les trois.
Et aujourd'hui, on va se concentrer sur les annonces croisées, j'ai envie de dire, entre OpenAI et Google.
On va commencer par OpenAI qui réinvente le calendrier de l'avant, j'ai envie de dire, avec 12 jours d'annonces, une annonce par jour.
Qu'est-ce qui vous a le plus impressionné Maxime ? Qu'est-ce qui vous a le plus impressionné Maxime dans ce qu’OpenAI a déjà annoncé jusqu'à aujourd'hui.
Peut-être les tarifs, c'est-à-dire que c'est pas que ça m'a impressionné, mais on est sur une évolution constante du service proposé par OpenAI.
Tout devient de plus en plus performant en permanence, mais on commence à avoir des prix qui commencent à augmenter, qui correspondent aussi à leurs coûts. Deux têtes, je veux dire, qui sont peut-être 370 salariés OpenAI, pour une capitalisation de 150 milliards de dollars, avec un produit de rupture qu'on utilise tout zoom, il faut l'admettre, et qui marche bien, et qui s'améliore sans cesse, mais avec des factures d'élimination de maintenance qui sont astronomiques.
Donc, ils commencent à essayer d'être un petit peu plus dans leur rentabilité.
Donc en fait, en proposant l'abonnement à 200 dollars par mois, c'est un moyen de revenir un peu plus sur leur investissement, parce que quand on les compare à Anthropic, Anthropic avec Claude est plus modeste, même pourtant un LLM qui est performant, mais eux, quand on regarde, ils sont moins en train de creuser une dette à Bissau, que ce que fait OpenAI.
Ensuite, sur les produits, il y a une évolution qui est meilleure dans tout, aussi bien sur O1, le LLM, que Sora qui porte la vidéo, mais Sora arrive peut-être un peu tard.
Entre temps, il y a les concurrents américains et chinois qui ont déjà sorti des solutions de vidéos, qui sont plutôt intéressantes.
On avait Runway, il y a Kling, il y a Luma AI, Elion AI, aussi des vidéos où Sora AI arrive. Alors Sora a l'air quand même très très bon, très abouti, mais voilà, ce que j'en tiendrais, c'est quand même aussi une augmentation des prix.
C'est à dire que, bien sûr, ça peut paraître secondaire, mais pas vraiment, parce qu'on nous a proposé un produit à l'échant, Tchad GPT, gratuit. Dali 2 aussi était gratuit, et puis peu à peu, il y a eu des modèles payants.
Donc voilà, il y a un écosystème qui s'installe. Peut-être aussi que OpenAI arrive à un moment de plus de sagesse dans sa méthode, parce que l'année dernière, ils ont fait feu de tout bois pour aller le plus vite possible tout le temps.
Là, j'ai l'impression qu'ils commencent à essayer de se pérenniser, mais bon, ils ont aussi Microsoft qui les soutient. Donc en gros, ils sont bien positionnés, quand même, dans le domaine.
Mais il y a Google qui est en train de faire des annonces aussi, et Amazon, et Nvidia. Enfin bref, c'est la course qui est repartie à fond.
Vous parliez de Sora, Maxime. On va justement écouter de quelle manière Sam Altman, le CEO d'OpenAI, a annoncé le lancement de Sora dans le monde entier, à l'exception de l'un nom européen pour l'instant.
==
Le vidéo est important pour OpenAI pour beaucoup de raisons, mais je vais parler de trois.
Une, nous aimons faire des outils pour les créateurs. C'est important pour notre culture, c'est important pour la façon dont nous espérons que les humains utilisent l'AI. Et c'est une chose en particulier où il y a une nouvelle dynamique co-créative que nous voyons s'émerger entre les testeurs éleveurs, qui nous pointe à quelque chose d'intéressant sur les outils créatifs d'AI et comment les gens les utilisent.
Deux, nous ne voulons pas que le monde soit juste par texte. Les outils de l'AI sont mis par texte par les outils de l'AI.
Nous voulons que les AI puissent comprendre et générer le vidéo. Je pense que cela va vraiment changer la façon dont nous utilisons les compétences.
Et la troisième chose, c'est important pour notre roadmap AGI. Le vidéo sera un environnement important pour le fait que les AI apprennent beaucoup à faire les choses qu'ils ont besoin dans le monde.
==
Sora est l'outil de création de vidéos à partir de prompt comme on a maintenant l'habitude de créer des images. Mais il place Sora, l'outil de création vidéo, au centre de ce qu'il appelle de ses voeux, c'est-à-dire l'IA générale, l'intelligence artificielle générale, qui est capable de réfléchir quasiment comme un humain, en tout cas dans tous les domaines, que ce soit du texte, des images, du son, vraiment global. Déjà, est-ce que cet IA générale pour vous est atteignable avec les outils qu'on a aujourd'hui ?
Ouh là, en vrai, un ordinateur extrêmement performant, capable de nous, comme Chat GPT, comme Claude, comme Llama, mais de plus en plus performant, capable de nous tenir vraiment en haleine quand il parle, de nous faire croire qu'il a une intériorité, je crois que c'est possible.
Il faut faire attention parce que le corollaire d'avoir un système qu'on trouve super intelligent, c'est de commencer à lui déléguer des responsabilités qu'il ne devrait pas avoir. Sam Altman ne se réfléchit pas trop à tout ça. Lui, il veut un ordinateur qui pense, très intelligent, et il aura gagné.
Voilà, je prends tout ce que dit Sam Altman avec énormément de pincettes. Et en même temps, ses produits qu'il développe au sein d'OpenAI sont excellents.
Alors, avec son processeur quantique Willow, on en parlera tout à l'heure avec Olivier Ezratti, notre autre voix de la tech. Et puis, il y a cette annonce de Gemini 2.0. On va en parler avec vous, Maxime, dans un instant.
Mais d'abord, on va regarder cette démonstration qu'a postée sur YouTube. Celui qui était notre invité la semaine dernière, c'est le journaliste et conférencier spécialiste de l'IA, Benoît Raphaël.
==
Alors, on y va. Donc, on va se mettre sur stream. Je vais partager mon écran et ma caméra avec Gemini et lui montrer ce que je vois à l'extérieur. Bonjour Gemini, est-ce que tu peux me répondre en français et est-ce que tu peux me dire ce que tu vois à l'écran?
Bien sûr, je peux vous répondre en frankais. Je vois un paysage avec des rizières, des arbres tropicaux et quelques bâtiments.
À ton avis, selon les détails de ce que tu vois à l'écran, dans quel pays est-ce que je me trouve?
D'accord. Vous semblez vous trouver en Indonésie, d'après les drapeaux que je vois sur le bâtiment.
Bien vu, quels sont les autres éléments que tu vois et à ton avis, plus précisément, où est-ce que je me trouve en Indonésie?
À votre avis, vous vous trouvez probablement à Bali. Il y a un mélange de végétation luxuriante, de bâtiments avec des toits rouges et de rizières, qui est typique de cette école.
Bravo!
Merci.
==
Bon voilà, Gemini 2.0 alors qu'il parle « franqué », vous avez remarqué.
La cédille n'a pas été intégrée.
Voilà, ce n'est pas encore tout à fait parfait. Est-ce que c'est typique de ce que vous expliquiez Maxime, c'est-à-dire l'impression d'une intelligence,
égale à la nôtre, avec qui on peut discuter? Ce qui m'intéresse plus par rapport à cet exemple, c'est l'image, la vidéo du monde réel,
intéresse les géants de la tech, Google et tous les autres. Parce qu'il faut pour l'IA de la donnée sur le monde réel.
Pour que l'IA soit capable de simuler quelque chose qui ait un sens, il faut que ça soit ancré sur du réel. Donc il faut des sets de données qui sont issus du monde réel. Donc une des options, c'est enregistrer ce qu'on voit, ce qu'on fait, ce qu'on dit.
Donc par exemple, quand on voit la technologie du Pixel Pro 8, 9, qui est capable de faire un traitement par IA à distance de la vidéo,
alors bien sûr Google Propos dit que toute la sécurité est mise en place et qu'il n'y a pas d'usage de données, etc. Je ne sais pas, mais en tout cas, cette exportation de données du monde réel, c'est du pain béni.
Et donc du coup, j'ai mis deux, en me proposant de filmer gratuitement un petit peu à l'extérieur, ça permet d'avoir une vision de Bali.
Une vision à jour de Bali, ça permet d'avoir une vision du vent dans les arbres, ça permet de voir presque la croissance des arbres, s'il y a plusieurs... Je ne sais rien. Il faut faire des interpellations d'informations qui nous dépassent, mais qui lui servent à s'améliorer pour mieux connaître l'environnement.
Donc plus il y aura d'images, je ne dis pas qu'il s'agit de regarder ce qu'il y a dans l'image pour faire du flicage, pour savoir qu'est-ce qu'il fait à Bali, pourquoi il... Non, non, c'est que tout ça, c'est du monde réel, parce que pour l'instant, le goulot d'étranglement, c'est la donnée.
Mais est-ce qu'il ne va pas y avoir une prime à l'effet Waouh, sur lequel mise OpenAI, Google et la plupart des grands acteurs de l'IA, avec un Apple qui décide d'accepter d'être plus discret ?
Amazon a été pendant longtemps, et là, il commence à sortir les griffes, en sortant des LLM, en sortant un ordinateur extrêmement puissant, mais on voit quand même que Google qui a été un petit peu à l'initiative de tout ça en 2017, avec les technologies Transformer.
Et puis, il ne faut pas oublier Nvidia, qui est le plus gros maintenant. Donc était cela. Moi, j'étais à la tête. Donc était cela. Moi, j'étais à la tête.
A comme Alphabet, M comme Microsoft, M comme Meta, A comme Amazon, N comme Nvidia, A comme Apple et T comme Tesla.
On a 7 acteurs majeurs et qui s'associent avec des acteurs mineurs. Et on a un paysage qui est en pleine évolution et ça n'arrête pas. Ça n'arrête pas. Avant, il y a encore des annonces fracassantes aujourd'hui. Je parie que dans deux semaines, il y aura encore quelque chose qui fera l'effet wow.
Merci beaucoup, Maxime Derian, d'avoir été l'une de nos voix de la tech cette semaine. Bonne journée, bonne soirée.
Merci beaucoup. Bonne soirée.
==
Bonjour Olivier Ezratti.
Bonjour. Bonjour. Bonjour Olivier.
Bonjour Fabrice.
Bienvenue dans les voix de la tech, Olivier. On va se tutoyer parce qu'on se connaît depuis longtemps. Tu es auteur, tu es consultant, tu es spécialiste du quantique.
On te retrouve dans Quantum, le podcast qui décrypte et qui décortique l'actu quantique mondial avec Fanny Bouton. Et si on t'a proposé de participer au podcast avec nous cette semaine, c'est évidemment lié à l'actu de Google et à l'annonce de Willow.
Le quantique, c'est un sujet pas facile à comprendre pour le grand public. Est-ce que tu peux nous expliquer la portée de ce qu'a annoncé Google il y a quelques heures avec Willow?
Pour faire ça, ce que Google a annoncé, c'est deux choses. La première chose, c'est qu'ils ont montré qu'ils étaient capables de corriger des erreurs dans un ordinateur quantique. Alors le problème, c'est qu'est-ce que c'est que ces erreurs? Ces erreurs viennent du fait que les calculs quantiques aujourd'hui avec les machines actuelles, quel que soit le fournisseur, elles génèrent beaucoup d'erreurs. Et ce qui est intéressant, c'est qu'il y a un comparatif entre les erreurs dans les calculs quantiques.
Et ce qui est intéressant, c'est de faire un comparatif entre les erreurs qu'on a dans l’informatique classique et celles qu'on a dans l’informatique quantique. En informatique classique, quand tu demandes à ton processeur Intel ou Nvidia de faire des calculs, il n'y a pas d'erreur en fait. Il n'y a pas d'erreur, même 10 chiffres derrière la virgule quand tu fais du calcul faux. L'ordinateur quantique, c'est très différent. Quand tu fais du calcul avec, à chaque opération, il fait en gros 1% d'erreur. Alors c'est un peu embêtant parce qu'on a besoin de faire des milliards d'opérations. Donc au bout de 100 opérations, t'as tout faux. Je schématise un peu parce que c'est pas possible.
C'est un énorme problème. La puissance de calcul, elle est connue, elle est démontrée théoriquement, mais elle est handicapée par ces erreurs. Donc la solution que tout le monde essaie de mettre en place dans ce petit milieu, c'est de faire de la correction d'erreur.
Et la correction d'erreur, ça consiste en quoi ? Ça consiste en un mélange de solutions matérielles et de solutions logicielles. Ça consiste en un assemblage d'un certain nombre de qubits, donc ce sont des objets physiques qu'on pourra décrire.
On en met plein et de sûr on met en œuvre ce qu'on appelle un logiciel de correction d'erreur qui est capable de réduire l'erreur apparente vu par le développeur. Mais ça coûte très cher ça. Et c'est très compliqué à mettre en œuvre aussi bien pour des raisons techniques côté logiciel que pour des raisons de côté physique.
Et donc pour faire ça, il faut avoir suffisamment de qubits de bonne qualité et dessus on met en place un logiciel de correction d'erreur qui fait une sorte de tolérance au pan. Et ces logiciels là, ils ont été développés entre autres par des chercheurs et des ingénieurs chez Google, mais il y en a ailleurs chez IBM et dans d'autres sociétés et dans le monde académique.
Et donc ce que Google a fait, ils ont montré pour la première fois sur le type de qubits que Google développe, qui est voisin de celui d'IBM, qu'ils pouvaient faire des codes de correction d'erreur qui donnaient un qubit à la sortie, qu'on appelle un qubit logique, qui était meilleur que les qubits physiques qui sont en dessous.
Alors ça semble complètement absurde de dire ça parce que avant, quand ils corrigeaient des erreurs, ils avaient plus d'erreurs à la fin. Jusqu'à 2022-23, quand ils corrigeaient les erreurs, le résultat était moins bon, ce qui est quand même assez absurde.
Et donc pour la première fois, ils ont montré que sur leur processeur à eux, dans le fameux processeur Willow, ils étaient capables de faire des qubits qui étaient meilleurs que les qubits physiques qui étaient en dessous. Ce qu'ils ont fait, c'est une étape sur un très long chemin qui va durer au moins dix ans encore parce que ça suffit par ce qu'ils ont fait.
C'est juste une petite étape qui corrige de manière extrêmement modeste sur les erreurs alors que le niveau de correction dont on a besoin pour développer des logiciels qui délivrent les promesses attendues du calcul quantique, par exemple dans le domaine des simulations chimiques, ça nécessite de faire un effort multiplié par dix en fait. C'est beaucoup plus compliqué que ce qu'ils ont fait. Donc c'est une étape.
Alors, évidemment, le marketing de Google a interféré avec le système puisque ils ont monté ça un peu en épingle, mais fondamentalement, c'est une étape intéressante dans un chemin très long.
Tu as dit qu'il y avait deux annonces, donc la correction d'erreur et l'autre c'est quoi ?
Alors l'autre annonce, c'est du grand n'importe quoi. C'est l'annonce comme quoi ce processeur là permettrait de faire un calcul qui nécessiterait 10^25 années si on voulait le faire sur un ordinateur classique. En fait, tout est faux dans le langage utilisé.
Et c'est pas que Google, ça vient de pas mal de scientifiques dans le domaine. L'idée, ça consiste en fait à demander à un ordinateur quantique de faire un calcul qui est bruité, qui est totalement aléatoire, qui n'a pas de données en entrée et d'expliquer que si on voulait simuler numériquement ce calcul qui repose sur des éléments physiques compliqués, ça coûterait très très cher.
Mais si on est informaticien et sérieux, on sait que c'est pas du calcul. Et par ailleurs, le système est tellement bruité que les chances que cette espèce de code aléatoire qui est exécuté donne un bon résultat de manière quantique sont inférieures à 1%, même si c'est plutôt moins de 0, 1%.
En gros, la comparaison entre le supercalculateur classique qui nécessiterait 10^25 années et l'ordinateur quantique qu'ils ont sous la main, elle a aucun sens.
Mais Google a quand même comparé le temps nécessaire. Disons nous, on met 5 minutes et il faudrait normalement des milliards de milliards d'années.
C'est ça, c'est 10^25 années, c'est un chiffre incommensurable. Mais ça n'a aucun sens, ça ne calcule rien. Donc c'est une communication qui scientifiquement est compliquée et qui est vraiment misleading. C'est-à-dire qu'en gros, ils racontent des salades.
Alors moi, la question que je me suis posé, c'est pourquoi ils ont fait ça. Parce que ce qu'ils ont fait sur la correction d'erreur, c'était vachement bien.
Le problème, c'est le problème de communication, vous connaissez bien. C'est que c'est très dur d'expliquer la correction d'erreur, c'est compliqué scientifiquement. Alors que si tu marques les esprits en disant "je fais un truc qui nécessite plus que l'âge de l'univers pour faire un calcul", ben les gens, ils comprennent. Sauf qu'ils comprennent à côté de la plaque. Donc moi, je crois que c'est une question de pédagogie. Le problème, c'est que ça amène à raconter des salades. Ils ont été jusqu'à quand même écrire dans le communiqué de presse que ça prouvait qu'il existait des mondes parallèles quand même, qui relève de la science fiction et une interprétation de la physique quantique qui n’est pas très sérieuse.
C'est troublant, c'est troublant d'avoir cette annonce qui a ces trois composantes. La correction d'erreur qui est un sujet important. Ils ont fait une avancée mais il y a encore du boulot.
La comparaison avec le calcul classique qui est complètement à côté de la plaque et cette histoire de monde multiple qui en rajoute une dose qui franchement est hors sol. Mais bon, c'est la com.
Bon, mais est-ce que ça veut dire qu'il faut balayer d'un revers de main cette annonce ou est-ce que quand même les ordinateurs quantiques tels qu'ils sont aujourd'hui ou qu'ils vont le devenir dans les années qui viennent vont vraiment servir à quelque chose ?
Par exemple, on parle beaucoup de cette capacité de casser les clés de chiffrement qu'on utilise aujourd'hui partout qui sont réputés inviolables jusqu'à l'avènement de l'ordinateur quantique justement.
C'est vrai, il est intéressant. C'est une étape dans un chemin qui est assez long, mais c'est une étape qui va vers la création d'ordinateurs quantiques dits à tolérance de PAD qui permet de faire des choses utiles.
Alors, casser RSA, c'est pas très utile entre nous. Ça m'intéresse pas de casser RSA.
Ce qui m'intéresse, c'est de faire de la chimie quantique, c'est de découvrir de nouvelles molécules dans le domaine de l'énergie ou de la santé. Ce qui m'intéresse, c'est de résoudre des problèmes d'optimisation pour les entreprises ou pour la finance, par exemple. Ça, c'est intéressant. Mais casser RSA, c'est pas intéressant.
Ce d'autant plus que d'ailleurs, les spécialistes en cybersécurité sont en train déjà aujourd'hui de commencer à déployer des solutions qui auraient de se protéger contre cette menace qui est très lointaine. Alors, tu posais la question, est-ce qu'un jour on va casser RSA? C'est un peu ça ta question, hein, Fabrice?
La question c'est oui peut-être, mais pour y arriver, il faudra faire des systèmes avec un très grand nombre de qubits corrigés. Et selon les prévisions des uns des autres, c'est pas avant 10 ans dans le meilleur des cas. Et d'autres dix, c'est plutôt 15-20 ans. Donc on n'y est pas encore.
Physiquement, Olivier, tu nous proposais de nous décrire un qubit. Donc c'est du hardware, hein? Alors effectivement, un qubit, c'est toujours du hardware. Avec une petite exception qui sont les photons.
Un qubit déjà, d'un point de vue de la définition, c'est un objet qui est quantique, qui est de toute petite taille. Donc ça peut être un atome, ça peut être un électron, ça peut être de la lumière, ça peut être un courant électrique qui circule dans une boucle, c'est ce que fait Google avec les qubits dix supraconducteurs.
Et cet objet quantique, il a une caractéristique, c'est que c'est un objet qui a deux états possibles qu'on peut contrôler avec des signaux électriques ou des lasers et qu'on peut mettre dans un état dit de superposition. On peut avoir en même temps un état zéro, un état un.
Ça veut pas dire que par exemple un atome est à deux endroits en même temps, ça veut dire qu'on est capable d'avoir deux niveaux d'énergie simultanés. Et ça c'est la caractéristique des qubits en tant que tels. Alors maintenant si on prend le cas précis de Google, qui fait partie d'une typologie de qubits parce qu'on a une dizaine en tout, et elles sont toutes différentes des unes des autres, c'est un système qui fait circuler un courant électrique dans une boucle, un petit peu comme une boucle fermée, mais qui traverse un petit obstacle qu'on appelle une barrière de potentiel qui est une jonction dite Josephson.
J'ai eu la chance de rencontrer l'inventeur de ce truc là qui s'appelle Brian Josephson en juillet dernier en Agbaï. Le gars il a eu le prix de bain en 73 et l'invention date de 62 quand même.
Et cette jonction elle permet de créer un état superposé en gros avec deux niveaux d'énergie de ce courant qui circule dans la boucle et on arrive à contrôler ça en envoyant des micro-ondes dans des câbles qui pilotent le truc. C'est de la refroidir à une très très basse température.
Dans le cas de Google ou d'IBM c'est de l'ordre de 15 millikelvin, c'est à dire mille fois plus froid que dans l'espace. Donc il y a des systèmes de refroidissement spécifiques pour obtenir cette température.
C'est pour ça que toutes les images de l'Hardware Quantique sont des pelotes de câbles. On se croirait dans un film de science fiction un peu alien.
C'est pas le cas général de l'ordinateur quantique. C'est le cas des ordinateurs quantiques qui utilisent des circuits intégrés qui marchent à très basse température.
Mais si tu prends par exemple les ordinateurs de Pascal, le start-up français, qui utilisent des atomes, ça n'a rien à voir. C'est des atomes qui sont chauffés, qui sont envoyés dans une chambre froide, qui est entouré d'aimants et de champs magnétiques et qui sont pilotés par des lasers. Donc ça a strictement rien à voir. Si tu regardes le truc, c'est pas du tout comme un cryostat.
Si tu vas chez Candela, qui est à côté d'ailleurs, ils sont tous en région parisienne autour de Massy Palaiseau, c'est un laser qui excite un semiconductor, qui génère des photons, qui traverse un circuit photonique avec des détecteurs de photons qui sont à la sortie.
Et donc ça n'a rien à voir. Donc en fait, il n'y a pas un seul type d'ordinateur quantique, il y en a plusieurs. Celui dont on parle aujourd'hui avec l'actualité de Google C, les qubits par conducteur, qui sont dans ces fameux chandeliers, mais il y a d'autres formes.
Non, ça veut dire que nos processeurs actuels ne sont pas encore inquiétés par ce genre de machines.
Ah non, pas du tout. Pourquoi ? Parce que l'objectif de l’informatique quantique, c'est surtout de rendre possible des choses qu'on ne sait pas faire aujourd'hui. Mais ça ne correspond pas à l’informatique de tous les jours.
Ça correspond plutôt à l’informatique qui est nécessaire soit pour faire de la recherche, typiquement pour faire des simulations chimiques de molécules pour inventer de nouveaux procédés chimiques, soit pour résoudre des problèmes très complexes à résoudre qu'on ne sait pas résoudre efficacement sur des machines existantes ou qu'on résout de manière approximative.
Et dans certains cas, il y a des entreprises qui sont prêtes à s'intéresser à ça pour gagner 5 à 10 % de productivité dans certaines activités. On a l'impression que quand on parle de quantique, un géant comme Google et une start-up quelque part sont au même niveau. C'est-à-dire, peuvent chacun apporter une contribution décisive. Est-ce que c'est le cas ?
Oui, tout à fait. Il ne faut pas oublier qu'il y a une troisième partie prenante qui sont les laboratoires académiques, dans la recherche fondamentale financée par les données publiques dans tous les pays quasiment.
Donc, prenons nos acteurs français, on va faire un peu un peu un « cocorico dans l'histoire. Prenons une start-up qui s'appelle Alice and Bob, qui est à Paris, à Ballard. Eux, ils développent aussi des qubits par conducteur, mais qui ont une particularité, c'est qu'ils ont une partie de la correction d'erreur qui est faite nativement dans le qubit.
C'est-à-dire qu'en gros, il y a moins d'erreurs dans le qubit physique. La conséquence de ça, c'est que la correction d'erreur qu'il faut faire dessus pour faire des qubits qui fonctionnent bien, elle est beaucoup les légères. Et donc, le propos de cette société, c'est dans leur roadmap qui était allé jusqu'à au moins 2030, c'est d'être capable de faire des qubits corrigés qui vont nécessiter entre un et deux ordres de grandeur de moins de qubits et d'électronique, de cryogénie que Google. Et ça, c'est basé sur des travaux de recherche essentiellement réalisés en France, une petite partie de ces travaux.
Et donc, ces travaux de recherche, ils peuvent aboutir à des solutions qui sont plus compétitives parce qu'il faut pas oublier qu'à la fin de l'histoire, une chose va compter. C'est tout bêtement le prix de la machine, l'énergie qu'elle va consommer et la vitesse à laquelle elle va tourner.
Et donc, il y a des sociétés, y compris en Europe, qui ont des développants technologiques qui sont très compétitifs potentiellement par rapport aux Américains, comme Google ou IBM, et il faut leur donner leur chance.
Et t'as pas besoin d'avoir des milliards de dollars pour faire ça. Il faut quand même avoir du financement. On sait que pour faire une startup quantique qui fait du hardware, il faut au moins une centaine de millions d'euros.
En Europe, il y en a deux qui ont atteint ce niveau, bientôt trois. Donc, c'est possible. Donc, c'est pas impossible.
Alors, dans ces cas-là, rendez-vous est pris Olivier Ezratti. Merci d'avoir été une de nos voix de la Tech pour cette semaine. Merci Olivier.
Merci à vous deux.
Bon, Benjamin, mon agent IA m'a soufflé dans l'oreillette que c'était la fin de l'épisode 12. J'espère qu'il t'a aussi confirmé notre rendez-vous pour l'épisode 13. Cette fois, ce sera vendredi prochain, le 20 décembre si tout va bien.
Et forcément, puisqu'il est au courant de tout. D'ici là, suivez les voix de la Tech sur X, LinkedIn, Facebook, Insta, YouTube et Bluesky.
Et partagez nos publications sur les réseaux, on a besoin de vous et de votre relais pour nous aider à faire connaître les voix de la Tech.
Pour vous abonner, tous les liens sont à retrouver sur le site lesvoidelatech.com.
Il y a notamment vers la version intégrale sur Apple Podcasts.
Même concept, même sommaire, même voix, mais avec des interviews en totalité.
Merci à chacune et chacun d'entre vous pour votre fidélité. À la semaine prochaine. Bye.
[Musique]
...
[Musique]