IA : chatGPT a 2 ans, avec Michel Levy Provençal, Benoit Raphaël et Günther Gheeraert

Les Voix de la Tech - Épisode 10
Retour à la liste des épisodes

NOTES ET LIENS:

Les Voix de la Tech, épisode 10 !

Également disponible en version intégrale sur Apple Podcasts avec 47' supplémentaires.

Présentation : Benjamin Vincent et Fabrice Neuman.

Au programme : Le 2ème anniversaire de chatGPT, c'est aujourd'hui. L'occasion de vous proposer trois "Voix de la Tech" qui incarnent cette révolution.
Michel Levy Provençal est le fondateur de TEDx Paris. Futuriste, conférencier, auteur, consultant, il vient de lancer un podcast étonnant (“L'IA aujourd'hui") intégralement créé et géré par l'IA : du choix des infos (sur l'IA) à la mise en ligne quotidienne sur les plates-formes de podcasts en passant par la vocalisation du script avec sa voix clonée. Résultat ? Un podcast étonnant qui soulève plusieurs questions.
L'IA dépassera-t-elle, un jour, l'intelligence humaine ? C'est l'une des questions et des grandes peurs depuis deux ans. Qui croire entre Dario Amodei, créateur de Claude chez Anthropic, qui l'envisage d'ici trois ans, ou Yann LeCun, patron de l'IA chez Meta, qui écarte cette éventualité avec certitude ? Benoit Raphaël, journaliste, entrepreneur et co-auteur de la newsletter "Génération IA“ va nous aider à y voir clair.
Günther Gheeraert est l'un des réalisateurs de films publicitaires les plus doués de sa génération. Il est resté scotché devant la fonction “Expand Video“ en version alpha dans Gen3 de l'éditeur Runway. Une nouveauté qui va changer sa vie de réalisateur : il nous explique pourquoi et ce que l'IA change dans sa démarche créative.

🎧 Version intégrale : apple.co/4dVkHWV

Habillage musical par Eddy Gronfier (Twitter / X - Spotify)





Lire la transcription ci-dessous

Transcription de l'épisode

(Attention, cette transcription est réalisée par une IA et peut contenir de erreurs)

Happy birthday to me, happy birthday to me, happy birthday to Chat GPT

Bonjour ici la voix de Benjamin Vincent

et ici la voix de Fabrice Neman

Bienvenue à toutes et tous pour le dixième épisode des voix de la tech.

Chaque vendredi en moins de 30 minutes c'est l'actu tech décryptée par les voix qui la font. Et si vous en voulez davantage la version intégrale avec les interviews en entier vous attend sur Apple Podcasts

*Musique*

Et oui c'est le deuxième anniversaire de Chat GPT ou pour être plus précis les deux ans de la révélation au monde de Chat GPT 3.5
Souvenez-vous c'était le 29 novembre 2022 nous on n'a pas oublié d'autant que c'est le LLM le grand modèle de langage qui a tout changé Fabrice

C'est vrai Benjamin qu'on a vraiment l'impression qu'on ne parle plus que de ça ou presque depuis ce moment choc. L'IA a envahi nos vies en tout cas la mienne et a déjà profondément transformé le monde de la tech

Le débat qui fait rage aussi c'est de savoir si un jour l'IA dépassera notre intelligence humaine

Et oui qui a tort, qui a raison entre d'un côté les experts qui cherchent à nous rassurer sur les limites de l'IA comme Yann LeCun de META
ou ceux qui ne croient pas à un plafond vert comme Dario Amodei le créateur de Claude chez Anthropic
Dans une dizaine de minutes on va poser la question à un spécialiste de l'IA, un sujet sur lequel il travaille depuis 2017
Son nom c'est Benoit Raphaël, il est journaliste, entrepreneur, co-auteur de la newsletter hebdomadaire Génération IA aux 25 000 lecteurs déjà
Günther Gheeraert est l'un des réalisateurs de pubs notamment les plus talentueux de sa génération et il a découvert comme nous ces derniers jours les nouveaux progrès réalisés en vidéo par l'IA Générative
Imaginez par exemple un plan filmé en vertical avec un smartphone Gen 3 signé Runway capable d'étendre cette vidéo et d'en proposer un format vidéo carré ou 16/9 en inventant toutes les parties manquantes de l'image vidéo. Le résultat bluffant ouvre des perspectives créatives incroyables en posant aussi des questions de fond
on va en discuter avec Günther Gheeraert dans une vingtaine de minutes

Bonjour Michel
Bonjour Benjamin
Bonjour Michel
Bonjour Fabrice
Merci d'avoir accepté notre invitation cette semaine dans les Voix de la Tech Michel
Pour ceux qui ne te connaissent pas je rappelle que tu es futuriste, conférencier, tu es le fondateur de TEDx Paris, tu es auteur aussi, consultant et si on a eu envie de te proposer de participer au podcast cette semaine, c'est notamment pour nous raconter ce podcast étonnant que tu as mis en ligne il y a quelques jours
podcast, tu le présentes comme ça, sur l'IA, par l'IA, il s'appelle l'IA aujourd'hui et c'est un OVNI expérimental totalement expérimental oui c'est toi sans être toi ou est-ce que c'est vraiment toi ?
et puis on va évidemment on va écouter un bout dans un instant

oui oui alors pour expliquer ce que c'est que ce podcast en réalité c'est un podcast qui est réalisé par l'IA à partir d'informations glanées sur le net à propos de l'IA et qui est dit par une IA, un avatar copie conforme de moi-même donc un clone de moi et en réalité ce qui s'est passé c'est que depuis maintenant un peu plus de deux ans, deux ans et demi on le voit avec l'IA générative, on est complètement envahi par non seulement ce sujet mais surtout les contenus qui sont générés par l'IA avec une problématique majeure c'est qu'on n'arrive pas en réalité à traiter toutes ces informations qui nous arrivent on a un foisonnement d'infos, on a une infobésité qui fait que notre cerveau humain n'arrive plus à faire le tri et donc l'idée était simple c'est de se dire sur un sujet particulier parce que moi je m'y intéresse depuis quelques années déjà je suis ingénieur de formation, l'IA était un sujet sur lequel j'ai commencé à bosser en 97 c'est pour vous dire les premiers réseaux de neurones sur lesquels j'ai travaillé et depuis maintenant quelques années je m'intéresse de plus en plus à ce sujet là pour essayer de gagner en productivité, accompagner aussi en conseil certains clients sur le sujet et je me suis dit mais comment est-ce que je fais pour suivre tout ce qui se passe au quotidien pour être à la page, pour être à jour donc l'IA était une solution pour essayer non pas de créer du contenu mais pour essayer de synthétiser et faire en sorte que notre cerveau humain cette fois-ci puisse digérer cette information foisonnante l'idée était non pas de créer un podcast pour le rendre public, pour être clair, mais de développer un certain nombre d'outils qui me permettent moi de suivre l'activité autour de l'IA et de façon extrêmement simple, extrêmement synthétique Michel je te propose qu'on écoute un bout de ton podcast donc c'est l'IA aujourd'hui que tu as mis en ligne le 20 novembre pour la première fois

Bienvenue dans l'IA aujourd'hui, le podcast de l'IA par l'IA qui vous permet de rester à la page aujourd'hui des décisions politiques influencées par des hallucinations d'IA, l'expansion audacieuse de GitHub vers des outils multimodaux l'épineuse question de la gouvernance de l'IA, ignorée par la plupart des entreprises et des tensions au sein de grandes entreprises technologiques c'est parti, je vous parle d'une révolution en marche dans le domaine de la santé

Peut-être sans dévoiler tous tes secrets mais est-ce que tu peux nous dire comment fonctionne le podcast et comment il est produit et à quel moment tu interviens humainement parlant ou pas ?
100% du podcast est automatisé, 100%

C’est la question que je voulais te poser, est-ce que ça va jusqu'à la publication, la mise en ligne du podcast ?

Tout le processus, c'était le but, c'est-à-dire que moi mon but c'était pas de perdre du temps à aller chercher le contenu, à le mettre en forme, à le lire et ensuite à le poster manuellement non, tout le contenu est généré automatiquement, ce qui fait que je l'utilise personnellement tous les matins pour lire l'actu de l'IA en 5 minutes.

Donc tu t'écoutes pour apprendre l'actu de l'IA. Puisque tu t'écoutes, est-ce que tu es parfaitement content de ta voix ?

Je trouve que la voix, il y a eu plusieurs étapes, d'ailleurs j'ai été très transparent, si vous écoutez le tout premier épisode et l'épisode de ce matin, il y a eu une évolution sur la voix. Normalement la voix est un peu plus fidèle qu'au tout début, de la même manière vous allez percevoir aussi une évolution sur le contenu et c'est un processus qui est en progrès, c'est un work in progress, c'est-à-dire que toutes les semaines environ j'essaie de fine-tuner, mais pour mon propre usage encore une fois parce que l'ouvre à tous, si ça vous intéresse, donc je fine-tune un petit peu le prompt de sorte à ce que ce soit plus pertinent au début il était très axé, il posait beaucoup de questions, il interrogeait aussi la dimension éthique de l'IA, ce qui devenait un peu ennuyeux à la longue donc là j'ai un peu modifié le prompt de sorte à ce que ce soit un peu plus factuel et qui colle un peu plus à l'actualité
l'enjeu c'est qu'aujourd'hui il s'attache à rendre compte de trois news, peut-être que je vais essayer de faire en sorte qu'il soit un peu plus direct, un peu plus factuel
pour traiter un peu plus de news qu'il ne le fait, peut-être en rajoutant aussi des sources d'informations

Tu parlais des progrès en à peine une semaine Michel sur le rendu de ta voix et la manière dont ces news sont restituées. On va écouter un bout justement de cet épisode une semaine après le premier extrait qu'on a écouté au début

Commençons par le Royaume-Uni qui a récemment annoncé la création du laboratoire de recherche en sécurité de l'IA ou LAS. Ce laboratoire a pour mission de protéger la Grande-Bretagne et ses alliés contre les menaces émergentes.

Fabrice, quelle a été ton impression à toi quand tu as découvert, écouté le premier épisode de Michel Lévy-Provençal ?

Alors les voix comme ça sont toujours très étonnantes, c'est pour ça que je posais la question à Michel, c'est-à-dire comment il trouvait sa propre voix Je trouve qu'encore aujourd'hui malgré les progrès énormes, au bout de quelques minutes on a cette petite impression de en anglais on dit "uncanny valley" la vallée de l'étrange, c'est pas tout à fait ça, il y a un ton qui va pas sur un bout de phrase, des choses comme ça et moi ça me fait décrocher un peu de l'écoute. Alors est-ce que cette dernière portion de justesse est atteignable à ton avis ?

Oui bien sûr c'est toujours perfectible, on en est encore au stade où on sent qu'il y a une sorte de mécanique qui s'installe et c'est pour ça que l'enjeu c'est aussi le contenu, c'est-à-dire qu'il faut pas trop que l'outil génère des questionnements un peu philosophiques en fait c'est pas le sujet, ce qu'on veut c'est entendre des news, ce qu'on veut c'est entendre une revue de presse donc si on a un outil qui est court, qui nous balance beaucoup d'informations dans un temps très très court, on est amené à plus d'écouter et c'est tout l'enjeu, à mon avis, en tant qu'utilisateur de cet outil, c'est-à-dire en tant qu'audience de ma propre voix, c'est un peu égotique
mais c'était aussi un moyen de montrer les capacités de l'IA aujourd'hui, pour ceux qui me connaissent en podcast et qui connaissent ma voix de retrouver cette voix artificielle qui ressemble comme deux gouttes d’eau à la mienne, c'était un moyen de faire une mise en avis.

Est-ce que le fait de choisir les sources et d'affiner le prompt, est-ce que ça suffit pour avoir la garantie qu'on propose aux auditeurs un contenu qui soit fiable ?
Le choix des sources est très important, ça c'est sûr. Et puis il y a le prompt lui-même, c'est-à-dire que cette consigne qu'on donne à l'IA qui fait qu'elle va choisir telle ou telle news, elle va la traiter de telle ou telle manière, c'est très très important.

Quels sont les premiers retours que tu as reçus après la mise en ligne des premiers épisodes ?
J'ai deux catégories de retours, j'ai une première catégorie mais je m'y attendais, de gens qui rejettent en bloc, qui disent "non mais c'est n'importe quoi, vous créez encore plus de contenu le contenu est pourri parce que c'est fait par une IA". Oui, ok, j'assume complètement la dimension expérimentale du truc, je l'ai juste ouvert, voilà.
Certains veulent l'écouter, d'autres pas, je n'oublie personne. Moi je l'utilise pour mes propres usages mais en plus comme expérimentation

Des gens qui s'inquiètent énormément du fait que ce sont des outils qui demain pourraient remplacer finalement ce qu'on fait.

Moi je suis host de podcast, plusieurs podcasts, j'ai Trendspotting, là je sors un nouveau podcast début décembre, d'ailleurs je ne l'ai pas annoncé encore,
on va l'annoncer dans les jours qui viennent, qui sera le podcast de la communauté officielle TED francophone, à partir du 2 décembre.

Donc là il y a des gens qui sont très inquiets par rapport à l'évolution de l'IA et puis des gens un peu comme vous, qui me disent "c'est génial, c'est intéressant,
bon évidemment c'est pas parfait mais c'est extrêmement prometteur et puis ça pose aussi énormément de questions et ça nous intéresse, on est curieux".
Donc voilà, moi je me positionne un peu dans cette troisième catégorie quand je regarde l'objet de l'extérieur en me disant "c'est fascinant ce qu'on arrive à faire aujourd'hui, est-ce qu'on peut pousser le bouchon jusqu'à ce que ce soit véritablement utile et pas juste une expérimentation fun ?"

Et c'est tout l'enjeu. Moi je cherche des outils pour essayer de mieux faire mon métier, d'améliorer aussi notre productivité, et des gens aussi qui s'inquiètent énormément de cette course folle en faveur de l'usage de l'IA pour la productivité, c'est l'époque qui veut ça.

On ne va pas résister nous dans notre coin tout seul à cette transformation massive.
Michel Lévy-Provençal, merci beaucoup d'avoir été notre invité cette semaine dans les Voix de la Tech et à bientôt !
À bientôt Michel !
À bientôt, merci Benjamin, merci Fabrice !
Bonjour Benoît Raphaël !
Bonjour !
Bonjour Benoît !
Merci d'être avec nous pour notre dixième épisode des Voix de la Tech.
Alors vous êtes journaliste et entrepreneur, vous publiez notamment une newsletter qui s'appelle "Génération IA".
Ça tombe bien parce qu'on va parler d'intelligence artificielle. Le débat fait rage pour savoir si l'IA va un jour accéder à l'intelligence tout court,voire dépasser l'intelligence humaine, et on s'est dit que vous seriez une voix vraiment intéressante pour alimenter ce débat.

Est-ce que vous avez un avis sur ce sujet ?

Oui, alors le débat fait rage, mais le problème c'est que quand on veut avoir un débat correct, il faut bien poser les termes du débat.
D'abord être d'accord sur les faits, puis ensuite être d'accord sur de quoi on parle.
Quand on parle d'intelligence, par exemple, certains parlent de super-intelligence,
qui est une espèce de point de bascule où l'IA devient tellement intelligente qu'elle va surpasser de façon exponentielle l'intelligence des humains,
et puis ensuite envahir le monde de trombone, selon une théorie d'un philosophe qui s'appelle Nick Bostrom.
Ou alors ceux qui parlent d'AGI, l'intelligence artificielle générale, qui est poursuivie notamment par OpenAI, qui serait plutôt une intelligence artificielle qui arriverait au niveau d'un humain. Puis après vous avez d'autres définitions plus précises, et je préfère celle-là d'ailleurs, l'IA capable, l'intelligence artificielle capable,
de Mustafa Suleyman, qui est actuellement chez Microsoft, mais qui est le fondateur de DeepMind, qui dit en gros c'est une IA, quand on lui donne 100 dollars, et ensuite elle a accès à plein d'outils, et à la fin elle génère un million de dollars, donc là on se rassure une IA qui serait capable de faire des choses, notamment de développer une entreprise.

Et puis on a celle d'Amodéi, de Dario Amodéi, qui est le patron de Notre-Dropée,
qui lui parle d'intelligence artificielle puissante, et lui il est beaucoup plus précis encore une fois, c'est une intelligence artificielle qui dans certains domaines, donc plutôt la science, l'ingénierie, voire l'écriture et le code, a un niveau équivalent à celui d'un prix Nobel, même s'il n'y a pas de prix Nobel du code, et qui serait donc capable, on lui fournit une tâche, elle a sa disposition, différents outils, et est capable de façon autonome de les utiliser pour obtenir un résultat.

Justement Benoît, puisque vous citez Dario Amodéi, le créateur de Claude,
chez Anthropique, c'est lui-même un ancien d'OpenAI, il était l'invité de Lex Fridman,
un podcast marathon, j'ai envie de dire, ce qui dure 5 heures, on va en écouter un extrait, et puis on en parle après.

Extrait

Benoît Raphaël, quand on écoute Dario Amodei, on a presque un son de cloche assez atypique aujourd'hui.

Oui, parce que d'abord, lui c'est un chercheur, il faut comprendre que c'est un chercheur qui vient lui plutôt de ceux qui craignent énormément les risques liés à l'IA, il a même été classé dans les catastrophistes, c'est la raison pour laquelle il a publié un essai très optimiste, puisqu'il reste aussi optimiste tout en étant conscient.
Il a quitté OpenAI pour ces raisons-là, il estimait que les questions de sécurité n'étaient pas assez prises au sérieux, il a préféré monter sa propre boîte avec la sécurité au cœur de ce qu'il appelle la constitution du modèle.

C'est pour ça qu'Anthropic est certainement une des entreprises, je trouve, aujourd'hui, les plus intéressantes à suivre dans le domaine de l'IA.

Son essai c'est Machines of Loving Grace, pour ceux qui s'y intéressent. Il essaie d'imaginer un futur où l'IA peut permettre à la science de faire en 5 ans ce qu'elle aurait pu faire en 50 ans.

Ce que je trouve intéressant dans sa démarche, c'est que, j'avoue que c'est un sujet, l'intelligence générale, la super-intelligence, c'est un sujet qui m'agace un peu, qui est un petit peu casse-gueule, c'est beaucoup de la science-fiction, ça alimente beaucoup les peurs, ça permet aussi de faire beaucoup de marketing, il le fait pas mal d'argent, et fondamentalement on ne sait pas exactement de quoi on parle.
Et puis d'ailleurs, est-ce qu'on a besoin d'avoir une IA intelligente comme un humain, à moins de vouloir jouer le rôle de Dieu, ou est-ce qu'on a simplement d'avoir des IA qui soient utiles, qui soient effectivement des collaborateurs, des assistants ?
Je préfère sa définition parce qu'elle est précise, dans certains domaines, elle permet d'avoir accès à des outils et d'accomplir des tâches de A à Z,
en collaborant avec l'humain, et peut-être demain, de mener elle-même ses propres recherches, par exemple.

Je trouve qu'au moins c'est précis, ça nous amène dans un futur qu'on a rien à peu près imaginé, on voit à peu près les technologies qui sont en jeu là actuellement,
on voit que tout n'est pas encore complètement prêt, mais je trouve ça plus proche, plus réaliste, et donc c'est plus facile de débattre évidemment là-dessus,
et donc notamment des risques, parce que pour parler des risques, il faut savoir exactement de quoi on parle.

Comme dit Yann LeCun, c'est pas la peine d'inventer le parachute si on n'a pas encore inventé l'avion.

Alors Dario Amodei n'est pas complètement d'accord, parce que lui il dit "oui d'accord, mais on peut quand même s'y préparer un petit peu",
mais au moins le fait d'avoir une vision assez claire de ce qu'il entend, lui, par y a puissante, ça permet de commencer à se préparer effectivement à ses ceintures de sécurité.

Alors vous avez cité Yann LeCun, on va rappeler qu'il s'agit de responsable de l'intelligence artificielle chez Meta, un ancien Facebook.

Bon justement, on va peut-être l'écouter Yann LeCun, quelques instants, pour être bien sûr de ce qu'il a en tête.
Est-ce que ça veut dire prendre des systèmes actuels, tels que les LLM, l'architecture similaire, et est-ce qu'on va arriver à l'intelligence de niveau humain simplement en entraînant ces systèmes avec plus de données,
ou simplement en les entraînant avec plus de puissance de calcul, plus de raffinement, etc.

Et ma réponse à cette question est absolument pas. Absolument pas, non.
Les LLM sont très utiles, très puissants, il y a plein d'applications à développer avec eux,mais ils ne mèneront pas, par eux-mêmes, à des systèmes de niveau d'intelligence humaine.

Alors je n'utilise pas l'acronyme consacré un petit peu pour ça, qui est AGI en anglais, Artificial General Intelligence, l'intelligence artificielle générale. J'ai horreur de ce terme, parce que si on l'utilise pour désigner des systèmes
qui ont l'intelligence humaine, on fait un énorme contresens, à cause du fait que l'intelligence humaine n'est pas du tout générale.
L'intelligence humaine est très spécialisée. On a un petit peu de mal à s'imaginer que l'intelligence humaine est spécialisée, mais en fait, c'est simplement parce qu'on a du mal à imaginer des problèmes qu'on ne peut pas résoudre.

Oui, alors d'abord, je vais vous parler comme ChatGPT, parce que du coup, on apprend finalement à parler aux humains, et très clair, faisons très clair sur les termes qu'on emploie, de façon à ce que le débat ne dérape pas.
Ça nous pousse aussi à des questions parfois existentielles sur notre rôle. Si on a peur d'être remplacé par un outil, c'est que peut-être qu'on vit comme des outils, et on est l'outil de qui dans ce cas-là ?

Donc je pense que quelque part, ce qui est en train de se passer là, les débats philosophiques sont intéressants, je trouve,
mais il faut être capable de les nuancer, et de pas être toujours dans l'exagération, parce que finalement, cette exagération, elle sert en fait, quelque part, les marketeurs qui eux, cherchent à lever beaucoup d'argent,
parce que fondamentalement, pour arriver à ce qu'ils veulent faire aujourd'hui, il va falloir lever beaucoup, beaucoup de milliards, et puis construire beaucoup, beaucoup de centrales électriques pour alimenter tous ces modèles.
Merci beaucoup Benoît Raphaël, pour cette réflexion autour de l'IA en ce jour anniversaire de Chat GPT.
Merci encore d'avoir été notre voix de la tech cette semaine autour de ces sujets et de l'IA.
Merci Benoît Raphaël.
Merci à tous les deux.
Bonjour Günther Gheeraert.
Salut Benjamin.


Bonjour Günther.
Salut Fabrice.
Trop content de t'accueillir dans les voix de la tech, Günther.
On se connaît depuis une douzaine d'années, on s'est rencontrés à l'époque où j'ai créé WatchTV.
Tu faisais du motion design à l'époque, tu es devenu, selon moi, l'un des meilleurs réalisateurs, notamment de pub. Des images assez dingues, qui montrent bien ce que tu fais avec une caméra, avec un petit peu de moyens j'imagine. Et puis comme nous, il y a quelques jours, tu as découvert la fonction EExpand.

Oui.

Alors c'est encore une version alpha, c'est quasiment à titre encore un peu expérimental.

Oui.

Mais Gen 3 de Runway, cette solution logicielle à base d'IA, qui permet de faire ce qu'on faisait déjà avec de l'image fixe, notamment dans Firefly et Adobe, c'est-à-dire agrandir une image parce qu'elle n'est pas au bon format ou parce qu'il manque des morceaux, qu'on a trop cadré typiquement, trop serré, on a besoin d'un peu d'air.
C'est ce qu'on peut faire maintenant avec de la vidéo, c'est ça ?

Oui, c'est exactement ça.

Cette nouvelle fonction Expand de Runway, là je vois une utilisation vraiment concrète pour moi, mon travail de réalisateur de pub de tous les jours.
Typiquement, une image tournée en vertical avec un téléphone, elle a l'avantage d'être parfaite pour être visionnée sur un autre téléphone, mais si on veut en faire une image carrée ou 16/9 par exemple, il nous manque les 4/5 de l'image.

Oui, c'est ça.

Alors moi ce serait plutôt l'inverse en fait. Moi généralement je fais des pubs dessinées à la télé et donc c'est un format plutôt 16/9, mais on me demande toujours la version pour les réseaux sociaux en 9/16, donc c'est un cadrage complètement opposé on va dire. Et donc c'est très difficile de pouvoir cadrer les deux, il y a des techniques évidemment, cadrer en carré par exemple, mais c'est pas confortable. Moi j'essaie quand même de cadrer en 16/9 pour avoir l'image que je veux au final. Après la plupart du temps ça marche, mais il y a certains cadrages, il y a certains plans qui ne marchent pas en 9/16. Et donc là, cette fonction Expand permet de venir mettre son image 16/9 et de pouvoir hop l'agrandir en haut et en bas pour avoir un cadrage vraiment parfait en 9/16.

Pour être très clair, ça consiste pas à cropper l'image, à enlever un bout à gauche et à droite pour avoir le format 16/9 dans la hauteur qui existait déjà. En fait tu vas garder l'image telle qu'elle et tu vas ajouter de la matière, non de la vidéo, au-dessus et en-dessous. Donc quelque chose qui n'existait pas va être généré et ça marche vraiment bien.

Pour l'instant il y a quelques limitations, limitation de temps, ça marche sur des rushs de 10 secondes maximum.

C'est pas mal déjà 10 secondes.

C'est déjà pas mal, moi pour les pubs télé, c'est des plans généralement ils font moins de 10 secondes, donc pour moi ça va très bien. Il y a une limitation pour l'instant en termes de format, c'est moins que du HD. Donc même si on lui fournit du HD, lui va en tout cas en faire du 1280x768. Mais c'est pas grave parce qu'après il y a d'autres outils comme Topaz qui vont permettre de regagner, de réagrandir ces images.

Tu veux dire que tu fais du downscaling et ensuite de l'upscaling en bon français.

En tout cas là on est un peu limité par cette, c'est un peu une V1 de cet outil, donc pour l'instant on est un peu obligé de passer par là. Et l'autre petite limitation c'est que pour l'instant on est obligé d'étendre, la vidéo qu'on met elle est au milieu, elle est centrée. Donc si on génère autour, c'est en haut en bas ou à gauche à droite.

C'est forcément symétrique.

C'est forcément, voilà.

Donc il y a cette petite limitation mais honnêtement c'est assez bluffant, ça suit bien la vidéo d'origine, ça ne modifie pas la vidéo d'origine.

Ça vraiment, ça étend en haut, en bas, à gauche, à droite et c'est assez bluffant.
Donc moi je vois vraiment une utilisation de tous les jours. Mais maintenant, non, cet outil là vraiment recréé, même sur des plans qui bougent, et qui bougent beaucoup, donc là recréé de la matière.

Donc là c'est vraiment quelque chose qui change la donne, même s'il y a des limitations, je trouve que c'est une super utilisation concrète,
voilà, qui, vraiment qui peut être utile tous les jours.

Comment ça se fait que des créatifs comme toi sont plus à l'aise avec ça, comme un outil d'aide, et que justement ça ne te fait pas peur, par exemple pour ton métier ?

Il y a plein de gens qui peuvent générer des images juste avec un prompt et créer des choses "waouh". C'est vrai que ça peut créer des choses assez inattendues, assez belles, très facilement. Mais après, ça c'est bien, mais ça c'est pas utilisable pour des productions, enfin c'est chouette, ça rentre très bien, mais il n'y aura pas de continuité d'une image à l'autre, enfin il y aura des problématiques de post-production.

Moi ce que je recherche c'est plutôt des outils qui vont m'être utiles sur la matière que moi je vais créer, pour m'assister, pour recréer justement de la matière autour de mon image. Moi ce que je recherche aussi c'est quelque chose où je pourrais effacer des objets dans mon image que j'ai créée, ou en rajouter.
Ça c'est un outil un peu qui a été annoncé sur Premiere Pro dans les prochaines versions, et je suis très très intéressé de voir ce que ça pourrait donner.
Ça date de il y a quelques heures.
Étendre un rush par exemple, des fois il nous manque une petite demi-seconde en plus, et si on pouvait générer des choses comme ça.

Ça pour le coup ça arrive, c'est dans Premiere Pro, on l'a vu avec Fred Roland il y a quelques semaines.

Exactement, mais dans cette idée d'outil, c'est je crée de la matière, et je peux la manipuler, je peux aller plus loin que du simple montage. Modifier ma matière, c'est ça qui est vraiment intéressant, ou alors pouvoir carrément changer par exemple le regard de mon comédien sur un rush. Peut-être que dans le futur on pourra rajouter un petit peu de sourire à 10%, rajouter un peu d'inquiétude à 20%, enfin voilà des petites choses comme ça. Rajouter un regard, un raccord, pour que le raccord soit un petit peu mieux, c'est du détail, mais moi je vois plus comme ça, c'est des choses qui se verraient pas dans ton image.

C'est plutôt comme ça que je vois mon utilisation, et après je trouve ça très bien aussi, toutes les utilisations qui sont faites pour créer des mondes virtuels,
des mondes impossibles, et de l'autre côté je trouve ça hyper bien aussi de pouvoir faire ce genre de contenu.
C'est des choses qui cohabitent, moi je le vois comme des outils, je le vois pas comme quelque chose qui va remplacer tous les graphistes, en tout cas j'espère pas.
Mais clairement, clairement en tout cas, pour l'instant c'est pas le... on y est pas encore.
Merci beaucoup Günther Gheeraert d'être venu dans les Voies de la Tech cette semaine, c'était un grand plaisir.
Merci à vous.
Et à bientôt !
A bientôt, merci à vous.
Merci Günther, j'espère à bientôt aussi.
À bientôt.


C'est la fin de l'épisode 10, on espère que vous vous êtes régalés comme nous, et on vous donne déjà rendez-vous vendredi prochain, c'est à dire le 6 décembre.
D'ici là, suivez les Voies de la Tech sur X, LinkedIn, Facebook, Instagram, Youtube, et aussi sur Bluesky, où vous nous trouverez aussi l'un et l'autre.
Partagez nos publications sur les réseaux, on a besoin de vous et de votre relais pour nous aider à faire connaître les Voies de la Tech.

Pour vous abonner, tous les liens sont à retrouver sur le site lesvoiesdelatech.com.
Lien notamment vers la version intégrale sur Apple Podcasts, même concept, même sommaire, même voix, mais avec des interviews en totalité.
Merci à toutes et à tous pour votre fidélité, à la semaine prochaine, bye bye !
[Musique]
Merci.

...