SMART TECH - Grande interview : Jeanne Le Peillet, Beink Dream

  • il y a 6 mois
De sa courte expérience de graphiste, Jeanne Le Peillet a tiré un enseignement : si le dessin est un puissant outil de communication et de réflexion, c’est une tâche ardue de le transposer sur des supports numériques. C’est ainsi que naît Beink Dream, une plateforme alliant l’intelligence artificielle et la deeptech pour permettre à tous de faire entendre ses idées grâce au dessin. Un projet qui a reçu de nombreux soutiens, et récemment une levée de fonds de 500 000 euros pour accélérer son développement, grâce à Kelly Massol et l’émission « Qui veut être mon associé ? ».

Category

🗞
News
Transcript
00:00 (Générique)
00:06 Jeanne Lepayet, mon invitée aujourd'hui dans Smartech, docteur en génétique, passionnée de dessin,
00:11 vous êtes particulièrement fait remarquer dans l'émission "Qui veut être mon associé ?" sur M6.
00:17 Non seulement vous avez d'abord été sélectionnée, vous avez pu présenter votre société Bindrim aux investisseurs de cette saison 4,
00:24 Kelly Massol qui a rapidement été convaincue, a annoncé qu'elle investirait immédiatement 500 000 euros.
00:30 - Bravo ! - Merci.
00:32 Impressionnant. Alors on va expliquer quand même ce que vous faites, qu'est-ce qui a pu séduire d'un seul coup Kelly.
00:38 Donc si je fais très simple, je le disais dans le sommaire, c'est un logiciel qui nous permet de visualiser un peu tout ce qui se passe dans notre tête.
00:45 C'est ça. Ça c'est l'ambition que j'ai effectivement avec ce projet-là.
00:50 Elle vient aussi du fait que pour résoudre des grands problèmes, des grands défis qu'on a actuellement,
00:55 ce sont des défis qui sont multi paramétriques et donc on a besoin de faire appel à plein d'experts différents.
01:00 Alors là on voit une petite animation qui nous montre à peu près ce que ça fait.
01:03 Donc là c'est quoi ? On est en réunion, on dit qu'on imaginerait bien un nouveau vélo ?
01:08 C'est ça. Par exemple on est en réunion et on commence à brainstormer sur la conception d'un nouvel objet.
01:13 Et donc on va pouvoir tous participer à la co-création de ce nouvel objet.
01:18 Et en fait ce qui est intéressant là-dedans c'est que toutes les personnes qui ont une idée vont pouvoir l'exprimer à forces égales.
01:23 Peu importe ses compétences en dessin mais peu importe aussi son langage d'expertise.
01:27 Donc on gribouille parce que tout le monde est capable de gribouiller.
01:30 On gribouille sur une tablette.
01:32 On peut gribouiller sur une tablette, on peut aussi prendre en photo des choses qu'on a déjà gribouillées par ailleurs.
01:36 Et puis on les transforme et on les fait évoluer au fur et à mesure que l'esprit voit les images et se pose des nouvelles questions et avance dans son raisonnement.
01:46 Et là pour obtenir à la fin le résultat, c'est quand même un dessin de design assez précis, c'est la machine, c'est le logiciel qui nous aide ?
01:54 Oui, là derrière c'est de l'IA générative, c'est la technologie qu'on utilise pour pouvoir aider l'interprétation et la mise au propre d'un certain nombre de visuels.
02:05 Donc c'est cette IA-là qu'on met au point aujourd'hui.
02:09 Et là c'est un exemple un peu particulier parce qu'on est sur un objet avec un design, donc on comprend bien l'intérêt du dessin.
02:16 Mais parfois ce n'est pas du tout l'objet.
02:19 D'ailleurs il y a une autre démonstration, on va la voir tout de suite.
02:23 Alors allez-y, racontez-nous.
02:25 Alors l'autre démonstration c'est plutôt un travail sur un thème commun.
02:30 Là c'était "Imaginez la ville de demain".
02:32 Et là l'outil, comme il est collaboratif, il permet de faire appel à aussi des concitoyens qui vont pouvoir co-imaginer avec les acteurs publics par exemple, ce que peut être la rénovation de leur quartier.
02:44 Et donc à partir d'une idée qui était là, une idée commune pour les personnes qui sont en train de gribouiller,
02:50 donc c'était cette maison ronde, et on se rend compte qu'il y a deux interprétations complètement différentes à partir d'une idée centrale.
02:56 Et c'est ça qui est intéressant avec un outil visuel, c'est d'interpréter et d'inspirer.
03:00 Alors est-ce que vous diriez que griffonner comme ça sur une feuille de papier ou sur une tablette, c'est vraiment quelque chose qui permet d'accoucher des idées ?
03:09 Oui, ça c'est... Alors je n'y aurais pas pensé comme ça de rien, mais ça vient des dix années d'expérience que j'ai eues en devant créer pour des entreprises, pour des laboratoires, pour des universitaires,
03:22 des visuels pour leur permettre de raconter ce qu'ils font, donc de communiquer dessus.
03:25 Et en fait on se rend compte que quand on présente un visuel à quelqu'un qui a eu une idée, une fois qu'il voit ce qu'il avait en tête, il se met à se poser des nouvelles questions,
03:32 et à s'interroger autrement sur les choses, ou à réfléchir à des problèmes qu'il n'avait pas vus, parce qu'il ne les avait pas visualisés justement.
03:38 Et donc je me suis dit "mais c'est trop dommage que toutes ces personnes-là qui ont des idées, qui sont créatrices de connaissances, ne puissent pas elles-mêmes utiliser le dessin comme outil de réflexion".
03:45 Oui, en fait on passe du dessin pour la communication au dessin vraiment de co-création et de réflexion.
03:52 De réflexion, de questionnement, oui.
03:53 Alors, vous allez nous raconter un petit peu comment ça s'est passé l'émission "Qui veut être mon associé" ? Racontez-nous les coulisses.
03:59 Ça s'est plutôt bien passé. Alors déjà les coulisses, parce qu'on voit à la télé qu'il y a une vingtaine de minutes je crois, sur plateau ça a quand même duré une heure trente.
04:08 Et c'est long ou ça passe vite ?
04:10 Non, ça passe très très vite. Moi je ne me suis pas du tout rendue compte que ça durait une heure trente.
04:14 Ça va très vite, c'est beaucoup de ping-pong entre les questions et comment on essaye d'y répondre au mieux.
04:23 Ça a été assez fluide, il y a des petits moments où on se dit "Mince, est-ce que je vais plonger du mauvais côté de la force ? À dire que je suis en train de m'enfoncer".
04:32 Mais en fait quand on arrive sur le plateau, il était assez tôt le matin, il était 7h du matin, on arrive sur le plateau, on est assez bien accueillis par l'équipe M6 qui nous a suivies.
04:43 Et l'équipe de Qui veut être mon associé qui nous a très bien accueillis. Et puis après le show commence, on arrive sur scène.
04:50 Vous étiez beaucoup préparée ? Vous avez pitché avant, vous avez écrit tous les arguments sur un papier, sur votre outil peut-être ?
04:56 Alors j'ai pitché avant, il se trouvait que juste avant l'émission, j'étais appelée sur la Deep Tech Voie Big pour pitcher aussi pour un challenge qui s'appelle le Star Thèse.
05:08 Et donc en fait c'était un challenge qui me faisait beaucoup plus flipper parce que c'était face à des gens, beaucoup de gens, à la Core Arena.
05:15 Et donc je ne me sentais pas très à l'aise au départ sur le plateau parce que je me suis dit "Je suis moins préparée que ce que j'aurais aimé être".
05:21 En même temps, tout le monde est moins préparé. On n'est jamais suffisamment préparé. Mais l'adrénaline fait bien son taf.
05:27 Je voulais maintenant vous interroger sur les coulisses de votre outil. Parce que vous nous dites que c'est un outil qui marie de l'intelligence artificielle, des neurosciences.
05:37 Est-ce que derrière c'est une technologie complexe ?
05:39 Oui, c'est une technologie issue de ce qu'on appelle la Deep Tech. C'est une façon de voir les technologies qui cassent un peu les frontières entre les différentes disciplines.
05:52 Donc biologie, mathématiques, informatique. Et puis c'est une technologie qui a été labellisée Deep Tech par BPI France.
06:00 Elle a été subventionnée notamment par des bourses Deep Tech. Et derrière, il y a tout un partenariat de recherche aussi sur comment mettre au point,
06:09 comment créer vraiment un dialogue visuel entre l'homme et la machine, une interaction qui s'adapte au raisonnement humain et pas un dialogue visuel
06:17 où l'humain doit s'adapter au vocabulaire de la machine.
06:21 Mais donc pour ça, on part avec quelle équipe sous le bras ? Parce que pour construire un projet aussi ambitieux technologiquement, c'est le problème des Deep Tech.
06:30 C'est qu'il faut le savoir-faire déjà.
06:32 C'est le problème des Deep Tech et c'est le côté excitant des Deep Tech aussi. Dans l'équipe, on est beaucoup de jeunes chercheurs, de jeunes docteurs.
06:38 Donc il y a des compétences en machine learning, intelligence artificielle, computer vision, neurosciences.
06:44 Et puis après, il y a tout l'aspect sales, bien sûr, qui vient pour la partie business.
06:50 Vous nous dites qu'on peut modifier les visuels. On a eu l'impression que tout ça était assez fluide, assez rapide.
06:55 Jusqu'à quelle vitesse on peut aller ? Parce que le cerveau va très vite.
06:58 Le cerveau va super vite. Et pour l'instant, le prototype est super lent.
07:02 Super lent, c'est à mettre en regard effectivement à la réflexion qu'on a, qui est super rapide.
07:08 Une minute pour créer des visuels bien léché, c'est quand même très rapide.
07:12 Par contre, une minute pour réfléchir dans un dialogue, c'est très très lent.
07:16 Et c'est là-dessus qu'on travaille. Donc on va largement diminuer ce temps-là.
07:20 Et on va aussi donner la capacité à la personne de pouvoir dire, je veux des rendus un peu moins bien, mais beaucoup plus rapides.
07:27 Ou alors, là, j'ai fini mon travail, j'ai fini ma réflexion, je voudrais des rendus un peu plus finis.
07:33 Et est-ce que derrière, ça nécessite aussi plus de puissance de calcul ?
07:37 La puissance de calcul, ça reste un des problèmes majeurs quand on utilise des IA.
07:42 La puissance de calcul, on la gère sur CD-VAS communicant.
07:47 Justement, quand la personne nous demande plus de rapidité et un meilleur rendu, là oui, on explose les compteurs.
07:53 Mais justement, le fait de rendre aussi conscients les personnes, les utilisateurs, de ce qu'ils demandent derrière en puissance de calcul,
08:00 et d'apprendre en fait.
08:01 Qu'ils puissent eux-mêmes déplacer le curseur.
08:03 C'est ça.
08:04 Oui, intéressant.
08:05 Alors, petite provocation, mais je suis sûre que vous avez la réponse.
08:09 Est-ce que finalement, avec les mid-journées, les DALI, est-ce qu'on a encore besoin de votre outil ?
08:14 J'adore cette question.
08:15 Oui, parce que moi, il suffit que je tape un prompt qui explique exactement ce que je veux voir à l'écran pour que j'ai un dessin, une image.
08:21 C'est marrant parce que c'est en 2021 quand j'ai commencé à me dire, mais il faut que cet outil existe.
08:26 Donc en janvier.
08:27 Et puis, les gens m'ont dit, non, c'est impossible ce que tu veux faire.
08:30 Puis après, est sorti mid-journée, DALI, etc.
08:32 Les IA génératives.
08:33 Alors, est-ce qu'elles viennent bousculer, du coup, votre projet ?
08:35 Et alors non, elles viennent le propulser.
08:37 Les gens sont venus me voir et m'ont dit, écoute, on comprend ce que tu veux faire.
08:41 On sent que c'est possible.
08:42 Et maintenant, tu as des premières briques, notamment de l'open source, qui permet de surfer sur la vague et de partir,
08:49 de pouvoir présenter des prototypes et même des versions beaucoup plus rapidement et à moindre coût.
08:54 Quand je dis coût, c'est économique, mais c'est aussi écologique.
08:57 Et ça, c'est hyper précieux.
08:59 En fait, le fait qu'elle soit arrivée à ce moment-là, alors que l'idée commençait déjà à être bien maturée, elles ont juste propulsé.
09:04 Sans ça, j'aurais dû avoir des millions d'euros et beaucoup de personnes pour faire le prototype, ce qui n'est pas possible.
09:11 Mais comment il arrive en complément de ces outils ?
09:14 À partir de quand ? Je ne peux pas me satisfaire juste d'une IA générative ouverte au grand public ou en payant une petite somme pour un abonnement ?
09:21 En fait, ça dépend beaucoup de l'approche.
09:23 Aujourd'hui, ce que ces IA là proposent pour la plupart, c'est un rendu fini instantané à partir d'une requête initiale.
09:30 Ce sur quoi on s'intéresse, ce n'est pas tant d'obtenir instantanément une réponse finale,
09:35 mais c'est d'initier ce dialogue visuel et de stimuler la réflexion et la cognition humaine.
09:40 C'est ça qui nous intéresse.
09:41 Le cerveau humain, c'est quelque chose de tellement fabuleux.
09:44 Nous, on veut l'outiller et le rendre beaucoup plus créatif, beaucoup plus puissant.
09:48 Mais en aucun cas, on veut le remplacer.
09:50 Et le problème, je dirais, de certaines utilisations d'IA, parce qu'encore une fois, c'est qu'un outil, donc ça dépend comment on s'en sert.
09:57 Le problème de certaines utilisations, c'est ça, c'est je veux une réponse toute faite et je ne veux pas y réfléchir.
10:03 D'accord, je comprends.
10:05 Et vous utilisez, puisque vous parliez justement des briques logicielles qui arrivaient, des briques d'IA qui arrivaient,
10:09 vous utilisez aujourd'hui quel grand modèle pour entraîner votre IA ?
10:15 On se base sur un noyau open source dont le modèle est changeant parce qu'on est capable de s'adapter aux arrivées sur le marché.
10:24 Et sur ce noyau-là, d'une part, on l'hyper paramétrise, on le fine tune, donc on le réentraîne et puis on y ajoute nos propres modèles d'IA.
10:33 Et donc, du coup, c'est un modèle dont le cœur peut constamment changer, mais dans tout ce qui se construit autour et par-dessus, nous est propriétaire.
10:41 Et ensuite, pour le client final, lui-même va fine tuner cet outil ou c'est un outil vraiment clé en main ?
10:48 C'est un outil clé en main, complètement, parce que justement l'objectif c'est de passer outre n'importe quelle frontière.
10:55 L'idée c'est que les gens puissent vraiment juste s'exprimer et laisser libre cours à ça.
10:59 Donc ça doit fonctionner quel que soit le secteur dans lequel j'évolue ?
11:02 Complètement. Quel que soit le secteur dans lequel vous évoluez, quel que soit l'état d'esprit dans lequel vous êtes aussi, quel que soit l'équipe de laquelle vous vous entourez.
11:11 D'accord. Mais alors pour nous donner une idée un peu du champ des possibles, qu'est-ce que je peux faire ? Parce qu'on a montré deux exemples.
11:18 Quels sont les premiers usages que vous imaginez ?
11:22 Alors les premiers usages qu'on imagine viennent directement de nos prospects. En gros, nous on a ouvert le champ des possibles et puis on a regardé qui venait emprunter.
11:30 Et donc il y a deux gros pôles qui viennent particulièrement. Il y a tout ce qui est luxe, prêt-à-porter et design produit.
11:36 Donc comment, en fait ce sont souvent des équipes qui sont géniales de créativité, mais qui elles le disent elles-mêmes, voilà ça fait 10 ans, 15 ans que je travaille dans la même boîte pour la même marque.
11:46 Et bien j'ai besoin aussi d'être outillée autrement pour pouvoir penser en dehors du bocal.
11:51 Donc ça c'est un premier point. Puis ensuite ça permet d'accélérer vraiment la conception du produit et du prototypage.
11:58 Et puis de bien se faire comprendre par les clients et par les prestataires.
12:02 Et l'autre gros pôle qui en a besoin pour des raisons très similaires, c'est tout ce qui est promoteur immobilier et architecte.
12:09 Et qui là pareil pour déléguer à un partenaire ce qu'il faut créer, il faut s'être bien compris en avance.
12:14 Sinon on part sur un budget et du temps qui est mal alloué.
12:18 Et puis pour se mettre dans la tête du client, il faut que le client puisse voir en images et puisse, pourquoi pas, itérer sur ces images-là.
12:27 Ça pourrait aussi servir des projets de démocratie participative, d'inclusion numérique peut-être ?
12:33 C'est sympa comme question parce qu'effectivement ça fait un peu penser à la vidéo que tu as présentée tout à l'heure.
12:38 Mais de la co-création c'est aussi permettre de donner une voix aux concitoyens ou aux gens non experts.
12:45 Parce qu'il n'y a plus cette barrière et il n'y a plus cette "honte" de ne pas pouvoir s'exprimer visuellement correctement ou verbalement.
12:52 On aimerait bien en fait, mais est-ce que vous avez des premières pistes dans ce sens ?
12:55 Oui, complètement. Justement comment rénover un quartier et faire participer la population dans ce quartier-là.
13:01 C'est-à-dire qu'elles vont créer des images, elles vont initier des images toutes ensemble.
13:05 Et plutôt que de faire une discussion et de se dire "c'était bien sympa cette petite réunion avec les citoyens, maintenant on va l'oublier".
13:10 C'est plutôt de pouvoir utiliser ces images-là comme des sources d'inspiration, de pouvoir les compiler, les traiter, les clusteriser.
13:17 Et de se dire "voilà les grandes idées qui en sortent". Et ça c'est vraiment donner une voix je dirais à tout le monde.
13:24 Alors, je vais avoir une dernière question pour vous avant de passer à l'interview.
13:27 Express, je précise, comment est-ce qu'on passe de l'idée à l'entreprise ?
13:31 Et comment est-ce qu'on passe d'une entreprise qui a démarré avec 100 euros de capital à aujourd'hui 670 000 euros ?
13:39 Oui, alors de l'idée à l'entreprise, moi je n'ai jamais eu l'envie d'être entrepreneur parce que je n'ai jamais imaginé l'être.
13:47 C'est juste que j'avais toujours cette activité annexe qui était de créer des visuels pour les autres.
13:52 Et il y avait ce problème justement de se dire "mais la personne elle a des idées, elle a des idées géniales,
13:58 elle n'arrive pas à les exprimer et elle n'arrive pas non plus à visualiser suffisamment ce qu'elle a en tête
14:02 pour pouvoir accélérer ou développer sa réflexion".
14:05 Donc vraiment l'idée de départ est partie de ça, je veux trouver une solution pour ces gens-là.
14:09 C'est un travail artistique que je menais à côté de mes travaux de thèse et de recherche notamment,
14:14 donc ça prenait un peu du temps.
14:16 Donc je me suis dit "je vais gagner du temps en créant ce logiciel".
14:18 Ben non, manque de pot, ça m'a pris encore plus de temps.
14:22 Mais c'est une vraie belle aventure et à la fin de ma thèse, j'ai fait le pari de refuser le post-doc
14:26 et de partir dans cette aventure-là à plein temps, aussi par respect,
14:32 parce que j'avais aussi eu un prix qui est le prix Pépite France de 10 000 euros.
14:37 Et par respect pour ceux qui ne l'avaient pas eu, il faut travailler à plein temps.
14:40 Allez jusqu'au bout.
14:42 Et donc là, cette grande transformation, c'est vraiment le mode startup avec l'hyper-croissance d'un seul coup.
14:48 Là vous êtes en pleine dans cette transformation.
14:50 On n'a pas trop le choix. J'aurais pu financer à partir de mes ressources, je l'aurais fait.
14:55 Ou à partir directement de clients, je l'aurais fait.
14:58 Il se trouve que ces technos-là demandent quand même pas mal d'investissement de départ.
15:01 Donc il y a eu le prix Pépite, il y a eu un premier Business Angel qui est arrivé,
15:05 il y a eu Réseau Entreprendre qui m'a fait un prêt personnel, mais c'est quand même 50 000 euros,
15:11 donc ça donne un bon coup de pouce.
15:13 Et bien sûr il y a BPI France avec les bourses de 90 000 euros.
15:17 Et après il y a Kelly.
15:19 Ok, bon bah super, on va suivre tout ça, tout ce que vous allez pouvoir faire avec cette levée de fonds la dernière.
15:25 On passe à l'interview express, c'est une question très binaire,
15:29 mais vous avez le droit de répondre de manière moins binaire, je vous rassure tout de suite.
15:32 Oui ou non, les IA Génératives vont tuer la création graphique ?
15:36 Non.
15:37 Les artistes, ils ne vous en veulent pas ?
15:39 Non, moi j'ai eu très peur de ça.
15:41 Il se trouve qu'on a eu post M6 aussi des artistes qui sont venus nous voir en disant
15:44 "mais pour moi c'était le diable les IA Génératives".
15:46 Et en fait, en écoutant ton approche et ta réflexion là-dessus, j'ai compris que ce n'était qu'un outil.
15:51 Donc ce n'est qu'un outil, et puis encore une fois, mes parents étant artistes jamais de la vie,
15:55 je voudrais enlever leur cerveau de cette planète.
15:58 Alors vous êtes pour ou contre l'alliance des Français avec les géants du numérique dans l'intelligence artificielle ?
16:03 Je pense notamment à Mistral et Microsoft, ou encore Au Monde et OpenAI.
16:08 Est-ce que ça passe par là finalement à un moment ?
16:10 Peut-être que vous devrez aussi passer par là par des alliances stratégiques avec des géants américains ?
16:15 Dans l'idéal, non. Dans l'idéal, j'aimerais qu'on reste au minimum en Europe.
16:19 C'est sûr que si jamais l'Europe ou les fonds d'investissement ne peuvent pas accompagner,
16:24 je comprends que les gens finissent par partir pour faire vivre un projet.
16:27 Là où je ne suis pas pour, c'est que j'aimerais bien participer au rééquilibrage de la géopolitique mondiale,
16:32 et ça passe par la souveraineté des données.
16:34 Vrai ou faux, pour grandir, il faut aller chercher des fonds aux Etats-Unis ?
16:39 Du coup, je vais s'approuver que faux. On se reparlera dans quelques années.
16:45 Oui, parce que là, c'est une étape 670 000 euros.
16:48 La prochaine étape, c'est la levée de fonds en fin 2024.
16:51 Et vous allez les chercher en France ?
16:53 Et je vais les chercher en France et en Europe.
16:56 J'y crois ou j'y crois pas au numérique durable et co-responsable ?
17:01 J'y crois. Je suis d'ailleurs co-inventrice d'un brevet sur comment stocker et encoder des données numériques dans l'ADN.
17:07 Donc c'est clairement dans cette optique-là. J'y crois, il y a beaucoup de choses à faire, et il y a beaucoup de choses à faire en biotech.
17:14 Super, merci beaucoup Jeanne Lepayet. Je rappelle que vous êtes la fondatrice, co-fondatrice ?
17:19 Fondatrice.
17:20 Fondatrice de Bing Dream. Bravo, félicitations encore.
17:23 Merci.
17:24 Allez, on passe à l'actu des cryptos.

Recommandée