Mercredi 14 juin 2023, SMART TECH reçoit Christophe Stern (Président, Stern Tech) et Pierre Voineau (Directeur du projet H1st vision, Software République)
Category
🗞
NewsTranscription
00:00 Alors ce matin sur VivaTech One Stage, c'est-à-dire sur la scène principale, on a découvert
00:10 un concept car révolutionnaire et on a la chance d'être juste à côté de cette voiture.
00:17 Le concept s'appelle Human First Vision, c'est une initiative lancée par la Software
00:23 République et j'ai eu la chance d'être en compagnie du directeur du projet, Pierre
00:26 Voineau, peut-être déjà un mot sur la Software République et à l'initiative de Human First
00:30 Vision ? Alors en fait la Software République c'est un consortium de 6 entreprises françaises
00:35 qui se sont réunies depuis 2 ans pour innover avec du software au sein de la mobilité.
00:39 Et donc en fait ce concept car il vient porter notre vision du futur de la mobilité avec
00:44 un concept car qu'on voit ici, qui est magnifique, ainsi que son jumeau virtuel porté par Dassault
00:48 Systems.
00:49 Bon alors magnifique, magnifique, on va voir, et surtout quelles nouvelles expériences
00:52 on va pouvoir vivre à travers ce concept car.
00:55 Vous avez des démonstrations à nous faire ? Tout à fait parce qu'une des particularités
00:59 de ce concept car c'est qu'il est le fruit du travail collaboratif de 12 partenaires
01:03 et 100 personnes pendant 6 mois pour concevoir un démonstrateur fonctionnel qu'on peut expérimenter
01:09 et c'est ce qu'on va faire donc ensemble.
01:10 Ok, allons-y, on commence par quoi ? L'ouverture.
01:12 On commence par l'ouverture, c'est ce qui est le plus naturel.
01:15 Allez-y.
01:16 Donc là vous vous approchez ? Oui, en fait je m'approche et on va voir
01:22 le véhicule sans même détecter de carte, de téléphone ou de clé va me reconnaître.
01:26 Parce que c'est votre voiture bien évidemment.
01:28 Je me suis enregistré préalablement effectivement et donc il me reconnaîtra tout d'abord avec
01:33 ma démarche et ensuite avec mon visage.
01:35 Donc là la démarche, on ne va pas la montrer ici parce qu'on est très restreint en termes
01:38 de place, donc on passe directement à la deuxième étape avec la reconnaissance faciale.
01:42 Donc là on voit s'afficher en fait sur l'écran de la voiture, Hélo Pierre.
01:49 Et la voiture vous demande si elle doit ouvrir la porte ?
01:54 En anglais, c'est du "Want to enter".
01:56 Donc cet avatar est projeté grâce à un projecteur de la société française Highlight
02:01 qui est intégré dans la cuitette et qui projette donc un petit avatar qui va m'accompagner
02:05 durant toute l'expérience.
02:06 On le voit déjà apparaître sur l'écran central.
02:07 Je vous rejoins, on va à l'intérieur.
02:13 Alors j'ai même réussi à trouver le bouton pour ouvrir la voiture.
02:19 Totalement digital.
02:23 Donc là ça ne ressemble pas du tout à un tableau de bord classique, Pierre.
02:28 Donc tout de suite l'avatar nous accueille.
02:30 Et là il me demande si je suis prêt à prendre la route.
02:33 Donc je dis oui.
02:34 Donc là le tableau de bord s'approche pour passer en mode conduite.
02:39 Et donc comme je l'ai dit, on est sur un concept car qui est fonctionnel avec des expériences
02:43 à vivre à l'intérieur du véhicule.
02:45 Donc là il apparaît sur les 4 toggles de la console centrale.
02:48 Parce que vous avez fait le choix de ne pas avoir un grand écran mais plutôt plein de
02:51 petits écrans pour chaque fonctionnalité.
02:53 Là on a des raccourcis vers notre service.
02:55 En fait on n'est pas en train de faire de projet à cette heure publique.
02:58 Donc chaque innovation sera demain on espère un projet qui verra jour chez un constructeur.
03:03 Et pourquoi pas Renault.
03:05 Et donc par exemple là on est sur le premier élément, c'est sur la santé du conducteur.
03:10 Donc là je vais leur poser en revanche le micro.
03:12 Donc là merci pour le micro.
03:16 Donc en fait le véhicule de demain, nous on pense qu'il va être un petit peu un accompagnateur
03:20 aussi sur notre état de santé en temps réel.
03:22 Donc là on va apparaître sur l'écran central, mon rythme cardiaque, l'électrocardiogramme
03:26 et la variabilité de fréquence cardiaque qui est là pour analyser le stress, la fatigue
03:30 et anticiper un potentiel moment de faiblesse.
03:32 Oui parce que quand je dis qu'il n'y a pas un grand écran, alors je ne sais pas tout
03:35 à fait vrai parce qu'en bas du pare-brise en fait on a vraiment une vision panoramique
03:39 de tout ce que les applications peuvent nous donner comme informations.
03:43 Donc mon état de santé c'est très important pour l'accidentologie.
03:47 On a vu que la fatigue était un facteur important.
03:50 C'est 10 à 20% des accidents mortels sur autoroute sont dus à ces moments de faiblesse.
03:55 Et donc nous avec un véhicule qui nous connaît, on peut demain anticiper ces moments là de
03:59 faiblesse.
04:00 Et ce véhicule a suggéré au conducteur peut-être de faire une petite pause.
04:02 On s'arrêtera et après cet arrêt on pourra communiquer avec une assistance médicale.
04:07 Et ce véhicule-ci il est connecté par satellite.
04:09 Donc la connectivité sera assurée partout en France.
04:12 Alors oui parce qu'au-dessus de la voiture en fait on voit…
04:14 Exactement.
04:15 C'est une maquette effectivement.
04:16 Et d'ailleurs ce matin quand vous avez présenté le concept CAR sur la scène principale,
04:20 il y a eu la comparaison qui a été faite avec un iPhone.
04:23 C'est-à-dire en mode rescue, s'il n'y a pas de communication terrestre, eh bien
04:28 vous avez recours au satellite.
04:29 Exactement.
04:30 En fait on assure comme ça une connectivité, une communication optimale et partout en France,
04:35 partout sur le territoire.
04:36 Ok.
04:37 Alors qu'est-ce qu'on a d'autre comme petit jouet là ?
04:40 En fait, plus que des jouets, je pense que c'est des vrais services.
04:43 On a vraiment pris le temps de…
04:44 Enfin là je vois des pochettes de musique.
04:45 Parce qu'en fait on a vraiment…
04:46 Donc il y a quand même tous les loisirs.
04:47 Alors juste pour terminer la partie santé, on a eu aussi une analyse de nos émotions
04:51 par la start-up française Sterntech avec son CEO qui est ici présent.
04:55 Et suite à cette analyse des émotions, on va proposer un environnement sonore, musical
05:00 et visuel avec de la lumière en lien avec ce niveau émotionnel.
05:03 Donc effectivement on passe sur une bulle sonore.
05:05 On a un véhicule qui est en termes de contenu exceptionnel au niveau sonore.
05:09 C'était le fruit du travail de STMicroelectronique, de Arcamis et des équipes de Jean-Michel Jarre
05:15 pour le calibrage.
05:16 Et donc on a effectivement, là on voit apparaître les titres de Jean-Michel Jarre.
05:18 On a du son immersif qui est… Alors là on est porte ouverte, c'est moins fort mais
05:21 si je lance c'est assez bluffant.
05:24 On a reçu Jean-Michel Jarre dans Smartech sur notre spécial mondial de l'auto et
05:30 il nous a donné un aperçu de à quoi ça pourrait ressembler.
05:34 Donc là ça y est c'est concrétisé finalement.
05:35 Exactement, en tout cas c'est concrétisé sur un concept car effectivement et donc on
05:39 aura même la chance pour tout vous dire en interne, il va venir l'essayer lui-même.
05:42 Il va venir essayer aussi.
05:43 Parce que la qualité a vraiment plu à son ingénieur du son.
05:45 On le rasera peut-être alors.
05:46 C'est top.
05:47 Et donc voilà, je pense qu'on peut terminer avec le son.
05:49 Le son est vraiment exceptionnel.
05:50 Et là on a une vue de la voiture.
05:52 Alors ça simule quoi exactement ?
05:54 Ça simule les 16 haut-parleurs présents dans le véhicule.
05:56 En tout cas les 16 voix.
05:57 Donc il y a un subwoofer, une voix centrale, on a deux petits tweeters dans chaque appuie-tête.
06:02 Et donc en fait ce qu'il fait c'est qu'on n'est pas seulement sur du plaisir, on est
06:05 aussi sur un vrai atout sécurité.
06:07 Donc là on a une alerte par exemple.
06:09 On simule une ambulance qui approcherait de nous, nous sommes en zone d'embouteillage.
06:14 Cette alerte là, vous ne l'entendez pas, elle est chez moi.
06:17 Donc en fait c'est seulement dans ma bulle sonore qu'on ne va pas venir déranger l'ensemble
06:21 de l'habitacle avec une alerte qui est destinée finalement qu'au conducteur.
06:24 On peut peut-être baisser la musique juste pour noter les spectateurs.
06:29 Effectivement je vais l'arrêter.
06:31 Donc ensuite on a une technologie qui reconnaît qui parle dans le véhicule avec un micro central.
06:37 Donc en fait on ne va pas la tester là parce que porte ouverte, la technologie ne va pas
06:40 être aussi optimale.
06:41 Mais en fait l'idée c'est de se dire que demain ça fonctionne à la porte fermée,
06:45 vous recevez un message et moi je ne vais pas forcément me dégoûter, vous dites le
06:47 message est pour moi et va être rediffusé de votre haut-parleur, votre appuie-tête
06:50 seulement.
06:51 De la même façon que l'alerte a été diffusée pour moi sur l'ambulance.
06:53 Donc là on a vu deux grands mondes, celui de la santé, celui du son.
06:59 On passe sur là, une technologie très mature grâce à une plateforme d'orange, Vincar
07:07 Payment, de paiement au volant.
07:09 Donc on se projette dans la ville de demain mais là vraiment quasiment de demain, on
07:13 n'est pas sur l'après-demain, on est vraiment très proche en termes de temporalité.
07:16 Et en fait on a besoin d'un véhicule qui puisse interagir avec les différents fournisseurs
07:20 de services de la ville, que ce soit pour se garer, avec la borne d'hors-charge à domicile,
07:25 c'est une application de Renault plug-in ou du vélo avec la Vélove qui est paragypédico
07:30 à Lyon.
07:31 Par exemple si je prends une borne d'hors-charge à domicile, automatiquement le chatbot d'orange
07:35 se réveille et va venir interagir avec le plug-in pour suggérer une durée par exemple.
07:41 Je prends un mode de paiement avec le mobilize wallet, une reconnaissance faciale pour vérifier
07:49 que c'est bien la bonne personne qui paye, si c'est bien Pierre qui paye.
07:52 Ah oui, donc on voit le face ID qui s'active.
07:54 Exactement, avec la caméra centrale.
07:55 Et là c'est bon.
07:56 Et maintenant je peux quand même me diriger vers cette borne d'hors-charge.
08:00 Donc c'est très intuitif, l'idée c'est vraiment d'avoir quelque chose qui est centré
08:03 sur l'humain et très très fluide.
08:04 Alors justement, vous dites centré sur l'humain, donc vous avez travaillé aussi avec des équipes
08:09 expertes en sciences cognitives.
08:12 Vous avez parlé de Christophe Stern qui est ici présent, je propose qu'on aille le rejoindre.
08:16 C'est un des partenaires technologiques qui a pensé donc Human First Vision, on y vient,
08:21 à la place de l'humain finalement dans la voiture de demain.
08:23 Tout à fait.
08:24 On va le rejoindre ?
08:25 Tout à fait, ça marche.
08:26 Donc voilà Pierre, ça y est on a rejoint l'un de vos partenaires, Christophe Stern,
08:29 merci beaucoup d'être avec nous, de nous avoir rejoint.
08:32 Vous êtes sociologue de formation et aujourd'hui le président de Stern Tech, qui est une startup
08:36 spécialisée dans l'analyse du comportement humain.
08:39 Vous avez recours à la fois à l'intelligence artificielle et aux sciences cognitives.
08:43 Expliquez-nous, quelle est votre intervention sur ce projet, ce concept-car qui porte la
08:48 grande ambition de mettre l'humain au centre, puisque ça s'appelle Human First Vision.
08:54 Comment est-ce que vous êtes intervenu sur le projet ?
08:57 Alors nous, exactement, notre technologie permet d'analyser le comportement d'un individu.
09:03 On est capable de dresser un profil psychologique d'une personne et d'en déduire son comportement.
09:08 Pour ce faire, on utilise plusieurs moteurs d'analyse qui nous permettent de faire une
09:13 analyse multimodale de l'utilisateur, c'est-à-dire l'analyse des expressions faciales, de l'intonation
09:19 vocale, de la gestuelle et de la sémantique, le contenu de ce qu'il dit.
09:22 Et ce qu'on a été capable de faire, c'est d'analyser dans un cas d'usage qui est finalement
09:27 relativement simple, presque en mode laboratoire, puisqu'on est dans le cas d'une voiture,
09:31 le comportement du conducteur dans le véhicule pour pouvoir mieux s'interfacer avec tout
09:38 les technologies qu'on a pu intégrer avec Software Republic.
09:41 Et où effectivement, pour moi ce qui m'a frappé, le cœur du projet, c'est cette
09:46 intégration de technologies tout à fait hétérogènes, tout à fait innovantes, mais
09:50 qui à la base ne sont pas du tout conçues pour travailler ensemble et qui même, à
09:54 la base, ont même pour certaines été retravaillées par rapport à leur usage d'origine.
09:58 Parce que vous, au départ, votre technologie, elle n'est pas dédiée au monde de l'automobile
10:03 en particulier ?
10:04 Exactement. Nous, par défaut, on l'envisageait pour des buts marketing. On l'a présenté
10:08 à VivaTech l'an dernier et c'est comme ça qu'on a rencontré Software Republic,
10:12 qu'on a été identifié. On a qualifié notre technologie un petit peu pendant six
10:15 mois.
10:16 C'est beau parce que vous vous rencontrez sur VivaTech l'année dernière et cette
10:18 année vous présentez un projet commun.
10:20 Exactement. Et nous, effectivement, on a parti six mois à discuter avec des partenaires
10:24 potentiels avant de se mettre d'accord sur un menu et après six mois d'exécution
10:28 tous ensemble pour venir du Ventures Business.
10:31 La manière dont les sciences cognitives aujourd'hui nous aident à travailler les technologies,
10:36 à rendre la technologie plus proche des besoins humains, c'est grâce à l'intelligence
10:43 artificielle ? Est-ce que c'est plutôt de l'IA ou c'est plutôt de la science
10:46 cognitive que vous utilisez ?
10:47 Là, en fait, je vais rejoindre Luc Julia. L'intelligence artificielle n'existe pas
10:53 pour moi.
10:54 Cette référence au livre de Luc Julia qui est le directeur scientifique du groupe Renault
10:58 d'ailleurs.
10:59 Donc, nous, en fait, on fait de l'algorithmique et de la statistique.
11:03 Grâce au startup programme d'OVH et de Google, on a pu bénéficier de crédits significatifs
11:10 qui nous permettent de faire un modèle dit d'intelligence artificielle, de machine
11:13 learning, de deep learning qui nous permet de tester le modèle statistique.
11:17 Mais qu'ensuite, nous, on embarque dans notre technologie, à l'intérieur du concept
11:23 car, de sorte que les données soient complètement intégrées dans le véhicule et ne puissent
11:29 jamais sortir par Internet et donc sont bien la propriété de l'utilisateur final, c'est
11:32 la philosophie.
11:33 Les sciences cognitives, le mix avec l'intelligence artificielle n'est pas natif.
11:37 Moi, ça fait à peu près 25 ans que je travaille dans les systèmes d'information et en même
11:41 temps, je suis sociologue, je fais de la psychologie et j'arrive à faire le lien entre les deux
11:45 que depuis 5 ans parce que les technologies sont plus matures et parce que les sciences
11:50 humaines sont devenues des sciences cognitives qui, de plus en plus, étudient l'humain
11:53 et qu'on a de plus en plus de use case et qui a un intérêt du public.
11:56 S'il n'y aurait pas d'intérêt du public, ça ne marcherait pas.
11:58 Et donc, arriver à faire le lien…
12:00 Du public et des entreprises.
12:02 Du public et forcément des entreprises.
12:04 Et effectivement, on fait du bit to bit aussi.
12:08 Et donc, l'objectif des sciences cognitives, c'est d'arriver à utiliser le meilleur
12:15 des neurosciences de la psychologie, de la sociologie, de la linguistique, arriver à
12:19 en faire une algorithmique pour, évidemment, les données et les méthodologies qui s'y
12:23 prêtent.
12:24 Donc, la psychanalyse freudienne, ce n'est pas faisable en fait.
12:28 Par contre, on peut utiliser des approches de psychologues qu'on peut coder en algorithmique,
12:32 ce qu'on a fait parce qu'on a une équipe de recherche.
12:34 Et donc, avec cette équipe de recherche, on arrive à coder des choses qui nous permettent
12:43 d'interpréter les 200 données comportementales qu'on récupère par 2 000 secondes, ce
12:47 qui nous permet même d'interpréter des micro-expressions du visage, comme un lapsus
12:51 du visage qui trahit le fond de notre pensée.
12:53 Et donc, on est capable d'identifier les émotions endogènes, celles qu'on ressent
12:56 en nous, exogènes, le masque qu'on montre, les besoins, les soft skills employés pour
13:01 un but, pour combler notre besoin, et ce qui va nous satisfaire au niveau du bonheur individuel
13:10 à court terme et à long terme.
13:11 Et tout ça, on le met au service de Human First Vision.
13:15 Et le bonheur dans une voiture, alors c'est quoi ? Ce n'est pas simple d'intégrer quand
13:19 même les sciences cognitives, la sociologie dans une voiture.
13:23 Comment est-ce que vous vous êtes organisé pour travailler tout cet écosystème qui
13:26 est quand même très bigarré, j'ai envie de dire, qui vient de secteurs très différents.
13:31 Comment est-ce que vous avez orchestré ce projet, Pierre ?
13:35 Justement, tout le sens même de la Société République, c'est de chercher des expertises
13:40 dans les domaines où justement ils sont très pertinents.
13:42 Et là, nous, sur ce sujet-ci, c'est pas Renaud qui est le plus pertinent, c'est plutôt
13:46 une start-up, une Stern Tech.
13:47 Donc, on va prendre effectivement cette expertise-là.
13:49 On l'adapte au monde de l'automobile, on l'adapte aux besoins du conducteur de demain.
13:52 Et on propose cela avec Human First Vision.
13:54 Et alors sur la question du bonheur, je voulais revenir un petit peu là-dessus parce qu'il
13:58 y a aussi le sujet de l'acceptabilité de ces technos.
14:02 Est-ce qu'on a envie forcément dans sa voiture d'être reconnu, d'être identifié dans
14:07 un tel état d'esprit du jour ? Toutes ces données qui sont très personnelles finalement,
14:15 on est capable d'en faire beaucoup de choses.
14:16 Mais est-ce qu'on ne se fixe pas nous-mêmes des limites en se disant peut-être que l'utilisateur
14:20 n'est pas prêt ? Comment vous travaillez avec ces limites de l'acceptabilité ?
14:23 Oui.
14:24 En fait, c'est comme la confiance avec un être humain.
14:26 On ne peut pas demander à un être humain d'emblée de faire confiance.
14:29 Il faut donner des preuves de confiance et il n'y a que les preuves qui comptent.
14:31 Et nous, de la même manière, le fait qu'on travaille en mémoire, qu'on identifie des
14:39 données, par exemple quelque chose de très simple, j'ai envie de boire une tasse de café,
14:42 je vais regarder, mon visage va bouger, un ordinateur va analyser les coordonnées de
14:47 ma main qui bougent, le fait que la tasse se déplace, mais un être humain va seulement
14:50 se retenir.
14:51 Tiens, il est en train de faire une interview, il prend une tasse de café, il est complètement
14:54 fou.
14:55 Et donc, ce qu'il faut retenir dans notre logiciel et ce que les sciences cognitives
14:59 apportent, c'est qu'est-ce qu'un être humain va retenir d'important, sachant qu'un être
15:03 humain va travailler sa mémoire de manière différente que celle d'un ordinateur.
15:06 Donc, on travaille ça de manière différente et on arrive à l'assimiler pour non pas forcément
15:12 le bonheur de l'utilisateur, mais arriver à le soutenir en cas de défaillance humaine.
15:17 Parce que les défaillances mécaniques, il y en a, il y en a.
15:20 Donc c'est le sujet de la sécurité finalement, qui vous a occupé.
15:24 De la protection, plus de la sécurité.
15:26 On est sur un fil, un outil, c'est un peu comme un marteau.
15:30 Un marteau, on peut l'utiliser pour construire une cathédrale ou alors pour défoncer le
15:33 crâne du voisin.
15:34 Et nous, ce qu'on fait, c'est qu'on essaye de le mettre sur une lignée où on essaye
15:40 de poser des limites d'usage qui nous permettent de dire, là la personne, elle est en train
15:45 de s'endormir, mais peut-être qu'on détecte qu'elle s'endort, mais peut-être qu'elle
15:48 fait un malaise aussi, si on n'a pas les données miométriques qui sont en train de
15:50 nous le dire.
15:51 Et donc, à quel moment, et ça, ça va être aussi le sujet qu'on va aborder avec Renaud
15:55 dans les prochains mois et sauf dans la République globalement, c'est où est-ce qu'on met
15:59 l'éthique dans tout ça ? Comment on utilise ces logiciels ? Comment on arrive avec tous
16:04 les partenaires à dire, là la personne, on pense qu'elle est en train de s'évanouir,
16:08 qu'est-ce qu'on fait ? On la laisse s'évanouir à voir un accident ? Est-ce qu'on active
16:11 l'algorithme d'interdiction de franchissement des lignes ? Est-ce qu'on active un bip
16:14 sonore pour essayer de le réveiller ? Est-ce qu'on prévient les passagers à côté que
16:17 la personne fait un malaise et qu'il ne l'a peut-être pas vu ? Et donc, tout ça, ce
16:21 sont les cas d'usage qu'on peut travailler, c'est l'intégration de ces technologies
16:26 qui est vraiment le cœur du système.
16:27 C'est pour ça que le travail qu'on a fait tous ensemble est vraiment fondamental.
16:31 Moi, je le vois comme un socle qui sert à faire quelque chose de d'extraordinaire
16:34 en fait.
16:35 C'est quand même une sacrée révolution de proposer de mettre l'humain en première
16:42 place du projet de construction d'une nouvelle voiture, la voiture du futur.
16:46 On en a en tout cas un aperçu avec vous.
16:48 Merci beaucoup pour cette découverte.
16:50 Merci beaucoup Pierre Voineau, directeur du projet Human First Vision au sein de la
16:54 Software République et Christophe Tern, président de Stern Tech.
16:57 C'était Smartech, la suite tout de suite.
17:00 On va parler avec une invitée, Cléa Martinet, de la voiture du futur, mais là aussi avec
17:05 avec un focus spécifique sécurité.