Breaking News

L’assistant de véhicule compatible avec AI transforme la conduite

Lorsque la pluie commence à tomber et qu’un chauffeur dit: «Hé Mercedes, le régulateur de vitesse adaptatif est-il sur?» – La voiture ne répond pas seulement. Il rassure, ajuste et pousse le conducteur pour garder les mains sur la roue. Bienvenue à l’ère de mobilité conversationnelleoù le dialogue naturel avec votre voiture devient aussi routine que de vérifier la météo sur un haut-parleur intelligent.

Une nouvelle ère d’interaction humaine-machine

Ce changement est plus qu’un gadget. Les interfaces conversationnelles représentent la prochaine évolution du contrôle des véhicules, permettant aux conducteurs d’interagir avec les systèmes avancés d’assistance conducteur – sans jouer avec des boutons ou des écrans tactiles. Les constructeurs automobiles incorporent l’IA génératrice dans les systèmes d’infodivertissement et de sécurité dans le but de rendre la conduite moins stressante, plus intuitive et finalement plus sûre. Contrairement aux systèmes vocaux antérieurs qui reposaient sur les commandes en conserve, ces assistants comprennent la parole naturelle, peuvent poser des questions de suivi et adapter les réponses en fonction du contexte et du comportement du conducteur. BMW, Ford, Hyundai et Mercedes-Benz se dirigent cette transformation avec des systèmes vocaux qui intègrent des services d’IA et de cloud génératifs dans l’expérience de conduite et de navigation. Le Grok de Tesla, en revanche, reste principalement un compagnon d’infodivertissement – pour maintenant. Il n’a pas accès aux systèmes de contrôle des véhicules embarqués – il ne peut donc pas régler la température, l’éclairage et les fonctions de navigation. Et contrairement à l’approche adoptée par les premiers leaders en ajoutant une IA de voix à l’expérience de conduite, Grok ne répond que lorsqu’il est invité.

Mercedes mène avec les partenariats MBUX et IA

Mercedes-Benz définit l’indice de référence. Son système Mercedes-Benz User Experience (MBUX) – inveillée en 2018 – a intégré une IA générative via Chatgpt et le moteur de recherche Bing de Microsoft, avec une version bêta lancée aux États-Unis en juin 2023. À la fin 2024, l’assistant était actif dans plus de 3 millions de véhicules, offrant une navigation conversationnelle, une aide en temps réel et des réponses multilingues. Les conducteurs l’activent en disant simplement: «Hé Mercedes». Le système peut alors anticiper les besoins d’un conducteur de manière proactive. Imaginez un conducteur qui dirige le long du pittoresque Road Alpine Road Alpine en Autriche, les mains agrippant étroitement la roue. Si l’assistant MBUX AI sent que le conducteur est souligné via des données biométriques, elle ajustera légèrement l’éclairage ambiant à une teinte bleue apaisante. Ensuite, une voix douce et empathique dit: «J’ai ajusté la suspension pour une manipulation plus fluide et réduit la température de la cabine de deux degrés pour vous garder à l’aise», en même temps, l’assistant redirige le conducteur autour d’un front météorologique en développement et propose de jouer une liste de lecture organisée basée sur les favoris et les tendances de l’humeur du conducteur.

Une voiture avec Google Maps permettra aujourd’hui au pilote de dire «D’accord, Google», puis demandez à l’orateur intelligent de faire des choses comme changer la destination ou appeler quelqu’un sur le smartphone. Mais la nouvelle génération d’assistants d’IA, censée être des compagnons interactifs et des copilotes pour les conducteurs, présentent un niveau de collaboration entièrement différent entre la voiture et le conducteur. La transition vers Gemini AI de Google Cloud, grâce à sa plateforme propriétaire MB.OS, permet à MBUX de se souvenir des conversations passées et de s’adapter aux habitudes du conducteur – comme la tendance du conducteur à frapper le gymnase tous les jours en semaine après le travail – et à offrir les suggestions d’itinéraire et les mises à jour de la circulation sans être invité. Au fil du temps, il établit un profil de conducteur – un ensemble de compréhensions sur les paramètres des véhicules que cette personne aime (préférer l’air chaud et les sièges chauffants le matin pour le confort, et l’air plus frais la nuit pour la vigilance, par exemple) – et va automatiquement ajuster les paramètres qui prennent en compte ces préférences. Par souci de confidentialité, toutes les données vocales et les informations sur le profil de pilote sont stockées pour la garde dans le cloud intelligent Mercedes-Benz, l’épine dorsale qui conserve également la suite de fonctionnalités et d’applications MB.OS connectées.

Bien que BMW ait été le contrôle des gestes avec la série 7 2015, il adopte désormais pleinement l’interaction vocale. Au CES 2025, il a introduit le système d’exploitation X – avec l’assistant personnel intelligent de BMW (IPA), une interface d’IA générative dans le développement depuis 2016 – qui prévoit les besoins du conducteur. Disons qu’un chauffeur dirige le nouvel IX M70 le long d’une chaussée alpine par un matin rapide d’octobre. Des routes sinueuses, des changements d’élévation soudains, des tunnels étroits et des conditions météorologiques changent pour un voyage beau mais exigeant. Système d’exploitation X, estimant que la voiture monte au-de [to improve handling and stability]«Le cerveau qui sous-tend cette conscience contextuelle se déroule désormais sur l’architecture Alexa Custom d’Amazon.

“La technologie Alexa permettra un dialogue encore plus naturel entre le conducteur et le véhicule, afin que les conducteurs puissent rester concentrés sur la route”, a déclaré Stephan Durach, senior vice-président de la division des technologies de voitures connectées de BMW, lorsque le lancement d’Alexa Custom Assistant dans BMW Vehicles a été annoncé en 2022. En Chine, BMW utilise les LLM nationales d’Alibaba, Banma et Deepseek AI en préparation de la maîtrise du mandarin dans le 2026 Neue Klasse.

«Notre objectif ultime est d’atteindre … une expérience de mobilité connectée passant d’un véhicule aux flottes, du matériel aux logiciels et, finalement, à toute l’infrastructure et aux villes de mobilité.» –CHANG Song, chef de la division R&D de la plate-forme de véhicule avancée de Kia et de Kia

Ford Sync, Google Assistant et le chemin d’autonomie

Ford, lui aussi, va de l’avant. La vision de l’entreprise: un système qui permet aux conducteurs de prendre des appels de zoom pendant que le véhicule fait la conduite – c’est-à-dire une fois que l’autonomie du véhicule de niveau 3 est atteinte et que les voitures peuvent se conduire de manière fiable dans certaines conditions. Depuis 2023, Ford a intégré Google Assistant dans son système de synchronisation basé sur Android pour le contrôle vocal sur les paramètres de navigation et de cabine. Pendant ce temps, sa filiale Latitude AI développe une conduite autonome de niveau 3, attendue d’ici 2026

Les chercheurs de Hyundai testent les pLEOS se connectent dans l’espace UX Canvas UX du laboratoire de recherche avancée dans le studio UX de Hyundai Motor Group à Séoul. Le système d’infodivertissement du groupe utilise un assistant vocal appelé Gleo AI.Hyundai

Tech sur le véhicule défini par le logiciel de Hyundai: jumeaux numériques et mobilité cloud

Hyundai a fait une étape audacieuse au CES 2024, annonçant un code assistant basé à LLM avec le géant de la recherche coréen Naver. Dans le scénario Bad-temps et conducteur alpin, l’assistant d’IA de Hyundai détecte, via des lectures à partir de capteurs de véhicules, que les conditions routières changent en raison de la neige venant en sens inverse. Il ne lira pas l’état émotionnel du conducteur, mais il livrera calmement une alerte: “La neige est attendue à l’avance. J’ai ajusté vos paramètres de contrôle de traction et trouvé un itinéraire alternatif plus sûr avec une meilleure visibilité sur la route.” L’assistant, qui se synchronise également avec le calendrier du conducteur, dit “vous pourriez être en retard pour votre prochaine réunion. Aimeriez-vous que je notifie votre contact ou votre reprogrammation?”

En 2025, Hyundai s’est associée à NVIDIA pour améliorer cet assistant à l’aide de jumeaux numériques – des répliques virtuelles d’objets physiques, de systèmes ou de processus – qui, dans ce cas, reflètent l’état actuel du véhicule (santé du moteur, pression des pneus, niveaux de batterie et entrées de capteurs tels que les caméras, le lidar ou le radar). Cette sensibilisation aux véhicules en temps réel donne à l’assistant AI les moyens de suggérer un entretien proactif («Vos plaquettes de frein sont usées à 80%. Dois-je planifier le service?») Et ajuster le comportement des véhicules («Passer au mode EV pour cette zone à basse vitesse.»). Les jumeaux numériques permettent également à l’assistant d’intégrer les données en temps réel des médecins généralistes, les mises à jour du trafic, les rapports météorologiques et les capteurs routiers. Ces informations lui permet d’optimiser de manière fiable les itinéraires basés sur le terrain et l’état du véhicule réels, et recommandent des modes de conduite en fonction de l’élévation, des conditions de surface de la route et des conditions météorologiques. Et parce qu’il est capable de se souvenir des choses sur le conducteur, l’assistant de Hyundai finira par commencer les conversations avec des questions montrant qu’il a fait attention: “C’est lundi à 8 heures, devrais-je faire la queue de votre podcast habituel et naviguer vers le bureau?” Le système fera ses débuts en 2026 dans le cadre de l’initiative «Software Everything (SDX)» de Hyundai, qui vise à transformer les voitures en plates-formes constamment mises à jour et optimisées.

S’exprimant en mars à la première conférence de Pleos 25 de Pleos 25 – Conférence des développeurs de véhicules définis par le logiciel à Séoul – Chang Song, chef de la division R&D avancée de la plate-forme de véhicules avancés de Kia, a présenté un plan ambitieux. «Notre objectif ultime est d’atteindre la mobilité du cloud, où toutes les formes de mobilité sont connectées via des logiciels dans le cloud et évoluent en permanence au fil du temps.» Dans cette vision, la plate-forme de technologie de véhicules définies par le logiciel PLeOS de Hyundai créera «une expérience de mobilité connectée passant d’un véhicule aux flottes, du matériel aux logiciels et, finalement, à l’ensemble de l’infrastructure de mobilité et des villes.»

Tesla: Grok arrive – mais pas au volant

Le 10 juillet, Elon Musk a annoncé via la plate-forme de médias sociaux X que Tesla commencerait bientôt à équiper ses véhicules de son assistant Grok AI dans la mise à jour logicielle 2025.26. Le déploiement a commencé le 12 juillet à travers les modèles S, 3, X, Y et CyberTruck – avec la technologie Hardware 3.0+ et Ryzen Infodionment System on-A-A-Chip. Grok gère les nouvelles et la météo, mais il ne contrôle aucune fonction de conduite. Contrairement aux concurrents, Tesla ne s’est pas engagée dans une opération semi-autonome basée sur la voix. Les requêtes vocales sont traitées via les serveurs de Xai, et bien que Grok ait du potentiel en tant que copilote, Tesla n’a publié aucun objectif ou délais dans cette direction. La société n’a pas répondu aux demandes de commentaires sur le fait que Grok aidera jamais à l’autonomie ou aux transitions de conducteur.

Toyota: tranquillement pratique avec l’IA

Toyota adopte une approche plus pragmatique, alignant l’utilisation de l’IA avec ses valeurs fondamentales de sécurité et de fiabilité. En 2016, Toyota a commencé à développer la sécurité de Safety Connect, un système de télématique basé sur le cloud qui détecte les collisions et contacte automatiquement les services d’urgence, même si le conducteur ne répond pas. C’est Hey Toyota et Hey Lexus AI Assistants, lancé en 2021, gère les commandes de base en voiture (climatisation, ouverture des fenêtres et réglage de la radio) comme d’autres systèmes, mais leurs fonctionnalités remarquables incluent une détection de collision mineure et des alertes de maintenance prédictive. Hey Toyota peut ne pas planifier des itinéraires panoramiques avec des arrêts de Chick-fil-A, mais il mettra en garde contre un conducteur lorsque les freins doivent être entretenus ou il est temps pour un changement d’huile.

Un simulateur de conduite avec un grand affichage de paroi panoramique et un carrosserie mécanique boulonné au sol. Les concepts UX sont validés dans la salle de simulation de Hyundai.Hyundai

Prudence à venir, mais l’avenir est une conversation ouverte

Bien que prometteurs, les interfaces axées sur l’IA comportent des risques. Un organisme à but non lucratif américain de la sécurité automobile a été raconté Spectre IEEE Ces systèmes vocaux naturels peuvent réduire la distraction par rapport aux interfaces basées sur le menu, mais elles peuvent toujours imposer une «charge cognitive modérée». Les conducteurs pourraient supposer à tort que la voiture peut gérer plus que ce qu’elle est conçue pour non-surveillance.

Spectre IEEE a couvert des itérations antérieures de l’IA automobile, en particulier en ce qui concerne l’autonomie des véhicules, l’infodivertissement et la technologie qui surveille les conducteurs pour détecter l’inattention ou la déficience. Ce qui est nouveau, c’est la convergence des modèles de langage génératifs, la personnalisation en temps réel et le contrôle du système de véhicules – sur des domaines distincts – dans une interface transparente et parlée.

À partir des articles de votre site

Articles connexes sur le Web

Related Articles

Leave a Reply

Your email address will not be published. Required fields are marked *

Back to top button