Sécurité des conducteurs et automatisation
Sécurité des conducteurs et automatisation
Ligne de produits

Projets d'innovation et de recherche

Nous travaillons en permanence à de nouvelles innovations dans le domaine de l'analyse générale de l'habitacle pour la surveillance du conducteur et des passagers. emotion3D vise à être à la pointe de l'innovation afin d'offrir à ses clients et partenaires de nouvelles possibilités pour leurs véhicules.

Le projet UNISCOPE-3D vise à développer des algorithmes logiciels hautement innovants qui permettent un suivi et une analyse tridimensionnels (3D) robustes et précis du corps humain à l'aide d'une seule caméra. En exploitant des techniques avancées de vision par ordinateur et des algorithmes d'apprentissage profond (DL), le logiciel permettra (i) d'extraire des points clés 3D à l'intérieur et à la surface du corps humain dans un espace 3D à partir d'images provenant d'une seule caméra (monoculaire) et (ii) d'exploiter ces informations pour générer une compréhension globale des actions, mouvements et interactions humains complexes en 3D dans des environnements réels.

Cette compréhension des êtres humains est essentielle pour un large éventail d'industries et d'applications. Dans le cadre de ce projet, nous l'appliquons et l'évaluons dans le domaine d'activité principal d'emotion3D, à savoir la surveillance des occupants de véhicules automobiles, où elle permet une interaction homme-machine et une expérience utilisateur avancées, une sécurité intelligente et personnalisée (par exemple, le déploiement personnalisé des airbags) et l'automatisation. 

Partenaires : TU Vienne 

Organisme de financement : Ce projet est financé par la FFG dans le cadre du programme Basisprogramm. 

Les experts s'accordent de plus en plus à dire que, bien que le DMS soit un dispositif de sécurité précieux, il doit être complété par des solutions complètes et adaptées au contexte, ainsi que par le respect de réglementations rigoureuses, afin d'atteindre véritablement les objectifs ambitieux fixés par des initiatives telles que le programme Vision Zéro de l'UE pour les accidents mortels sur les routes. 

Actuellement, les systèmes disponibles dans les véhicules de série européens ont une capacité limitée à détecter et à réagir aux différents types d'inattention du conducteur. Les capteurs traditionnels des véhicules ne sont pas encore équipés pour répondre aux exigences de la conduite partiellement automatisée ou des mécanismes d'alerte contextuels. Il existe donc encore une marge d'amélioration considérable en termes de développement de systèmes plus avancés, capables de mieux assister les conducteurs dans divers scénarios de conduite. Plus précisément, Roadguard s'efforce de combiner des capacités de détection intérieures et extérieures. 

Le système utilise des dispositifs de pointe dotés d'une intelligence artificielle avancée pour surveiller les conducteurs et les usagers de la route, établissant ainsi de nouvelles normes en matière de sécurité. La principale contribution du projet consiste à développer un système holistique de perception et d'évaluation qui intègre de manière transparente les données provenant de divers capteurs. Cette approche globale répond aux défis réglementaires et établit notre USP (proposition unique de vente) : offrir une sécurité inégalée à tous les usagers de la route, en particulier les plus vulnérables, et contribuer à une mobilité responsable et technologiquement avancée dans l'UE.

Partenaires : Virtual Vehicle | ZKW | leiwand.ai | motobit

Organisme de financement : Ce projet est financé par la FFG dans le cadre du programme Technologies numériques 2023.

L'objectif de MOSAIC est de renforcer l'indépendance technologique dans le domaine des systèmes automatisés en relevant le défi de l'intégration de diverses configurations matérielles de perception, afin de garantir que les systèmes automatisés puissent percevoir leur environnement de manière non invasive, en évitant les points de défaillance uniques, avec une précision inégalée et une complexité réduite. 

emotion3D contribuera au projet MOSAIC en développant des technologies de perception avancées visant à améliorer l'intelligence cognitive des systèmes automatisés. Cet effort implique l'intégration de plusieurs technologies de capteurs de pointe, telles que des caméras et des radars, ainsi que des algorithmes sophistiqués associés, afin d'améliorer considérablement la capacité du système à percevoir et à interpréter son environnement avec une grande précision. Cette approche réduit le risque de points de défaillance uniques et contribue à accroître la robustesse et la fiabilité globales des systèmes automatisés. 

Partenaires : 48 partenaires européens, dont Infineon | Ford Otomotiv | TTTech | TTControl | NXP | AVL 

Organisme de financement : Ce projet est financé par le programme HORIZON-JU-Chips-2024-2-RIA. 

A-IQ Ready répond à deux grandes tendances : « L'Internet des objets (IoT) : de 1 milliard à 1 000 milliards de dollars de chiffre d'affaires » et « Du cloud à la périphérie ». A-IQ Ready appliquera trois technologies disruptives : le capteur quantique, l'accélération neuromorphique et l'IA dans les systèmes multi-agents afin de construire le continuum périphérique comme épine dorsale numérique de la société 5.0. A-IQ Ready propose des technologies de pointe en matière de détection quantique, d'orchestration du continuum périphérique de l'IA et d'intelligence collaborative distribuée afin de mettre en œuvre la vision d'un ECS intelligent et autonome et de fournir l'A-IQ IoT pour l'ère numérique. 

Dans le cadre de ce projet, emotion3D travaille à l'optimisation des fonctions de surveillance du conducteur afin de planifier son travail et d'aider à prévenir les situations dangereuses. 

 Partenaires : 49 partenaires européens, dont Huawei | TTTech | Synopsis | Mercedes Benz | AVL 

Organisme de financement : Ce projet est financé par le programme HORIZON-JU-Chips-2024-2-RIA. 

Pour plus d'informations, rendez-vous sur https://www.aiqready.eu/ 

L'objectif de ce projet est de développer un système innovant capable de reconnaître les états émotionnels et le langage corporel des occupants d'un véhicule. Grâce à des technologies modernes telles que la vision par ordinateur et l'apprentissage automatique (ML), le véhicule devrait être capable de comprendre les émotions, les humeurs et les besoins des occupants et de réagir en conséquence. Dans le cadre de ce projet, des études approfondies sur les utilisateurs sont menées en laboratoire, mais aussi dans des véhicules réels et à l'aide de plusieurs capteurs supplémentaires. D'une part, cela permettra de créer des ensembles de données qui ne sont actuellement pas disponibles et, d'autre part, de nouvelles méthodes d'intelligence artificielle pour le soutien émotionnel du comportement de conduite humaine seront étudiées et évaluées. En intégrant la reconnaissance des émotions et du langage corporel dans le système du véhicule, le projet contribue à la fois à améliorer la sécurité routière et à enrichir l'expérience utilisateur (UX), deux arguments de vente clés des véhicules. 

Partenaires : Université technique de Vienne | Université des sciences appliquées Technikum Vienne 

Organisme de financement : Ce projet est financé par l'Agence économique de Vienne dans le cadre du programme

Dans le cadre de ce projet, emotion3D travaille à l'optimisation des fonctions de surveillance du conducteur afin de planifier son travail et d'aider à prévenir les situations dangereuses. 

 Partenaires : 49 partenaires européens, dont Huawei | TTTech | Synopsis | Mercedes Benz | AVL 

Organisme de financement : Ce projet est financé par le programme HORIZON-JU-Chips-2024-2-RIA. 

Pour plus d'informations, rendez-vous sur https://www.aiqready.eu/ 

Le système visé dans le cadre de ce projet sera basé sur une tâche réaliste et très complexe issue de l'industrie automobile – l'analyse de l'intérieur des véhicules (surveillance intérieure) – et permettra à emotion3D d'étudier des aspects importants des réseaux de caméras (par exemple, les dépendances entre les différentes étapes de traitement ou les effets des configurations matérielles sur les performances globales). Le résultat final envisagé est un concept de système optimisé en termes de qualité, de robustesse et d'adaptabilité pour l'analyse de scènes 3D à l'aide de réseaux de caméras. Le système sera évolutif et utilisé pour surveiller l'intérieur des véhicules conventionnels ainsi que des véhicules autonomes.

Pour en savoir plus sur le projet, rendez-vous sur le site officiel de la FFG (Agence autrichienne pour la promotion de la recherche) en cliquantici.

Organisme de financement : Ce projet est financé par le FFG dans le cadre du programme Early Stage 2019.

Dans le cadre du projet i3DOC, une plateforme de vision embarquée pour de nouvelles applications basées sur la vision stéréoscopique et à 360° dans un environnement industriel / lié à la sécurité doit être étudiée. Les solutions adaptées à une utilisation dans le secteur automobile ne sont disponibles que dans une mesure limitée et ne traitent que des aspects individuels ou sont basées sur des architectures PC et sont donc largement inadaptées aux applications mobiles ou même sensibles au coût. L'objectif de ce projet est de développer conceptuellement une architecture embarquée pour les applications de vision 3D à 360° destinées à des applications liées à la sécurité et de valider les approches architecturales sélectionnées.

Partenaires : Mission Embedded | emotion3D

Organisme de financement : Ce projet est financé par la Wirtschaftsagentur Wien dans le cadre de l'initiative de financement Co-Create 2017 du programme FORSCHUNG.

L'analyse embarquée permet de mettre en place un large éventail de systèmes de sécurité automobile innovants. En termes de sécurité active, la surveillance de la somnolence et de la distraction du conducteur peut considérablement améliorer la sécurité routière. Cependant, les systèmes de sécurité active ne sont pas les seuls à bénéficier des informations issues de l'analyse embarquée. Les performances des systèmes de sécurité passive, tels que les airbags, peuvent également être considérablement améliorées grâce à des informations précises en temps réel sur chaque occupant.

Il est essentiel que cette sécurité accrue soit garantie pour tous, c'est-à-dire qu'elle fonctionne de manière égale pour chaque personne qui prend place dans une voiture. Ainsi, la question d'une IA fiable et éthique doit être prise en compte lors du développement des algorithmes d'analyse. Les cadres et les outils que nous développons actuellement garantissent que tous les systèmes de sécurité fonctionnent de manière impartiale et offrent une protection optimale à tous.

Dans le monde, plus de 1,4 million de personnes meurent chaque année dans des accidents de la route (OMS) et des millions d'autres sont blessées. Les systèmes de sécurité passive obligatoires déclenchent les airbags et tendent les ceintures de sécurité en cas de collision afin de réduire le nombre de décès et de blessures graves. Cependant, ces systèmes suivent une approche de développement « taille unique » et fonctionnent donc mieux pour un petit nombre de morphologies spécifiques, la plus courante étant celle de l'« homme moyen » : 175 cm, 78 kg. Cela n'est pas optimal pour toutes les personnes qui s'écartent de ces moyennes, à savoir les enfants, les personnes âgées et même les femmes.

Des études ont montré que les femmes qui portent leur ceinture de sécurité courent 73 % plus de risques de subir des blessures graves que les hommes qui portent leur ceinture (Université de Virginie). De plus, les femmes courent jusqu'à 17 % plus de risques d'être tuées dans un accident que les hommes (NHSTA).

Tant que les systèmes de sécurité passive ne peuvent pas distinguer les caractéristiques individuelles des occupants, il est impossible d'assurer une protection optimale pour tout le monde.

Pour la première fois, des capteurs d'imagerie 3D sans contact sont utilisés pour obtenir des informations précises en temps réel sur chaque occupant, telles que la position et la posture du corps, la morphologie, l'âge, le sexe, etc. Sur la base de ces informations, le Smart-RCS calcule la stratégie de déploiement optimale adaptée à chaque occupant.

En tenant compte de ces facteurs pertinents, Smart-RCS optimise la fonction de protection tout en atténuant les risques de causer des dommages inutiles.

Smart-RCS vise à révolutionner le marché des systèmes de sécurité passive en introduisant une protection personnalisée et adaptée à chaque situation.

Pour en savoir plus, rendez-vous sur le site web de notre projet :www.smart-rcs.eu

Organisme de financement : Ce projet est financé par la Commission européenne dans le cadre du programme Horizon 2020 FTI.

Le projet Safe.ICM traite de la spécification et de l'analyse d'algorithmes complexes dans le domaine de l'apprentissage automatique. Plusieurs tâches simples et détaillées sont reliées entre elles afin de décrire de manière simple des tâches plus complexes. Par exemple, il est difficile de décrire un algorithme qui décrit avec précision le niveau d'attention d'un conducteur sans connaissances supplémentaires. Cependant, si la description de l'attention est décomposée en aspects détaillés, tels que la direction du regard, l'orientation de la tête, les objets détectés dans le champ de vision, etc., une description précise de l'attention est possible.

Outre la description précise d'un contexte complexe, cela permet également une évaluation pertinente des informations. Par exemple, la précision peut être évaluée dans plusieurs conditions différentes. Dans une étape ultérieure, cette évaluation ou analyse des réseaux permet de formuler des conclusions précises concernant la diversité, la non-discrimination, l'équité et la robustesse des algorithmes.

En conséquence, l'objectif de ce projet est de développer un cadre pour le développement et l'optimisation d'applications d'IA fiables afin d'accroître la transparence, la diversité, la non-discrimination, l'équité et la robustesse des algorithmes d'apprentissage automatique. La traçabilité étant essentielle pour l'utilisation d'algorithmes dans l'industrie automobile et dans les environnements critiques pour la sécurité, le cadre développé dans le cadre de ce projet sera appliqué, testé, amélioré en permanence et optimisé à l'aide d'algorithmes d'analyse de l'habitacle des véhicules.

Organisme de financement : Ce projet a reçu un financement de l'AWS, par l'intermédiaire de la « Nationalstiftung für Forschung, Technologie und Entwicklung ».

ACCOMPLISH vise à améliorer la préparation des entreprises de toutes tailles à faire face à une ère de contrôle réglementaire sans précédent en simplifiant, intégrant et automatisant la conformité dans leurs opérations de données/IA, leurs actifs de données/IA, leurs solutions/plateformes et leurs organisations dans leur ensemble. ACCOMPLISH propose une approche unique en matière de conformité multiforme, tant du point de vue réglementaire, éthique, environnemental qu'industriel, guidant efficacement les entreprises à travers le labyrinthe des réglementations et des normes tout en offrant une visibilité de bout en bout sur le statut de conformité/certification immuable et constamment mis à jour d'une entreprise, de ses solutions et de ses actifs en matière de données/IA à toute partie prenante intéressée.

ACCOMPLISH contribue concrètement à la recherche actuelle et fait progresser les techniques et technologies de pointe dans plusieurs domaines de recherche, notamment l'évaluation, la recommandation et la certification automatisées basées sur l'IA à différents niveaux, allant de l'organisation et des opérations liées aux données/à l'IA aux systèmes/solutions intégrés et aux ensembles de données/modèles sélectionnés ; les opérations de données/IA conformes dès la conception et par défaut (sur le lieu de travail), depuis la collecte, la conservation, la sécurité, la détection des biais et l'assurance qualité des données jusqu'à la conception, la formation, l'évaluation, l'exécution et l'observabilité/la surveillance des modèles d'IA/ML, qui constituent des catalyseurs technologiques exemplaires en matière de conformité et complètent les espaces de données sous-jacents.

ACCOMPLISH conçoit un nouveau cadre de conformité et de certification basé sur l'IA, qui recoupe les différentes perspectives réglementaires/juridiques, environnementales, de cybersécurité et de conformité spécifiques aux entreprises/secteurs d'activité, tout en garantissant une approche humaine. 

Partenaires : 24 partenaires européens, dont MAN | Ubitech | Tofas Turk Otomobil | Whirlpool | PWC 

Organisme de financement : Ce projet est financé par le programme HORIZON-CL4-2024-DATA-01-01. 

L'analyse de l'habitacle et l'analyse extérieure constituent une combinaison puissante pour offrir des fonctionnalités innovantes en matière de sécurité et d'expérience de conduite. À l'avenir, il sera important pour les systèmes ADAS, tels que les systèmes de freinage d'urgence automatique, de connaître l'état du conducteur et des passagers.

Dans ce domaine, nous travaillons avec de grands partenaires de premier rang sur des approches innovantes visant à fournir des systèmes avancés d'aide à la conduite tenant compte des occupants.

Le concept du système de vision général intégré et intelligent qui sera développé fournit les résultats et conclusions suivants concernant les étapes d'automatisation approfondies :

– Destinés à améliorer considérablement la perception des images et donc de l'environnement, les phares fournissent un éclairage adaptatif sur mesure du paysage aux caméras assignées.

– Le système de caméras stéréoscopiques haute résolution fournit des informations nettement améliorées sur les données relatives au contrôle des feux de route sans éblouissement, telles que la classification des objets, leur positionnement (horizontal, vertical), leur distance, leur direction de déplacement, leur voie,

– Le système de caméras stéréoscopiques permet un traitement des informations nettement amélioré, basé sur des données pertinentes pour la conduite autonome, telles que les voies adressées et étiquetées, la topologie, l'espace libre, les obstacles, les usagers de la route, les piétons, etc.

Pour en savoir plus sur le projet, rendez-vous sur le site officiel de l'Université technique de Vienne en cliquantici.

Partenaires : ZKW | TU Vienne | emotion3D

Organisme de financement : Ce projet est financé par la FFG dans le cadre du programme IKT der Zukunft.

La détection sûre des usagers vulnérables de la route (piétons, cyclistes) est un objectif social important ainsi qu'un défi technique exigeant, qui n'est actuellement pas suffisamment résolu, en particulier dans des conditions de mauvaise visibilité (nuit, brouillard), à longue distance (>100 m) et lors d'une approche latérale (situations de croisement). Le projet SmartProtect aborde ce problème au moyen d'une approche holistique et intégrative qui comprend un logiciel, une combinaison de technologies d'imagerie et de capteurs de détection de distance, ainsi qu'une conception de composants avec une architecture modulaire interactive. Les principales caractéristiques de ce nouveau système de perception automobile sont la fusion des données des capteurs avec une fonction de prédiction et le contrôle automatisé et spécifique des phares et de l'éclairage infrarouge, soutenu par des systèmes de caméras réactives et LIDAR, qui sont installés dans le même boîtier et couvrent différents angles de détection. Les systèmes multimodaux envisagés seront évalués dans des conditions de conduite réelles et dans des scénarios de test représentatifs et reproductibles.

Partenaires : ZKW | TU Vienne | emotion3D

Organisme de financement : Ce projet est financé par la FFG dans le cadre du programme MdZ-2019.

Pour la formation, l'amélioration et la validation des algorithmes, il faut une grande quantité de données de haute qualité. Générer des données dans la vie réelle demande beaucoup d'efforts et soulève des questions sur la confidentialité des données. C'est pourquoi nous étudions activement d'autres moyens de créer des données, comme les simulations graphiques par ordinateur.

L'objectif du projet est de fournir un flux de travail de simulation efficace en termes de coûts et de temps pour le développement d'applications d'analyse environnementale pour les intérieurs de véhicules. Notre approche innovante simule des scénarios dynamiques complexes à l'intérieur des véhicules (par exemple, génération et animation de modèles 3D de personnes, de matériaux et de surfaces, configuration de capteurs correspondants, etc.) et permet en particulier la production de données synthétiques à des fins de formation, de validation et de test. Cela évite le recours à une acquisition de données coûteuse et à une annotation manuelle, et permet de reproduire une grande variété de scénarios, de conditions environnementales et de modalités de capteurs. Contrairement aux ensembles de données réels (c'est-à-dire non simulés), le flux de travail de simulation prévu peut également capturer des scénarios rares ou potentiellement dangereux (par exemple, des situations lors d'une collision ou d'un micro-sommeil). Outre les applications dans le secteur automobile, nous considérons également la sécurité des opérateurs dans le secteur des transports (par exemple, les bus, les trains) et dans le secteur des véhicules utilitaires (par exemple, les camions, les engins de chantier) comme des domaines d'application prometteurs pour le flux de travail de simulation proposé.

Partenaires : BECOM Systems | Rechenraum | TU Vienna | emotion3D

Organisme de financement : Ce projet est financé par la FFG dans le cadre du programme MdZ-2020.