Das sind die Mobilitäts-Trends 2026 in Las Vegas!

Luxuriöses Autocockpit mit digitalen Anzeigen, Ledersitzen und breiten Displays.Luxuriöses Autocockpit mit digitalen Anzeigen, Ledersitzen und breiten Displays.Luxuriöses Autocockpit mit digitalen Anzeigen, Ledersitzen und breiten Displays.Luxuriöses Autocockpit mit digitalen Anzeigen, Ledersitzen und breiten Displays.Luxuriöses Autocockpit mit digitalen Anzeigen, Ledersitzen und breiten Displays.Luxuriöses Autocockpit mit digitalen Anzeigen, Ledersitzen und breiten Displays.Luxuriöses Autocockpit mit digitalen Anzeigen, Ledersitzen und breiten Displays.Luxuriöses Autocockpit mit digitalen Anzeigen, Ledersitzen und breiten Displays.

Technology

Das sind die Mobilitäts-Trends 2026 in Las Vegas!

News
Beitrag vom 08.01.2026

In der zweiten Woche des Jahres 2026 dreht sich alles um die Mobilitätstrends auf der CES in Las Vegas.

Die Consumer Electronics Show (CES) 2026 in Las Vegas markiert einen Wendepunkt in der Automobil- und Technologiebranche. Im Fokus stehen in diesem Jahr vor allem die industrielle KI-Integration, autonome Fahrsysteme der nächsten Generation und Robotaxis. Hier sind die wichtigsten Highlights im Überblick:Das sind die Highlights:  

In der zweiten Woche des Jahres 2026 dreht sich alles um die Mobilitätstrends auf der CES in Las Vegas.

Die Consumer Electronics Show (CES) 2026 in Las Vegas markiert einen Wendepunkt in der Automobil- und Technologiebranche. Im Fokus stehen in diesem Jahr vor allem die industrielle KI-Integration, autonome Fahrsysteme der nächsten Generation und Robotaxis. Hier sind die wichtigsten Highlights im Überblick:Das sind die Highlights:  

News
Beitrag vom 08.01.2026

Siemens präsentiert Technologien zur Beschleunigung der industriellen KI-Revolution 

Siemens-CEO Roland Busch hat auf der Eröffnungs-Keynote  in Las Vegas beleuchtet, wie Siemens die industrielle KI-Revolution beschleunigt und wie Kunden und Partner künstliche Intelligenz (KI) nutzen, um ihre Geschäftsmodelle zu transformieren. So gab Siemens die Vertiefung seiner langjährigen Partnerschaft mit NVIDIA bekannt, um ein industrielles KI-Betriebssystem zu entwickeln. Gemeinsam wollen sie eine KI-beschleunigte industrielle Wertschöpfungskette aufbauen, die sich von Design und Konstruktion über adaptive Fertigung, simulationsbasierte Optimierung bis hin zu intelligenten Lieferketten und schnelleren Innovationszyklen erstreckt.
 NVIDIA steuert dabei KI-Infrastruktur, Simulationsbibliotheken und Frameworks bei, während Siemens seine Expertise in industriellen Prozessen und Automatisierungssoftware einbringt. Für die Entwicklung soll NVIDIA die KI-Infrastruktur, Simulationsbibliotheken, Modelle, Frameworks und Blaupausen beisteuern, Siemens will gleichzeitig Hunderte von industriellen KI-Experten sowie führende Hardware und Software bereitstellen. Die Unternehmen haben Schwerpunktbereiche festgelegt, um diese Vision zu realisieren: KI-native Electronic Design Automation (EDA), KI-native Simulation, KI-gesteuerte adaptive Fertigung und Lieferketten sowie KI-Fabriken. Ziel ist unter anderem der Aufbau vollständig KI-gesteuerter, adaptiver Fertigungsstandorte – mit dem Elektronikwerk in Erlangen als erste Blaupause. Siemens kündigte außerdem an, die offenen KI-Modelle NVIDIA NIM und NVIDIA Nemotron in sein EDA-Softwareangebot zu integrieren, um generative und agentenbasierte Workflows für das Halbleiter- und PCB-Design voranzutreiben.
Zentrales Element der Präsentation war die neue Software Digital Twin Composer, die ab Mitte 2026 über den Siemens Xcelerator Marketplace verfügbar sein soll. Dieses Tool kombiniert umfassende digitale Zwillinge mit physikalischen Echtzeitdaten und KI-gestützten Simulationen, um Unternehmen zu ermöglichen, Anlagen, Produkte und Prozesse virtuell zu modellieren, zu testen und zu optimieren, bevor sie in die reale Welt übertragen werden. Siemens nennt als konkretes Beispiel die Zusammenarbeit mit PepsiCo, bei der digitale Zwillinge bereits Produktions- und Logistikanlagen simulieren und potenzielle Probleme frühzeitig identifizieren helfen, Zudem betonte Siemens seine enge Partnerschaft mit Microsoft. Ein herausragendes Ergebnis dieser Kooperation soll die gemeinsame Entwicklung des preisgekrönten Industrial Copiloten sein. Siemens stellte in diesem Rahmen auch neun industrielle Copiloten vor: KI-gestützte Software-Assistenten, die unterschiedliche Phasen der Produktentwicklung, Fertigung und des Betriebs optimieren sollen.

Zwei Männer auf einer Bühne geben sich die Hand, einer winkt, beide lächeln vor blauem Hintergrund.
(c) Siemens

NVIDIA stellt Strategie für autonome Mobilität und KI-gestützte Fahrzeuge vor

NVIDIA hat in Las Vegas eine Reihe von neuen KI-Modellen, offenen Daten- und Simulations-Tools, umfassenden DRIVE-Software-Stacks für autonome Funktionen sowie ihr wachsendes Ökosystem von Partnern und Zulieferern zur Beschleunigung von Level-4-Autonomie vorgestellt. So präsentierte NVIDIA mit der Alpamayo-Modellfamilie eine neue Generation von offenen KI-Modellen, Simulations-Frameworks und physischen Datensätzen, die speziell für autonome Fahrzeuge entwickelt wurden und mit dem Ziel, Fahrzeuge sicherer, robuster und erklärbarer zu machen und bei schwierigen oder seltenen Verkehrssituationen menschähnliches „Reasoning“ zu ermöglichen. Diese Offenheit soll nicht nur eine schnellere Forschung, sondern auch breite kollaborative Entwicklung ermöglichen.
NVIDIA kündigte zudem an, sein DRIVE Hyperion-Ökosystem stark zu erweitern: Neben klassischen OEM-Partnern sollen nun Tier-1-Zulieferer, Systemintegratoren und Sensorhersteller hinzukommen, um eine modulare, offene Plattform für autonome Fahrzeuge zu schaffen. Dabei werden Hardware, KI-Software und Sensorik eng verzahnt, damit OEMs und Robotaxi-Dienste schneller marktreife Systeme realisieren können. Hyperion dient dabei als technologische Grundlage für Fahrzeuge bis zu Level 4-Autonomie, d.h. fahrerlos im definierten Betriebsbereich. Neben autonomen Modellen und Hyperion zeigte Nvidia auch seine Vera Rubin-Plattform, die mehr als die dreifache Leistung gegenüber früheren Architekturen liefern soll und als Basis für umfangreiche KI-Workloads dienen soll.
Parallel zu den Entwicklungs-Tools kündigte NVIDIA an, bereits ab 2027 gemeinsam mit Partnern einen Robotaxi-Dienst auf die Straße bringen zu wollen. Diese Fahrzeuge nutzen die DRIVE-Stack-Software und kombinieren Kameras, Radar und künftig auch LIDAR-Sensorik, um komplexe Verkehrsbedingungen autonom zu meistern. Zwischen 2028 und 2030 will NVIDIA die Technologie auch in Privatfahrzeuge bringen.

Mann steht auf einer Bühne vor einer großen Wand mit Computer-Servern bei einer Tech-Präsentation.
(c) NVIDIA

Mercedes-Benz präsentiert neuen CLA mit nächster Generation der MB.DRIVE-Technologie

Mercedes-Benz hat in Las Vegas den neuen CLA mit der nächsten Generation der MB.DRIVE-Technologie präsentiert. MB.DRIVE wurde in Partnerschaft zwischen Mercedes-Benz und NVIDIA entwickelt, die der globale Partner für die nächste Generation der fortschrittlichen Fahrerassistenzsysteme von Mercedes-Benz ist und dafür die KI von NVIDIA, die Full-Stack-DRIVE-AV-Software sowie die beschleunigte Rechenplattform NVIDIA DRIVE AGX bereitstellt.
Mit MB.DRIVE ASSIST PRO von Mercedes-Benz sollen Fahrassistenz und Navigation zu einem neuen, sicheren Fahrerlebnis verschmelzen. Auf Knopfdruck soll das Fahrzeug mit fortschrittlicher SAE-Level-2-Unterstützung durch die Stadt navigieren – vom Parkplatz bis zum Ziel. Dank des kooperativen Lenkansatzes von Mercedes-Benz sollen Lenkanpassungen jederzeit möglich sein, ohne das System zu deaktivieren. MB.DRIVE ASSIST PRO verwendet dabei etwa 30 Sensoren, darunter zehn Kameras, fünf Radarsensoren und zwölf Ultraschallsensoren. Sie sollen Rohdaten an einen leistungsstarken Supercomputer liefern, der bis zu 508 TOPs (Maßeinheit für die KI-Performance; Terra Operations per Second/Billionen Rechenoperationen pro Sekunde) verarbeiten kann. MB.DRIVE ASSIST PRO ist dabei in China bereits seit Ende 2025 erhältlich und wird später in diesem Jahr auch in den US-Markt eingeführt.

Luxuriöses Autocockpit mit digitalen Anzeigen, Ledersitzen und breiten Displays.
(c) Mercedes Benz Group

BMW integriert Alexa+ und macht den Intelligent Personal Assistant zum dialogfähigen Begleiter

Die BMW Group hat in Las Vegas angekündigt, dass der BMW Intelligent Personal Assistant künftig mit Amazon Alexa+-Technologie erweitert wird. BMW ist damit nach eigenen Angaben der erste Automobilhersteller, der eine tiefe, kontextbezogene Integration von Alexa-Funktionen direkt in das Fahrzeug-Infotainment umsetzt. Die Neuerung soll es den Insassen erlauben, natürliche, frei formulierte Anfragen zu stellen, ohne sich an starre Befehlsstrukturen halten zu müssen – ein bedeutender Schritt Richtung konversationsfähiger KI im Auto. Die Möglichkeit zur Verknüpfung des BMW Intelligent Personal Assistant mit einem Amazon Account soll die Musiksuche und das Streaming, das Abrufen von tagesaktuellen Nachrichten sowie die Nutzung vieler weiterer Inhalte auf eine spielend einfache Art und Weise erlauben. Die Alexa+-Integration debütiert im neuen BMW iX3 und nutzt das BMW Operating System X sowie das neue Panoramic iDrive, um Sprach- und KI-Funktionen eng mit Navigation, Klimatisierung, Medien und weiteren Fahrzeugdiensten zu verknüpfen. Die Markteinführung ist für die zweite Jahreshälfte 2026 in Deutschland und den USA geplant, bevor weitere Märkte folgen. 

Nahaufnahme eines digitalen Armaturenbretts mit Akkustand, Reichweite, Musik und animiertem Gesicht.
(c) BMW

Hyundai Motor Group präsentiert menschenzentrierte KI-Robotik-Strategie 

Unter dem Leitmotiv „Partnering Human Progress“ hat die Hyundai Motor Group in Las Vegas eine umfassende Strategie für KI-gestützte Robotik vorgestellt, die weit über klassische Automatisierung hinausgehen soll. Ziel ist es, physische KI-Systeme zu entwickeln, die Menschen unterstützen, mit ihnen zusammenarbeiten und sich an reale Umgebungen wie Fabriken über Logistik bis hin zur Alltagstechnologie anpassen soll. 
Im Zentrum der Vision stehen drei fundamentale Partnerschaften: erstens die Mensch-Roboter-Kollaboration, bei der Roboter zunächst repetitive, gefährliche oder körperlich belastende Aufgaben in Produktionsumgebungen übernehmen. Zweitens die vertiefte Zusammenarbeit mit Boston Dynamics, um humanoide Roboter wie Atlas zu entwickeln, die komplexe industrielle Aufgaben erfüllen können – ausgestattet mit rund 56 Freiheitsgraden (DoF) und taktiler Sensorik für präzise Bewegung und autonomes Lernen. Atlas soll zukünftig in bestehende Prozesse integriert werden und ab 2028 in Serienumgebungen Aufgaben wie Teile-Sortierung übernehmen. 
Die dritte Säule umfasst globale Partnerschaften mit führenden KI-Anbietern, darunter strategische Kooperationen mit NVIDIA und Google DeepMind, um KI-Hardware, -Software und -Trainingssysteme zu kombinieren und humanoide Roboter für den Breiteneinsatz in Industrie und Alltag zu befähigen. Innerhalb des konzernweiten Group Value Network sollen Hyundai-Tochterfirmen wie Hyundai Motor, Kia, Hyundai Mobis und Hyundai Glovis gemeinsam eine End-to-End-Wertschöpfungskette aufbauen, die Massenproduktion, Komponentenentwicklung und Logistik nahtlos verbindet. 
Ein weiterer Baustein der Strategie ist die Einrichtung eines Physical AI Application Centers zur kontinuierlichen Weiterentwicklung roboterbasierter Lösungen. Hyundai will durch diese konzernweite KI-Robotik-Strategie eine führende Rolle in der physischen KI-Branche einnehmen und die digitale Transformation von der Mobilitäts- über die Fertigungs- bis zur Robotik-Industrie beschleunigen.

Gruppe von Personen auf Bühne mit Robotern und dem Schriftzug „Partnering Human Progress“ im Hintergrund.
(c) Hyundai Motor Group

Sony Honda Mobility zeigt Afeela 1-Vorserienmodell und neuen SUV-Prototypen

Sony Honda Mobility, ein Gemeinschaftsunternehmen von Sony und Honda, hat in Las Vegas ihr Vorserienmodell des Afeela 1 sowie einen neuen SUV-Prototypen (Afeela Prototype 2026) unter dem Motto „Mobility as a Creative Entertainment Space“ vorgestellt. Der Afeela 1 ist ein batterieelektrischer Liftback, dessen Auslieferung für Ende 2026 in Kalifornien geplant ist, mit einer Expansion nach Arizona im Jahr 2027 und ersten Lieferungen in Japan ebenfalls 2027. Ein Europa-Start wurde bislang nicht bestätigt. Technisch basiert der Afeela 1 auf einer reichhaltigen Sensorik-Basis mit insgesamt rund 40 Sensoren (inkl. Cameras, LiDAR, Radar und Ultraschall) und einem Qualcomm-Rechner mit hoher KI-Performance, um ein Level 2+-Fahrerassistenzsystem zu betreiben, das perspektivisch bis Level 4 weiterentwickelt werden soll. Dazu fand in Las Vegas auch die erste öffentliche Vorstellung des Afeela Prototype 2026, eines batterieelektrischen SUV-Coupé, statt.  Ein Serienmodell auf dieser Basis ist für den US--Markt ab 2028 vorgesehen. 

Mann präsentiert Elektroauto auf Bühne mit Logos von Sony Honda Mobility und PlayStation.
(c) Sony Honda Mobility

Lucid, Uber und Nuro enthüllen globales Robotaxi auf Basis des Lucid Gravity

Der E-Auto-Hersteller Lucid, die Ridehailing-Plattform Uber und das Tech-Unternehmen Nuro stellten in Las Vegas wiederum das Serienfahrzeug für ihren geplanten Robotaxi-Service vor. Basis ist der vollelektrische Lucid Gravity-SUV, der für autonome Dienste umgerüstet wurde. Dabei wurde nicht nur das Fahrzeug selbst gezeigt, sondern auch der Plan für „autonomous on-road testing“ im Straßenverkehr, der bereits 2026 starten soll. So soll das Robotaxi  eine fortschrittliche Sensor-Suite mit hochauflösenden Kameras, Solid-State-LiDAR und Radar nutzen, um eine 360-Grad-Umfeldwahrnehmung zu gewährleisten, Diese Sensoren sind in die gesamte Karosserie des Lucid Gravity integriert, insbesondere in den speziell entwickelten, auf dem Dach montierten Halo – ein flaches Modul, das maximale Sichtverhältnisse gewährleisten soll. Die Daten sollen dabei in Echtzeit von einem Hochleistungsrechner auf Basis von NVIDIAs Drive AGX Thor verarbeitet werden. Die Fahrzeugintegration soll in Ride-Hailing-Netze eingebunden werden. Ein zentrales Element der Partnerschaft ist, dass bis zu 20.000 autonome Einheiten in den nächsten Jahren geplant sind, die über Ubers Plattform in unterschiedlichen urbanen Regionen im Einsatz sein sollen. Die ersten Straßentests des Robotaxis haben laut den Partnerunternehmen bereits im Dezember in San Francisco begonnen, zunächst mit Sicherheitsfahrern an Bord und noch ohne Fahrgäste. Noch in diesem Jahr sollen dann aber auch die ersten Passagiere die Robotaxis von Lucid, Nuro und Uber in San Francisco nutzen können.

Selbstfahrender Elektro-SUV fährt nachts an hell beleuchteten Gebäuden in der Stadt vorbei.
(c) Lucid

AUMOVIO zeigt ganzheitliche Mobilitäts- und SDV-Technologien 

AUMOVIO demonstrierte in Las Vegas eine breite Palette neuer Lösungen, die vor allem auf Software Defined Vehicles (SDV) und die digitale Transformation der Automobilindustrie abzielen. in zentrales Highlight ist der Vehicle Control High-Performance Computer (VC HPC), der sowohl sicherheitskritische als auch nicht-sicherheitskritische Funktionen über mehrere Domänen hinweg unterstützt – eine Grundlage für standardisierte und skalierbare Fahrzeugarchitekturen. Entwickler sollen damit komplette Fahrzeuganwendungen bereits in vollständig virtuellen oder hybriden Echtzeitumgebungen integrieren, prüfen und validieren können, bevor physische Hardware zur Verfügung steht. 
AUMOVIO zeigte zudem sein Architekturkonzept „Automotive Remote Control Network“, das Hochleistungs-Rechner, Zonensteuergeräte sowie Sensorik und Aktuatoren über standardisierte Kommunikationsprotokolle verbindet. 
Darüber hinaus demonstrierte AUMOVIO sein Xelve-Portfolio für assistiertes und automatisiertes Fahren von Level 2 bis 4, inklusive Lösungen wie Xelve Park, Xelve Drive und Xelve Pilot. Neu war auch Xelve Trailer, eine Funktion zur Kollisionswarnung beim Rangieren mit Anhänger, basierend auf Surround-View-Kameradaten.
Das Branded Personalized Cockpit demonstrierte AUMOVIOs umfassende Kompetenzen im Bereich hochgradig individualisierter Displaylösungen. Es zeigt eine farbenfrohe Multi-Display-Landschaft, die die neuesten Entwicklungen in der Displaytechnologie hervorhebt. Dazu zählen unter anderem innovative, farbintensive ePaper-Displays, eine umschaltbare Privacy-Funktion sowie die unsichtbare Integration einer Kamera hinter einem OLED-Display – alles konzipiert, um maßgeschneiderte und hochentwickelte In-Car-Erlebnisse zu ermöglichen.
Auch Sicherheits- und Komforttechnologien spielten eine Rolle: AUMOVIO stellte hier unter anderem eine KI-gestützte Nachtsicht-Erweiterung vor, die bestehende Kamerasensorik nutzt, um bei schlechten Licht- oder Wetterbedingungen eine verbesserte Sichtbarkeit von Fußgängern und Hindernissen zu bieten. 

Futuristischer schwarzer Lkw und silbernes Auto vor einem tech-inspirierten Hintergrund in Orange und Lila.
(c) AUMOVIO

ZF führt Fahrwerkssysteme mit KI-Software in die Zukunft

Der Automobilzulieferer ZF Friedrichshafen AG nutzte Las Vegas, um seine Strategie für ein „Chassis 2.0“-Fahrwerk vorzustellen – also die Transformation traditioneller Fahrwerkskomponenten in software- und KI-gesteuerte Systeme. Im Zentrum standen dabei zwei softwarebasierte Innovationen, die Komfort und Sicherheit deutlich verbessern sollen. Erstens „Active Noise Reduction“ (ANR), eine Akustik-Software-Funktion, die störende Reifengeräusche – sogenannte Cavity Noise – direkt im Fahrwerk reduzieren soll, bevor sie ins Fahrzeuginnere gelangen. Im Gegensatz zu klassischen Lösungen wie Dämmmaterialien oder Lautsprechern soll ANR dabei Software-Algorithmen, Sensordaten und semiaktive Dämpfer (CDC) nutzen, um phaseninvertierte Gegensignale zu erzeugen. Bereits in der aktuellen Version werden Pegelreduktionen von mehr als drei Dezibel erreicht. Perspektivisch sollen bis zu zehn Dezibel möglich sein. Der Serienstart dieser Technologie ist für 2028 geplant.

Zweitens präsentierte ZF „AI Road Sense“, eine KI-gestützte Software, die Straßenzustände erkennt und das Fahrwerk in Echtzeit an unterschiedliche Beläge anpassen soll – von schneebedeckten Straßen bis hin zu Offroad-Passagen. Je nach Ausbaustufe nutzt das System Fahrzeugnetz-Daten, Kameras oder sogar LiDAR, um präzise Oberflächeninformationen bis zu 25 Meter voraus zu erfassen und die Dämpfung entsprechend zu steuern. 

Blaues KI-Auto scannt mit roten Sensorstrahlen eine 3D-Straßenoberfläche samt Datengrafik.
(c) ZF

Bosch präsentiert neues KI-basiertes Cockpit und feiert Weltpremiere des Radar Gen 7 Premium

Bosch hat in Las Vegas ein neues KI-basiertes Cockpit präsentiert. Hierbei handelt es sich um ein All-in-One-System, mit dem die Umgebung im Auto hochgradig personalisiert werden können soll. So ist das Cockpit ist mit einem KI-Sprachmodell ausgestattet, das den Austausch wie mit einer realen Person ermöglichen sol. Darüber hinaus verfügt es über ein visuelles Sprachmodell, das sowohl das Geschehen innerhalb als auch außerhalb des Fahrzeugs interpretieren können soll. Gleichzeitig etabliert sich Bosch als führender Anbieter von By-Wire-Systemen, einer weiteren Schlüsseltechnologie für automatisiertes und softwaredefiniertes Fahren. Diese Systeme ersetzen mechanische Verbindungen bei Bremse und Lenkung durch elektrische Signalleitungen. Die „Vehicle Motion Management“ genannte Steuerungs-Software von Bosch ermöglicht es, die Fahrzeugbewegung in allen sechs Freiheitsgraden zu regeln, indem sie Bremse, Lenkung, Antrieb und Fahrwerk zentral ansteuert. Die einzelnen Aktuatoren lassen sich dadurch besser aufeinander abstimmen, effizienter nutzen und in Zukunft sogar auf die Bedürfnisse des Fahrers einstellen.  Mit dem neuen „Radar Gen 7 Premium“, der in Las Vegas Weltpremiere feierte, präsentierte Bosch zudem eine wegweisende Technologie in der Kombination aus Sensorik und KI. Der Radarsensor soll Fahrassistenzfunktionen wie etwa den Autobahnpiloten verbessern. So soll der Sensor beispielweise sehr kleine Objekte wie Paletten und Autoreifen auf über 200 Meter Entfernung erkennen. Im Bereich E-Bikes präsentierte Bosch zudem die „eBike Flow App“, die es Nutzern ermöglicht, ihr E-Bike oder die Batterie als gestohlen zu kennzeichnen. Bosch präsentiert auf der CES zudem seine neueste KI-MEMS-Sensorplattform BMI5. Außerdem hat Bosch die Fortsetzung der Zusammenarbeit mit Microsoft bekanntgegeben. Gemeinsam mit Microsoft will Bosch sein „Manufacturing Co-Intelligence“-Angebot erweitern und dabei Potenziale prüfen, um durch den Einsatz von agentischer Künstlicher Intelligenz (KI) die Produktion zu revolutionieren. Dazu wurde auch eine Vereinbarung mit Kodiak AI geschlossen, einem Vorreiter im Bereich des autonomen Fahrens für Lkw. Bosch und Kodiak AI wollen gemeinsam an fahrzeugunabhängigen, redundanten Plattformen für fahrerlose Lkw arbeiten. Eine solche Plattform ist ein umfassendes System aus spezialisierter Hardware und Software, das in Standard-Lkw integriert wird, um ihnen autonome Fahrfähigkeiten zu verleihen. Bosch wird dabei eine Vielzahl von Hardware-Komponenten liefern. 

Ein Koch bereitet live auf der Bühne Speisen zu, zwei Personen in Businesskleidung schauen zu.
(c) Bosch

LG Electronics zeigt „Affectionate Intelligence“ und KI-Integration auf der CES 2026

LG Electronics (LG) hat in Las Vegas seine Strategie für „AI in Action“ vorgestellt. Im Mittelpunkt standen drei zentrale Säulen: eine weiterentwickelte Affectionate Intelligence, die sich zu handlungsorientierter KI entwickelt hat, branchenführende Produkte basierend auf technologischer Exzellenz sowie ein nahtlos orchestriertes Ökosystem, das über das Zuhause hinaus auf Fahrzeuge und gewerbliche Räume erweitert wird.  

Im Mobilitätsbereich präsentierte LG dabei seine Vision für softwaredefinierte Fahrzeuge und intelligente In-Cabin-Erlebnisse, die auf drei Kernsystemen basieren soll. Erstens soll eine Mobility Display Solution die Windschutzscheibe bei automatisiertem Fahren in eine Displayfläche für Echtzeit-Fahrdaten verwandeln. Eine Automotive Vision Solution nutzt Eye-Tracking, Fahrerzustands- und Innenraumüberwachung, um Auffälligkeiten bei Aufmerksamkeit oder Müdigkeit zu erkennen. So sollen adaptive Sicherheitsfunktionen und personalisierte Interaktionen ermöglicht werden. Und eine In-Vehicle Entertainment Solution soll nahtloses Content-Streaming zwischen Zuhause und Fahrzeug erlauben und die Kommunikation über seitliche Fahrzeugscheiben unterstützen. In Kombination sollen diese Module, wie die On-Device Multimodal Generative AI Plattform von LG hochgradig individuelle und immersive Erlebniswelten ermöglichen und dabei stets alle Sicherheitsstandards berücksichtigen.

Eine Frau nutzt smarte Autoanzeigen mit Navigation, Stadtszenen und einem virtuellen Assistenten.
(c) LG Electronics

Qualcomm treibt das KI-definierte Fahrzeug voran

Qualcomm setzt in Las Vegas auf das „AI-defined Vehicle“: Weg von isolierten Domänensteuergeräten, hin zu zentraler Rechenleistung, agentischer KI und wiederverwendbaren Software-Stacks. Als Leitidee hat Qualcomm die „Snapdragon Chassis Agents“ vorgestellt – KI-Agenten, die Aufgaben im Fahrzeug zielorientiert und kontextbewusst ausführen und damit Funktionen wie Assistenz, Cockpit-Erlebnis und personalisierte Services stärker zusammenführen sollen. Konkreter wird dieser Umbau an der Hardware-Architektur: Gemeinsam mit Leapmotor hat Qualcomm seinen „world’s first automotive central computer“ angekündigt – eine zentrale Fahrzeugrechner-Plattform, die Snapdragon Cockpit Elite und Snapdragon Ride Elite vereint  Leapmotors kommendes Flaggschiff D19 soll laut Qualcomm das erste Serienfahrzeug sein, das mit der Dual-Version des Snapdragon Elite Plattformen ausgerüstet wird. 
Auf der Zulieferseite stärkt Qualcomm die ADAS-Skalierung über Partnerschaften. Mit ZF vereinbart das Unternehmen eine Zusammenarbeit für eine skalierbare ADAS-Lösung auf Basis des neuen ZF ProAI Supercomputers und der Snapdragon Ride Plattform. Ziel sind „turnkey“-Bausteine für unterschiedliche Fahrzeugklassen und Automatisierungsgrade bis Level 3, um OEMs schnellere Entwicklungszyklen und einen konsistenteren Plattformansatz zu ermöglichen. Mit Hyundai Mobis kommt eine zweite, strategisch wichtige Kooperation hinzu: Beide Unternehmen schließen ein umfassendes Abkommen zur Zusammenarbeit an SDV-Architekturen für ADAS.  Hyundai Mobis will dabei Qualcomms Snapdragon Ride Flex SoC nutzen, um Performance, Effizienz und Stabilität von Fahrerassistenzsystemen zu steigern. Damit diese Hardware-Plattformen schnell in Serie skaliert werden können, adressiert Qualcomm außerdem die Software-Basis: Die seit Jahren laufende Zusammenarbeit mit Google wird ausgebaut, um die Entwicklung softwaredefinierter Fahrzeuge zu vereinfachen und die Einführung von In-Vehicle, agentischer KI zu beschleunigen – u. a. durch eine engere Verzahnung von Googles Automotive-Software-Bausteinen mit Qualcomms Snapdragon Digital Chassis.  Ein Serienbeleg für „Digital Chassis Momentum“ ist Qualcomms Meldung zum Toyota RAV4: Das Modell soll laut Unternehmen mit Snapdragon Digital Chassis verfügbar sein, um Personalisierung und immersives Infotainment zu unterstützen. 

Infografik mit Auto, das Snapdragons Digital Chassis in Cloud, Cockpit, Fahrsteuerung und Konnektivität zeigt.
(c) Qualcomm

HERE Technologies stellt auf der CES 2026 KI-gestütztes Portfolio für softwaredefinierte Fahrzeuge vor

In Las Vegas hat HERE Technologies,ein neues Portfolio speziell für softwaredefinierte Fahrzeuge (SDVs) vorgestellt. Das neue Portfolio soll die KI-gestützte Live-Karte von HERE und fortschrittliche Software vereinen, um die Zusammenführung von Navigation, Fahrerassistenz und Autonomie über den gesamten Fahrzeuglebenszyklus hinweg zu ermöglichen. Dieses Angebot soll es Automobilherstellern ermöglichen, umfassendere Navigationserlebnisse sowie fortschrittliche Funktionen für Fahrerassistenzsysteme (ADAS), „Navigation on Autopilot“ (NOA) und automatisiertes Fahren bereitzustellen.  In Las Vegas stellte HERE sein erweitertes und verbessertes HERE Navigation SDK vor, das Fahrspuren rendern und fahrspurspezifische Wegbeschreibungen liefern kann, um sowohl die Navigation als auch eine grafische Benutzeroberfläche (GUI) für ADAS zu unterstützen.

Darüber hinaus stellte HERE „Behavioral Maneuvers“ vor, eine Funktion, die das automatisierte Fahren verbessert, indem sie Fahrzeugen ermöglicht, sanfte, natürliche Manöver auszuführen. Sie soll dazu beitragen, das Vertrauen von Fahrern zu stärken und die Wahrscheinlichkeit einer Deaktivierung automatisierter Fahrfunktionen zu verringern. Die Funktion wurde in Zusammenarbeit mit führenden Automobilherstellern entwickelt und basiert auf der KI-Technologie von HERE. Sie nutzt anonymisierte Daten von Millionen von Fahrzeugen, um eine präzise Lokalisierung und Sicherheit zu gewährleisten. 

Autodisplay zeigt 3D-Navigationskarte und Energieverbrauchsdaten während der Fahrt.
(c) HERE Technologies

CARIAD setzt auf TomTom Orbis Maps zur Verbesserung automatisierter Fahrsysteme

Im selben Kontext der CES-Mobilitätsinnovationen macht die Volkswagen-Softwaretochter CARIAD einen weiteren wichtigen Schritt in Richtung robusterer automatisierter Fahrfunktionen: Das Unternehmen kündigte an, künftig auf die fortschrittlichen Orbis Maps von TomTom zu setzen, um seine autonomen Fahrsysteme zu verbessern. Diese Karten sollen eine zusätzliche Kontextschicht bieten, die über sensorbasierte Wahrnehmung hinausgeht und autonome Systeme in die Lage versetzt, Verkehrssituationen differenzierter zu interpretieren.
Orbis Maps sollen hochpräzise, minütlich aktualisierte Lage- und Straßeninformationen für mehr als 235 Länder und Regionen liefern, was sie besonders geeignet für autonome Anwendungen machen. Durch die Integration dieser Datenebene können Fahrzeuge nicht nur auf lokale, statische Informationen zurückgreifen, sondern sollen auch eine dynamische, kontextualisierte Sicht auf ihre Umgebung erhalten, wie temporäre Baustellen, Verkehrsbeschränkungen oder komplexe Kreuzungssituationen, die allein durch Sensorik nur schwer zu erfassen wären.

Drohnenaufnahme einer Kreuzung mit markierten Navigationswegen und Logos von TomTom und CARIAD.
(c) CARIAD

Verge Motorcycles setzt auf Feststoffbatterien von DonutLab – bis zu 600 km Reichweite für Elektro-Zweiräder

Der Elektromotorradhersteller Verge Motorcycles hat in Las Vegas eine technologische Weiterentwicklung für seine TS Pro-Plattform angekündigt: den Einsatz einer Feststoffbatterie von Donut Lab mit deutlich gesteigerter Energiespeicherdichte, hoher Sicherheit und schneller Ladefähigkeit und die ab dem ersten Quartal 2026 in allen 2026-Modellen der Motorräder von Verge Motorcycles zum Einsatz kommen soll.  Die Festkörperbatterie soll dabei auf eine Energiedichte von 400 Wh/kg kommen und die weltweit erste Festkörperbatterie sein, die für den Einsatz in der OEM-Fahrzeugherstellung bereit ist. Die Ladezeit für einen kompletten Ladevorgang soll laut Donut Lab dabei fünf Minuten betragen. Außerdem soll die Lebensdauer 100.000 Ladezyklen bei nur einem minimalen Kapazitätsverlust während der gesamten Lebensdauer betragen. Die im November vorgestellte TS Pro soll damit auf eine Reichweite von 350 Kilometern, hier soll in zehn Minuten Strom für bis zu 300 Kilometer nachgeladen werden können. Daneben soll auch ein Batteriepack verfügbar sein, mit dem bis zu 595 Kilometer möglich sind.

Rechteckige Festkörperbatterie mit der Aufschrift „DONUT Solid State“ auf dunklem Hintergrund.
(c) Donut Lab

Valeo und Seeing Machines präsentieren integrierte Lösungen zur Fahrer- und Innenraumüberwachung

Valeo und Seeing Machines haben in Las Vegas integrierte Lösungen zur Fahrer- und Innenraumüberwachung präsentiert. Im Fokus standen blickbasierte Warnungen, Innenraumanalyse und Helmerkennung für Zweiräder. Kern der gezeigten Lösungen soll die Kombination aus Valeos Kompetenz in der Systementwicklung und -integration mit der Wahrnehmungssoftware von Seeing Machines sein. Deren ICMS-Software erweitert klassische Fahrerüberwachungsfunktionen um zusätzliche Fähigkeiten wie Blickverfolgung und Innenraumanalyse. So lässt sich beispielsweise erkennen, ob ein Fahrer eine potenzielle Gefahr wahrgenommen hat. Darüber hinaus wird eine Helmerkennung für Zweiräder demonstriert, die prüft, ob vor Fahrtantritt ein Helm getragen wird. Valeo zeigte dabei auch ein Panovision Head-up-Display, das ein adaptives Warnsystem auf Basis der Blickverfolgung nutzt. Ergänzt wurde es durch Demonstrationsfahrzeug mit der Bezeichnung Safe InSight, das einen mehrschichtigen Ansatz zur Fahrer- und Innenraumüberwachung zeigen soll. Ein weiterer Schwerpunkt war eine SmartCluster-Lösung für Zweiräder, die die Helmerkennung in das Kombiinstrument integriert.

Frau am Steuer mit digitaler Eye-Tracking-Grafik und Logos von Valeo und Seeing Machines.
(c) Valeo

Donut Lab & WEVC präsentieren flexible E-Plattform mit Radnabenmotor-Architektur   

Donut Lab und die Watt Electric Vehicle Company (WEVC) haben in Las Vegas eine innovative Elektrifizierungsplattform vorgestellt, die eine flexible, modulare E-Antriebsarchitektur ermöglichen soll. Herzstück der Lösung ist eine sogenannte Skateboard-Plattform („Passenger And Commercial EV Skateboard“, PACES), bei der Batterie, Steuerung und Antrieb flexibel integriert werden können – sowohl für Personen- als auch Nutzfahrzeuge. Neu an diesem Ansatz soll vor allem die Verwendung Felgenmotoren (Hub Motors) sein, die direkt am Rad sitzen und das Drehmoment unabhängig auf jedes einzelne Rad übertragen können. Zusätzlich bietet die Plattform eine feinere Momenteinsatz- und Fahrdynamiksteuerung, da jedes Rad individuell geregelt werden kann – eine wichtige Voraussetzung für Allrad- oder Szenarien-Adaptive Systeme.
Die Skateboard-Architektur soll OEMs die Entwicklung unterschiedlicher Fahrzeugtypen – vom Freizeit-Buggy über Transporter bis zu SUV-ähnlichen Konzepten – auf einer gemeinsamen Grundplattform erleichtern und so Entwicklungskosten und -zeiten reduzieren. Die modulare Batterie- und Steuerungstechnik erlaubt es zudem, Systeme für unterschiedliche Reichweiten und Leistungsanforderungen zu konfigurieren, ohne die Grundstruktur zu ändern.

Minimalistisches Elektrofahrzeug-Chassis mit Rädern, Sitz und Lenkrad, gespiegelt in einer Pfütze.
(c) WEVC

Weitere Artikel