AI for Mobility

Vertrauensgrundsatz neu definiert

Komponenten, die mit Künstlicher Intelligenz automatisiertes Fahren ermöglichen, werden immer mehr in jegliche Art von Fahrzeugen und Infrastruktur der Personen- und Gütermobilität eingesetzt werden. In diesem hochsensiblen Bereich führt die quasi intransparente Entscheidungsfindung von KI-Systemen zu einer schwierigen Vertrauensbildung.

Vertrauenswürdigkeit, Zuverlässigkeit und Glaubwürdigkeit sind nur einige der Attribute, die „sichere KI“ gewährleisten muss. Anders als im Straßenverkehr gewohnt, ist für Maschinen und maschinelle Entscheidungspfade der Vertrauensgrundsatz nicht gültig.

Um trotzdem künftig einen sicheren Betrieb und damit die Akzeptanz zu gewährleisten, gilt es, die Anstrengungen von Wirtschaft und Wissenschaft zu bündeln und sich dem Thema trustworthiness von KI-Lösungen zu widmen. Die Session „AI for Mobility“ zeigt auf, wie Forschungsergebnisse in reale Tests einfließen und von Unternehmen in innovative Produkte und Dienstleistungen übergeführt werden.

SPEAKER dieser Session

Dr. Karin Bruckmüller | Johannes Kepler Universität Linz, Sigmund Freud PrivatUniversität Wien

Strafrechtlerin


Kurzprofil

Karin Bruckmüller ist Projektleiterin an der Johannes Kepler Universität Linz und Professorin an der Sigmund Freud PrivatUniversität Wien im Bereich Strafrecht und Strafprozessrecht. Ihre Forschungsschwerpunkte liegen insbesondere in den Bereichen Künstliche Intelligenz und Strafrecht sowie Medizin(straf)recht – immer unter Einbeziehung der Ethik. Gemeinsam mit S. Schumann hat sie das LIT-Projekt „Autonomous Driving in Austria (AUD/A) – Predictions by, and a challenge for Criminal Law“ geleitet und ist Projektpartnerin in weiteren Forschungsprojekten zu den Themen AI, Recht und Ethik.

 

Ihr Vortrag

"Trauen Sie einer KI? – Autonomes Fahren vertrauenswürdig gestalten" gemeinsam mit Nikolaus Hofer im Rahmen der Session AI for Mobility.

 

Um autonome Fahrzeuge auf unseren Straßen Realität werden zu lassen, bedarf es der weitgehenden Akzeptanz der Gesellschaft. Nicht nur die Autofahrer*innen selbst, sondern jede*r Verkehrsteilnehmer*in – egal ob zu Fuß oder mit dem Fahrrad – wäre von einer solchen Innovation betroffen. Die Akzeptanz der Bevölkerung setzt die Vertrauenswürdigkeit der verwendeten KI voraus.

Wie kann diese Vertrauenswürdigkeit ermöglicht werden?
Technisch robuste Lösungen können zwar die Vertrauenswürdigkeit von KI-Systemen unterstützen, aber die Technik allein reicht nicht aus. Technik, Recht und Ethik sind drei elementare Disziplinen, die im Zusammenspiel wesentlich zur Vertrauenswürdigkeit von KI-Systemen beitragen. Hierzu muss ein Austausch geschaffen werden, um Produkte von der Konzeption bis zur Auslieferung interdisziplinär zu entwickeln.

Wie diese interdisziplinäre Herausforderung in der Praxis gestaltet und rechtliche wie etische Aspekte in der Systementwicklung berücksichtigt werden können, erläutern Karin Bruckmüller und Nikolaus Hofer anhand konkreter Projekterfahrungen. Der Vortrag geht zudem auf wichtige Hilfsmittel auf dem Weg zur vertrauenswürdigen KI ein, die im Zuge des interdisziplinären Projekts SafeSign erarbeitet wurden.

Nikolaus Hofer | RISC Software GmbH

Software Engineer


Kurzprofil

Nikolaus Hofer ist Software Engineer und wissenschaftlicher Mitarbeiter der RISC Software GmbH mit dem Schwerpunkt ITS und Mobility. Sein Fokus liegt aktuell im Bereich Künstliche Intelligenz und Deep Learning mit einem starken ethischen und rechtlichen Hintergrund. Im Projekt SafeSign beschäftigt sich Hofer beispielsweise mit der maschinellen Erkennung von Verkehrszeichen auf Autobahnen.

 

Sein Vortrag

"Trauen Sie einer KI? – Autonomes Fahren vertrauenswürdig gestalten" gemeinsam mit Dr. Karin Bruckmüller im Rahmen der Session AI for Mobility.

Um autonome Fahrzeuge auf unseren Straßen Realität werden zu lassen, bedarf es der weitgehenden Akzeptanz der Gesellschaft. Nicht nur die Autofahrer*innen selbst, sondern jede*r Verkehrsteilnehmer*in – egal ob zu Fuß oder mit dem Fahrrad – wäre von einer solchen Innovation betroffen. Die Akzeptanz der Bevölkerung setzt die Vertrauenswürdigkeit der verwendeten KI voraus.

Wie kann diese Vertrauenswürdigkeit ermöglicht werden?
Technisch robuste Lösungen können zwar die Vertrauenswürdigkeit von KI-Systemen unterstützen, aber die Technik allein reicht nicht aus. Technik, Recht und Ethik sind drei elementare Disziplinen, die im Zusammenspiel wesentlich zur Vertrauenswürdigkeit von KI-Systemen beitragen. Hierzu muss ein Austausch geschaffen werden, um Produkte von der Konzeption bis zur Auslieferung interdisziplinär zu entwickeln.

Wie diese interdisziplinäre Herausforderung in der Praxis gestaltet und rechtliche wie etische Aspekte in der Systementwicklung berücksichtigt werden können, erläutern Karin Bruckmüller und Nikolaus Hofer anhand konkreter Projekterfahrungen. Der Vortrag geht zudem auf wichtige Hilfsmittel auf dem Weg zur vertrauenswürdigen KI ein, die im Zuge des interdisziplinären Projekts SafeSign erarbeitet wurden.

Andreas Lauringer | Kontrol GmbH

CEO


Kurzprofil

Andreas Lauringer studierte Maschinenbau und Wirtschaftswissenschaften an der TU Graz und der Uni Linköping. Er begann 2007 bei Continental in Berlin in der Automobilindustrie zu arbeiten, wo er eine Prototypenwerkstatt für Hochspannungs-Lithium-Ionen-Batterien aufbaute, gefolgt von Funktionen im Einkauf und im Launch Management. Nach seiner Rückkehr nach Österreich war er im globalen Programmmanagement bei Magna tätig und für die Entwicklung der eDrive-Plattform, die Fahrzeugintegration sowie Beschaffungsprogramme für verschiedene OEMs verantwortlich. 2017 gründete Lauringer die Kontrol GmbH.


Sein Vortrag

"Are you ready to be driven?" im Rahmen der Session AI for Mobility

Autonome Fahrzeuge werden bald zu unserem Alltag gehören. Bisher mangelt es in der Gesellschaft aber (noch) an Vertrauen in diese neue Technologie, insbesondere wenn wir über Sicherheit sprechen. Die Frage, wie wir mit diesen neuen Herausforderungen umgehen und wie wir das Vertrauen in die Technologie erhöhen, muss noch beantwortet werden. Die UN-Agentur WP 29 hat dafür ein Rahmendokument veröffentlicht, das Fahrzeughersteller auffordert, einen robusten Entwurfs- und Validierungsprozess für autonome Fahrzeuge nachzuweisen. Damit wird das Ziel verfolgt, automatisierte Fahrsysteme ohne Sicherheitsrisiken zu entwerfen und die Einhaltung der Straßenverkehrsvorschriften und -prinzipien zu gewährleisten.

Kontrol konzentriert sich auf die formale Verifikation des Verhaltens und der Bewegungsplanung von autonomen Systemen. Die formale Verifikation ist eine Methodik zum mathematischen Nachweis des Ergebnisses und der Richtigkeit von Computeralgorithmen auf der Grundlage vordefinierter Spezifikationen. Diese Kerntechnologie könnte in mehreren Anwendungsfällen eingesetzt werden, wird aber derzeit als sehr relevant im Zusammenhang mit autonomen Systemen wie Kraftfahrzeugen oder Luftfahrzeugen angesehen. Das Ziel von Kontrol ist es, eine Technologie zu entwickeln, die die Sicherheit erhöht und rechtliche Rahmenbedingungen für autonome Fahrzeuge schafft.


Zitat

" Unsere Software ist eine Art Wachhund, der im Auto mitfährt und prüft, ob sich das selbstfahrende Fahrzeug an die Regeln hält. Wir können in Echtzeit validieren, ob das Auto die Gesetze einhält. "

 

www.kontrol.tech

Mag. Rudolf Ramler | Software Competence Center Hagenberg GmbH

Research Manager Software Science


Kurzprofil

Rudolf Ramler ist Research Manager für Software Science am Software Competence Center Hagenberg (SCCH). Er hat Wirtschaftsinformatik an der Johannes Kepler Universität Linz studiert und arbeitet seit 20 Jahren als Forscher und Projektleiter in nationalen und internationalen Forschungs- und Entwicklungsprojekten. Seine Forschungsgebiete sind Qualitätssicherung und Testen sowie Analyse, Entwicklung und Evolution großer, komplexer Software- und AI-basierter Systeme. Sein Fokus liegt auf internationaler Forschung und der Umsetzung dieser Ergebnisse in anwendungsorientierte Lösungen gemeinsam mit Partnern aus Industrie und Wirtschaft.

 

Sein Vortrag

"Wie verlässlich ist Künstliche Intelligenz? – Testen und Analyse für die Systeme der Zukunft" im Rahmen der Session AI for Mobility

Mit der zunehmenden Durchdringung unseres Alltags durch Künstliche Intelligenz stellt sich die Frage nach der Zuverlässigkeit und Qualität dieser Systeme. Was kann sich der Benutzer erwarten? Wo ist er weiterhin gefordert, „die Hände am Steuer“ zu lassen? Verlässliche Aussagen dazu müssen bereits vor der ersten Verwendung getroffen werden. Tatsächlich fehlen heute vielfach jedoch gesicherte Informationen über die Zuverlässigkeit und Grenzen von KI-basierten Systemen. Dies birgt entsprechende Risiken für den Benutzer im laufenden Betrieb.

Dieser Vortrag beleuchtet die Herausforderungen, vor denen die Qualitätssicherung von KI-basierten Systemen steht und gibt einen Überblick über den aktuellen Stand der Forschung sowie über praktische Lösungsansätze.
 

www.scch.at

DI Eva Tatschl-Unterberger, MBA | DigiTrans GmbH

Geschäftsfüherin


Kurzprofil

Eva Tatschl-Unterberger ist seit Jänner 2019 die Geschäftsführerin der DigiTrans GmbH. Zuletzt leitete sie mit der e-Service Business Line die Aktivitäten von Primetals Technologies (JV Siemens und Mitsubishi Heavy Metals Machinery) in den Bereichen Asset und Maintenance Management Systemen sowie Virtueller Marktplatz. Sie war außerdem verantwortlich für das Thema Digitalisierung. Eva Tatschl-Unterberger hat an der TU-Graz Elektrotechnik studiert und ihre Ausbildung mit einem MBA in Marketing and Finance erweitert. Die DigiTrans-Geschäftsführerin engagiert sich auch in der Start-up-Szene: Sie ist stellvertretende Vorsitzende des Vergabebeirates des Start-up-Inkubators tech2b und Vorsitzende der Jury für das Spin-off Fellowship Programm der FFG.


Ihr Vortrag

im Rahmen der Session AI for Mobility

 

www.testregion-digitrans.at

 

Folgen Sie uns auch auf: