Forschungsausrichtung des IFS

Zusammenfassung der Vision, Mission, Strategie und Forschungsverantwortung des Instituts für Flugsysteme.

Vision

Die Mensch-Maschine-Kooperation in der Luftfahrt gestalten.

Mission

Am Institut werden Paradigmen zur kooperativen Zusammenarbeit zwischen Mensch und Maschine in der Luftfahrttechnik entwickelt. Kern des Gedankens ist, dass sich der Mensch und die Automation mit ihren jeweiligen Stärken in den Arbeitsprozess zur Erreichung eines vom Menschen vorgegebenen Ziels einbringen. Die Entscheidungshoheit und die Verantwortung für das Handeln verbleiben stets beim Menschen.

Strategie

Wissenschaftliche Kernfragestellung ist die Erforschung fortschrittlicher Automatisierungsansätze, die die verantwortliche Rolle des Menschen voll umfänglich reflektieren. Die Beurteilung des Gesamtsystems erfolgt unter besonderer Berücksichtigung von Gesichtspunkten des Human-Factors-Engineering.

Das Institut für Flugsysteme (IFS) der Universität der Bundeswehr München erforscht hierbei den Ansatz der „Dual Mode Cognitive Automation“ im zukunftsrelevanten Forschungsfeld hochautomatisierter bemannter und unbemannter Flugsysteme.

Basierend auf kognitionspsychologischen Modellen, werden die Stärken, aber auch Beschränkungen des Menschen analysiert und sinnvolle Unterstützungen durch die Maschine untersucht. Dabei kommen insbesondere neue technische Möglichkeiten der Automatisierungstechnik, der Robotik und der künstlichen Intelligenz zur Anwendung. Neben der Entwicklung theoretischer Ansätze stellt sich das Institut zudem der Herausforderung, den Nutzen der Methoden in Forschungssimulatoren oder eigenentwickelten Fluggeräten nachzuweisen.

Bewusst wird der Kontakt zu potentiellen Nutzern gesucht, zum Beispiel in Erprobungskampagnen mit Luftfahrzeugführern der Bundeswehr und ziviler Einrichtungen. Die am Institut entwickelten Konzepte, etwa in Form kognitiver Assistenzsysteme, werden zur Beherrschung der Arbeitsbelastung des Menschen sowie zur Verbesserung des Situationsbewusstseins von Besatzungen eingesetzt. Damit leistet das Institut einen Beitrag zur Erhöhung der Flugsicherheit und der Entscheidungsqualität in Mensch-Maschine Systemen der Luftfahrt.

Verantwortung

Neben den technischen Fragestellungen diskutiert das Institut für Flugsysteme auch aktiv die gesellschaftspolitischen Implikationen des Forschungsgebiets. Insbesondere der Begriff der „Automatisierung“ löst beim Menschen immer wieder Ängste vor Verdrängung und Bevormundung aus. In diesem Zusammenhang lehnt das Institut unreflektierte, rein technologiegetriebene Ansätze der Hochautomatisierung ab. Vielmehr werden auf der einen Seite technologische Möglichkeiten untersucht und weiter entwickelt, auf der anderen Seite werden aber auch die Rückwirkungen auf die menschliche Arbeit und Verantwortung in das Zentrum der Untersuchungen gerückt.

Eine Sichtweise vollkommen vom Menschen unabhängig agierender Maschinen, sogenannter „autonomer Systeme“ halten wir für nicht zielführend. Dem halten wir unserer Konzept der „Dual Mode Cognitive Automation“ unter der Verantwortung des handelnden Menschen entgegen.

 


 

Aktuelle Diskussion zu militärischen Drohnen

März 2013. Mit großer Aufmerksamkeit verfolgen wir am Institut die aktuelle Diskussion um das Spannungsfeld zwischen operationellen Bedürfnissen der Bundeswehr und dem militärischen Nutzen von unbemannten, eventuell auch bewaffneten Fluggeräten auf der einen Seite, und den ethischen Bedenken davor, alles technisch Mögliche unreflektiert auch zu realisieren, auf der anderen Seite.

Vollkommen autonome Missionen oder Missionsphasen einer Maschine oder Drohne, ohne die Kontrolle durch den menschlichen Bediener, also die Verwendung sogenannter „autonomer Systeme“, halten wir für nicht akzeptabel. Unsere Alternative zu dem Konzept vollständiger Autonomie ist durch den Ansatz der „Dual Mode Cognitive Automation“ unter der Verantwortung eines handelnden Menschen beschrieben.

Wir sind der Meinung, dass wir bei einer Diskussion um die Gestaltung der zukünftigen kooperativen Zusammenarbeit zwischen Mensch und Automation aufgrund unserer langjährigen Erfahrung in zivilen wie militärischen Projekten Beiträge leisten können.

Wir würden uns wünschen, dass in der öffentlichen Diskussion zwischen der politischen Legitimierung, verbunden mit militärisch sinnvollen Einsatzrichtlinien, und den technischen Mitteln, welche letztendlich dem Schutz des im Einsatz Handelnden dienen, unterschieden wird. Wir haben Vertrauen in die Legitimation angemessener Maßnahmen durch den Bundestag und in das verantwortungsvolle Handeln unserer Offiziere, die an unserer Universität ausgebildet werden.

Die Verantwortung für den nutzbringenden Einsatz einer Maschine muss immer beim Bediener, sprich dem Menschen verbleiben.