3. Platz bei der NATO Innovation Challenge für Christian Nitzl

16 Dezember 2020

Die NATO Innovation Challenge wurde vom italienischen Verteidigungsministerium und dem NATO Innovation Hub organisiert. Ziel ist es, innovative Menschen und Teams zu gewinnen, um effektivere und effizientere Wege für die NATO und andere Einsatzorganisationen zu finden, Sicherheit zu gewährleisten und auf Krisensituationen besser reagieren zu können.

CISS und Aleph Alpha bilden gemeinsam ein Konsortium von Experten aus Industrie und Wissenschaft, dass sich mit der Frage des Vertrauens, der Gamification (Anwendung spiel­typischer Elemente in einem spielfremden Kontext) und der Entwicklung moderner künstlicher Intelligenz (KI) beschäftigt. Der Schwerpunkt liegt hierbei auf dem Bereich Verteidigung und Sicherheit.

Unbemannte autonome Systeme (UAS) haben ein enormes Potenzial aufgrund ihrer Fähigkeit, komplexe und gefährliche Situationen zu bewältigen. Es besteht jedoch die Gefahr, dass durch zu geringes Vertrauen der Einsatz von UAS behindert wird, insbesondere wenn die Aufgaben so kritisch sind wie bspw. bei Minenabwehrmaßnahmen (MCM). Vertrauen in UAS kann durch die Anwendung von Design (insbesondere Gamification) und innovativen Erklärungsansätzen (wie sie für KI-Algorithmen verwendet werden, bei denen Aktionen möglicherweise zunächst nicht intuitiv Sinn ergeben) in der Mensch-Maschinen-Interaktion unterstützt und gestärkt werden.

Gamification kann die Motivation und Wahrnehmung von Menschen beeinflussen

Wenn es um die Beeinflussung der Nutzerwahrnehmung und -erfahrung von Informationssystemen geht, ist Gamification einer der vielversprechendsten Ansätze der letzten Jahre. Sie bezieht sich auf die Anreicherung von Informationssystemen mit Designmerkmalen von Spielen, um spielerische Erfahrungen im Nicht-Spiel-Kontext hervorzurufen. Verschiedene Studien haben gezeigt, dass Gamification die Motivation und Wahrnehmung von Menschen beeinflussen und das tatsächliche Nutzerverhalten (Adoption, Engagement, Performance) verändern kann.

Erklärbarkeit bezieht sich auf Methoden und Techniken, um komplexe und undurchsichtige Systeme, wie z.B. UAS-Operationen oder KI-Algorithmen, transparenter zu machen. Dies kann mit der in der KI verwendeten Technik der Natural Language Processing (NLP) geschehen, welche durch die Klärung der aktuellen Situation, die Erklärung von UAS-Prozessen und Ziele mit dem Nutzer, Transparenz erzeugt. Zusammenfassend kann festgehalten werden, dass menschliches Vertrauen durch wiederholte Erfahrungen mit UAS durch die Einführung von Gamifications- und Erklärungselementen insbesondere in kritischen Anwendungssituationen gestärkt werden kann. Alleine durch das Vertrauen des Nutzers in UAS wird sichergestellt, dass diese ihr volles Potential entfalten können.

In Rahmen seiner Forschung beschäftigt sich Dr. Nitzl insbesondere mit der Anwendung von künstlicher Intelligenz in nachrichtendienstlichen und sicherheitsrelevanten Bereichen und der Mensch-Maschinen-Interaktion.

Mehr Informationen zur Forschung von PD Dr. rer. pol. habil. Nitzl hier: https://www.unibw.de/ciss/team/christian-nitzl.


Titelbild: © iStockphoto/matejmo