Sicherheitskonferenz Krems

Verantwortungsvoller Umgang

Bei der 19. Sicherheitskonferenz an der Donau-Universität Krems wurden Voraussetzungen und Herausforderungen für eine sichere und sinnvolle künstliche Intelligenz diskutiert.

Sita Mazumder: „KI ist Baustein für Analysen und Entscheidungen, deckt Muster und Schwachstellen auf.“
Sita Mazumder: „KI ist Baustein für
Analysen und Entscheidungen, deckt
Muster und Schwachstellen auf.“
© Donau-Universität-Krems/
Andrea Rescher

Was haben die vier weltbesten Pokerspieler und der Weltmeister im Schach gemeinsam? Sie alle wurden durch künstliche Intelligenz (KI) besiegt. Einst haben Maschinen die Arbeitstiere und alle möglichen Arten manueller Arbeit ersetzt. Nun stehen die Maschinen davor, immer mehr niedere Denkaufgaben zu übernehmen. „Künstliche Intelligenz ist allgegenwärtig. Sie ist weder als freundlich noch als feindlich einzustufen. Der Mensch alleine entscheidet, für welche Zwecke KI letztendlich eingesetzt wird“, sagte Walter Seböck, der Leiter des Zentrums für infrastrukturelle Sicherheit an der Donau-Universität Krems. Aufgrund der fortschreitenden Digitalisierung hat KI einen Schub erfahren und gilt als einer der großen Zukunftstrends.
Bei der 19. Sicherheitskonferenz am 20. Oktober 2021 in Krems (www.donau-uni.ac.at/sicherheitskonferenz), einer Kooperation zwischen Innenminis­terium und der Donau-Universität Krems, wurde darüber diskutiert, was man unter dem mittlerweile gängigen Begriff KI tatsächlich versteht. Was in der heutigen Realität möglich ist und welche Entwicklungen derzeit eher guter Stoff für Science-Fiction Filme wie „Terminator“ oder „I-Robot“ sind.

Enormes Potenzial, zahlreiche Risiken.

Besondere Aufmerksamkeit wurde der Frage gewidmet, was die Entwicklungen auf dem Gebiet für das Thema Sicherheit bedeuten. Sita Mazumder, Professorin an der Hochschule Luzern für Informatik und Wirtschaft, künstliche Intelligenz und Algorithmic Business, begab sich mit dem Publikum auf die Reise in die nähere und fernere Zukunft der künstlichen Intelligenz. Beginnend bei der derzeit noch beschränkten „Artificial Narrow Intelligence“ (ANI) – jener Intelligenz, die von den Menschen und ihren Ergebnissen gefüttert wird – bis hin zur „Artificial Super Intelligence“ (ASI), vor der einst Stephen Hawkings warnte. „Ich bin davon überzeugt, dass der gesellschaftliche und politische Diskurs über die Gestaltung der Zukunft dringend eröffnet werden muss – denn KI ist nicht mehr aus der Welt zu schaffen“, gab Mazumder zu bedenken. „In Begleitung mit Big Data stellt die künstliche Intelligenz den wesentlichen Baustein für Analysen und Entscheidungen dar, deckt Muster und Schwachstellen auf, lernt aus der Vergangenheit, simuliert die Zukunft und kann kontrollieren. Es stellt sich die Frage, wo wir heute tatsächlich stehen und was die Entwicklungen in puncto Sicherheit bedeuten. Verknüpft mit dem Blick auf Cyber-Sicherheit stellen sich Fragen, Lösungsansätze, aber auch Herausforderungen, die nur teilweise beantwortet werden können. Die obersten Gebote sind weiterhin, sensibilisiert und wachsam zu sein.“

Bessere Gesundheit und Lebensqualität durch KI.

Der Einsatz von KI verspricht eine hervorragende Zukunft, wenn es darum geht, menschliche Routinearbeiten zu übernehmen, Medikamente und Heilverfahren in Rekordzeiten zu entwickeln oder Wohlstand und Sicherheit herzustellen. „Künstliche Intelligenz kann zum Beispiel Verhaltensmuster identifizieren und berechnen, wie sich Menschen entwickeln. Damit bestimmt KI aber auch ein Wertesystem, das nur in der Anfangsphase von Menschen mitgegeben wird, sich aber in weiterer Folge verselbstständigt“, gibt Walter Seböck zu bedenken.

Realität versus Datenwelt.

Helmut Leopold vom Austrian Insitute of Technology (AIT) widmete sich dem Thema „Nutzen und Herausforderungen für eine sichere und sinnvolle künstliche Intelligenz“. Der Experte in Digitalisierungsfragen hob dabei die elementaren Herausforderungen für funktionierende KI-Systeme hervor. „Künstliche Intelligenz ist lediglich eine Maschine, eine reine Datenwelt, die nicht dem wirklichen Leben entspricht. Das was uns Menschen ausmacht, nämlich Gefühle und Empathie, fehlt jeglicher Form von künstlicher Intelligenz. Deshalb habe ich auch keine Angst vor einer zukünftigen Superintelligenz“, sagte Leopold.

Podiumsdiskussion.

Podiumsdiskussion: Florian Petauschnig, ORF, Maresa Meissl, Europäische Kommission, Walter Unger, Bundesheer, Daniel Wurm, Bundesheer, Wolfgang Ebner, Bundesministerium für Digitalisierung und Wirtschaftsstandort, Mike Pichler, Siemens.
Podiumsdiskussion: Florian Petauschnig, ORF, Maresa Meissl, Europäische Kommission, Walter Unger, Bundesheer,
Daniel Wurm, Bundesheer, Wolfgang Ebner, Bundesministerium für Digitalisierung und Wirtschaftsstandort,
Mike Pichler, Siemens. © Donau-Universität-Krems/Andrea Rescher

Moderator Florian Petautschnig, Wissenschaftsredakteur der ORF-Sendung Zeit im Bild, eröffnete die Diskussion mit der Frage: „KI – was wissen wir, was nutzen wir und was benötigen wir im Sinne der Sicherheit in Zukunft?“ In der Podiumsdiskussion erörterten Expertinnen und Experten der Europäischen Kommission, des Bundesheers, des Bundesminis­teriums für Digitalisierung und Wirtschaftsstandort und der Firma Siemens, welche ethischen Probleme der Einsatz von KI birgt, welche Kontrollmechanismen erforderlich sind, um eine Verselbstständigung oder Missbrauch zu verhindern, welche Qualitätskriterien zugrunde liegen müssen und in welchen wirtschaftlichen und gesellschaftlichen Bereichen der Einsatz von KI einen Mehrwert für die Menschheit darstellt.
Die Diskutierenden kamen zu dem Schluss, dass KI von Menschen erdacht und gemacht wurde, uns begleitet und das System von Menschenhand gesteuert wird. Es brauche einen verantwortungsvollen Umgang, Informationen und kritisches Hinterfragen von KI. Einigkeit herrschte auch darüber, dass der Tag der Singularität, an dem die Maschinen die menschliche Geistesarbeit ablösen könnten, noch lange hin ist.

Strategie der österreichischen Bundesregierung.

Die Bundesregierung entwickelte unter der Bezeichnung „Artificial Intelligence Mission Austria 2030“ (AIM AT 2030) eine Strategie entwickelt, um die Chancen künstlicher Intelligenz für Österreich realisieren und potenzielle Risiken minimieren zu können. Drei Ziele stehen dabei im Fokus: Zum Ersten ein am Gemeinwohl orientierter, breiter Einsatz von KI, der in verantwortungsvoller Weise auf Basis von Grund- und Menschenrechten, europäischen Grundwerten und des kommenden europäischen Rechtsrahmens erfolgen soll. Zum Zweiten soll sich Österreich als Forschungs- und Innovationsstandort für KI in Schlüsselbereichen und Stärkefeldern positionieren und zum Dritten soll die Wettbewerbsfähigkeit des österreichischen Technologie- und Wirtschaftsstandorts gesichert werden. In einem zusätzlichen Annex zur Strategie der Bundesregierung werden KI-Anwendungsfelder aufgelistet. Sie umfassen zahlreiche Sektoren, mitunter Industrie, Klimaschutz, Land- und Forstwirtschaft, Energie, Gesundheit, Bildung, Recht und Kultur. Weitere Informationen gibt es unter www.bmk.gv.at/themen/innovation/publikationen/ikt/ai/aimat.html .

KI im öffentlichen Sicherheitsbereich.

Der Einsatz von künstlicher Intelligenz im öffentlichen Sicherheitsbereich, beispielsweise in der Gesichtserkennung, stellt derzeit sowohl auf europäischer als auch auf österreichischer Ebene ein viel diskutiertes Thema dar – denn nicht alle Menschen können der Digitalisierungseuphorie etwas abgewinnen. Amnesty International beispielsweise hat in einem offenen Brief vom 7. Juni 2021 zum Ausdruck gebracht, dass einige Überwachungstechnologien so gefährlich seien, dass diese unweigerlich mehr Probleme verursachen würden, als sie im Stande seien zu lösen. Bei der Plenarsitzung des Europäischen Parlaments Anfang Oktober 2021 in Straßburg wurde festgehalten, dass für den Einsatz künstlicher Intelligenz bei den Strafverfolgungsbehörden strenge Leitlinien nötig seien. Durch strenge Sicherheitsvorkehrungen sollte Diskriminierung vermieden und das Recht auf Privatsphäre geschützt werden. In einem Entschließungsentwurf weist der Ausschuss für bürgerliche Freiheiten auf das Risiko algorithmischer Voreingenommenheit bei KI-Anwendungen hin und betont die Notwendigkeit menschlicher Aufsicht und starker rechtlicher Kontrollen. Die Abgeordneten betonen, dass die endgültigen Entscheidungen immer von Menschen getroffen werden und dass die Algorithmen transparent, nachvollziehbar und ausreichend dokumentiert sein sollten.
Es wird ein Verbot privater Gesichtserkennungsdatenbanken gefordert und der Ausschuss spricht sich gegen eine vorausschauende Polizeiarbeit auf der Grundlage von Verhaltensdaten aus. Um die Privatsphäre und das Recht auf Menschenwürde zu achten, fordern die Abgeordneten ein dauerhaftes Verbot der automatischen Erkennung von Personen im öffentlichen Raum sowie jeglicher Systeme zur Bewertung des sozialen Verhaltens von Bürgern, bei denen Personen aufgrund ihres Verhaltens eine Bewertung zugewiesen wird – als Grundlage für Bestrafungen oder Belohnungen. Weitere Informationen: www.europarl.europa.eu/news/de/agenda/briefing/2021-10-04/4/einsatz-von-kunstlicher-intelligenz-bei-der-polizei-strenge-leitlinien-notig .

Forschungsprojekt.

„Semi-autonomes chemisches Luftspürsystem (C-SALS)“, lautet der Projekttitel unter dem Walter Seböck, Ingeborg Zeller und Bettina Pospisil – alle Mitarbeiter der Donau-Uni-Krems – an einem System zur Erkundung von chemischen Massenvernichtungswaffen forschen. Finanziert wird das Projekt vom Bundesministerium für Landwirtschaft, Regionen und Tourismus und es zählt zum Sicherheitsforschungs-Förderprogramm „FORTE“. Das UN-Office of Counter-Terrorism (UNOCT) beobachtet eine zunehmende Frequenz von terroristischen Anschlägen auf sogenannte „Soft Targets“. Damit sind urbane Zentren gemeint – Großstädte und umliegende Gebiete. Besonders besorgniserregend sind Anschläge mit chemischen Kampfstoffen, da bei einem derartigen Szenario hohe Opferzahlen und schwerwiegende Folgen wahrscheinlich sind.
„Um im Ernstfall rasch und zielgerichtet auf solche Bedrohungen reagieren und den Schaden unter der Bevölkerung möglichst gering halten zu können, sind flexible und leistungsfähige Erkundungssystem notwendig. Bereits verfügbare luftgestützte chemische Spürsysteme sind nicht für diese Art von komplexen und zeitkritischen Einsätzen ausgelegt und verfügen nur über limitierte Sensorkapazitäten und Fähigkeiten zur Datenanalyse“, erläutern Walter Seböck und Ingeborg Zeller. „C-SALS hingegen soll als flexibel einsetzbares und drohnengestütztes Aufklärungssystem die Einsatzkräfte durch Generieren eines 3D-Lagebilds bei der taktischen Einsatzplanung und Durchführung unterstützten. Die wesentlichen Vorteile bestehen darin, dass sowohl Szenarien mit schweren als auch leichten Gasen adressiert werden können, das 3D-Umgebungsmodell direkte Hinweise auf potenziell gefährliche Stellen liefert und unterstützend bei Flugmanövern wirkt.“ Weitere Infos gibt es unter https://projekte.ffg.at/projekt/4098851 .

Gernot Burkert


Öffentliche Sicherheit, Ausgabe 1-2/2022

Druckversion des Artikels (PDF 174 kB)