Aktionen

Jutta-weber-kommentar

Aus exmediawiki

Version vom 2. März 2020, 14:14 Uhr von C.heck (Diskussion | Beiträge) (→‎KI als Kriegstechnologie)
(Unterschied) ← Nächstältere Version | Aktuelle Version (Unterschied) | Nächstjüngere Version → (Unterschied)

KI als Kriegstechnologie

Künstliche Intelligenzen werden als "Kriegstechnolgie", -im allgemeinen Sinne verstanden als eine Technologie für den Einsatz zu konkreten Kampfhandlungen-, in erster Linie eingesetzt zur:

  • Navigation z.B. KI-gesteuerter Drohnenschwärme
  • Zielerkennung- und identifikation, z.B. ARGUS-IS
  • Angriffsplanung- und ausführung z.B. (C4I, Command, Control, Computers, Communications and Information)
  • Als Assistenzsysteme für Kampfpiloten, um aus großer Entfernung heraus Abschussentscheidungen zu treffen, oder auch um autonom zu navigieren, d.h. Routen zu einem vordefinierten Ziel zu entwerfen, während Unvorhersehbares durch Machine Learning Vorhersagbar gemacht wird. Sie registrieren feindliche Taktiken, Verhaltensmuster und lernen aus diesen wie sie Geschossen ausweichen, auf mehrere Ziele gleichzeitig feuern und wie sie gemeinsam mit anderen Bots eigentständig Manöver ausüben.

siehe auch: where-are-we-now?


Jutta Weber legt in ihrem Artikel jedoch den Fokus auf den Modellierungsprozess, welcher im Vorfeld stattfindet, d.h. die Weltmodelle, die es in die jeweilge Technik zu implementieren gilt und nicht auf die durch die während des maschinellen Lernens erzeugten Modelle. Laut Jutta Weber wird durch die präsidentielle menschliche Letztentscheidung, die nichtmenschliche Vorentscheidung verschleiert und der Souverän also somit verschoben. Gesprochen wird in erster Linie von Data Science, also von modernen No-SQL-Datenbanken, von Big Data, von Data Mining, Information Retrieval, Text-, Ton-, Sprach- und Geo-Analysemethoden, auch von Prozessen in denen Daten automatisiert klassifiziert, gruppiert, kombiniert und neu gruppiert werden, um aus ihnen heraus Vorhersagen treffen zu können, jedoch nicht mit direkten Fokus auf machine learning.


KI als Cloud Service[1]

Mehr Semi als öffentlich diskutiert wurde dieser eigentlich sehr spezielle, jedoch breitflächig angewandte Service zum Beispiel im letzten Jahr, als die amerikanische Bürgerrechsvereinigung ACLU den Cloud Anbieter Amazon Web Services (AWS)[2] für den Betrieb des Internetdienstes Rekognition kritisierte. Ein Kern von Rekognition ist die Technologie des deep learnings.

ACLU's Kritik kam als Antwort auf den Vorstoß des US-Verteidigungsministerium im März 2018, die Daten des von ihm unterstellten Transportation Command in die sogenannte Amazon GovCloud zu migrieren. Ein Service, der zusammen mit der Amazon Secret Region aus der Kooperation mit den Geheimdiensten entstand. Kurz nach dieser Logistikabteilung des Militärs folgte das National Ground Intelligence Center nach, welches Informationen über feindliche Bodenkräfte sammelt.
Das Bundesinnenministerium bestätigte auf Anfrage im April diesen Jahres, die Speicherung der Daten von Körperkameras (Bodycams) in einem Cloud-Angebot von Amazon Web Services[3].

Ein weiterer Vorfall in diesem Kontext ereignete sich im April 2018, als 3100 Google-MitarbeiterInnen gegen das Militärprojekt Maven protestierten, welches von ihnen entwickelte Objekterkennungssoftware für Kampfdrohnen nutzbar machte. Die Google-Führungselite entschied sich daraufhin gegen eine Vertragsverlängerung mit dem US-Militär. Im selben Monat unterchrieb der Google-Konzern einen Kooperationsvertrag mit Atos. Dieser Konzern ist einer der größten IT-Dienstleister der Bundeswehr und betreut deren zentrale Rechenzentren.

“Machine Learning as a Service” als ein genereller Dienst der inzwischen von allen großen Cloud Anbietern angeboten wird, muß also bei einer Abhandlung der von Frau Jutta Weber gestellten Frage, der Frage nach tiefgreifenden Verflechtungen zwischen militärischen Entscheidungen und algorithmischen Auswertungen, eine zentrale Rolle spielen.

Desweiteren gilt es zu fragen: woher kommen diese personenbezogenen Daten, wer gestaltet sie?'


Un-mögliches Intro

Amazon und beispielsweise Microsoft verlangen öffentlich mehr Transparenz bei Technologieunternehmen die Gesichtserkennungsdienste anbieten um Befangenheit und Diskriminierung zu bekämpfen[4] und veröffentlichen gemeinam mit Facebook, UBER und Konsorten unaufhörlich Selbstverpflichtungen[5]. Facebook unterstützt mit 6,5 Millionen Euro ein Institut der TU München um solch ethischen Fragen auf den Grund zu gehen, das neue TUM Institute for Ethics in Artificial Intelligence.

Google erstellt Guides zu ihren Softwareprodukten, wie z.B. ihrer Transfer-Learning-Plattfrom TensorflowHub in dem sie selbst auf die Problematik unbekannter Trainingsdaten aufmerksam macht und Empfehlungen zu »fairem Maschinellem Lernen« gibt. Bleibt nur zu fragen wer hier definiert, was als »fair« zu gelten hat[6]?

Sind es nicht gerade solch Frameworks der Pseudo-Openess, welche uns „alle“ an den Vorzügen der Künstlichen Intelligenz teilhaben lässen, welche jedem und jeder Person ermöglichen KI-Technologien für ihre jeweiligen Bedürfnisse nutzen zu können, die ein sozusagen deeperes Problem zum Vorschein bringen? Ein Verständnisproblem welches auftritt, sobald versucht wird die jeweiligen Auswahlalgorithmen in Worte zu fassen um somit gemeinsachaftlich „ethische Debatten“ führen zu können, wie es ja nicht gerade wenige derzeit vorgeben, diese in tagespolitische Diskurslandschaften einzubringen.

Die entscheidende Frage wird von dir auf Seite 5 gestellt, Georg:
"wieviel muss man über Algorithmen im Allgemeinen und die verwendeten im Besonden wissen, um "tragfähige" (überzeugende) Einschätzungen über diese Technologien machen zu können?"

Es sind unter anderem, derzeit breitflächig, in der privaten, der universitären und in der militärischen Forschung eingesetzten modularen Scheinermächtigungen wie eben das KI-Meta-Framework »Tensorflow« von Google, welche uns, just in den Momenten in denen wir diese Technologie für unsere eigenen jeweiligen Bedürfnisse nutzen möchten, von tiefgreifenderen gesellschaftsrelevanten Erkenntnissen bezüglich dieser Alltagstechnologie-im-Werden fern halten und auf diese Weise in die Techik eingeschriebene Zweck-Mittel-Relationen miteinander verschwimmen lassen. Das Verkennen von Form und Inhalt, wie es Jutta Weber beschreibt, stellt jedoch, wie du auch sagst, Georg (Seite 2) einen integralen Bestandteil dieser Verfahrensweisen dar. Wir verknüpfen derzeit häufig in tagespolitischen Debatten, ethische Fragestellungen mit beispielsweise Konzepten wie Bias und verkennen, dass gerade diese Konzepte wahre Werte unterstellen, welche in dem Artikel ja im Zentrum der Kritik stehen, wahre Werte von denen es objektive Abweichungen gibt, nämlich gerade den Bias.

Diese, meist aus Forschungsblackboxen heraus geöffneten Räume zur gemeinschaftlichen Diskussion sind leider nur sehr schwer aus unserem Lebensalltag heraus zu erschließen. Ein Verstehen von unten bleibt somit zunehmend auf der Strecke.

Doch gerade eben dieses Verstehen benötigen wir in dieser Auseinandersetzung mit den Verquickungen von ziviler- und Militärtechnologien so sehr, in dieser Debatte, in der es zunehmend, wie Frau Weber auch anstößt, um die Frage nach dem Souverän geht.

Eine zentrale Frage wird also sein, wie weit wir uns gemeinsam in diesen vordefinierten, den im Fokus stehende generalisierten Raum hineinbegeben, in welchem einst in Erscheinung getretenes von seinen Unschärfen und Zweideutigkeiten bereinigt, sprich in Form gebracht wurde.

Dieses in-Form-bringen, die Formalisierung, welche die eigentliche Vermittlerrolle zwischen unserem Denken und den Prozessabläufen lernfähiger Zeichensysteme einnimmt, gilt es genauer zu betrachten.

Und einen elementaren Schlüssel um jene Räume gemeinschaftlich zu erschließen, halten wir durch unsere Fähigkeit Konkretes zu abstrahieren alle in unseren Händen.

Wir BürgerInnen und Bürger westlicher Industrienationen (über-)leben durch diese geistige Leistung sich vom Konkreten gedanklich zu lösen, es in den Kontext eines größeren Ganzen zu stellen, nicht nur in ihrer lebensweltlichen Praxis (im Herstellen, im Straßenverkehr, u.s.w.) auch in unseren Handlungsprinzipien, „Handle nur nach derjenigen Maxime, durch die du zugleich wollen kannst, dass sie ein allgemeines Gesetz werde“ und in der Abschätzung ihrer Folgen.

Formale Systeme sind es also nicht per se, die uns derzeit daran hindern in unserem Lebensalltag miteinander in Beziehung zu treten oder die Folgen der KI zu diskutieren. Im Gegenteil, wir bezeichnen uns als intelligente Wesen, da wir stets wählen (legere) zwischen (inter) objektiv-gültiger moralischer Verpflichtung und dem Vollzug unserer jeweiligen konkreten Handlung im Hier & Jetzt. Wir schreiben Gesetze, sie "sind künstliche netze, drausz groszes entgangen, dran kleines bleibt hangen" (Friedrich von Logau, 1604- 1655) und wir lassen diese nicht nur für uns schreiben. Gerade jenes rationale Denken, das sich in Software und anderen formalen Kommunikationsmitteln niederschlägt, ist eine Form öffentlichen Denkens.

Lässt sich auf Grundlage dieser Betrachtungsweise eine ebenbürtigere Diskurslandschaft über kulturelle, politische und über soziale Konsequenzen von KI-Technologien in Militär und im Zivilen gestalten, als sie derzeit stattfindet?

Lassen sich, gerade die sprachlichen Grenzen, zumindest wenn es darum geht gemeinschaftlich gesellschaftsrelevante Fragestellungen adäquat auszuformulieren, gemeinsam überwinden?

Wie unterhalten wir uns derzeit miteinander über KI und ihre Folgen? Benötigen wir neue Begriffe um uns diesen neuen Handlungsraum in dem Maschinen und Menschen gleichzeitig agieren und entscheiden zu erschließen? Und wenn ja, wie fragen wir gemeinschaftlich nach deren Benennung?

Als Amnesty International unlängst ein generelles Verbot von tödlichen autonomen Waffen vor der UN-Konferenz in Genf im Mai letzten Jahres forderte, führten die RegierungsexpertInnen daraufhin eine Grundsatzdebatte, welche Geräte und Systeme überhaupt als autonome Waffen gelten können und sollten.

Die Frage nach den Erfassungsmethoden einzelnder Individuen, nach deren Kategorisierung, der Generierung einer digital identity, ihrer letztendlichen Identifizierung, bevor dieselben technischen Systeme dann zu tödlichen autonomen Waffen mutieren, steht an dieser Stelle in wweiter Ferne.

Braucht es hierfür grundlegend neue Ansätze und Plattformen des Austausches? Und wie kann eine gemeinsame Sprache, die nicht nur Informatiker und Techniker verstehen, entwickelt werden?

Die Fragen, die ich mir stelle gehen also eher in die Richtung nach einer Erkenntnis, im Sinne von Sichtbarmachen, an welchen Stellen genau und in welcher Form diese Techniken gestaltet werden und wie dort und auch in welcher Sprache dort Machtmuster eingeschrieben werden?

Ich versuche sie an dieser Stelle nun zu Überkategorisieren:


Wir tragen die Fähigkeit zur Abstraktion also in uns, kulturell bedingt oder auch nicht, dies ist jedoch ein oben bereits gesetzter Ausgangspunkt.

Diese Fähigkeit brachte uns einst zu der Frage, die in dieser Debatte mehr als eine gewisse Relevanz trägt, sie ist dieser elementar: Wie gehen wir mit Komplexitäten um? Denn diese entstanden durch die Kräfte unserer Abstraktionsfähigkeit und durch Glaubenssysteme die Unstarres mit Hilfe von Starren und Bewegtes durch Unbewegtes einst denken ließen[7].

Wie gehen wir als Gesellschaft, mit der Unmöglichkeit des Verstehens als Einzelner um?

Mit der inzwischen unumgänglich gewordenen und dauerhaften Notwendigkeit zur Abstraktion?

Wie gehen wir, als Gesellschaft mit Komplexitäten um?

Gibt es so etwas wie ein ‚kollektives Verstehen‘? Denn genau das benötigen wir ja anscheinend in dieser Debatte. Und wenn ja, wie können wir auf Grundlage dessen individuelle Gewissensentscheidungen treffen? Aus unseren gesellschaftlich geprägten, einkonditionierten Mustern entrinnen, sind es doch gerade diese die beobachtbar, die meßbar, die formalisierbar sind. Unsere personalen Eigenschaften die uns als gesellschaftliches Subjekt erst in Erscheinung treten lassen. Sind es doch gerade diese die implementierbar sind, die in die im Fokus stehenden Techniken eingeschrieben werden, machine readable gemacht werden können. Unser gemeinsamer Sprachgebrauch, von Kindesbeinen an. Unsere Verhaltensmuster, Bewertungsmuster, Denkmuster, von Kindesbeinen an. Gesellschaftskollektive via Schule, Studium, Ausbildung, Vereine, Gruppenzugehörigkeiten.

Wie gehen wir mit Unmöglichkeiten in einem Raum voller Möglichkeiten um?


zurück zur Kill Chain:

Un-möglichkeiten, die Erste

Von wem und woher?

  • Die Un-möglichkeit an verifiziertes, und/oder an rohes Datenmaterial als Grundlage zur empirischen Forschung zu gelangen.

Was

  • Die Un-möglichkeit, dieses Material lesbar zu machen, es zu analysieren, einer Öffentlichkeit zugänglich machen, bzw. es für diese auch handhabbar zu machen, darüber miteinander sprechen zu können.
  • Welche Interessenverbände liegen hinter den Entscheidungen, diese oder jene Datensätze einer Öffentlichkeit Preis zu geben?

Georg Zitat: Im Kern geht es bei der Erstellung von Tötungs- und Beobachtungslisten um „Counter-Terrorism“, also Praktiken, militärische Taktiken, Strategien und Technologien von Militär, Regierung und Geheimdiensten um Terrorismus wirksam zu bekämpfen und vor allem in Zukunft zu verhindern.


Wer erscheint Wie und Warum?

Georg Zitat: Die Herausforderung bestünde in diesem Fall darin, die an vergangenen terroristischen Handlungen beteiligten Personen zu identifizieren und ihnen die aktive und bewusste Beteiligung nachzuweisen.


des Betrachters logischer Konflikt während der konstruktionistischen Modellbildung

Georg Zitat: Wie aber sind Attentäter zu identifizieren, die nicht schon früher an terroristischen Akten beteiligt waren?

Es geht also immer darum in terroristische Handlungsnetze einzugreifen, bevor der eigentliche Terrorakt ausgeführt wird.


Frage 1, die Frage nach der Tat, der jeweiligen Realitätsbildung durch Zeichen:

  • Was ist ein "terroristisches Atentat"?
    • In wie weit und welche Algorithmen spielen zur Definition einer solchen Tat eine Rolle?


Frage 2, die Frage nach der Person, nach ihrer Be-Zeichnung:

  • Welche Personen zählen, auf Grund der in Frage 1 gestellten Betrachtungsweise, zu dem Täterkreis der Militanten?
    • In wie weit und welche Algorithmen machten Teile dieser Personen zählbar/meßbar und letzten Endes auch implementierbar?

Grundlegendes zu Georgs Sprachspiel

Realitäten werden gebildet:

1. Terroristische Handlungsnetze als solche be-zeichnen

  • um diese erkennen zu können

Prozessierbare Modelle terroristischer Netzwerke reflektieren die ihnen zugrunde liegenden und gelegten Modellannahmen und Daten-, Variable- und Parameterauswahlentscheidungen.

2. Die Bereinigung von Unschärfen und Zweideutigkeiten

  • Welche Variablen und Beziehungen werden als wesentlich in das Modell aufgenommen?
  • Welche werden vernachlässigt oder ausgebledet?
  • Welche werden zu Variablen, welche zu Konstanten?

3. Auf dieser Zeichenebende besteht die Möglichkeit eines Ein-greifens

  • im Sinne einer Einschreibung
    • ohne die Zeichen selbst hierfür noch verstehen zu müssen, einzig die der bestehenden Variablen

4. Diese hand-losen Eingriffe gilt es nun wiederum in konkrete Handlungsanweisungen zu übertragen

das heißt die vormals bereinigten Zeichen werden wieder mit Unschärfen aufgeladen:

  • die generierten Zeichen werden zielgerichtet ins Phänomenale überführt
    • die Zielsetzung aus 3. steht im ständigen Abgleich mit der jeweiligen Zeichensetzung aus 1.

5. Prävention ist in diesem Sinne die Unschärfe selbst

die Realität, welche auf Ebene der Zeichen eingetreten ist, in Wirklichkeit jedoch nie geschah.

Georg Zitat: Prävention heißt hier Verhinderung eines bereits in Planung befindlichen Terroraktes. Wobei diese Planung ein konstruktionistisches Modell darstellt, welches in die jeweilige Technik implementiert wurde, sie wurde ihr eingeschrieben und tritt erst durch eine Unschärfenaufladung in Erscheinung, d.h. auf des Zeichens Weg von machine readable zu human readable.


Notwendigkeit der Formalisierung

zur Erbringung von

  • Nachweisen zur aktiven- und bewußten Beteiligung
  • einer in Echtzeit verifizierbaren Identifizierung

Die Frage nach der Vermittlerrolle zwischen Denk- und Maschinenprozessen, der jeweiligen Formalisierung, sowie auch deren Implementierung in die Technik um aus diesen neu entstandenen (errechneten) Zeichen heraus dann zukünftige Realitäten zu bilden, sprich Fiktionen.


Un-möglichkeiten, die Zweite

für wen und wofür?

  • Wer kann sie lesen, bzw. interpretieren?

wo stehe ich eigentlich?

  • Welche Position nehme ich in diesem Gedankenspiel ein?
  • Welche Perspektive bei dieser Betrachtung von Ereignissen und Geschehnissen, die auf den ersten Blick meinem ganz konkreten Lebensalltag doch in recht weiter Ferne liegen, nehme ich ein?
  • Welches künstlerische, wissenschaftliche, mitmenschliche, soziale, oder aber auch politische Interesse leitet mich dazu an, mich für faelschlicherweise als militant eingestufter personen und personengruppen einzusetzen, überhaupt ein Interesse fuer diese zu hegen, kenne ich doch keinen einzigen dieser personen persoenlich?

Un-möglichkeiten, die Dritte

wie?


Georgs Sprachspiel

zuerst gilt es also zu studieren, in wie "fern"

wirkliche Ereignisse als terroristische Attentate

&

wirkliche Personen als Terroristen

in konstruktionistischen Modellen abgebildet werden:

Konstruktion einer ...Liste

  • Ursachenbekämpfungsliste
  • Präventionsliste
  • Unschärfenliste

Georg Zitat:

Die ideale Prävention würde sich ausschließlich auf terroristische Anschläge in der Zukunft konzentrieren und alle daran beteiligten Personen und ihre Vernetzung aufführen. In diese Idealliste würde immer dann ein neuer Name eingetragen werden, sobald sich eine Einzelperson oder Gruppe entschließt, einen terroristischen Anschlag zu verüben und sich aktiv an die Vorbereitung und Durchführung des Vorhabens macht. Jeder, der in das Vorhaben eingeweiht wird, tauchte ebenfalls im Moment seiner Einbindung in der Liste auf. Was die 100%ige Aufklärung eines Tathergangs im Nachhinein rekonstruiert, würde im Moment des Geschehens in Echtzeit protokolliert.

und weiter:

Es ist klar, dass eine solche Präventionsliste ein reines Gedankenkonstrukt ist – eine unrealisierbare Fiktion. Wir haben keinen Zugang zu den Gedanken und Absichten der Menschen. Absichten und konkrete Vorhaben müssen aus beobachtbaren Handlungen oder Äußerungen abgeleitet werden. Es geht immer um Spuren, die Absichten in der Realität hinterlassen.

und weiter:

Aus einzelnen beobachtbaren Vorgängen, Spuren und äußeren Handlungen einen geplanten Anschlag abzuleiten erfordert Modelle, Gedankenspiele und Spekulation. Es kann dabei keine absolute Sicherheit geben. Ein Verdacht kann sich verdichten, wenn neue Handlungen zum gegenwärtigen Modell passen oder muss verworfen werden, weil neue Daten dagegen sprechen. Sollen Attentate möglichst sicher verhindert werden, geraten zwangsweise Personen unter Beobachtung, die in der Vergangenheit noch nicht durch die gleiche Straftat oder auch nur durch kleinere Strafdaten und Gewaltbereitschaft aufgefallen sind.


Die Konzentration bei der Erstellung einer solchigen Liste in Form eines Künstlichen Neuronalen Netzes liegt also ausschließlich auf der Prävention terroristischer Anschläge -in naher Zukunft gelegen-,

  1. durch die Verhinderung einer kollektiven Anschlagsplanung.
  2. durch eine Auflistung aller daran zukünftig (fiktiven) beteiligter Personen

1. die konkrete Handlung

Konkrete Handlungen von Personen und/oder Personengruppen können sein:

  • Handlungen die sich aktiv an konkrete Vorbereitungen zu einem prospektiven Anschlag machen
  • Spuren die darauf hindeuten (Kommunikationsverläufe, Onlinerecherchen, Bewegungsmuster, Äußerungen, etc.)

Georg Zitat: Absichten und konkrete Vorhaben müssen aus beobachtbaren Handlungen oder Äußerungen abgeleitet werden.

Wir benötigen also beobachtbare Handlungen:

  • Handlungen müssen 1. beobachtbar gemacht werden
  • und 2. sie müssen sichtbar gemacht werden

Als Grundlage hierzu soll die anwendungsspezifische Funktion des von Edward Snowden geleakten Spionagesoftwarepaket XKeyscore dienen.
siehe: Bewegungsmuster & unvorhergesehenes Verhalten

weiterführende Links:




  1. siehe hierzu u.a. die IMI-Analyse »Künstliche Intelligenz als Cloud Service, Folgen für Gesellschaft, Geheimdienst und Militär«, https://www.imi-online.de/2019/05/28/kuenstliche-intelligenz-als-cloud-service/
  2. Sog. Cloud Services bieten Dienste eines Rechenzentrums über das Internet an, von Festplattenspeicher über virtuelle Server bis hin zu höheren Softwarefunktionen.
  3. https://www.heise.de/newsticker/meldung/Bundespolizei-speichert-Bodycam-Aufnahmen-in-Amazons-AWS-Cloud-4324689.html
  4. https://blogs.microsoft.com/on-the-issues/2018/12/06/facial-recognition-its-time-for-action/
  5. https://netzpolitik.org/2019/firmen-verleihen-sich-selbst-ein-guetesiegel-fuer-kuenstliche-intelligenz/
  6. https://ai.google/responsibilities/responsible-ai-practices/
  7. siehe: Henri Bergson: »Schöpferische Entwicklung«, Zürich, 1927, s. 276