Aktionen

Jutta-weber-kommentar: Unterschied zwischen den Versionen

Aus exmediawiki

Zeile 34: Zeile 34:
 
''"wieviel muss man über Algorithmen im Allgemeinen und die verwendeten im Besonden wissen, um "tragfähige" (überzeugende) Einschätzungen über diese Technologien machen zu können?"''
 
''"wieviel muss man über Algorithmen im Allgemeinen und die verwendeten im Besonden wissen, um "tragfähige" (überzeugende) Einschätzungen über diese Technologien machen zu können?"''
  
Es sind unter anderem, derzeit breitflächig, in der privaten, der universitären und in der militärischen Forschung eingesetzten modularen Scheinermächtigungen wie eben das KI-Meta-Framework »Tensorflow« von Google,  welche uns, just in den Momenten in denen wir diese Technologie für unsere eigenen jeweiligen Bedürfnisse nutzen möchten, von tiefgreifenderen gesellschaftsrelevanten Erkenntnissen bezüglich dieser Alltagstechnologie-im-Werden fern halten und auf diese Weise in die Techik eingeschriebene Zweck-Mittel-Relationen miteinander verschwimmen lassen.
+
Es sind unter anderem, derzeit breitflächig, in der privaten, der universitären und in der militärischen Forschung eingesetzten modularen Scheinermächtigungen wie eben das KI-Meta-Framework »Tensorflow« von Google,  welche uns, just in den Momenten in denen wir diese Technologie für unsere eigenen jeweiligen Bedürfnisse nutzen möchten, von tiefgreifenderen gesellschaftsrelevanten Erkenntnissen bezüglich dieser Alltagstechnologie-im-Werden fern halten und auf diese Weise in die Techik eingeschriebene Zweck-Mittel-Relationen miteinander verschwimmen lassen. Das Verkennen von Form und Inhalt, wie es Jutta Weber beschreibt, stellt jedoch, wie du auch sagst, Georg (Seite 2) einen integralen Bestandteil dieser Verfahrensweisen dar.
Wir verknüpfen derzeit ethische Fragestellungen mit beispielsweise Konzepten wie ''Bias'' gestellt, doch gerade diese Konzepte unterstellen ''wahre Werte'' welche in dem Artikel ja im Zentrum der Kritik stehen, ''wahre Werte'' also von denen es objektive Abweichungen gibt, nämlich gerade den ''Bias''.  
+
Wir verknüpfen derzeit ethische Fragestellungen mit beispielsweise Konzepten wie ''Bias'' und verkennen, dass gerade diese Konzepte ''wahre Werte'' unterstellen, welche in dem Artikel ja im Zentrum der Kritik stehen, ''wahre Werte'' von denen es objektive Abweichungen gibt, nämlich gerade den ''Bias''.
 +
 
 +
Die Frage für mich geht also eher in die Richtung einer Erkenntnis, im Sinne von Sichtbarmachen, an welchen Stellen genau und in welcher Form diese Techniken gestaltet werden und wie dort Machtmuster eingeschrieben werden.
 +
 
 +
 
  
  

Version vom 30. Juni 2019, 14:42 Uhr

KI als Kriegstechnologie

Künstliche Intelligenz (in erster Linie die Techonologie des deep learnings) wird als "Kriegstechnolgie", -im allgemeinen Sinne verstanden als eine Technologie für den Einsatz zu konkreten Kampfhandlungen-, in erster Linie eingesetzt zur:

  • Navigation
  • Zielerkennung
  • Zielidentifikation
  • Angriffsplanung
  • Angriffsausführung
  • Als Assistenzsysteme für Kampfpiloten, um aus großer Entfernung heraus Abschussentscheidungen zu treffen, oder auch um autonom zu navigieren, d.h. Routen zu einem vordefinierten Ziel zu entwerfen, während Unvorhersehbares durch Machine Learning Vorhersagbar gemacht wird. Sie registrieren feindliche Taktiken, Verhaltensmuster und lernen aus diesen wie sie Geschossen ausweichen, auf mehrere Ziele gleichzeitig feuern und wie sie gemeinsam mit anderen Bots eigentständig Manöver ausüben.


Jutta Weber legt in ihrem Artikel jedoch den Fokus auf den Modellierungsprozess, welcher im Vorfeld stattfindet, d.h. die Weltmodelle, die es in die jeweilge Technik zu implementieren gilt und nicht auf die durch die während des maschinellen Lernens erzeugten Modelle. Laut Jutta Weber wird durch die präsidentielle menschliche Letztentscheidung, die nichtmenschliche Vorentscheidung verschleiert und der Souverän also somit verschoben. Gesprochen wird in erster Linie von Data Science, also von modernen No-SQL-Datenbanken, von Big Data, von Data Mining, Information Retrieval, Text-, Ton-, Sprach- und Geo-Analysemethoden, von Prozessen in denen Daten automatisiert klassifiziert, gruppiert, kombiniert und neu gruppiert werden, um aus ihnen heraus Vorhersagen treffen zu können.

KI als Cloud Service[1]

Mehr Semi als öffentlich diskutiert wurde dieser eigentlich sehr spezielle, jedoch breitflächig angewandte Service zum Beispiel im letzten Jahr, als die amerikanische Bürgerrechsvereinigung ACLU den Cloud Anbieter Amazon Web Services (AWS)[2] für den Betrieb des Internetdienstes Rekognition kritisierte. Ein Kern von Rekognition ist die Technologie des deep learnings.

ACLU's Kritik kam als Antwort auf den Vorstoß des US-Verteidigungsministerium im März 2018, die Daten des von ihm unterstellten Transportation Command in die sogenannte Amazon GovCloud zu migrieren. Ein Service, der zusammen mit der Amazon Secret Region aus der Kooperation mit den Geheimdiensten entstand. Kurz nach dieser Logistikabteilung des Militärs folgte das National Ground Intelligence Center nach, welches Informationen über feindliche Bodenkräfte sammelt.
Das Bundesinnenministerium bestätigte auf Anfrage im April diesen Jahres, die Speicherung der Daten von Körperkameras (Bodycams) in einem Cloud-Angebot von Amazon Web Services[3].

Ein weiterer Vorfall in diesem Kontext ereignete sich im April 2018, als 3100 Google-MitarbeiterInnen gegen das Militärprojekt Maven protestierten, welches von ihnen entwickelte Objekterkennungssoftware für Kampfdrohnen nutzbar machte. Die Google-Führungselite entschied sich daraufhin gegen eine Vertragsverlängerung mit dem US-Militär. Im selben Monat unterchrieb der Google-Konzern einen Kooperationsvertrag mit Atos. Dieser Konzern ist einer der größten IT-Dienstleister der Bundeswehr und betreut deren zentrale Rechenzentren.

“Machine Learning as a Service” als ein genereller Dienst der inzwischen von allen großen Cloud Anbietern angeboten wird, muß also bei einer Abhandlung der von Frau Jutta Weber gestellten Frage, der Frage nach tiefgreifenden Verflechtungen zwischen militärischen Entscheidungen und algorithmischen Auswertungen, eine zentrale Rolle spielen.

Desweiteren gilt es zu fragen:

woher kommen diese personenbezogenen Daten?

Amazon und beispielsweise Microsoft verlangen öffentlich mehr Transparenz bei Technologieunternehmen die Gesichtserkennungsdienste anbieten um Befangenheit und Diskriminierung zu bekämpfen[4] und veröffentlichen gemeinam mit Facebook, UBER und Konsorten unaufhörlich Selbstverpflichtungen[5]. Facebook unterstützt mit 6,5 Millionen Euro ein Institut der TU München um solch ethischen Fragen auf den Grund zu gehen, das neue TUM Institute for Ethics in Artificial Intelligence.

Google erstellt Guides zu ihren Softwareprodukten, wie z.B. ihrer Transfer-Learning-Plattfrom TensorflowHub in dem sie selbst auf die Problematik unbekannter Trainingsdaten aufmerksam macht und Empfehlungen zu »fairem Maschinellem Lernen« gibt. Bleibt nur zu fragen wer hier definiert, was als »fair« zu gelten hat[6]?

Sind es nicht gerade solch Frameworks der Pseudo-Openess, welche uns „alle“ an den Vorzügen der Künstlichen Intelligenz teilhaben lässen, welche jedem und jeder Person ermöglichen KI-Technologien für ihre jeweiligen Bedürfnisse nutzen zu können, die ein sozusagen deeperes Problem zum Vorschein bringen? Ein Verständnisproblem welches auftritt, sobald versucht wird die jeweiligen Auswahlalgorithmen in Worte zu fassen um somit gemeinsachaftlich „ethische Debatten“ führen zu können, wie es ja nicht gerade wenige derzeit vorgeben, diese in tagespolitische Diskurslandschaften einzubringen.

Die entscheidende Frage wird von dir auf Seite 5 gestellt, Georg:
"wieviel muss man über Algorithmen im Allgemeinen und die verwendeten im Besonden wissen, um "tragfähige" (überzeugende) Einschätzungen über diese Technologien machen zu können?"

Es sind unter anderem, derzeit breitflächig, in der privaten, der universitären und in der militärischen Forschung eingesetzten modularen Scheinermächtigungen wie eben das KI-Meta-Framework »Tensorflow« von Google, welche uns, just in den Momenten in denen wir diese Technologie für unsere eigenen jeweiligen Bedürfnisse nutzen möchten, von tiefgreifenderen gesellschaftsrelevanten Erkenntnissen bezüglich dieser Alltagstechnologie-im-Werden fern halten und auf diese Weise in die Techik eingeschriebene Zweck-Mittel-Relationen miteinander verschwimmen lassen. Das Verkennen von Form und Inhalt, wie es Jutta Weber beschreibt, stellt jedoch, wie du auch sagst, Georg (Seite 2) einen integralen Bestandteil dieser Verfahrensweisen dar. Wir verknüpfen derzeit ethische Fragestellungen mit beispielsweise Konzepten wie Bias und verkennen, dass gerade diese Konzepte wahre Werte unterstellen, welche in dem Artikel ja im Zentrum der Kritik stehen, wahre Werte von denen es objektive Abweichungen gibt, nämlich gerade den Bias.

Die Frage für mich geht also eher in die Richtung einer Erkenntnis, im Sinne von Sichtbarmachen, an welchen Stellen genau und in welcher Form diese Techniken gestaltet werden und wie dort Machtmuster eingeschrieben werden.











  1. siehe hierzu u.a. die IMI-Analyse »Künstliche Intelligenz als Cloud Service, Folgen für Gesellschaft, Geheimdienst und Militär«, https://www.imi-online.de/2019/05/28/kuenstliche-intelligenz-als-cloud-service/
  2. Sog. Cloud Services bieten Dienste eines Rechenzentrums über das Internet an, von Festplattenspeicher über virtuelle Server bis hin zu höheren Softwarefunktionen.
  3. https://www.heise.de/newsticker/meldung/Bundespolizei-speichert-Bodycam-Aufnahmen-in-Amazons-AWS-Cloud-4324689.html
  4. https://blogs.microsoft.com/on-the-issues/2018/12/06/facial-recognition-its-time-for-action/
  5. https://netzpolitik.org/2019/firmen-verleihen-sich-selbst-ein-guetesiegel-fuer-kuenstliche-intelligenz/
  6. https://ai.google/responsibilities/responsible-ai-practices/