Aktionen

Jutta-weber-kommentar: Unterschied zwischen den Versionen

Aus exmediawiki

Zeile 25: Zeile 25:
 
====woher kommen diese personenbezogenen Daten?====
 
====woher kommen diese personenbezogenen Daten?====
 
Amazon und beispielsweise Microsoft verlangen öffentlich ''mehr Transparenz'' bei Technologieunternehmen die Gesichtserkennungsdienste anbieten um ''Befangenheit und Diskriminierung'' zu bekämpfen<ref>https://blogs.microsoft.com/on-the-issues/2018/12/06/facial-recognition-its-time-for-action/</ref> und veröffentlichen gemeinam mit Facebook, UBER und Konsorten unaufhörlich Selbstverpflichtungen und erstellen Guides, welche die von ihnen veröffentlichte Plattformen wie z.B. Google zu ihrer Transfer-Learning-Plattfrom ''TensorflowHub'' in dem sie selbst auf die Problematik unbekannter Trainingsdaten macht und nebenbei Empfehlungen zu »fairem Maschinellem Lernen« gibt. Bleibt nur zu fragen wer hier definiert, was »fair« ist<ref>https://ai.google/responsibilities/responsible-ai-practices/</ref>?<br>
 
Amazon und beispielsweise Microsoft verlangen öffentlich ''mehr Transparenz'' bei Technologieunternehmen die Gesichtserkennungsdienste anbieten um ''Befangenheit und Diskriminierung'' zu bekämpfen<ref>https://blogs.microsoft.com/on-the-issues/2018/12/06/facial-recognition-its-time-for-action/</ref> und veröffentlichen gemeinam mit Facebook, UBER und Konsorten unaufhörlich Selbstverpflichtungen und erstellen Guides, welche die von ihnen veröffentlichte Plattformen wie z.B. Google zu ihrer Transfer-Learning-Plattfrom ''TensorflowHub'' in dem sie selbst auf die Problematik unbekannter Trainingsdaten macht und nebenbei Empfehlungen zu »fairem Maschinellem Lernen« gibt. Bleibt nur zu fragen wer hier definiert, was »fair« ist<ref>https://ai.google/responsibilities/responsible-ai-practices/</ref>?<br>
Facebook beispielsweise unterstützt mit 6,5 Millionen Euro ein Institut der TU München um solch ethischen Fragen auf den Grund zu gehen, das neue TUM Institute for Ethics in Artificial Intelligence<ref>https://netzpolitik.org/2019/warum-facebook-ein-institut-fuer-ethik-in-muenchen-finanziert/</ref>.
+
Facebook beispielsweise unterstützt mit 6,5 Millionen Euro ein Institut der TU München um solch ethischen Fragen auf den Grund zu gehen, das neue ''TUM Institute for Ethics in Artificial Intelligence''<ref>https://netzpolitik.org/2019/warum-facebook-ein-institut-fuer-ethik-in-muenchen-finanziert/</ref>.
 +
 
 +
 
 +
 
 +
 
 +
 
 +
 
 +
 
 +
 
 +
 
 +
 
 +
 
 +
 
 +
 
 +
 
 +
 
 +
 
 +
 
 +
 
 +
 
 +
 
 +
 
 +
----

Version vom 30. Juni 2019, 13:50 Uhr

KI als Kriegstechnologie

Künstliche Intelligenz (in erster Linie die Techonologie des deep learnings) wird als "Kriegstechnolgie", -im allgemeinen Sinne verstanden als eine Technologie im Einsatz konkreter Kampfhandlungen-, in erster Linie eingesetzt zur:

  • Navigation
  • Zielerkennung
  • Zielidentifikation
  • Angriffsplanung
  • Angriffsausführung
  • Als Assistenzsysteme für Kampfpiloten, um aus großer Entfernung heraus Abschussentscheidungen zu treffen, oder auch um autonom zu navigieren, d.h. Routen zu einem vordefinierten Ziel zu entwerfen, während Unvorhersehbares durch Machine Learning Vorhersagbar gemacht wird. Sie registrieren feindliche Taktiken, Verhaltensmuster und lernen aus diesen wie sie Geschossen ausweichen, auf mehrere Ziele gleichzeitig feuern und wie sie gemeinsam mit anderen Bots eigentständig Manöver ausüben.


Jutta Weber legt in ihrem Artikel jedoch den Fokus auf den Modellierungsprozess, welcher im Vorfeld stattfindet, d.h. die Weltmodelle, die es in die jeweilge Technik zu implementieren gilt und nicht auf die durch die während des maschinellen Lernens erzeugten Modelle. Laut Jutta Weber wird durch die präsidentielle menschliche Letztentscheidung, die nichtmenschliche Vorentscheidung verschleiert und der Souverän also somit verschoben. Gesprochen wird in erster Linie von Data Science, also von modernen No-SQL-Datenbanken, von Big Data, von Data Mining, Information Retrieval, Text-, Ton-, Sprach- und Geo-Analysemethoden, von Prozessen in denen Daten automatisiert klassifiziert, gruppiert, kombiniert und neu gruppiert werden, um aus ihnen heraus Vorhersagen treffen zu können.

KI als Cloud Service[1]

Mehr Semi als öffentlich diskutiert wurde dieser eigentlich sehr spezielle, jedoch breitflächig angewandte Service zum Beispiel im letzten Jahr, als die amerikanische Bürgerrechsvereinigung ACLU den Cloud Anbieter Amazon Web Services (AWS)[2] für den Betrieb des Internetdienstes Rekognition kritisierte. Ein Kern von Rekognition ist die Technologie des deep learnings.

ACLU's Kritik kam als Antwort auf den Vorstoß des US-Verteidigungsministerium im März 2018, die Daten des von ihm unterstellten Transportation Command in die sogenannte Amazon GovCloud zu migrieren. Ein Service, der zusammen mit der Amazon Secret Region aus der Kooperation mit den Geheimdiensten entstand. Kurz nach dieser Logistikabteilung des Militärs folgte das National Ground Intelligence Center nach, welches Informationen über feindliche Bodenkräfte sammelt.
Das Bundesinnenministerium bestätigte auf Anfrage im April diesen Jahres, die Speicherung der Daten von Körperkameras (Bodycams) in einem Cloud-Angebot von Amazon Web Services[3].

Ein weiterer Vorfall in diesem Kontext ereignete sich im April 2018, als 3100 Google-MitarbeiterInnen gegen das Militärprojekt Maven protestierten, welches von ihnen entwickelte Objekterkennungssoftware für Kampfdrohnen nutzbar machte. Die Google-Führungselite entschied sich daraufhin gegen eine Vertragsverlängerung mit dem US-Militär. Im selben Monat unterchrieb der Google-Konzern einen Kooperationsvertrag mit Atos. Dieser Konzern ist einer der größten IT-Dienstleister der Bundeswehr und betreut deren zentrale Rechenzentren.

“Machine Learning as a Service” als ein genereller Dienst der inzwischen von allen großen Cloud Anbietern angeboten wird, muß also bei einer Abhandlung der von Frau Jutta Weber gestellten Frage, der Frage nach tiefgreifenden Verflechtungen zwischen militärischen Entscheidungen und algorithmischen Auswertungen, eine zentrale Rolle spielen.

Desweiteren gilt es zu fragen:

woher kommen diese personenbezogenen Daten?

Amazon und beispielsweise Microsoft verlangen öffentlich mehr Transparenz bei Technologieunternehmen die Gesichtserkennungsdienste anbieten um Befangenheit und Diskriminierung zu bekämpfen[4] und veröffentlichen gemeinam mit Facebook, UBER und Konsorten unaufhörlich Selbstverpflichtungen und erstellen Guides, welche die von ihnen veröffentlichte Plattformen wie z.B. Google zu ihrer Transfer-Learning-Plattfrom TensorflowHub in dem sie selbst auf die Problematik unbekannter Trainingsdaten macht und nebenbei Empfehlungen zu »fairem Maschinellem Lernen« gibt. Bleibt nur zu fragen wer hier definiert, was »fair« ist[5]?
Facebook beispielsweise unterstützt mit 6,5 Millionen Euro ein Institut der TU München um solch ethischen Fragen auf den Grund zu gehen, das neue TUM Institute for Ethics in Artificial Intelligence[6].












  1. siehe hierzu u.a. die IMI-Analyse »Künstliche Intelligenz als Cloud Service, Folgen für Gesellschaft, Geheimdienst und Militär«, https://www.imi-online.de/2019/05/28/kuenstliche-intelligenz-als-cloud-service/
  2. Sog. Cloud Services bieten Dienste eines Rechenzentrums über das Internet an, von Festplattenspeicher über virtuelle Server bis hin zu höheren Softwarefunktionen.
  3. https://www.heise.de/newsticker/meldung/Bundespolizei-speichert-Bodycam-Aufnahmen-in-Amazons-AWS-Cloud-4324689.html
  4. https://blogs.microsoft.com/on-the-issues/2018/12/06/facial-recognition-its-time-for-action/
  5. https://ai.google/responsibilities/responsible-ai-practices/
  6. https://netzpolitik.org/2019/warum-facebook-ein-institut-fuer-ethik-in-muenchen-finanziert/