Krieg & KI
Aus exmediawiki
Version vom 17. Juni 2019, 11:18 Uhr von C.heck (Diskussion | Beiträge) (→Technologien zur Zielerfassung)
Präsentationsfolie zum Download: Krieg-und-KI-in-Ramberg.pdf
In dieser Ausarbeitung soll es weniger um die Frage gehen,
- ob so called 'Killerroboter' "entpersonifizierte Menschen", als eine technisch-administrative Maßnahme töten dürfen?
- in wie weit eine Maschinenlesbarmachung gesellschaftlicher Subjekte die Würde des Menschen antastet?
- ob wir Tötungsmaschinen Kraft der Entscheidungen schenken so0llten, diese letzten Endes materielle Sache, dies Ding also, zu dem der anvisierte Mensch während der Mensch/Maschine-Kampfhandlung wurde, zu zerstören?
als vielmehr um die Frage nach der unbeschränkt verschiebbaren Verantwortung, einer "Verantwortung des Niemand" so Hannah Arendt,
- nach Forschungsblackboxen in der Grundlagenforschung
- nach intransparenten Entscheidungs- und Befehlsketten
- nach closed sources but open source / nach out sourcing
- und letzten Endes nach sprachlichen Hürden diese derzeit öffentlich diskutieren zu können
Inhaltsverzeichnis
Von welchen Technologien sprechen wir, sprechen wir von Kriegstechnologien...?
There’s no difference between the private sector and the military:
“Marketing or death by drone, it’s the same math, ... You could easily turn Facebook into that. You don’t have to change the programming, just the purpose of why you have the system.”[1]
Wir schreiben die Jahre 2010-13:
- Chelsea Mannings "Collateral Murder"
- Wikileaks
- die Snowden Leaks
- akribische Aufarbeitungen von rohem (geleaktem) Datenmaterial
- Fast täglich neue Skandalmeldungen: PRISM / XKeyscore / BND / NSA / Ramstein / drone war / Afghanistan / Jemen / Somalia / Pakistan ...
- neue Terminologien finden Einkehr in unsere Alltagsprache: Kollateralschaden / falsos positivos / human in the loop / Metadata / Tötungslisten ...
Technologien zur Zielerfassung
"Gorgon Stare Test uncovers Major Glitches The US Air Force’s much-touted new Intelligence, surveillance and Reconnaissance (ISR) System for use with remotely piloted Aircraft which is developed to be used in Afghanistan has significant operational glitches and is not ready to be fielded, Air Force Field Testers conclude."
Gorgon Stare, Ein Aufklärungs- und
Überwachungssystem der U.S. Air Force[3]
Die US Air Force bezeichnet dieses System als
„wide-area surveillance sensor system“, hierzu
James O. Poss (U.S. Airforce Assistant Deputy
Chief): „Gorgon Stare will be looking at a whole city, so there will be no way for the adversary to know what we’re looking at, and we can see everything.“
Es ermöglicht eine Überwachung von 16km2. Die
Einzelbilder der Kameras betragen je 5 Millionen
Pixel. Aus ihnen kann ein Gesamtbild von 1,6
Milliarden Pixel erzeugt werden.
Amerikanische Drohnen haben mit diesem System
allein im Jahre 2009, Videoaufnahmen im Umfang
von 24 Jahren generiert[4]
„Am 2. September 2010 verkündeten die US-Behörden einen wichtigen Taliban-Anführer ausgeschaltet zu haben in Takhar, Afghanistan. Tatsächlich hatten sie Zabet Amanullah getötet. Einen im Wahlkampf stehenden Zivilisten. Die Drohnenpiloten haben keinen Namen gejagt. Sie haben auf das Mobiltelefon gezielt.“
"The drone papers"
https://theintercept.com/drone-papers/
»The Intercept« wurde ein Magazin mit geheimen Dias zugespielt, die ein Fenster auf das interne Verfahren öffnen, das in einer wichtigen Periode des US-Drohnen-Krieges – während der Kill or Capture Operations (der Einsätze zum Töten oder Gefangennehmen von Zielpersonen) des US-Militärs in den Jahren 2011 bis 2013 – üblich war.
Die Dokumente, die auch Aufschluss über die von den Special Operations Forces beklagten Mängel und Flops des Drohnen-Programms geben, stammen von einer Quelle innerhalb der US-Geheimdienste, die an Operationen und Programmen beteiligt war, die auf den Dias dargestellt werden.
Techniken zur Opfergenerierung
Wie sprechen wir von diesen?
Wer spricht?
wie sprechen wir über kulturelle konsequenzen konkreter einsätze neuer technologien?
start bei 32:49:
der psychologische Effekt des Automation Bias: der besagt, dass Menschen dazu neigen, einer automatisierten Entscheidung übermäßig viel zu vertrauen Transfer Learning, wo bestehende Modelle angepasst werden, um eine neue Aufgabe zu lösen. ramstein machtkaputt-video dual use von welchen technologien sprechen wir, sprechen wir von kriegstechnologien in der alogrithmischen Kriegsführung? nicht nur die us- streitkräfte source out wo es nur geht (projekt maven) The DoD’s Project Maven initiative is using open-source code currently available to Google Cloud users to help identify objects in the military’s drone footage. The employees’ primary concern is that this project could eventually grow into using the AI to control and even deploy weapons from drones, despite company representatives stating otherwise. https://9to5google.com/2018/04/04/should-google-develop-ai-military-drones-poll/ technologien, gesichtserkennung google wo? steuerung << ?? auch die bundeswehr ... (amazon << rekognition << what adversarial?? battle management systems << bml << NLP << siri << bochum adversarial attack bml: Such initiatives offer the potential for C4I systems to be able to easily switch between interacting with real people and systems, including robotics and autonomous systems, and simulated people and systems. C4I << Command, Control, Communications, Computers, and Intelligence privat << atos, siemens, bosch, fraunhofer, max planck, EU-Forschungsprogramme FP7 und Horizon2020import boto3 BUCKET = "amazon-rekognition" KEY = "test.jpg" FEATURES_BLACKLIST = ("Landmarks", "Emotions", "Pose", "Quality", "BoundingBox", "Confidence") def detect_faces(bucket, key, attributes=['ALL'], region="eu-west-1"): rekognition = boto3.client("rekognition", region) response = rekognition.detect_faces( Image={ "S3Object": { "Bucket": bucket, "Name": key, } }, Attributes=attributes, ) return response['FaceDetails'] for face in detect_faces(BUCKET, KEY): print "Face ({Confidence}%)".format(**face) # emotions for emotion in face['Emotions']: print " {Type} : {Confidence}%".format(**emotion) # quality for quality, value in face['Quality'].iteritems(): print " {quality} : {value}".format(quality=quality, value=value) # facial features for feature, data in face.iteritems(): if feature not in FEATURES_BLACKLIST: print " {feature}({data[Value]}) : {data[Confidence]}%".format(feature=feature, data=data) """ Expected output: Face (99.945602417%) SAD : 14.6038293839% HAPPY : 12.3668470383% DISGUSTED : 3.81404161453% Sharpness : 10.0 Brightness : 31.4071826935 Eyeglasses(False) : 99.990234375% Sunglasses(False) : 99.9500656128% Gender(Male) : 99.9291687012% EyesOpen(True) : 99.9609146118% Smile(False) : 99.8329467773% MouthOpen(False) : 98.3746566772% Mustache(False) : 98.7549591064% Beard(False) : 92.758682251% """
- ↑ https://www.theguardian.com/us-news/2018/oct/07/chelsea-manning-wikileaks-whistleblowing-interview-carole-cadwalladr
- ↑ http://defensesystems.com/articles/2011/01/24/gorgon-stare-test-shows-serious-glitches.aspx
- ↑ http://www.flightglobal.com/news/articles/sierra-nevada-fields-argus-is-upgrade-to-gorgon-stare-400978/
- ↑ Grégoire Chamayou, »Ferngesteuerte Gewalt, Eine Theorie der Drohne«, 2013, Paris, s. 50
- ↑ Kate Clark, »The Takhar attack, Targeted killings and the parallel worlds of US intelligence and Afghanistan«, Afghanistan analyst network Thematic Report, Juni 2011, zitiert von Derek Gregory: http://geographicalimaginations.com