Krieg & KI: Unterschied zwischen den Versionen
Aus exmediawiki
C.heck (Diskussion | Beiträge) |
C.heck (Diskussion | Beiträge) |
||
Zeile 13: | Zeile 13: | ||
=Von welchen Technologien sprechen wir, sprechen wir von Kriegstechnologien?= | =Von welchen Technologien sprechen wir, sprechen wir von Kriegstechnologien?= | ||
+ | '''There’s no difference between the private sector and the military:''' | ||
+ | |||
+ | ''“Marketing or death by drone, it’s the same math, ... You could easily turn Facebook into that. You don’t have to change the programming, just the purpose of why you have the system.”'' | ||
+ | * Zitat Chelsea Manning: https://www.theguardian.com/us-news/2018/oct/07/chelsea-manning-wikileaks-whistleblowing-interview-carole-cadwalladr | ||
+ | |||
==Technologien zur Zielerfassung== | ==Technologien zur Zielerfassung== | ||
==Techniken zur Opfergenerierung== | ==Techniken zur Opfergenerierung== |
Version vom 17. Juni 2019, 10:24 Uhr
Präsentationsfolie zum Download: Krieg-und-KI-in-Ramberg.pdf
In dieser Ausarbeitung soll es weniger um die Frage gehen,
- ob so called 'Killerroboter' "entpersonifizierte Menschen", als eine technisch-administrative Maßnahme töten dürfen?
- in wie weit eine Maschinenlesbarmachung gesellschaftlicher Subjekte die Würde des Menschen antastet?
- ob wir Tötungsmaschinen Kraft der Entscheidungen schenken so0llten, diese letzten Endes materielle Sache, dies Ding also, zu dem der anvisierte Mensch während der Mensch/Maschine-Kampfhandlung wurde, zu zerstören?
als vielmehr um die Frage nach der unbeschränkt verschiebbaren Verantwortung, einer "Verantwortung des Niemand" so Hannah Arendt,
- nach Forschungsblackboxen in der Grundlagenforschung
- nach intransparenten Entscheidungs- und Befehlsketten
- nach closed sources but open source / nach out sourcing
- und letzten Endes nach sprachlichen Hürden diese derzeit öffentlich diskutieren zu können
Inhaltsverzeichnis
Von welchen Technologien sprechen wir, sprechen wir von Kriegstechnologien?
There’s no difference between the private sector and the military:
“Marketing or death by drone, it’s the same math, ... You could easily turn Facebook into that. You don’t have to change the programming, just the purpose of why you have the system.”
- Zitat Chelsea Manning: https://www.theguardian.com/us-news/2018/oct/07/chelsea-manning-wikileaks-whistleblowing-interview-carole-cadwalladr
Technologien zur Zielerfassung
Techniken zur Opfergenerierung
Wie sprechen wir von diesen?
Wer spricht?
wie sprechen wir über kulturelle konsequenzen konkreter einsätze neuer technologien?
start bei 32:49:
der psychologische Effekt des Automation Bias:
der besagt, dass Menschen dazu neigen, einer automatisierten Entscheidung übermäßig viel zu vertrauen
Transfer Learning, wo bestehende Modelle angepasst werden, um eine neue Aufgabe zu lösen.
ramstein
machtkaputt-video
dual use
von welchen technologien sprechen wir, sprechen wir von kriegstechnologien in der alogrithmischen Kriegsführung?
nicht nur die us- streitkräfte source out wo es nur geht (projekt maven)
The DoD’s Project Maven initiative is using open-source code currently available to Google Cloud users to help identify objects in the military’s drone footage. The employees’ primary concern is that this project could eventually grow into using the AI to control and even deploy weapons from drones, despite company representatives stating otherwise.
https://9to5google.com/2018/04/04/should-google-develop-ai-military-drones-poll/
technologien,
gesichtserkennung google wo?
steuerung << ??
auch die bundeswehr ... (amazon << rekognition << what adversarial??
battle management systems << bml << NLP << siri << bochum adversarial attack
bml:
Such initiatives offer the potential for C4I systems to be able to easily switch between interacting with real
people and systems, including robotics and autonomous systems, and simulated people and systems.
C4I << Command, Control, Communications, Computers, and
Intelligence
privat << atos, siemens, bosch, fraunhofer, max planck, EU-Forschungsprogramme FP7 und Horizon2020
import boto3
BUCKET = "amazon-rekognition"
KEY = "test.jpg"
FEATURES_BLACKLIST = ("Landmarks", "Emotions", "Pose", "Quality", "BoundingBox", "Confidence")
def detect_faces(bucket, key, attributes=['ALL'], region="eu-west-1"):
rekognition = boto3.client("rekognition", region)
response = rekognition.detect_faces(
Image={
"S3Object": {
"Bucket": bucket,
"Name": key,
}
},
Attributes=attributes,
)
return response['FaceDetails']
for face in detect_faces(BUCKET, KEY):
print "Face ({Confidence}%)".format(**face)
# emotions
for emotion in face['Emotions']:
print " {Type} : {Confidence}%".format(**emotion)
# quality
for quality, value in face['Quality'].iteritems():
print " {quality} : {value}".format(quality=quality, value=value)
# facial features
for feature, data in face.iteritems():
if feature not in FEATURES_BLACKLIST:
print " {feature}({data[Value]}) : {data[Confidence]}%".format(feature=feature, data=data)
"""
Expected output:
Face (99.945602417%)
SAD : 14.6038293839%
HAPPY : 12.3668470383%
DISGUSTED : 3.81404161453%
Sharpness : 10.0
Brightness : 31.4071826935
Eyeglasses(False) : 99.990234375%
Sunglasses(False) : 99.9500656128%
Gender(Male) : 99.9291687012%
EyesOpen(True) : 99.9609146118%
Smile(False) : 99.8329467773%
MouthOpen(False) : 98.3746566772%
Mustache(False) : 98.7549591064%
Beard(False) : 92.758682251%
"""