Aktionen

Künstliche Intelligenzen: Unterschied zwischen den Versionen

Aus exmediawiki

Zeile 64: Zeile 64:
 
<span style='width:78em;text-indent: 0em;font-size:15px;font-weight:bold;font-family:monospace,Sans;display:block;padding:5px;background:#CCEECC;color:black;'><center><big><u><mark>'''[[AI@exLabIII]]'''</mark></u></big></center>
 
<span style='width:78em;text-indent: 0em;font-size:15px;font-weight:bold;font-family:monospace,Sans;display:block;padding:5px;background:#CCEECC;color:black;'><center><big><u><mark>'''[[AI@exLabIII]]'''</mark></u></big></center>
  
 +
<div class="panel">
 +
[[File:Adv-attack.png|x150px|link=|left]]
 +
'''[[Adversarial Attacks|AI Hacking]]'''<br/>
 +
''Adversarial Attacks'' sind ein Beispiel dafür, wie z.B. Klassifikatoren für maschinelles Lernen gehackt werden kann. Bekannte Beispiele aus der Forschung hierfür sind beispielsweise 3D-gedruckte Modelle einer Schildkröte, die als Gewehr klassifiziert wurden oder autonome Fahrzeuge, deren eingebettete ''Computer Vision'' Straßenschilder falsch einordneten. Auch Künstler wie z.B. Adam Harvey, Zach Blas & Jemina Wyman und Heather Dewey-Hagborg haben in ihren Projekten ''adversarial processes'' verwendet, um Gesichtserkennungssysteme zu untergraben und kritisch darauf zu reagieren.
 +
<br clear=all/>
 +
</div>
 +
<div class="panel">
 +
[[File:maven.png|x150px|link=|left]]
 +
'''[[Krieg & KI]]'''<br/>
 +
Künstliche Intelligenzen werden als "Kriegstechnologie", -im allgemeinen Sinne verstanden als eine Technologie für den Einsatz zu konkreten Kampfhandlungen-, in erster Linie eingesetzt zur: '''Navigation''' z.B. [[Krieg_%26_KI#das_gl.C3.A4serne_Gefechtsfeld|KI-gesteuerter Drohnenschwärme]], zur '''Zielerkennung- und identifikation''', z.B. [[Krieg_%26_KI#from_Gorgon_Stare_to_ARGUS-IS|ARGUS-IS]], zur '''Angriffsplanung- und ausführung''' z.B. [[Krieg_%26_KI#Command.2C_Control.2C_Computers.2C_Communications_and_Information_.28C4I.29|(C4I, Command, Control, Computers, Communications and Information)]] und '''als Assistenzsysteme für Kampfpiloten''', um aus großer Entfernung heraus Abschussentscheidungen zu treffen, oder auch um autonom zu navigieren.
 +
 +
Bei den Begrifflichkeiten des [[Krieg_%26_KI#DUAL_USE|Dual Use]], sowie des derzeit häufig verwendeten Begriffs der [[Krieg_%26_KI#KI_in_der_Cloud|Sicherheitstechnologie]] betreten wir in unserer Zivilgesellschaft rechtliche und ethische Grenzzonen.
 +
<br clear=all/>
 +
</div>
 +
<div class="panel">
 +
[[File:xai.png|x150px|link=|left]]
 +
'''[[XAI_/_Language_Models|XAI]]'''<br/>
 +
Explainable Artificial Intelligence, verfolgt das ausgesprochene Ziel "Third-Wave-KI-Systeme" zu ermöglichen. Systeme, in denen Maschinen den Kontext und die Umgebung, in der sie arbeiten „verstehen“ lernen sollen, um im Laufe der Zeit Erklärungsmodelle (Explainable Models) aufzubauen, die es ihnen ermöglichen, reale Phänomene zu charakterisieren.
 +
<br clear=all/>
 +
</div>
 
<br>
 
<br>
 
[[Datei:Monalisa-klein2.gif|right|link=]]
 
[[Datei:Monalisa-klein2.gif|right|link=]]
Zeile 71: Zeile 91:
 
*[[ki|KünstlerInnen, Ausstellungen, Festivals, Open Calls etc.]]
 
*[[ki|KünstlerInnen, Ausstellungen, Festivals, Open Calls etc.]]
 
*[[KI_Links|KI / Kunst- Genres]]
 
*[[KI_Links|KI / Kunst- Genres]]
*[[Krieg & KI]]
 
 
<center>[[Datei:Bug.gif]]</center>
 
<center>[[Datei:Bug.gif]]</center>
 
----
 
----
Zeile 82: Zeile 101:
 
----
 
----
 
* [[Coding_Links|Künstliche Neuronale Netze (Coding Links)]]
 
* [[Coding_Links|Künstliche Neuronale Netze (Coding Links)]]
**[[Adversarial Attacks]]
 
**[[XAI / Language Models]]
 

Version vom 4. Mai 2020, 17:54 Uhr

  • Open-lab-praes-04.png
    AI & Creativity
  • Obama.png
    AI & Society
  • Rekognition.png
    AI & security technology
  • Cnn-1.png
    Convolutional Neuronal Networks @ ZKM
  • Lernen-11.png
    Generative Adversarial Networks
  • Lernen-09.png
    logics
  • Lindner.png
    perceptrons
  • Cnn-7.png
    Transformers, ELMo & BERT
  • Cnn-6.png
    text classification in time
  • Cnn-5.png
    text classification in space

WORK IN PROGRESS Construction.gif


AI@exLabIII
Adv-attack.png

AI Hacking
Adversarial Attacks sind ein Beispiel dafür, wie z.B. Klassifikatoren für maschinelles Lernen gehackt werden kann. Bekannte Beispiele aus der Forschung hierfür sind beispielsweise 3D-gedruckte Modelle einer Schildkröte, die als Gewehr klassifiziert wurden oder autonome Fahrzeuge, deren eingebettete Computer Vision Straßenschilder falsch einordneten. Auch Künstler wie z.B. Adam Harvey, Zach Blas & Jemina Wyman und Heather Dewey-Hagborg haben in ihren Projekten adversarial processes verwendet, um Gesichtserkennungssysteme zu untergraben und kritisch darauf zu reagieren.

Maven.png

Krieg & KI
Künstliche Intelligenzen werden als "Kriegstechnologie", -im allgemeinen Sinne verstanden als eine Technologie für den Einsatz zu konkreten Kampfhandlungen-, in erster Linie eingesetzt zur: Navigation z.B. KI-gesteuerter Drohnenschwärme, zur Zielerkennung- und identifikation, z.B. ARGUS-IS, zur Angriffsplanung- und ausführung z.B. (C4I, Command, Control, Computers, Communications and Information) und als Assistenzsysteme für Kampfpiloten, um aus großer Entfernung heraus Abschussentscheidungen zu treffen, oder auch um autonom zu navigieren.

Bei den Begrifflichkeiten des Dual Use, sowie des derzeit häufig verwendeten Begriffs der Sicherheitstechnologie betreten wir in unserer Zivilgesellschaft rechtliche und ethische Grenzzonen.

Xai.png

XAI
Explainable Artificial Intelligence, verfolgt das ausgesprochene Ziel "Third-Wave-KI-Systeme" zu ermöglichen. Systeme, in denen Maschinen den Kontext und die Umgebung, in der sie arbeiten „verstehen“ lernen sollen, um im Laufe der Zeit Erklärungsmodelle (Explainable Models) aufzubauen, die es ihnen ermöglichen, reale Phänomene zu charakterisieren.


Monalisa-klein2.gif

Künstliche Intelligenzen

Bug.gif

Bots-from-da-hood.png

KI-Newsletter: