Aktionen

Künstliche Intelligenzen

Aus exmediawiki

@ Experimentelle Informatik

  • Open-lab-praes-04.png
    AI & Art
  • Obama.png
    AI & Society
  • Rekognition.png
    AI & security technology
  • Cnn-1.png
    Convolutional Neuronal Networks @ ZKM
  • Lernen-11.png
    Generative Adversarial Networks
  • Lernen-09.png
    logics
  • Lindner.png
    perceptrons
  • Cnn-7.png
    Transformers, ELMo & BERT
  • Cnn-6.png
    text classification in time
  • Cnn-5.png
    text classification in space

WORK IN PROGRESS Construction.gif

=AI@exLabIII=
Seminars
Titel: Einführung in die Programmierung künstlicher Intelligenzen
Kursleiter: Georg Trogemann, Christian Heck
Seminarstyp: Grundlagenseminar Material / Skulptur / Code
Zeitraum: WS 2018/19
Veranstaltungsort: Filzengraben 8 - 10, 0.2 Experimentelle Informatik
Seminarsbeschreibung: Googles „Deep Dream“ Algorithmus, der Fall „Cambridge

Analytica, der tödliche „Uber“-Unfall eines selbstfahrenden Autos. Das sind nur drei Beispiele für Künstliche Intelligenz, über die in der Presse breit berichtet wurde. Die Diskussionen zur KI sind verbunden mit Begriffen wie „deep learning“, „neuronale Netze“ oder „technologische Singularität“. Kann man den Kern der dahinter stehenden Verfahren ohne Vorkenntnisse innerhalb eines Semesters überhaupt noch verstehen? Ja, man kann. Das Seminar wird sehr elementar in die subsymbolische KI der Neuronalen Netze und deren Programmierung einführen. Wir setzen dabei keine mathematischen Kenntnisse oder Programmiererfahrungen voraus. Ziel ist es, dass am Ende jede/ jeder Studierende ein Programm erstellt hat, das Bilder nach dem Prinzip des Deep Dream Algorithmus generiert. Vor allem geht es darum, kritikfähig zu werden und die Möglichkeiten, Grenzen und Gefahren dieser Technologie einschätzen zu lernen.Der für das Attribut „Seminarsbeschreibung“ des Datentyps Seite angegebene Wert „Googles „Deep Dream“ Algorithmus, der Fall „Cambridge</br>Analytica, der tödliche „Uber“-Unfall eines selbstfahrenden Autos.</br>Das sind nur drei Beispiele für Künstliche Intelligenz, über die in</br>der Presse breit berichtet wurde. Die Diskussionen zur KI sind</br>verbunden mit Begriffen wie „deep learning“, „neuronale Netze“</br>oder „technologische Singularität“. Kann man den Kern der</br>dahinter stehenden Verfahren ohne Vorkenntnisse innerhalb eines</br>Semesters überhaupt noch verstehen? Ja, man kann.</br>Das Seminar wird sehr elementar in die subsymbolische KI</br>der Neuronalen Netze und deren Programmierung einführen.</br>Wir setzen dabei keine mathematischen Kenntnisse oder</br>Programmiererfahrungen voraus. Ziel ist es, dass am Ende jede/</br>jeder Studierende ein Programm erstellt hat, das Bilder nach dem</br>Prinzip des Deep Dream Algorithmus generiert. Vor allem geht es</br>darum, kritikfähig zu werden und die Möglichkeiten, Grenzen und</br>Gefahren dieser Technologie einschätzen zu lernen.“ enthält ungültige Zeichen oder ist unvollständig. Er kann deshalb während einer Abfrage oder bei einer Annotation unerwartete Ergebnisse verursachen.



Debian-desktop.png

CNN

Debian-desktop.png

GAN

Debian-desktop.png

TRANSFORMERS

Topics
Maven.png

AI & Warfare
Künstliche Intelligenzen werden als "Kriegstechnologie", -im allgemeinen Sinne verstanden als eine Technologie für den Einsatz zu konkreten Kampfhandlungen-, in erster Linie eingesetzt zur: Navigation z.B. KI-gesteuerter Drohnenschwärme, zur Zielerkennung- und identifikation, z.B. ARGUS-IS, zur Angriffsplanung- und ausführung z.B. (C4I, Command, Control, Computers, Communications and Information) und als Assistenzsysteme für Kampfpiloten, um aus großer Entfernung heraus Abschussentscheidungen zu treffen, oder auch um autonom zu navigieren.

Bei den Begrifflichkeiten des Dual Use, sowie des derzeit häufig verwendeten Begriffs der Sicherheitstechnologie betreten wir in unserer Zivilgesellschaft rechtliche und ethische Grenzzonen.

Adv-attack.png

AI Hacking
Adversarial Attacks sind Modelle und Methoden mit denen z.B. Klassifikatoren für maschinelles Lernen gehackt werden können. Bekannte Beispiele aus der Forschung hierfür sind beispielsweise 3D-gedruckte Modelle einer Schildkröte, die als Gewehr klassifiziert wurden oder autonome Fahrzeuge, deren eingebettete Computer Vision Straßenschilder falsch einordneten. Auch Künstler wie z.B. Adam Harvey, Zach Blas & Jemina Wyman und Heather Dewey-Hagborg haben in ihren Projekten adversarial processes verwendet, um Gesichtserkennungssysteme zu untergraben und kritisch darauf zu reagieren.

Xai.png

XAI
Explainable Artificial Intelligence, verfolgt das ausgesprochene Ziel "Third-Wave-KI-Systeme" zu ermöglichen. Systeme, in denen Maschinen den Kontext und die Umgebung, in der sie arbeiten „verstehen“ lernen sollen, um im Laufe der Zeit Erklärungsmodelle (Explainable Models) aufzubauen, die es ihnen ermöglichen, reale Phänomene zu charakterisieren.

ADM.png

AI & Political Subversion
Anarchistic Decision Making ...


Monalisa-klein2.gif

Bots-from-da-hood.png

KI-Newsletter:

Bug.gif