Künstliche Intelligenzen: Unterschied zwischen den Versionen
Aus exmediawiki
C.heck (Diskussion | Beiträge) |
C.heck (Diskussion | Beiträge) |
||
Zeile 64: | Zeile 64: | ||
<center><big><u><mark>'''=[[AI@exLabIII]]='''</mark></u></big></center> | <center><big><u><mark>'''=[[AI@exLabIII]]='''</mark></u></big></center> | ||
<span style='width:78em;text-indent: 0em;font-size:15px;font-weight:bold;font-family:monospace,Sans;display:block;padding:5px;background:#CCEECC;color:black;'> | <span style='width:78em;text-indent: 0em;font-size:15px;font-weight:bold;font-family:monospace,Sans;display:block;padding:5px;background:#CCEECC;color:black;'> | ||
− | |||
− | |||
− | |||
− | |||
− | |||
− | |||
− | |||
− | |||
− | |||
− | |||
− | |||
− | |||
− | |||
− | |||
− | |||
− | |||
− | |||
− | |||
− | |||
− | |||
− | |||
− | |||
− | |||
− | |||
− | |||
− | |||
− | |||
− | |||
− | |||
<center><big><u><mark>'''Seminare'''</mark></u></big></center> | <center><big><u><mark>'''Seminare'''</mark></u></big></center> | ||
− | |||
<div class="row"> | <div class="row"> | ||
− | <div class="small- | + | <div class="small-6 columns"> |
<div class="panel"> | <div class="panel"> | ||
{{Ki-template | {{Ki-template | ||
Zeile 104: | Zeile 74: | ||
|Zeitraum=WS 2019/20 | |Zeitraum=WS 2019/20 | ||
|Veranstaltungsort=Filzengraben 8 - 10, 0.2 Experimentelle Informatik | |Veranstaltungsort=Filzengraben 8 - 10, 0.2 Experimentelle Informatik | ||
− | |Seminarsbeschreibung= | + | |Seminarsbeschreibung=siehe Seminarswikiseite |
}} | }} | ||
</div> | </div> | ||
</div> | </div> | ||
− | <div class="small- | + | <div class="small-6 columns"> |
<div class="panel"> | <div class="panel"> | ||
{{Ki-template | {{Ki-template | ||
Zeile 116: | Zeile 86: | ||
|Zeitraum=WS 2019/20 | |Zeitraum=WS 2019/20 | ||
|Veranstaltungsort=Filzengraben 8 - 10, 0.2 Experimentelle Informatik | |Veranstaltungsort=Filzengraben 8 - 10, 0.2 Experimentelle Informatik | ||
− | |Seminarsbeschreibung= | + | |Seminarsbeschreibung=siehe Seminarswikiseite |
}} | }} | ||
</div> | </div> | ||
</div> | </div> | ||
− | <div class="small- | + | <div class="small-6 columns"> |
<div class="panel"> | <div class="panel"> | ||
{{Ki-template | {{Ki-template | ||
Zeile 128: | Zeile 98: | ||
|Zeitraum=SoSe 2018/19 | |Zeitraum=SoSe 2018/19 | ||
|Veranstaltungsort=Filzengraben 8 - 10, 0.2 Experimentelle Informatik | |Veranstaltungsort=Filzengraben 8 - 10, 0.2 Experimentelle Informatik | ||
− | |Seminarsbeschreibung= | + | |Seminarsbeschreibung=siehe Seminarswikiseite |
}} | }} | ||
</div> | </div> | ||
</div> | </div> | ||
− | <div class="small- | + | <div class="small-6 columns"> |
<div class="panel"> | <div class="panel"> | ||
{{Ki-template | {{Ki-template | ||
Zeile 140: | Zeile 110: | ||
|Zeitraum=WiSe 2018/19 | |Zeitraum=WiSe 2018/19 | ||
|Veranstaltungsort=Filzengraben 8 - 10, 0.2 Experimentelle Informatik | |Veranstaltungsort=Filzengraben 8 - 10, 0.2 Experimentelle Informatik | ||
− | |Seminarsbeschreibung= | + | |Seminarsbeschreibung=siehe Seminarswikiseite |
}} | }} | ||
</div> | </div> | ||
</div> | </div> | ||
</div> | </div> | ||
− | --> | + | |
+ | <center><big><u><mark>'''Topics'''</mark></u></big></center> | ||
+ | |||
+ | <div class="panel"> | ||
+ | [[File:maven.png|x150px|link=|left]] | ||
+ | '''[[Krieg & KI|AI & Warfare]]'''<br/> | ||
+ | Künstliche Intelligenzen werden als "Kriegstechnologie", -im allgemeinen Sinne verstanden als eine Technologie für den Einsatz zu konkreten Kampfhandlungen-, in erster Linie eingesetzt zur: '''Navigation''' z.B. [[Krieg_%26_KI#das_gl.C3.A4serne_Gefechtsfeld|KI-gesteuerter Drohnenschwärme]], zur '''Zielerkennung- und identifikation''', z.B. [[Krieg_%26_KI#from_Gorgon_Stare_to_ARGUS-IS|ARGUS-IS]], zur '''Angriffsplanung- und ausführung''' z.B. [[Krieg_%26_KI#Command.2C_Control.2C_Computers.2C_Communications_and_Information_.28C4I.29|(C4I, Command, Control, Computers, Communications and Information)]] und '''als Assistenzsysteme für Kampfpiloten''', um aus großer Entfernung heraus Abschussentscheidungen zu treffen, oder auch um autonom zu navigieren. | ||
+ | |||
+ | Bei den Begrifflichkeiten des [[Krieg_%26_KI#DUAL_USE|Dual Use]], sowie des derzeit häufig verwendeten Begriffs der [[Krieg_%26_KI#KI_in_der_Cloud|Sicherheitstechnologie]] betreten wir in unserer Zivilgesellschaft rechtliche und ethische Grenzzonen. | ||
+ | <br clear=all/> | ||
+ | </div> | ||
+ | <div class="panel"> | ||
+ | [[File:Adv-attack.png|x150px|link=|left]] | ||
+ | '''[[Adversarial Attacks|AI Hacking]]'''<br/> | ||
+ | ''Adversarial Attacks'' sind Modelle und Methoden mit denen z.B. Klassifikatoren für maschinelles Lernen gehackt werden können. Bekannte Beispiele aus der Forschung hierfür sind beispielsweise 3D-gedruckte Modelle einer Schildkröte, die als Gewehr klassifiziert wurden oder autonome Fahrzeuge, deren eingebettete ''Computer Vision'' Straßenschilder falsch einordneten. Auch Künstler wie z.B. Adam Harvey, Zach Blas & Jemina Wyman und Heather Dewey-Hagborg haben in ihren Projekten ''adversarial processes'' verwendet, um Gesichtserkennungssysteme zu untergraben und kritisch darauf zu reagieren. | ||
+ | <br clear=all/> | ||
+ | </div> | ||
+ | <div class="panel"> | ||
+ | [[File:xai.png|x150px|link=|left]] | ||
+ | '''[[XAI_/_Language_Models|XAI]]'''<br/> | ||
+ | ''Explainable Artificial Intelligence'', verfolgt das ausgesprochene Ziel "Third-Wave-KI-Systeme" zu ermöglichen. Systeme, in denen Maschinen den Kontext und die Umgebung, in der sie arbeiten „verstehen“ lernen sollen, um im Laufe der Zeit Erklärungsmodelle (Explainable Models) aufzubauen, die es ihnen ermöglichen, reale Phänomene zu charakterisieren. | ||
+ | <br clear=all/> | ||
+ | </div> | ||
+ | <div class="panel"> | ||
+ | [[File:ADM.png|x150px|link=|left]] | ||
+ | '''[[AI & Political Subversion]]'''<br/> | ||
+ | ''Anarchistic Decision Making'' ... | ||
+ | <br clear=all/> | ||
+ | </div> | ||
+ | |||
+ | |||
+ | <!-- | ||
<div class="row"> | <div class="row"> | ||
− | <div class="small- | + | <div class="small-12 columns"> |
<div class="panel"> | <div class="panel"> | ||
{{Ki-template | {{Ki-template | ||
Zeile 155: | Zeile 156: | ||
|Zeitraum=WS 2019/20 | |Zeitraum=WS 2019/20 | ||
|Veranstaltungsort=Filzengraben 8 - 10, 0.2 Experimentelle Informatik | |Veranstaltungsort=Filzengraben 8 - 10, 0.2 Experimentelle Informatik | ||
− | |Seminarsbeschreibung= | + | |Seminarsbeschreibung=Ausgehend von einem Rückblick auf die Wurzeln der Künstlichen Intelligenz (KI) in der Kybernetik werden eine Reihe von Themen und Begriffen vorgestellt, die einer genaueren Betrachtung bedürfen, will man sich als Künstler*in oder Theoretiker*in ihnen gegenüber positionieren. Hierbei handelt es sich keineswegs ausschließlich um die der kybernetischen Tradition zuzuordnenden Begriffe wie z.B. Artificial Neuron, Black Box oder Machine Learning. Auch Modebegriffe wie Open Culture, Transparency oder technologische Singularität müssen vor dem Hintergrund der zu ahnenden kulturellen, politischen und sozialen Konsequenzen von KI-Technologien neu verhandelt werden. Worin besteht beispielsweise das Kontrollproblem automatisierter Entscheidungsprozesse? Wo liegen technische und wo ethische Probleme, wenn wir Entscheidungen an Maschinen delegieren? Kann man Ethik programmieren? Können KI’s ihre Entscheidungen begründen? KI wird zur Steuerung unterschiedlichster Prozesse eingesetzt, wobei der Übergang zwischen Steuerung und Vorhersage fließend ist. Doch Vorhersagen unterliegen prinzipiellen Grenzen, die auch Hinweise auf die Grenzen von KI’s geben. In Ergänzung zur parallel stattfindenden Grundlagenveranstaltung „Einführung in die Programmierung Künstlicher Intelligenzen“ wird ein verdichteter Einblick in Machine Learning und die Arbeitsweise Künstlicher Neuronaler Netze gegeben, die den gegenwärtigen Diskurs zur KI ausgelöst haben. Anhand ausgewählter künstlerischer Arbeiten wird gezeigt, wie sich die Künste ästhetisch und kritisch mit diesen Technologien auseinandersetzen. |
}} | }} | ||
</div> | </div> | ||
</div> | </div> | ||
− | <div class="small- | + | <div class="small-12 columns"> |
<div class="panel"> | <div class="panel"> | ||
{{Ki-template | {{Ki-template | ||
Zeile 167: | Zeile 168: | ||
|Zeitraum=WS 2019/20 | |Zeitraum=WS 2019/20 | ||
|Veranstaltungsort=Filzengraben 8 - 10, 0.2 Experimentelle Informatik | |Veranstaltungsort=Filzengraben 8 - 10, 0.2 Experimentelle Informatik | ||
− | |Seminarsbeschreibung= | + | |Seminarsbeschreibung=Tief greifende kulturelle Konsequenzen von KI treten nicht erst beim Einsatz von Uploadfiltern zur algorithmischen Zensur unerwünschter Text- und Bildinhalte oder der Versteigerung von KI-Gemälden bei Christie's in Erscheinung; auch nicht bei der Ausformulierung ethischer Leitlinien für den Umgang mit KI oder dem vermehrten Aufkommen von AI powered Hate Speech Bots. Sie beginnen, ganz abstrakt und meist unbeachtet bei ihrer Programmierung, in semi-öffentlich geführten, sehr formalen Diskursfeldern. Genau dort setzen wir experimentell an. Das Seminar wird sehr elementar in die subsymbolische KI der Neuronalen Netze und deren Programmierung einführen. Coden from scratch, den Code gemeinsam diskutieren und zu verstehen lernen, um auf diesem Wege die Möglichkeiten, Grenzen und Gefahren dieser Technologie für sich einschätzen zu lernen ist Ziel dieses Seminars. Wir machen uns die Technologie der Künstlichen Intelligenz nicht als ein Tool im Homo Faberischen Sinne zu eigen, sondern verbinden Programmieren als künstlerische Praxis mit der kritischen Analyse ihrer gesellschaftlichen Auswirkungen, welche im parallel stattfindenden Theorieseminar "Future Minds – Kritik Künstlicher Intelligenzen" vertiefend erarbeitet werden kann. |
}} | }} | ||
</div> | </div> | ||
</div> | </div> | ||
− | <div class="small- | + | <div class="small-12 columns"> |
<div class="panel"> | <div class="panel"> | ||
{{Ki-template | {{Ki-template | ||
Zeile 179: | Zeile 180: | ||
|Zeitraum=SoSe 2018/19 | |Zeitraum=SoSe 2018/19 | ||
|Veranstaltungsort=Filzengraben 8 - 10, 0.2 Experimentelle Informatik | |Veranstaltungsort=Filzengraben 8 - 10, 0.2 Experimentelle Informatik | ||
− | |Seminarsbeschreibung= | + | |Seminarsbeschreibung=Das Angebot richtet sich insbesondere an Studierende, die im Wintersemester die Einführung in die Programmierung künstlicher Intelligenzen besucht und damit bereits Grundkenntnisse mit Deep Learning Verfahren erworben haben. In diesem Semester werden wir darauf aufbauend einen einwöchigen Programmier- Workshop zum Thema KI zusammen mit der Bauhaus Universität Weimar (Prof. Ursula Damm) und der KISD Köln (Prof. Lasse Scherffig) durchführen. Die Donnerstagstermine im Vorfeld des Workshops dienen der inhaltlichen Vorbereitung. Der Workshop findet voraussichtlich vom 10.-16. Juni statt. Ort und definitiver Zeitpunkt werden rechtzeitig bekannt gegeben bzw. im Vorfeld mit den Teilnehmern abgestimmt. Erster Donnerstagstermin ist der 4. April um 11:00 Uhr. |
}} | }} | ||
</div> | </div> | ||
</div> | </div> | ||
− | <div class="small- | + | <div class="small-12 columns"> |
<div class="panel"> | <div class="panel"> | ||
{{Ki-template | {{Ki-template | ||
Zeile 191: | Zeile 192: | ||
|Zeitraum=WiSe 2018/19 | |Zeitraum=WiSe 2018/19 | ||
|Veranstaltungsort=Filzengraben 8 - 10, 0.2 Experimentelle Informatik | |Veranstaltungsort=Filzengraben 8 - 10, 0.2 Experimentelle Informatik | ||
− | |Seminarsbeschreibung= | + | |Seminarsbeschreibung=Googles ''Deep Dream'' Algorithmus, der Fall „Cambridge Analytica, der tödliche ''Uber''-Unfall eines selbstfahrenden Autos. Das sind nur drei Beispiele für Künstliche Intelligenz, über die in der Presse breit berichtet wurde. Die Diskussionen zur KI sind verbunden mit Begriffen wie „deep learning“, „neuronale Netze“ oder „technologische Singularität“. Kann man den Kern der dahinter stehenden Verfahren ohne Vorkenntnisse innerhalb eines Semesters überhaupt noch verstehen? Ja, man kann. Das Seminar wird sehr elementar in die subsymbolische KI der Neuronalen Netze und deren Programmierung einführen. Wir setzen dabei keine mathematischen Kenntnisse oder Programmiererfahrungen voraus. Ziel ist es, dass am Ende jede/ jeder Studierende ein Programm erstellt hat, das Bilder nach dem Prinzip des Deep Dream Algorithmus generiert. Vor allem geht es darum, kritikfähig zu werden und die Möglichkeiten, Grenzen und Gefahren dieser Technologie einschätzen zu lernen. |
}} | }} | ||
</div> | </div> | ||
</div> | </div> | ||
</div> | </div> | ||
+ | --> | ||
+ | |||
Version vom 31. Mai 2020, 15:29 Uhr
@ Experimentelle Informatik
Titel: | Future Minds – Kritik Künstlicher Intelligenzen |
---|---|
Kursleiter: | Georg Trogemann, Christian Heck |
Seminarstyp: | Theorieseminar |
Zeitraum: | WS 2019/20 |
Veranstaltungsort: | Filzengraben 8 - 10, 0.2 Experimentelle Informatik |
Seminarsbeschreibung: | siehe Seminarswikiseite |
Titel: | Einführung in die Programmierung Künstlicher Intelligenzen |
---|---|
Kursleiter: | Georg Trogemann, Christian Heck |
Seminarstyp: | Grundlagenseminar |
Zeitraum: | WS 2019/20 |
Veranstaltungsort: | Filzengraben 8 - 10, 0.2 Experimentelle Informatik |
Seminarsbeschreibung: | siehe Seminarswikiseite |
Titel: | Kunst & KI |
---|---|
Kursleiter: | Georg Trogemann |
Seminarstyp: | Fachseminar |
Zeitraum: | SoSe 2018/19 |
Veranstaltungsort: | Filzengraben 8 - 10, 0.2 Experimentelle Informatik |
Seminarsbeschreibung: | siehe Seminarswikiseite |
Titel: | Einführung in die Programmierung künstlicher Intelligenzen |
---|---|
Kursleiter: | Georg Trogemann, Christian Heck |
Seminarstyp: | Grundlagenseminar |
Zeitraum: | WiSe 2018/19 |
Veranstaltungsort: | Filzengraben 8 - 10, 0.2 Experimentelle Informatik |
Seminarsbeschreibung: | siehe Seminarswikiseite |
AI & Warfare
Künstliche Intelligenzen werden als "Kriegstechnologie", -im allgemeinen Sinne verstanden als eine Technologie für den Einsatz zu konkreten Kampfhandlungen-, in erster Linie eingesetzt zur: Navigation z.B. KI-gesteuerter Drohnenschwärme, zur Zielerkennung- und identifikation, z.B. ARGUS-IS, zur Angriffsplanung- und ausführung z.B. (C4I, Command, Control, Computers, Communications and Information) und als Assistenzsysteme für Kampfpiloten, um aus großer Entfernung heraus Abschussentscheidungen zu treffen, oder auch um autonom zu navigieren.
Bei den Begrifflichkeiten des Dual Use, sowie des derzeit häufig verwendeten Begriffs der Sicherheitstechnologie betreten wir in unserer Zivilgesellschaft rechtliche und ethische Grenzzonen.
AI Hacking
Adversarial Attacks sind Modelle und Methoden mit denen z.B. Klassifikatoren für maschinelles Lernen gehackt werden können. Bekannte Beispiele aus der Forschung hierfür sind beispielsweise 3D-gedruckte Modelle einer Schildkröte, die als Gewehr klassifiziert wurden oder autonome Fahrzeuge, deren eingebettete Computer Vision Straßenschilder falsch einordneten. Auch Künstler wie z.B. Adam Harvey, Zach Blas & Jemina Wyman und Heather Dewey-Hagborg haben in ihren Projekten adversarial processes verwendet, um Gesichtserkennungssysteme zu untergraben und kritisch darauf zu reagieren.
XAI
Explainable Artificial Intelligence, verfolgt das ausgesprochene Ziel "Third-Wave-KI-Systeme" zu ermöglichen. Systeme, in denen Maschinen den Kontext und die Umgebung, in der sie arbeiten „verstehen“ lernen sollen, um im Laufe der Zeit Erklärungsmodelle (Explainable Models) aufzubauen, die es ihnen ermöglichen, reale Phänomene zu charakterisieren.
AI & Political Subversion
Anarchistic Decision Making ...
- KünstlerInnen, Ausstellungen, Festivals, Open Calls etc.
- KI / Kunst- Genres
- Künstliche Neuronale Netze (Coding Links)
KI-Newsletter:
- KI-Newsletter_1 21.03.2019
- KI-Newsletter_2 02.05.2019
- KI-Newsletter_3 07.06.2019