Aktionen

AI@exLabIII

Aus exmediawiki

Version vom 31. Mai 2020, 15:06 Uhr von C.heck (Diskussion | Beiträge)
(Unterschied) ← Nächstältere Version | Aktuelle Version (Unterschied) | Nächstjüngere Version → (Unterschied)
Seminare Wintersemester 2019/20           


Georg Trogemann, Christian Heck
Einführung in die Programmierung Künstlicher Intelligenzen


Grundlagenseminar Material/Skulptur/Code Grundstudium
Donnerstag wöchentlich 11:00 – 13:00
Erster Termin 17.10.2019
Filzengraben 8 - 10, 0.2 Experimentelle Informatik


Tief greifende kulturelle Konsequenzen von KI treten nicht erst beim Einsatz von Uploadfiltern zur algorithmischen Zensur unerwünschter Text- und Bildinhalte oder der Versteigerung von KI-Gemälden bei Christie's in Erscheinung; auch nicht bei der Ausformulierung ethischer Leitlinien für den Umgang mit KI oder dem vermehrten Aufkommen von AI powered Hate Speech Bots. Sie beginnen, ganz abstrakt und meist unbeachtet bei ihrer Programmierung, in semi-öffentlich geführten, sehr formalen Diskursfeldern.

Genau dort setzen wir experimentell an. Das Seminar wird sehr elementar in die subsymbolische KI der Neuronalen Netze und deren Programmierung einführen. Coden from scratch, den Code gemeinsam diskutieren und zu verstehen lernen, um auf diesem Wege die Möglichkeiten, Grenzen und Gefahren dieser Technologie für sich einschätzen zu lernen ist Ziel dieses Seminars.

Wir machen uns die Technologie der Künstlichen Intelligenz nicht als ein Tool im Homo Faberischen Sinne zu eigen, sondern verbinden Programmieren als künstlerische Praxis mit der kritischen Analyse ihrer gesellschaftlichen Auswirkungen, welche im parallel stattfindenden Theorieseminar "Future Minds – Kritik Künstlicher Intelligenzen" vertiefend erarbeitet werden kann.

Georg Trogemann, Christian Heck
Future Minds – Kritik Künstlicher Intelligenzen


Theorieseminar Hauptstudium und weiterqualifizierendes Studium
Donnerstag wöchentlich 14:00 – 16:00
Erster Termin 24.10.2019
Filzengraben 8 - 10, 0.2 Experimentelle Informatik


Ausgehend von einem Rückblick auf die Wurzeln der Künstlichen Intelligenz (KI) in der Kybernetik werden eine Reihe von Themen und Begriffen vorgestellt, die einer genaueren Betrachtung bedürfen, will man sich als Künstler*in oder Theoretiker*in ihnen gegenüber positionieren. Hierbei handelt es sich keineswegs ausschließlich um die der kybernetischen Tradition zuzuordnenden Begriffe wie z.B. Artificial Neuron, Black Box oder Machine Learning. Auch Modebegriffe wie Open Culture, Transparency oder technologische Singularität müssen vor dem Hintergrund der zu ahnenden kulturellen, politischen und sozialen Konsequenzen von KI-Technologien neu verhandelt werden.

Worin besteht beispielsweise das Kontrollproblem automatisierter Entscheidungsprozesse? Wo liegen technische und wo ethische Probleme, wenn wir Entscheidungen an Maschinen delegieren? Kann man Ethik programmieren? Können KI’s ihre Entscheidungen begründen? KI wird zur Steuerung unterschiedlichster Prozesse eingesetzt, wobei der Übergang zwischen Steuerung und Vorhersage fließend ist. Doch Vorhersagen unterliegen prinzipiellen Grenzen, die auch Hinweise auf die Grenzen von KI’s geben.

In Ergänzung zur parallel stattfindenden Grundlagenveranstaltung „Einführung in die Programmierung Künstlicher Intelligenzen“ wird ein verdichteter Einblick in Machine Learning und die Arbeitsweise Künstlicher Neuronaler Netze gegeben, die den gegenwärtigen Diskurs zur KI ausgelöst haben. Anhand ausgewählter künstlerischer Arbeiten wird gezeigt, wie sich die Künste ästhetisch

und kritisch mit diesen Technologien auseinandersetzen.

Timeline

__________Programmieren_______________________ Donnerstags    ____________________Kritisieren_______________
17.10.
Intro
Intro-p-2.png << Folie
______________________________________________                            ______________________________________________
24.10.
Dichterisches Coden
  • Einrichten eines Workarounds zur Programmierung Künstlicher Intelligenzen (Jupyter / Anaconda)
  • Das Perzeptron | lineare Klassifikatoren schreiben
  • Python << first steps
  • Code Poetry | lineare Klassificodichte schreiben
History of AI
______________________________________________                            ______________________________________________
31.10.
Maschinelles Dichten
»EIN STÜCK „LYRIK“: AUTOPOESIE APPARATUS FÜR ANTIKAPITALISTISCHE WERBEMITTEL«
... & how to code it
Machine Learning + XAI
______________________________________________                            ______________________________________________
07.11.
Maschinelles Lesen
  • weiterprogrammieren unseres linearen Klassifizierers in Python
  • Einführung in Language Modelling
  • Text-Preprocessing II
  • Sentiment Analysis II
______________________________________________                            ______________________________________________
14.11.
Maschinelles Sprechen
KI als Taktgeber technokratischer Retrotopien
Vortrag und Diskussionsrunde mit dem Redaktionskollektiv capulcu
______________________________________________                            ______________________________________________
21.11.
Maschinelles Lernen
Computational Creativity
______________________________________________                            ______________________________________________
22.11.-24.11.
Exkursion nach Bremen auf die FIfF-Konferenz 2019
Fiffcon.jpeg
______________________________________________                    ______________________________________________
28.11.
AI on Rasp Pi
»Stochastics Walks on the Latent Space - Cloud Representation and Text Extrapolation of Semantics Deduced from Nietzsche's Writings«
... & how to code it?
Prediction + decision making
______________________________________________                            ______________________________________________
05.12
Krieg & KI
How to Dual Use?
  • Kriegstechnologien selber schreiben
Wo beginnt der Krieg?
Vortrag und Diskussionsrunde mit Christoph Marischka
______________________________________________                            ______________________________________________
12.12
Generative Adversarial Networks
»Positive Extraction and Reproduction System«
... & how to code it?
  • Einführung in GAN's
Biases + digital Ethics
______________________________________________                            ______________________________________________
13.12
DNA_phenotyping
Workshop @ Open Lab
  • zusammen mit Verena Friedrich, Klaus Fritze & Matthias Burba (Gast)
______________________________________________                            ______________________________________________
19.12.
Convolutional Neural Networks
»OFFICE PLANTS«
... & how to code it?
  • Einführung in CNN's
Singularity + Funktionalismus
______________________________________________                            ______________________________________________
09.01.
deeper understandings...
Future Minds – Kritik Künstlicher Intelligenzen
Studierendenvorträge
______________________________________________                            ______________________________________________
16.01.
deeper understandings...
Future Minds – Kritik Künstlicher Intelligenzen
Studierendenvorträge
______________________________________________                            ______________________________________________
24.01.
Diskussionsrunde mit Studierenden der Hochschule Düsseldorf (HSD)

Kalender: https://wolke.khm.de/index.php/apps/calendar/p/n6a59z9AnKKnFgTz/exLabIII

Vorträge/Gäste

Thomas Wagner

07.11.2019, 14-16h - Vortrag und Diskussionsrunde mit Dr. Thomas Wagner (Kultursoziologe, Publizist)

Wagner Robokratie.jpg


Das Verhältnis des Kapitalismus digitaler Plattformen zur Singularitätsideologie

Im Umfeld von Konzernen wie Google, Facebook und Co. gedeiht eine Ideologie technologischer Machbarkeit. Ihre Anhänger propagieren die Verschmelzung von Mensch und Maschine, spekulieren über künstliche Superintelligenz und träumen von der Unsterblichkeit in der Cloud. En passant ließen sich sämtliche gesellschaftliche Probleme lösen. Fantastische Visionen, irre Ideen. Doch mehr als Hirngespinste: Ihre Propagandisten finanzieren Start-ups, beraten Regierungen, leiten die Labore von High-Tech-Unternehmen und verbreiten ihre Ideen an eigenen Hochschulen.

Thomas Wagner bezeichnet diese Ideologie, die Verschmelzung von Robotik, Kapitalismus, Militarismus, Technodeterminismus, Technokratie, Militarismus und instrumenteller Vernunft in treffender Weise als »Robokratie« und legt dar, dass im Resultat die Herrschaft der gegenwärtigen Eliten zementiert wird. Am Ende steht die Frage nach einem demokratischen Gebrauch von Technologie.

Wie bei jeder Form der Technik, kommt es für kritische Ansätze darauf an, die Möglichkeiten, Unmöglichkeiten, Chancen und Risiken der künstlichen Intelligenz realistisch einzuschätzen, in Bezug zu Kapitalismus und Herrschaft zu setzen und zu diskutieren, welche Technologien emanzipatorisches Potential haben und welche reine Destruktivkräfte darstellen, um dann Forderungen nach demokratischer Kontrolle und Gestaltung des technischen Fortschritts zu machen. Die Welt der Robotik ist heute vor allem von Ideologien und Utopien geprägt. Es mangelt ihr an Realismus und einem menschenorientierten Konzept demokratisch-sozialistischer Computertechnologie.

Inhaltliche Vorbereitung:

  • in der Bibliothek:
    • »Das Netz in unsere Hand!«, Thomas Wagner, 2017, GES D.10.4 - 117
    • »Robokratie - Google, das Silicon Valley und der Mensch als Auslaufmodell«, Thomas Wagner, 2016, Bestellt

capulcu

PlakatA2red.jpg

14.11.2019, 13h30-15h - Vortrag und Diskussionsrunde mit dem Redaktionskollektiv capulcu


KI als Taktgeber technokratischer Retrotopien

Technologie ist kein Werkzeug, sie ist Mittel zum Zweck - sie war und ist nie neutral! Es ist bequem aber ahistorisch, Technologie auf ein simples Tool zu reduzieren und den politischen Gehalt auf die "äußeren" Bedingungen ihrer "Anwendung" abzuwälzen. Damit lässt sich die Dynamik technologischer Entwicklung als Herrschaftsinstrumentarium nicht erfassen. Wir sprechen daher bewusst von einem technologischen Angriff, um den ideologischen Gehalt jenseits des Werkzeug-Charakters zu begreifen.

Wir wollen eine umfassendere Sichtweise auf Technologie diskutieren, die der gesellschaftlichen Wirkmächtigkeit unseres Gegners - der Technokratie - gerecht wird.

Die Technokratie beschert uns gerade eine beschleunigte Rückwärtsbewegung. KI-basierte digitale Dauerassistenz in Konnektivität aller mit allem knüpft an längst überwunden geglaubte Tendenzen des Behaviorismus an, also der Sichtweise dass uns nur die lenkende Hilfestellung von Experten (heute in Form von selbst-lernenden Algorithmen) dazu befähigt, in einer immer komplexer werdenden Welt rationale Entscheidungen für unser individuelles Leben zu treffen. Bei dieser Art von "freundlicher" Bevormundung erleben wir aktuell (nicht nur in China) eine bemerkenswerte Konvergenz wirtschaftlicher und staatlicher Lenkungsinteressen. China exportiert seine social-credit-systems zur Verhaltensökonomie bereits in über 30 Staaten. Angesichts des weltweiten politischen Drifts nach rechts müssen wir die Bedrohung stärker werdender Tendenzen in Richtung eines modernisierten Totalitarismus analysieren und bekämpfen.

Wie kann es gelingen, die rückschrittlich-technokratischen Retrotopien hinter uns zu lassen und sozialen Wandel in einem wirklich fortschrittlichen Sinne zu gestalten?


Im Zuge der Gezi-Proteste 2013 in Istanbul formierte sich das redaktionskollektiv çapulcu. Eine Gruppe von technologie-kritischen Aktivist*innen und Hacktivist*innen, die ihre Arbeit von Beginn an solidarisch in diesen Kontext stellten.

çapulcu veröffentlicht seither Texte in verschiedenen linken Medien, erarbeitet HowTo‘s zur digitalen Selbstverteidigung und bieten Diskussionsveranstaltungen, Seminare und Schlungen zur Gegenwehr gegen den technologischen Angriff.

Das Redaktionskollektiv plädiert für eine Wiederbelebung der praktischen Technologiekritik zwischen Verweigerung und widerständiger Aneignung spezifischer Techniken und veröffentlicht in diesem Kontext regelmäßig Broschüren

Inhaltliche Vorbereitung:


Krieg & KI

05.12.2019, 14-16h - Vortrag und Diskussionsrunde mit Christoph Marischka von der Informationsstelle Militarisierung

Wo beginnt der Krieg?

In Paul Virilios Vorstellung des „reinen Krieges“ verschwand bereits in den Anfängen des letzten Jahrunderts das Militär in der Technologie. „Der reine Krieg“ löste sich von den herkömmlichen Institutionen des Militärischen. So konzentriert sich auch in Deutschland und der EU die öffentliche Forschungsförderung, seit mehr als 15 Jahren u.a. unter dem Schlagwort der „Sicherheitsforschung“ auf militärisch relevante Technologien wie die Muster- und Situationserkennung durch Künstliche Intelligenz.

Imi-nocyb.png

Die aktuelle Tendenz, alles mit allem zu vernetzen, alle erdenklichen Daten zu sammeln und hieraus die Zukunft berechnen zu wollen, entspricht der lange gehegten Vision einer „vernetzten Kriegsführung“ auf einem „gläsernen Gefechtsfeld“ - und findet in den aktuellen Militärstrategien eine unmittelbare Umsetzung.

Vor diesem Hintergrund soll aus der beschaulichen Universitätsstadt Tübingen nach Vorbild des Sillicon Valley ein Top-Standort für die Entwicklung Künstlicher Intelligenz in Europa werden. Hier soll aktiv die Zukunft gestaltet werden - doch mit genauerem Blick auf Partner, Förderer und Geldgeber wird deutlich, dass die Forschung vor allem deren Interessen dienen soll. Beteiligt sind unter anderem Amazon, die Automobil- und in Ansätzen auch die Rüstungsindustrie. Deshalb regte sich Widerstand gegen das Forschungsprojekt, der zu einer intensiven öffentlichen Diskussion über KI in der Stadt führte. Christoph Marischka stellt in seinem Vortrag diese Tübinger Widerstandsbewegung vor und zur Diskussion. Er fragt, quasi aus ihrer Mitte heraus, nach Wegen des gemeinschaftlichen Ausformulierens kultureller, politischer und sozialer Konsequenzen von KI-Technologien.

In seinem demnächst erscheinenden Buch »Cyber Valley – Unfall des Wissens« stellt Marischka die These auf, dass das Tübinger Cyber Valley als Teil eines allgemeinen „Unfall des Wissens“ zu verstehen ist, und nimmt somit wieder direkten Bezug zu Virilios Denkfigur: „Sollten wir also in Analogie zur Forschung an der Atombombe im Zweiten Weltkrieg von einer 'Intelligenzbombe' sprechen, die gegenwärtig entwickelt wird? Die diesem Buch zugrunde liegende These besteht darin, dass die Intelligenzbombe nichts ist, was an einem bestimmten Ort zu einer bestimmten Zeit fertiggestellt und dann bewusst oder unbewusst durch ein bestimmbares Ereignis gezündet wird, sondern dass sich ihre Wirkung bereits seit Jahren entfaltet – und zwar als Unfall des Wissens.“


Christoph Marischka ist Politikwissenschaftler und Mitglied im Vorstand der Informationsstelle Militarisierung (IMI) e.V. Er setzt sich dort insbesondere mit Afrikapolitik und Aufklärungstechnologie sowie auch deren öffentlich geförderten Forschungslandschaften auseinander. Er war u.a. 2013 an der Erstellung des "Drohnenforschungsatlas" beteiligt und verfasst kontinuierlich Analysen, welche sich kritisch mit entsprechenden Technologien auseinandersetzen - die bereits in ihrer Entwicklung auch unseren Alltag strukturieren. Dementsprechen ist er derzeit auch im „Bündnis gegen das Cyber Valley“ aktiv und versucht quasi vor seiner Wohnungstür die Entstehung dieses Forschungscampus' zu verhindern.

Inhaltliche Vorbereitung:


Exkursion

FIfF-Konferenz 2019

22.11.-24.11.2019, Bremen

Künstliche Intelligenz als Wunderland - https://2019.fiffkon.de/

Eine Konferenz des Forum InformatikerInnen für Frieden und gesellschaftliche Verantwortung e. V.

Veranstaltungsprogramm: https://2019.fiffkon.de/program/booklet.html

Fiffkon19web.jpg

Einladungstext:
In der berühmten Erzählung Alice im Wunderland von Lewis Carroll begegnet die Protagonistin im Wunderland den merkwürdigsten Gestalten und erlebt kuriose Abenteuer. Ein neues Wunderland eröffnet sich heute durch Künstliche Intelligenz. Es ist von Robotern bevölkert, die Fußball spielen, tanzen, jonglieren, kochen, Dienstleistungen aller Art erbringen, Alte und Kranke pflegen und Orte erkunden, die für Menschen gefährlich oder unerreichbar sind. Es gibt dort selbstfahrende Autos und unbemannte Flugobjekte. Lernende neuronale Netze beeindrucken, weil sie fast alle Spiele gegen fast alle Spielerinnen und Spieler gewinnen. Man trifft allenthalben auf Systeme, die sehen, lesen, sprechen und lernen können. Und es wird gemunkelt, dass sich demnächst eine neue Spezies mit Superintelligenz dazu gesellen wird, die besser denken kann als alle Menschen zusammen.

Wir möchten alle Interessierten zur FIfF-Konferenz 2019 vom 22. bis 24. November 2019 nach Bremen einladen, um mit uns dieses Wunderland zu erkunden und genauer unter die Lupe zu nehmen. Was ist dran an den hochfliegenden Plänen und Versprechungen? Welche Erwartungen und Hoffnungen sind realistisch, welche sind übertrieben, welche sind unerfüllbar? Welche gesellschaftlichen Auswirkungen sind zu erwarten und wie soll man mit ihnen umgehen? Welche Risiken und Gefahren sind mit den aktuellen und zukünftigen Entwicklungen der Künstlichen Intelligenz verbunden und wie ist ihnen zu begegnen?


Workshop

DNA phenotyping @ Open Lab

Mail DNA.jpg

13.12.2019, 11-14h

exMedia Lab, Filzengraben 8-10, 4.OG


Workshop mit Matthias Burba (Gast), Verena Friedrich, Dr. Klaus Fritze und Christian Heck


DNA-Phänotypisierung ist die Anwendung von Verfahren, mit denen auf Basis von DNA-Material Rückschlüsse über das äußere Erscheinungsbild eines Individuums gezogen werden können. Diese sogenannte „erweiterte DNA-Analyse” ist in Deutschland noch verboten, eine entsprechende Gesetzesänderung zu deren zukünftiger Anwendung im Strafverfahren ist jedoch in Planung. Mittels „genetischer Phantombilder“ könnten bald Eigenschaften wie das äußere Erscheinungsbild, Alter sowie die biogeografische Herkunft von Verdächtigten vorhergesagt werden.

In dem dreistündigen Workshop experimentieren und diskutieren wir gemeinsam mit Matthias Burba zu den Möglichkeiten und Grenzen von DNA-Analyseverfahren und deren darauffolgender maschineller Auswertung.

Matthias Burba studierte Jura und Biologie; im Rahmen seiner beruflichen Laufbahn war er u.a. tätig als Justiziar und Leiter der Rechtsabteilung sowie Leiter der Kriminaltechnik der Hamburger Polizei; als Vorsitzender des Unterausschusses Recht und Verwaltung der Innenministerkonferenz sowie als stellvertretender Hamburgischer Datenschutzbeauftragter.


Inhaltliche Vorbereitung:


HowTos/Tutorials


Python Basics

Onlinetutorial:

Book:

Videotutorial:

Hands-on Tutroial:


Cheat-Sheets - general

Wie editiere ich das exMediawiki Cheat-sheet
Jupyter Notebook & IPython (OnePager) https://s3.amazonaws.com/assets.datacamp.com/blog_assets/Jupyter_Notebook_Cheat_Sheet.pdf
Jupyter & IPython (detailled) http://get.treasuredata.com/rs/714-XIJ-402/images/TD_Jupyter%20Notebook%20Cheatsheet_V1%281%29%20%281%29.pdf
Jupyter Notebook (Shortcuts) https://ugoproto.github.io/ugo_py_doc/weidadeyue_jupyter-notebook.pdf
Conda https://ugoproto.github.io/ugo_py_doc/conda-cheatsheet.pdf
Python Beginner Cheat Sheet https://github.com/ehmatthes/pcc/releases/download/v1.0.0/beginners_python_cheat_sheet_pcc_all.pdf
Markdown Syntax https://help.github.com/articles/basic-writing-and-formatting-syntax/
Cheat Sheets for AI, Neural Networks, Machine Learning, Deep Learning & Big Data https://becominghuman.ai/cheat-sheets-for-ai-neural-networks-machine-learning-deep-learning-big-data-678c51b4b463
Keras CheatSheet https://tanthiamhuat.files.wordpress.com/2018/04/deeplearningwithkeras.pdf