Aktionen

Tesssts: Unterschied zwischen den Versionen

Aus exmediawiki

Zeile 3: Zeile 3:
 
<div class="row">
 
<div class="row">
 
   <div class="large-6 columns">
 
   <div class="large-6 columns">
Georg Trogemann, Christian Heck<br>
 
'''Einführung in die Programmierung Künstlicher Intelligenzen'''
 
  
 
Grundlagenseminar Material/Skulptur/Code Grundstudium<br>
 
Donnerstag wöchentlich 11:00 – 13:00<br>
 
Erster Termin 17.10.2019<br>
 
Filzengraben 8 - 10, 0.2 Experimentelle Informatik
 
 
 
Tief greifende kulturelle Konsequenzen von KI treten nicht erst beim
 
Einsatz von Uploadfiltern zur algorithmischen Zensur unerwünschter
 
Text- und Bildinhalte oder der Versteigerung von KI-Gemälden bei
 
Christie's in Erscheinung; auch nicht bei der Ausformulierung ethischer
 
Leitlinien für den Umgang mit KI oder dem vermehrten Aufkommen
 
von AI powered Hate Speech Bots. Sie beginnen, ganz abstrakt
 
und meist unbeachtet bei ihrer Programmierung, in semi-öffentlich
 
geführten, sehr formalen Diskursfeldern.
 
 
Genau dort setzen wir experimentell an. Das Seminar wird sehr
 
elementar in die subsymbolische KI der Neuronalen Netze und
 
deren Programmierung einführen. Coden from scratch, den Code
 
gemeinsam diskutieren und zu verstehen lernen, um auf diesem Wege
 
die Möglichkeiten, Grenzen und Gefahren dieser Technologie für sich
 
einschätzen zu lernen ist Ziel dieses Seminars.
 
 
Wir machen uns die Technologie der Künstlichen Intelligenz nicht als
 
ein Tool im Homo Faberischen Sinne zu eigen, sondern verbinden
 
Programmieren als künstlerische Praxis mit der kritischen Analyse ihrer
 
gesellschaftlichen Auswirkungen, welche im parallel stattfindenden
 
Theorieseminar "Future Minds – Kritik Künstlicher Intelligenzen"
 
vertiefend erarbeitet werden kann.
 
 
</div>
 
</div>
 
   <div class="large-6 columns">
 
   <div class="large-6 columns">
Georg Trogemann, Christian Heck<br>
+
</div></div>
'''Future Minds – Kritik Künstlicher Intelligenzen'''
 
 
 
 
 
Theorieseminar Hauptstudium und weiterqualifizierendes Studium<br>
 
Donnerstag wöchentlich 14:00 – 16:00<br>
 
Erster Termin 24.10.2019<br>
 
Filzengraben 8 - 10, 0.2 Experimentelle Informatik
 
 
 
 
 
Ausgehend von einem Rückblick auf die Wurzeln der Künstlichen
 
Intelligenz (KI) in der Kybernetik werden eine Reihe von Themen
 
und Begriffen vorgestellt, die einer genaueren Betrachtung
 
bedürfen, will man sich als Künstler*in oder Theoretiker*in ihnen
 
gegenüber positionieren. Hierbei handelt es sich keineswegs
 
ausschließlich um die der kybernetischen Tradition zuzuordnenden
 
Begriffe wie z.B. Artificial Neuron, Black Box oder Machine
 
Learning. Auch Modebegriffe wie Open Culture, Transparency oder
 
technologische Singularität müssen vor dem Hintergrund der zu
 
ahnenden kulturellen, politischen und sozialen Konsequenzen von
 
KI-Technologien neu verhandelt werden.
 
 
 
Worin besteht beispielsweise das Kontrollproblem automatisierter
 
Entscheidungsprozesse? Wo liegen technische und wo ethische
 
Probleme, wenn wir Entscheidungen an Maschinen delegieren?
 
Kann man Ethik programmieren? Können KI’s ihre Entscheidungen
 
begründen? KI wird zur Steuerung unterschiedlichster Prozesse
 
eingesetzt, wobei der Übergang zwischen Steuerung und
 
Vorhersage fließend ist. Doch Vorhersagen unterliegen
 
prinzipiellen Grenzen, die auch Hinweise auf die Grenzen von KI’s
 
geben.
 
 
 
In Ergänzung zur parallel stattfindenden Grundlagenveranstaltung
 
„Einführung in die Programmierung Künstlicher Intelligenzen“ wird
 
ein verdichteter Einblick in Machine Learning und die Arbeitsweise
 
Künstlicher Neuronaler Netze gegeben, die den gegenwärtigen
 
Diskurs zur KI ausgelöst haben. Anhand ausgewählter
 
künstlerischer Arbeiten wird gezeigt, wie sich die Künste ästhetisch
 
und kritisch mit diesen Technologien auseinandersetzen.</div></div>
 
  
 
<center>______________________________________________ <nowiki>&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;</nowiki>______________________________________________</center>
 
<center>______________________________________________ <nowiki>&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;</nowiki>______________________________________________</center>

Version vom 8. Oktober 2019, 13:29 Uhr

Seminare Wintersemester 2019/20           


______________________________________________                            ______________________________________________
17.10.
Dichterisches Coden
  • Einführung
  • Programmieren als künstlerische Praxis
  • Python Basics
  • Code Poetry
______________________________________________                            ______________________________________________
24.10.
Maschinelles Sehen
  • Vektoren / Arrays / Tensoren / Tokenising
    • Daten (Bilder/Texte/Videos etc) für unsere KNNs (maschinen)lesbar machen
  • What about glitch art?
  • Programmieren eines linearen Klassifizierers in Python
  • Einrichten eines Workarounds zur Programmierung Künstlicher Intelligenzen (Jupyter / Anaconda)
Future Minds – Kritik Künstlicher Intelligenzen
more info - coming soon...
______________________________________________                            ______________________________________________
31.10.
Maschinelles Dichten
»EIN STÜCK „LYRIK“: AUTOPOESIE APPARATUS FÜR ANTIKAPITALISTISCHE WERBEMITTEL«
    • How to code it?
  • Einführung in Keras & Tensorflow
  • Einführung in NLP, Natural Language Processing
Future Minds – Kritik Künstlicher Intelligenzen
more info - coming soon...
______________________________________________                            ______________________________________________
07.11.
XAI
  • Einführung in "Explainable AI"
  • weiterprogrammieren unseres linearen Klassifizierers in Python
Future Minds – Kritik Künstlicher Intelligenzen
Vortrag und Diskussionsrunde mit Dr. Thomas Wagner:
»Das Verhältnis des Kapitalismus digitaler Plattformen zur Singularitätsideologie«
______________________________________________                            ______________________________________________
14.11.
NLP
  • Einfühurung in Natural Language Processing
    • Language Modelling
    • word embeddings
    • Argumentation Mining
Future Minds – Kritik Künstlicher Intelligenzen
Vortrag und Diskussionsrunde mit dem Redaktionskollektiv capulcu:
»KI als Taktgeber technokratischer Retrotopien«
______________________________________________                            ______________________________________________
21.11.
Maschinelles Lernen
  • Programmieren eines Perzeptrons in Python < Dataset is our own DNA (DNA-Analysemöglichkeit im Open Lab, Freitags)
Future Minds – Kritik Künstlicher Intelligenzen
more info - coming soon...
______________________________________________                            ______________________________________________
22.11.-24.11.
Exkursion nach Bremen auf die FIfF-Konferenz 2019
Fiffcon.jpeg
______________________________________________                    ______________________________________________
28.11.
AI on Rasp Pie
»Stochastics Walks on the Latent Space - Cloud Representation and Text Extrapolation of Semantics Deduced from Nietzsche's Writings«
    • How to code it?
  • set up a raspberry pie for deep learning < mit Martin Nawrath
  • weiterprogrammieren unseres Perzeptrons in Python
Future Minds – Kritik Künstlicher Intelligenzen
more info - coming soon...
______________________________________________                            ______________________________________________
05.12
Krieg & KI
Adversarial Attacks
  • Einführung in das Hacken Künstlicher Neuronaler Netze
  • How to Dual Use?
  • weiterprogrammieren unseres Perzeptrons in Python
Future Minds – Kritik Künstlicher Intelligenzen
Vortrag und Diskussionsrunde mit Christoph Marischka:
»Wo beginnt der Krieg?«
______________________________________________                            ______________________________________________
12.12
Generative Adversarial Networks
»Positive Extraction and Reproduction System«
    • How to code it?
  • Einführung in DNN's
  • Einführung in GAN's
  • weiterprogrammieren unseres Perzeptrons in Python
Future Minds – Kritik Künstlicher Intelligenzen
more info - coming soon...
______________________________________________                            ______________________________________________
19.12.
Convolutional Neural Networks
»OFFICE PLANTS«
    • How to code it?
  • Einführung in CNN's
  • weiterprogrammieren unseres Perzeptrons in Python
Future Minds – Kritik Künstlicher Intelligenzen
more info - coming soon...
______________________________________________                            ______________________________________________
09.01.
deeper understandings...
Future Minds – Kritik Künstlicher Intelligenzen
Studierendenvorträge
______________________________________________                            ______________________________________________
16.01.
deeper understandings...
Future Minds – Kritik Künstlicher Intelligenzen
Studierendenvorträge
______________________________________________                            ______________________________________________
24.01.
Diskussionsrunde mit Studierenden der Hochschule Düsseldorf (HSD)

Kalender: https://wolke.khm.de/index.php/apps/calendar/p/n6a59z9AnKKnFgTz/exLabIII

Vorträge/Gäste

Thomas Wagner

Wagner Robokratie.jpg

07.11.2019, 14-16h - Vortrag und Diskussionsrunde mit Dr. Thomas Wagner (Kultursoziologe, Publizist, Literaturredakteur »Junge Welt«)


Das Verhältnis des Kapitalismus digitaler Plattformen zur Singularitätsideologie

Im Umfeld von Konzernen wie Google, Facebook und Co. gedeiht eine Ideologie technologischer Machbarkeit. Ihre Anhänger propagieren die Verschmelzung von Mensch und Maschine, spekulieren über künstliche Superintelligenz und träumen von der Unsterblichkeit in der Cloud. En passant ließen sich sämtliche gesellschaftliche Probleme lösen. Fantastische Visionen, irre Ideen. Doch mehr als Hirngespinste: Ihre Propagandisten finanzieren Start-ups, beraten Regierungen, leiten die Labore von High-Tech-Unternehmen und verbreiten ihre Ideen an eigenen Hochschulen.

Thomas Wagner bezeichnet diese Ideologie als Robokratie und legt dar, dass im Resultat die Herrschaft der gegenwärtigen Eliten zementiert wird. Am Ende steht die Frage nach einem demokratischen Gebrauch von Technologie: Damit der Mensch nicht zum Auslaufmodell wird.


capulcu

PlakatA2red.jpg

14.11.2019, 14-16h - Vortrag und Diskussionsrunde mit dem Redaktionskollektiv capulcu


KI als Taktgeber technokratischer Retrotopien

Technologie ist kein Werkzeug, sie ist Mittel zum Zweck - sie war und ist nie neutral! Es ist bequem aber ahistorisch, Technologie auf ein simples Tool zu reduzieren und den politischen Gehalt auf die "äußeren" Bedingungen ihrer "Anwendung" abzuwälzen. Damit lässt sich die Dynamik technologischer Entwicklung als Herrschaftsinstrumentarium nicht erfassen. Wir sprechen daher bewusst von einem technologischen Angriff, um den ideologischen Gehalt jenseits des Werkzeug-Charakters zu begreifen.

Wir wollen eine umfassendere Sichtweise auf Technologie diskutieren, die der gesellschaftlichen Wirkmächtigkeit unseres Gegners - der Technokratie - gerecht wird.

Die Technokratie beschert uns gerade eine beschleunigte Rückwärtsbewegung. KI-basierte digitale Dauerassistenz in Konnektivität aller mit allem knüpft an längst überwunden geglaubte Tendenzen des Behaviorismus an, also der Sichtweise dass uns nur die lenkende Hilfestellung von Experten (heute in Form von selbst-lernenden Algorithmen) dazu befähigt, in einer immer komplexer werdenden Welt rationale Entscheidungen für unser individuelles Leben zu treffen. Bei dieser Art von "freundlicher" Bevormundung erleben wir aktuell (nicht nur in China) eine bemerkenswerte Konvergenz wirtschaftlicher und staatlicher Lenkungsinteressen. China exportiert seine social-credit-systems zur Verhaltensökonomie bereits in über 30 Staaten. Angesichts des weltweiten politischen Drifts nach rechts müssen wir die Bedrohung stärker werdender Tendenzen in Richtung eines modernisierten Totalitarismus analysieren und bekämpfen.

Wie kann es gelingen, die rückschrittlich-technokratischen Retrotopien hinter uns zu lassen und sozialen Wandel in einem wirklich fortschrittlichen Sinne zu gestalten?


Im Zuge der Gezi-Proteste 2013 in Istanbul formierte sich das redaktionskollektiv çapulcu. Eine Gruppe von technologie-kritischen Aktivist*innen und Hacktivist*innen, die ihre Arbeit von Beginn an solidarisch in diesen Kontext stellten.

çapulcu veröffentlicht seither Texte in verschiedenen linken Medien, erarbeitet HowTo‘s zur digitalen Selbstverteidigung und bieten Diskussionsveranstaltungen, Seminare und Schlungen zur Gegenwehr gegen den technologischen Angriff.

Das Redaktionskollektiv plädiert für eine Wiederbelebung der praktischen Technologiekritik zwischen Verweigerung und widerständiger Aneignung spezifischer Techniken und veröffentlicht in diesem Kontext regelmäßig Broschüren

Inhaltliche Vorbereitung:


Krieg & KI

05.12.2019, 14-16h - Vortrag und Diskussionsrunde mit Christoph Marischka von der Informationsstelle Militarisierung

Wo beginnt der Krieg?

In Paul Virilios Vorstellung des „reinen Krieges“ verschwand bereits in den Anfängen des letzten Jahrunderts das Militär in der Technologie. „Der reine Krieg“ löste sich von den herkömmlichen Institutionen des Militärischen. So konzentriert sich auch in Deutschland und der EU die öffentliche Forschungsförderung, seit mehr als 15 Jahren u.a. unter dem Schlagwort der „Sicherheitsforschung“ auf militärisch relevante Technologien wie die Muster- und Situationserkennung durch Künstliche Intelligenz.

Imi-nocyb.png

Die aktuelle Tendenz, alles mit allem zu vernetzen, alle erdenklichen Daten zu sammeln und hieraus die Zukunft berechnen zu wollen, entspricht der lange gehegten Vision einer „vernetzten Kriegsführung“ auf einem „gläsernen Gefechtsfeld“ - und findet in den aktuellen Militärstrategien eine unmittelbare Umsetzung.

Vor diesem Hintergrund soll aus der beschaulichen Universitätsstadt Tübingen nach Vorbild des Sillicon Valley ein Top-Standort für die Entwicklung Künstlicher Intelligenz in Europa werden. Hier soll aktiv die Zukunft gestaltet werden - doch mit genauerem Blick auf Partner, Förderer und Geldgeber wird deutlich, dass die Forschung vor allem deren Interessen dienen soll. Beteiligt sind unter anderem Amazon, die Automobil- und in Ansätzen auch die Rüstungsindustrie. Deshalb regte sich Widerstand gegen das Forschungsprojekt, der zu einer intensiven öffentlichen Diskussion über KI in der Stadt führte. Christoph Marischka stellt in seinem Vortrag diese Tübinger Widerstandsbewegung vor und zur Diskussion. Er fragt, quasi aus ihrer Mitte heraus, nach Wegen des gemeinschaftlichen Ausformulierens kultureller, politischer und sozialer Konsequenzen von KI-Technologien.

In seinem demnächst erscheinenden Buch »Cyber Valley – Unfall des Wissens« stellt Marischka die These auf, dass das Tübinger Cyber Valley als Teil eines allgemeinen „Unfall des Wissens“ zu verstehen ist, und nimmt somit wieder direkten Bezug zu Virilios Denkfigur: „Sollten wir also in Analogie zur Forschung an der Atombombe im Zweiten Weltkrieg von einer 'Intelligenzbombe' sprechen, die gegenwärtig entwickelt wird? Die diesem Buch zugrunde liegende These besteht darin, dass die Intelligenzbombe nichts ist, was an einem bestimmten Ort zu einer bestimmten Zeit fertiggestellt und dann bewusst oder unbewusst durch ein bestimmbares Ereignis gezündet wird, sondern dass sich ihre Wirkung bereits seit Jahren entfaltet – und zwar als Unfall des Wissens.“


Christoph Marischka ist Politikwissenschaftler und Mitglied im Vorstand der Informationsstelle Militarisierung (IMI) e.V. Er setzt sich dort insbesondere mit Afrikapolitik und Aufklärungstechnologie sowie auch deren öffentlich geförderten Forschungslandschaften auseinander. Er war u.a. 2013 an der Erstellung des "Drohnenforschungsatlas" (http://www.imi-online.de/2013/12/06/drohnenforschungsatlas/) beteiligt und verfasst kontinuierlich Analysen, welche sich kritisch mit entsprechenden Technologien auseinandersetzen - die bereits in ihrer Entwicklung auch unseren Alltag strukturieren. Dementsprechen ist er derzeit auch im „Bündnis gegen das Cyber Valley“ aktiv und versucht quasi vor seiner Wohnungstür die Entstehung dieses Forschungscampus' zu verhindern.

Inhaltliche Vorbereitung:


Exkursion

FIfF-Konferenz 2019

22.11.-24.11.2019, Bremen

Künstliche Intelligenz als Wunderland - https://2019.fiffkon.de/

Eine Konferenz des Forum InformatikerInnen für Frieden und gesellschaftliche Verantwortung e. V.

Veranstaltungsprogramm: https://2019.fiffkon.de/program/booklet.html

Fiffkon19web.jpg

Einladungstext:
In der berühmten Erzählung Alice im Wunderland von Lewis Carroll begegnet die Protagonistin im Wunderland den merkwürdigsten Gestalten und erlebt kuriose Abenteuer. Ein neues Wunderland eröffnet sich heute durch Künstliche Intelligenz. Es ist von Robotern bevölkert, die Fußball spielen, tanzen, jonglieren, kochen, Dienstleistungen aller Art erbringen, Alte und Kranke pflegen und Orte erkunden, die für Menschen gefährlich oder unerreichbar sind. Es gibt dort selbstfahrende Autos und unbemannte Flugobjekte. Lernende neuronale Netze beeindrucken, weil sie fast alle Spiele gegen fast alle Spielerinnen und Spieler gewinnen. Man trifft allenthalben auf Systeme, die sehen, lesen, sprechen und lernen können. Und es wird gemunkelt, dass sich demnächst eine neue Spezies mit Superintelligenz dazu gesellen wird, die besser denken kann als alle Menschen zusammen.

Wir möchten alle Interessierten zur FIfF-Konferenz 2019 vom 22. bis 24. November 2019 nach Bremen einladen, um mit uns dieses Wunderland zu erkunden und genauer unter die Lupe zu nehmen. Was ist dran an den hochfliegenden Plänen und Versprechungen? Welche Erwartungen und Hoffnungen sind realistisch, welche sind übertrieben, welche sind unerfüllbar? Welche gesellschaftlichen Auswirkungen sind zu erwarten und wie soll man mit ihnen umgehen? Welche Risiken und Gefahren sind mit den aktuellen und zukünftigen Entwicklungen der Künstlichen Intelligenz verbunden und wie ist ihnen zu begegnen?


Topics


Literatur


File Sharing

link zu unsrer cloud


Codes/HowTos

nützliche Cheat-Sheets

auch updaten:

Wie editiere ich das exMediawiki Cheat-sheet
Jupyter Notebook & IPython (OnePager) https://s3.amazonaws.com/assets.datacamp.com/blog_assets/Jupyter_Notebook_Cheat_Sheet.pdf
Jupyter & IPython (detailled) http://get.treasuredata.com/rs/714-XIJ-402/images/TD_Jupyter%20Notebook%20Cheatsheet_V1%281%29%20%281%29.pdf
Jupyter Notebook (Shortcuts) https://ugoproto.github.io/ugo_py_doc/weidadeyue_jupyter-notebook.pdf
Conda https://ugoproto.github.io/ugo_py_doc/conda-cheatsheet.pdf
Python Beginner Cheat Sheet https://github.com/ehmatthes/pcc/releases/download/v1.0.0/beginners_python_cheat_sheet_pcc_all.pdf
Markdown Syntax https://help.github.com/articles/basic-writing-and-formatting-syntax/
Cheat Sheets for AI, Neural Networks, Machine Learning, Deep Learning & Big Data https://becominghuman.ai/cheat-sheets-for-ai-neural-networks-machine-learning-deep-learning-big-data-678c51b4b463
Mediawiki Syntax interner Link: Cheet-sheet
Keras CheatSheet https://tanthiamhuat.files.wordpress.com/2018/04/deeplearningwithkeras.pdf