AI@exLabIII: Unterschied zwischen den Versionen
Aus exmediawiki
C.heck (Diskussion | Beiträge) (→Python) |
C.heck (Diskussion | Beiträge) (→Python) |
||
Zeile 355: | Zeile 355: | ||
---- | ---- | ||
==Python== | ==Python== | ||
− | ''' | + | '''Onlinetutorial:''' |
− | *[https://tutorial.djangogirls.org/de/python_introduction/ Python tutorial der djangogirls ( | + | *[https://tutorial.djangogirls.org/de/python_introduction/ Python tutorial der djangogirls (Deutsch)] |
− | ''' | + | '''Book:''' |
− | *[https://exmediawiki.khm.de/exmediawiki/images/6/6d/Py-tutorial-de.pdf Das Python3.3-Tutorial | + | *[https://exmediawiki.khm.de/exmediawiki/images/6/6d/Py-tutorial-de.pdf Das Python3.3-Tutorial (Deutsch)] |
− | ''' | + | '''Videotutorial:''' |
− | *[https://www.youtube.com/playlist?list=PLbd_WhypdBbAMyFfKgSj27JO7CEpuIcEK Videotutorial von »Coding is for girls«] | + | *[https://www.youtube.com/playlist?list=PLbd_WhypdBbAMyFfKgSj27JO7CEpuIcEK Videotutorial von »Coding is for girls« (Englisch)] |
---- | ---- |
Version vom 20. Oktober 2019, 21:23 Uhr
Georg Trogemann, Christian Heck
Einführung in die Programmierung Künstlicher Intelligenzen
Grundlagenseminar Material/Skulptur/Code Grundstudium
Donnerstag wöchentlich 11:00 – 13:00
Erster Termin 17.10.2019
Filzengraben 8 - 10, 0.2 Experimentelle Informatik
Tief greifende kulturelle Konsequenzen von KI treten nicht erst beim
Einsatz von Uploadfiltern zur algorithmischen Zensur unerwünschter
Text- und Bildinhalte oder der Versteigerung von KI-Gemälden bei
Christie's in Erscheinung; auch nicht bei der Ausformulierung ethischer
Leitlinien für den Umgang mit KI oder dem vermehrten Aufkommen
von AI powered Hate Speech Bots. Sie beginnen, ganz abstrakt
und meist unbeachtet bei ihrer Programmierung, in semi-öffentlich
geführten, sehr formalen Diskursfeldern.
Genau dort setzen wir experimentell an. Das Seminar wird sehr elementar in die subsymbolische KI der Neuronalen Netze und deren Programmierung einführen. Coden from scratch, den Code gemeinsam diskutieren und zu verstehen lernen, um auf diesem Wege die Möglichkeiten, Grenzen und Gefahren dieser Technologie für sich einschätzen zu lernen ist Ziel dieses Seminars.
Wir machen uns die Technologie der Künstlichen Intelligenz nicht als ein Tool im Homo Faberischen Sinne zu eigen, sondern verbinden Programmieren als künstlerische Praxis mit der kritischen Analyse ihrer gesellschaftlichen Auswirkungen, welche im parallel stattfindenden Theorieseminar "Future Minds – Kritik Künstlicher Intelligenzen" vertiefend erarbeitet werden kann.
Georg Trogemann, Christian Heck
Future Minds – Kritik Künstlicher Intelligenzen
Theorieseminar Hauptstudium und weiterqualifizierendes Studium
Donnerstag wöchentlich 14:00 – 16:00
Erster Termin 24.10.2019
Filzengraben 8 - 10, 0.2 Experimentelle Informatik
Ausgehend von einem Rückblick auf die Wurzeln der Künstlichen
Intelligenz (KI) in der Kybernetik werden eine Reihe von Themen
und Begriffen vorgestellt, die einer genaueren Betrachtung
bedürfen, will man sich als Künstler*in oder Theoretiker*in ihnen
gegenüber positionieren. Hierbei handelt es sich keineswegs
ausschließlich um die der kybernetischen Tradition zuzuordnenden
Begriffe wie z.B. Artificial Neuron, Black Box oder Machine
Learning. Auch Modebegriffe wie Open Culture, Transparency oder
technologische Singularität müssen vor dem Hintergrund der zu
ahnenden kulturellen, politischen und sozialen Konsequenzen von
KI-Technologien neu verhandelt werden.
Worin besteht beispielsweise das Kontrollproblem automatisierter Entscheidungsprozesse? Wo liegen technische und wo ethische Probleme, wenn wir Entscheidungen an Maschinen delegieren? Kann man Ethik programmieren? Können KI’s ihre Entscheidungen begründen? KI wird zur Steuerung unterschiedlichster Prozesse eingesetzt, wobei der Übergang zwischen Steuerung und Vorhersage fließend ist. Doch Vorhersagen unterliegen prinzipiellen Grenzen, die auch Hinweise auf die Grenzen von KI’s geben.
In Ergänzung zur parallel stattfindenden Grundlagenveranstaltung „Einführung in die Programmierung Künstlicher Intelligenzen“ wird ein verdichteter Einblick in Machine Learning und die Arbeitsweise Künstlicher Neuronaler Netze gegeben, die den gegenwärtigen Diskurs zur KI ausgelöst haben. Anhand ausgewählter künstlerischer Arbeiten wird gezeigt, wie sich die Künste ästhetisch
und kritisch mit diesen Technologien auseinandersetzen.- Einführung in das Seminarsprogramm
- Python Basics
- Code Poetry
- Einführung in die KHM-Cloud
- Einführung in das exMediawiki
- Einrichten eines Workarounds zur Programmierung Künstlicher Intelligenzen (Jupyter / Anaconda)
- Data Preprocessing in Python (Daten (Bilder/Texte/Videos etc) für unsere KNNs (maschinen)lesbar machen)
- Vektoren / Arrays / Tensoren / Tokenising...
- Einführung in die hierfür benötigten Module (Keras, NumPy, Pandas, Tensorflow, Nltk, etc.)
- Verena Lercher präsentiert:
- ... & how to code it?
- Programmieren eines linearen Klassifizierers in Python << das Eingabedatenset stellt ein Auszug unseres genetischen Fingerabdrucks dar (DNA-Analysemöglichkeit im Open Lab, see: BentoLab_Forensics)
- Intermezzo: XAI, Explainable AI
- Programmieren eines Perzeptrons nach Rosenblatt in Python << (DNA)
- Intermezzo: AM, Argumentation Mining
- weiterprogrammieren unseres Perzeptrons...
- Intermezzo: NLP, Natural Language Processing
- Camilo Sandoval präsentiert:
- ... & how to code it?
- set up a raspberry pie for deep learning < mit Martin Nawrath
- build your own war technology
- Intermezzo: Adversarial Attacks, Hacken Künstlicher Neuronaler Netze
- Mattis Kuhn präsentiert:
- & how to code it?
- Einführung in GAN's
- weiterprogrammieren unseres Perzeptrons in Python
- Verena Friedrich präsentiert:
- & how to code it?
- Einführung in CNN's
Inhaltsverzeichnis
TeilnehmerInnen
[[Benutzer:]] | [[Benutzer:]] | [[Benutzer:]] |
[[Benutzer:]] | [[Benutzer:]] | [[Benutzer:]] |
[[Benutzer:]] | [[Benutzer:]] | [[Benutzer:]] |
[[Benutzer:]] | [[Benutzer:]] | [[Benutzer:]] |
Vorträge/Gäste
Thomas Wagner
07.11.2019, 14-16h - Vortrag und Diskussionsrunde mit Dr. Thomas Wagner (Kultursoziologe, Publizist, Literaturredakteur »Junge Welt«)
Das Verhältnis des Kapitalismus digitaler Plattformen zur Singularitätsideologie
Im Umfeld von Konzernen wie Google, Facebook und Co. gedeiht eine Ideologie technologischer Machbarkeit. Ihre Anhänger propagieren die Verschmelzung von Mensch und Maschine, spekulieren über künstliche Superintelligenz und träumen von der Unsterblichkeit in der Cloud. En passant ließen sich sämtliche gesellschaftliche Probleme lösen. Fantastische Visionen, irre Ideen. Doch mehr als Hirngespinste: Ihre Propagandisten finanzieren Start-ups, beraten Regierungen, leiten die Labore von High-Tech-Unternehmen und verbreiten ihre Ideen an eigenen Hochschulen.
Thomas Wagner bezeichnet diese Ideologie, die Verschmelzung von Robotik, Kapitalismus, Militarismus, Technodeterminismus, Technokratie, Militarismus und instrumenteller Vernunft in treffender Weise als »Robokratie« und legt dar, dass im Resultat die Herrschaft der gegenwärtigen Eliten zementiert wird. Am Ende steht die Frage nach einem demokratischen Gebrauch von Technologie.
Wie bei jeder Form der Technik, kommt es für kritische Ansätze darauf an, die Möglichkeiten, Unmöglichkeiten, Chancen und Risiken der künstlichen Intelligenz realistisch einzuschätzen, in Bezug zu Kapitalismus und Herrschaft zu setzen und zu diskutieren, welche Technologien emanzipatorisches Potential haben und welche reine Destruktivkräfte darstellen, um dann Forderungen nach demokratischer Kontrolle und Gestaltung des technischen Fortschritts zu machen. Die Welt der Robotik ist heute vor allem von Ideologien und Utopien geprägt. Es mangelt ihr an Realismus und einem menschenorientierten Konzept demokratisch-sozialistischer Computertechnologie.
capulcu
14.11.2019, 14-16h - Vortrag und Diskussionsrunde mit dem Redaktionskollektiv capulcu
KI als Taktgeber technokratischer Retrotopien
Technologie ist kein Werkzeug, sie ist Mittel zum Zweck - sie war und ist nie neutral! Es ist bequem aber ahistorisch, Technologie auf ein simples Tool zu reduzieren und den politischen Gehalt auf die "äußeren" Bedingungen ihrer "Anwendung" abzuwälzen. Damit lässt sich die Dynamik technologischer Entwicklung als Herrschaftsinstrumentarium nicht erfassen. Wir sprechen daher bewusst von einem technologischen Angriff, um den ideologischen Gehalt jenseits des Werkzeug-Charakters zu begreifen.
Wir wollen eine umfassendere Sichtweise auf Technologie diskutieren, die der gesellschaftlichen Wirkmächtigkeit unseres Gegners - der Technokratie - gerecht wird.
Die Technokratie beschert uns gerade eine beschleunigte Rückwärtsbewegung. KI-basierte digitale Dauerassistenz in Konnektivität aller mit allem knüpft an längst überwunden geglaubte Tendenzen des Behaviorismus an, also der Sichtweise dass uns nur die lenkende Hilfestellung von Experten (heute in Form von selbst-lernenden Algorithmen) dazu befähigt, in einer immer komplexer werdenden Welt rationale Entscheidungen für unser individuelles Leben zu treffen. Bei dieser Art von "freundlicher" Bevormundung erleben wir aktuell (nicht nur in China) eine bemerkenswerte Konvergenz wirtschaftlicher und staatlicher Lenkungsinteressen. China exportiert seine social-credit-systems zur Verhaltensökonomie bereits in über 30 Staaten. Angesichts des weltweiten politischen Drifts nach rechts müssen wir die Bedrohung stärker werdender Tendenzen in Richtung eines modernisierten Totalitarismus analysieren und bekämpfen.
Wie kann es gelingen, die rückschrittlich-technokratischen Retrotopien hinter uns zu lassen und sozialen Wandel in einem wirklich fortschrittlichen Sinne zu gestalten?
Im Zuge der Gezi-Proteste 2013 in Istanbul formierte sich das redaktionskollektiv çapulcu. Eine Gruppe von technologie-kritischen Aktivist*innen und Hacktivist*innen, die ihre Arbeit von Beginn an solidarisch in diesen Kontext stellten.
çapulcu veröffentlicht seither Texte in verschiedenen linken Medien, erarbeitet HowTo‘s zur digitalen Selbstverteidigung und bieten Diskussionsveranstaltungen, Seminare und Schlungen zur Gegenwehr gegen den technologischen Angriff.
Das Redaktionskollektiv plädiert für eine Wiederbelebung der praktischen Technologiekritik zwischen Verweigerung und widerständiger Aneignung spezifischer Techniken und veröffentlicht in diesem Kontext regelmäßig Broschüren
Inhaltliche Vorbereitung:
- https://capulcu.blackblogs.org/
- in der Bibliothek:
- »DELETE!«, GES D.10.4 - 119
- »DISRUPT!«, GES D.10.4 - 118
Krieg & KI
05.12.2019, 14-16h - Vortrag und Diskussionsrunde mit Christoph Marischka von der Informationsstelle Militarisierung
Wo beginnt der Krieg?
In Paul Virilios Vorstellung des „reinen Krieges“ verschwand bereits in den Anfängen des letzten Jahrunderts das Militär in der Technologie. „Der reine Krieg“ löste sich von den herkömmlichen Institutionen des Militärischen. So konzentriert sich auch in Deutschland und der EU die öffentliche Forschungsförderung, seit mehr als 15 Jahren u.a. unter dem Schlagwort der „Sicherheitsforschung“ auf militärisch relevante Technologien wie die Muster- und Situationserkennung durch Künstliche Intelligenz.
Die aktuelle Tendenz, alles mit allem zu vernetzen, alle erdenklichen Daten zu sammeln und hieraus die Zukunft berechnen zu wollen, entspricht der lange gehegten Vision einer „vernetzten Kriegsführung“ auf einem „gläsernen Gefechtsfeld“ - und findet in den aktuellen Militärstrategien eine unmittelbare Umsetzung.
Vor diesem Hintergrund soll aus der beschaulichen Universitätsstadt Tübingen nach Vorbild des Sillicon Valley ein Top-Standort für die Entwicklung Künstlicher Intelligenz in Europa werden. Hier soll aktiv die Zukunft gestaltet werden - doch mit genauerem Blick auf Partner, Förderer und Geldgeber wird deutlich, dass die Forschung vor allem deren Interessen dienen soll. Beteiligt sind unter anderem Amazon, die Automobil- und in Ansätzen auch die Rüstungsindustrie. Deshalb regte sich Widerstand gegen das Forschungsprojekt, der zu einer intensiven öffentlichen Diskussion über KI in der Stadt führte. Christoph Marischka stellt in seinem Vortrag diese Tübinger Widerstandsbewegung vor und zur Diskussion. Er fragt, quasi aus ihrer Mitte heraus, nach Wegen des gemeinschaftlichen Ausformulierens kultureller, politischer und sozialer Konsequenzen von KI-Technologien.
In seinem demnächst erscheinenden Buch »Cyber Valley – Unfall des Wissens« stellt Marischka die These auf, dass das Tübinger Cyber Valley als Teil eines allgemeinen „Unfall des Wissens“ zu verstehen ist, und nimmt somit wieder direkten Bezug zu Virilios Denkfigur: „Sollten wir also in Analogie zur Forschung an der Atombombe im Zweiten Weltkrieg von einer 'Intelligenzbombe' sprechen, die gegenwärtig entwickelt wird? Die diesem Buch zugrunde liegende These besteht darin, dass die Intelligenzbombe nichts ist, was an einem bestimmten Ort zu einer bestimmten Zeit fertiggestellt und dann bewusst oder unbewusst durch ein bestimmbares Ereignis gezündet wird, sondern dass sich ihre Wirkung bereits seit Jahren entfaltet – und zwar als Unfall des Wissens.“
Christoph Marischka ist Politikwissenschaftler und Mitglied im Vorstand der Informationsstelle Militarisierung (IMI) e.V. Er setzt sich dort insbesondere mit Afrikapolitik und Aufklärungstechnologie sowie auch deren öffentlich geförderten Forschungslandschaften auseinander. Er war u.a. 2013 an der Erstellung des "Drohnenforschungsatlas" (http://www.imi-online.de/2013/12/06/drohnenforschungsatlas/) beteiligt und verfasst kontinuierlich Analysen, welche sich kritisch mit entsprechenden Technologien auseinandersetzen - die bereits in ihrer Entwicklung auch unseren Alltag strukturieren. Dementsprechen ist er derzeit auch im „Bündnis gegen das Cyber Valley“ aktiv und versucht quasi vor seiner Wohnungstür die Entstehung dieses Forschungscampus' zu verhindern.
Inhaltliche Vorbereitung:
Exkursion
FIfF-Konferenz 2019
22.11.-24.11.2019, Bremen
Künstliche Intelligenz als Wunderland - https://2019.fiffkon.de/
Eine Konferenz des Forum InformatikerInnen für Frieden und gesellschaftliche Verantwortung e. V.
Veranstaltungsprogramm: https://2019.fiffkon.de/program/booklet.html
Einladungstext:
In der berühmten Erzählung Alice im Wunderland von Lewis Carroll begegnet die Protagonistin im Wunderland den merkwürdigsten Gestalten und erlebt kuriose Abenteuer. Ein neues Wunderland eröffnet sich heute durch Künstliche Intelligenz. Es ist von Robotern bevölkert, die Fußball spielen, tanzen, jonglieren, kochen, Dienstleistungen aller Art erbringen, Alte und Kranke pflegen und Orte erkunden, die für Menschen gefährlich oder unerreichbar sind. Es gibt dort selbstfahrende Autos und unbemannte Flugobjekte. Lernende neuronale Netze beeindrucken, weil sie fast alle Spiele gegen fast alle Spielerinnen und Spieler gewinnen. Man trifft allenthalben auf Systeme, die sehen, lesen, sprechen und lernen können. Und es wird gemunkelt, dass sich demnächst eine neue Spezies mit Superintelligenz dazu gesellen wird, die besser denken kann als alle Menschen zusammen.
Wir möchten alle Interessierten zur FIfF-Konferenz 2019 vom 22. bis 24. November 2019 nach Bremen einladen, um mit uns dieses Wunderland zu erkunden und genauer unter die Lupe zu nehmen. Was ist dran an den hochfliegenden Plänen und Versprechungen? Welche Erwartungen und Hoffnungen sind realistisch, welche sind übertrieben, welche sind unerfüllbar? Welche gesellschaftlichen Auswirkungen sind zu erwarten und wie soll man mit ihnen umgehen? Welche Risiken und Gefahren sind mit den aktuellen und zukünftigen Entwicklungen der Künstlichen Intelligenz verbunden und wie ist ihnen zu begegnen?
Literatur
Literaturliste hier noch rein...
File Sharing
Seminars-Cloud: https://wolke.khm.de/index.php/s/QknbEjo3Mq8RoBW
HowTos/Tutorials
- KI Workaround installieren (Anaconda und Jupyter Notebook mit deep learning environment)
Python
Onlinetutorial:
Book:
Videotutorial:
Cheat-Sheets - general
auch updaten: