AI@exLabIII: Unterschied zwischen den Versionen
Aus exmediawiki
C.heck (Diskussion | Beiträge) |
C.heck (Diskussion | Beiträge) |
||
Zeile 184: | Zeile 184: | ||
<div class="large-6 columns"><center>'''Generative Adversarial Networks'''</center> | <div class="large-6 columns"><center>'''Generative Adversarial Networks'''</center> | ||
* [https://mattiskuhn.com/en Mattis Kuhn] präsentiert: | * [https://mattiskuhn.com/en Mattis Kuhn] präsentiert: | ||
− | <center>''»Positive Extraction and Reproduction System«'' | + | <center>''»Positive Extraction and Reproduction System«''</center> |
− | + | <center>... & how to code it?</center> | |
− | ... & how to code it?</center> | ||
* Einführung in GAN's | * Einführung in GAN's | ||
</div> | </div> |
Version vom 11. Dezember 2019, 14:17 Uhr
Georg Trogemann, Christian Heck
Einführung in die Programmierung Künstlicher Intelligenzen
Grundlagenseminar Material/Skulptur/Code Grundstudium
Donnerstag wöchentlich 11:00 – 13:00
Erster Termin 17.10.2019
Filzengraben 8 - 10, 0.2 Experimentelle Informatik
Tief greifende kulturelle Konsequenzen von KI treten nicht erst beim
Einsatz von Uploadfiltern zur algorithmischen Zensur unerwünschter
Text- und Bildinhalte oder der Versteigerung von KI-Gemälden bei
Christie's in Erscheinung; auch nicht bei der Ausformulierung ethischer
Leitlinien für den Umgang mit KI oder dem vermehrten Aufkommen
von AI powered Hate Speech Bots. Sie beginnen, ganz abstrakt
und meist unbeachtet bei ihrer Programmierung, in semi-öffentlich
geführten, sehr formalen Diskursfeldern.
Genau dort setzen wir experimentell an. Das Seminar wird sehr elementar in die subsymbolische KI der Neuronalen Netze und deren Programmierung einführen. Coden from scratch, den Code gemeinsam diskutieren und zu verstehen lernen, um auf diesem Wege die Möglichkeiten, Grenzen und Gefahren dieser Technologie für sich einschätzen zu lernen ist Ziel dieses Seminars.
Wir machen uns die Technologie der Künstlichen Intelligenz nicht als ein Tool im Homo Faberischen Sinne zu eigen, sondern verbinden Programmieren als künstlerische Praxis mit der kritischen Analyse ihrer gesellschaftlichen Auswirkungen, welche im parallel stattfindenden Theorieseminar "Future Minds – Kritik Künstlicher Intelligenzen" vertiefend erarbeitet werden kann.
Georg Trogemann, Christian Heck
Future Minds – Kritik Künstlicher Intelligenzen
Theorieseminar Hauptstudium und weiterqualifizierendes Studium
Donnerstag wöchentlich 14:00 – 16:00
Erster Termin 24.10.2019
Filzengraben 8 - 10, 0.2 Experimentelle Informatik
Ausgehend von einem Rückblick auf die Wurzeln der Künstlichen
Intelligenz (KI) in der Kybernetik werden eine Reihe von Themen
und Begriffen vorgestellt, die einer genaueren Betrachtung
bedürfen, will man sich als Künstler*in oder Theoretiker*in ihnen
gegenüber positionieren. Hierbei handelt es sich keineswegs
ausschließlich um die der kybernetischen Tradition zuzuordnenden
Begriffe wie z.B. Artificial Neuron, Black Box oder Machine
Learning. Auch Modebegriffe wie Open Culture, Transparency oder
technologische Singularität müssen vor dem Hintergrund der zu
ahnenden kulturellen, politischen und sozialen Konsequenzen von
KI-Technologien neu verhandelt werden.
Worin besteht beispielsweise das Kontrollproblem automatisierter Entscheidungsprozesse? Wo liegen technische und wo ethische Probleme, wenn wir Entscheidungen an Maschinen delegieren? Kann man Ethik programmieren? Können KI’s ihre Entscheidungen begründen? KI wird zur Steuerung unterschiedlichster Prozesse eingesetzt, wobei der Übergang zwischen Steuerung und Vorhersage fließend ist. Doch Vorhersagen unterliegen prinzipiellen Grenzen, die auch Hinweise auf die Grenzen von KI’s geben.
In Ergänzung zur parallel stattfindenden Grundlagenveranstaltung „Einführung in die Programmierung Künstlicher Intelligenzen“ wird ein verdichteter Einblick in Machine Learning und die Arbeitsweise Künstlicher Neuronaler Netze gegeben, die den gegenwärtigen Diskurs zur KI ausgelöst haben. Anhand ausgewählter künstlerischer Arbeiten wird gezeigt, wie sich die Künste ästhetisch
und kritisch mit diesen Technologien auseinandersetzen.- Einrichten eines Workarounds zur Programmierung Künstlicher Intelligenzen (Jupyter / Anaconda)
- Das Perzeptron | lineare Klassifikatoren schreiben
- Python << first steps
- Code Poetry | lineare Klassificodichte schreiben
- Verena Lercher präsentiert ihre künstlerische Arbeit:
- weiterprogrammieren unseres linearen Klassifizierers in Python
- Einführung in Language Modelling & Sentiment Analysis
- Sprachassistenten, chat- bzw. social bots schreiben
- Einführung in word embeddings
- Einführung in machine learning
- Fehlerfückführung & Backpropagation...
- Camilo Sandoval präsentiert:
- ... & how to code it?
- set up a raspberry pi for deep learning < mit Martin Nawrath
- Kriegstechnologien selber schreiben
- Mattis Kuhn präsentiert:
- Einführung in GAN's
- zusammen mit Verena Friedrich, Klaus Fritze & Matthias Burba (Gast)
- Verena Friedrich präsentiert ihre künstlerische Arbeit:
- Programmieren eines Perzeptrons in Python << das Eingabedatenset stellt ein Auszug unseres im Open Lab erzeugten genetischen Fingerabdrucks dar. siehe: DNA_phenotyping
Inhaltsverzeichnis
TeilnemerInnen
Vorträge/Gäste
Thomas Wagner
07.11.2019, 14-16h - Vortrag und Diskussionsrunde mit Dr. Thomas Wagner (Kultursoziologe, Publizist, Literaturredakteur »Junge Welt«)
Das Verhältnis des Kapitalismus digitaler Plattformen zur Singularitätsideologie
Im Umfeld von Konzernen wie Google, Facebook und Co. gedeiht eine Ideologie technologischer Machbarkeit. Ihre Anhänger propagieren die Verschmelzung von Mensch und Maschine, spekulieren über künstliche Superintelligenz und träumen von der Unsterblichkeit in der Cloud. En passant ließen sich sämtliche gesellschaftliche Probleme lösen. Fantastische Visionen, irre Ideen. Doch mehr als Hirngespinste: Ihre Propagandisten finanzieren Start-ups, beraten Regierungen, leiten die Labore von High-Tech-Unternehmen und verbreiten ihre Ideen an eigenen Hochschulen.
Thomas Wagner bezeichnet diese Ideologie, die Verschmelzung von Robotik, Kapitalismus, Militarismus, Technodeterminismus, Technokratie, Militarismus und instrumenteller Vernunft in treffender Weise als »Robokratie« und legt dar, dass im Resultat die Herrschaft der gegenwärtigen Eliten zementiert wird. Am Ende steht die Frage nach einem demokratischen Gebrauch von Technologie.
Wie bei jeder Form der Technik, kommt es für kritische Ansätze darauf an, die Möglichkeiten, Unmöglichkeiten, Chancen und Risiken der künstlichen Intelligenz realistisch einzuschätzen, in Bezug zu Kapitalismus und Herrschaft zu setzen und zu diskutieren, welche Technologien emanzipatorisches Potential haben und welche reine Destruktivkräfte darstellen, um dann Forderungen nach demokratischer Kontrolle und Gestaltung des technischen Fortschritts zu machen. Die Welt der Robotik ist heute vor allem von Ideologien und Utopien geprägt. Es mangelt ihr an Realismus und einem menschenorientierten Konzept demokratisch-sozialistischer Computertechnologie.
Inhaltliche Vorbereitung:
- in der Bibliothek:
- »Das Netz in unsere Hand!«, Thomas Wagner, 2017, GES D.10.4 - 117
- »Robokratie - Google, das Silicon Valley und der Mensch als Auslaufmodell«, Thomas Wagner, 2016, Bestellt
capulcu
14.11.2019, 13h30-15h - Vortrag und Diskussionsrunde mit dem Redaktionskollektiv capulcu
KI als Taktgeber technokratischer Retrotopien
Technologie ist kein Werkzeug, sie ist Mittel zum Zweck - sie war und ist nie neutral! Es ist bequem aber ahistorisch, Technologie auf ein simples Tool zu reduzieren und den politischen Gehalt auf die "äußeren" Bedingungen ihrer "Anwendung" abzuwälzen. Damit lässt sich die Dynamik technologischer Entwicklung als Herrschaftsinstrumentarium nicht erfassen. Wir sprechen daher bewusst von einem technologischen Angriff, um den ideologischen Gehalt jenseits des Werkzeug-Charakters zu begreifen.
Wir wollen eine umfassendere Sichtweise auf Technologie diskutieren, die der gesellschaftlichen Wirkmächtigkeit unseres Gegners - der Technokratie - gerecht wird.
Die Technokratie beschert uns gerade eine beschleunigte Rückwärtsbewegung. KI-basierte digitale Dauerassistenz in Konnektivität aller mit allem knüpft an längst überwunden geglaubte Tendenzen des Behaviorismus an, also der Sichtweise dass uns nur die lenkende Hilfestellung von Experten (heute in Form von selbst-lernenden Algorithmen) dazu befähigt, in einer immer komplexer werdenden Welt rationale Entscheidungen für unser individuelles Leben zu treffen. Bei dieser Art von "freundlicher" Bevormundung erleben wir aktuell (nicht nur in China) eine bemerkenswerte Konvergenz wirtschaftlicher und staatlicher Lenkungsinteressen. China exportiert seine social-credit-systems zur Verhaltensökonomie bereits in über 30 Staaten. Angesichts des weltweiten politischen Drifts nach rechts müssen wir die Bedrohung stärker werdender Tendenzen in Richtung eines modernisierten Totalitarismus analysieren und bekämpfen.
Wie kann es gelingen, die rückschrittlich-technokratischen Retrotopien hinter uns zu lassen und sozialen Wandel in einem wirklich fortschrittlichen Sinne zu gestalten?
Im Zuge der Gezi-Proteste 2013 in Istanbul formierte sich das redaktionskollektiv çapulcu. Eine Gruppe von technologie-kritischen Aktivist*innen und Hacktivist*innen, die ihre Arbeit von Beginn an solidarisch in diesen Kontext stellten.
çapulcu veröffentlicht seither Texte in verschiedenen linken Medien, erarbeitet HowTo‘s zur digitalen Selbstverteidigung und bieten Diskussionsveranstaltungen, Seminare und Schlungen zur Gegenwehr gegen den technologischen Angriff.
Das Redaktionskollektiv plädiert für eine Wiederbelebung der praktischen Technologiekritik zwischen Verweigerung und widerständiger Aneignung spezifischer Techniken und veröffentlicht in diesem Kontext regelmäßig Broschüren
Inhaltliche Vorbereitung:
- Webseite: https://capulcu.blackblogs.org/
- in der Bibliothek:
- »DELETE!«, GES D.10.4 - 119
- »DISRUPT!«, GES D.10.4 - 118
Krieg & KI
05.12.2019, 14-16h - Vortrag und Diskussionsrunde mit Christoph Marischka von der Informationsstelle Militarisierung
Wo beginnt der Krieg?
In Paul Virilios Vorstellung des „reinen Krieges“ verschwand bereits in den Anfängen des letzten Jahrunderts das Militär in der Technologie. „Der reine Krieg“ löste sich von den herkömmlichen Institutionen des Militärischen. So konzentriert sich auch in Deutschland und der EU die öffentliche Forschungsförderung, seit mehr als 15 Jahren u.a. unter dem Schlagwort der „Sicherheitsforschung“ auf militärisch relevante Technologien wie die Muster- und Situationserkennung durch Künstliche Intelligenz.
Die aktuelle Tendenz, alles mit allem zu vernetzen, alle erdenklichen Daten zu sammeln und hieraus die Zukunft berechnen zu wollen, entspricht der lange gehegten Vision einer „vernetzten Kriegsführung“ auf einem „gläsernen Gefechtsfeld“ - und findet in den aktuellen Militärstrategien eine unmittelbare Umsetzung.
Vor diesem Hintergrund soll aus der beschaulichen Universitätsstadt Tübingen nach Vorbild des Sillicon Valley ein Top-Standort für die Entwicklung Künstlicher Intelligenz in Europa werden. Hier soll aktiv die Zukunft gestaltet werden - doch mit genauerem Blick auf Partner, Förderer und Geldgeber wird deutlich, dass die Forschung vor allem deren Interessen dienen soll. Beteiligt sind unter anderem Amazon, die Automobil- und in Ansätzen auch die Rüstungsindustrie. Deshalb regte sich Widerstand gegen das Forschungsprojekt, der zu einer intensiven öffentlichen Diskussion über KI in der Stadt führte. Christoph Marischka stellt in seinem Vortrag diese Tübinger Widerstandsbewegung vor und zur Diskussion. Er fragt, quasi aus ihrer Mitte heraus, nach Wegen des gemeinschaftlichen Ausformulierens kultureller, politischer und sozialer Konsequenzen von KI-Technologien.
In seinem demnächst erscheinenden Buch »Cyber Valley – Unfall des Wissens« stellt Marischka die These auf, dass das Tübinger Cyber Valley als Teil eines allgemeinen „Unfall des Wissens“ zu verstehen ist, und nimmt somit wieder direkten Bezug zu Virilios Denkfigur: „Sollten wir also in Analogie zur Forschung an der Atombombe im Zweiten Weltkrieg von einer 'Intelligenzbombe' sprechen, die gegenwärtig entwickelt wird? Die diesem Buch zugrunde liegende These besteht darin, dass die Intelligenzbombe nichts ist, was an einem bestimmten Ort zu einer bestimmten Zeit fertiggestellt und dann bewusst oder unbewusst durch ein bestimmbares Ereignis gezündet wird, sondern dass sich ihre Wirkung bereits seit Jahren entfaltet – und zwar als Unfall des Wissens.“
Christoph Marischka ist Politikwissenschaftler und Mitglied im Vorstand der Informationsstelle Militarisierung (IMI) e.V. Er setzt sich dort insbesondere mit Afrikapolitik und Aufklärungstechnologie sowie auch deren öffentlich geförderten Forschungslandschaften auseinander. Er war u.a. 2013 an der Erstellung des "Drohnenforschungsatlas" beteiligt und verfasst kontinuierlich Analysen, welche sich kritisch mit entsprechenden Technologien auseinandersetzen - die bereits in ihrer Entwicklung auch unseren Alltag strukturieren. Dementsprechen ist er derzeit auch im „Bündnis gegen das Cyber Valley“ aktiv und versucht quasi vor seiner Wohnungstür die Entstehung dieses Forschungscampus' zu verhindern.
Inhaltliche Vorbereitung:
- Blog zum Buch »Cyber Valley – Unfall des Wissens«
- Reader gegen das Cyber Valley
- Informationsstelle Militarisierung #Künstliche_Intelligenz
- IMI-Broschüre: Krieg im Informationsraum
- Drohnenforschungsatlas
Exkursion
FIfF-Konferenz 2019
22.11.-24.11.2019, Bremen
Künstliche Intelligenz als Wunderland - https://2019.fiffkon.de/
Eine Konferenz des Forum InformatikerInnen für Frieden und gesellschaftliche Verantwortung e. V.
Veranstaltungsprogramm: https://2019.fiffkon.de/program/booklet.html
Einladungstext:
In der berühmten Erzählung Alice im Wunderland von Lewis Carroll begegnet die Protagonistin im Wunderland den merkwürdigsten Gestalten und erlebt kuriose Abenteuer. Ein neues Wunderland eröffnet sich heute durch Künstliche Intelligenz. Es ist von Robotern bevölkert, die Fußball spielen, tanzen, jonglieren, kochen, Dienstleistungen aller Art erbringen, Alte und Kranke pflegen und Orte erkunden, die für Menschen gefährlich oder unerreichbar sind. Es gibt dort selbstfahrende Autos und unbemannte Flugobjekte. Lernende neuronale Netze beeindrucken, weil sie fast alle Spiele gegen fast alle Spielerinnen und Spieler gewinnen. Man trifft allenthalben auf Systeme, die sehen, lesen, sprechen und lernen können. Und es wird gemunkelt, dass sich demnächst eine neue Spezies mit Superintelligenz dazu gesellen wird, die besser denken kann als alle Menschen zusammen.
Wir möchten alle Interessierten zur FIfF-Konferenz 2019 vom 22. bis 24. November 2019 nach Bremen einladen, um mit uns dieses Wunderland zu erkunden und genauer unter die Lupe zu nehmen. Was ist dran an den hochfliegenden Plänen und Versprechungen? Welche Erwartungen und Hoffnungen sind realistisch, welche sind übertrieben, welche sind unerfüllbar? Welche gesellschaftlichen Auswirkungen sind zu erwarten und wie soll man mit ihnen umgehen? Welche Risiken und Gefahren sind mit den aktuellen und zukünftigen Entwicklungen der Künstlichen Intelligenz verbunden und wie ist ihnen zu begegnen?
Workshop
DNA phenotyping @ Open Lab
13.12.2019, 11-14h
exMedia Lab, Filzengraben 8-10, 4.OG
Workshop mit Matthias Burba (Gast), Verena Friedrich, Dr. Klaus Fritze und Christian Heck
DNA-Phänotypisierung ist die Anwendung von Verfahren, mit denen auf Basis von DNA-Material Rückschlüsse über das äußere Erscheinungsbild eines Individuums gezogen werden können. Diese sogenannte „erweiterte DNA-Analyse” ist in Deutschland noch verboten, eine entsprechende Gesetzesänderung zu deren zukünftiger Anwendung im Strafverfahren ist jedoch in Planung. Mittels „genetischer Phantombilder“ könnten bald Eigenschaften wie das äußere Erscheinungsbild, Alter sowie die biogeografische Herkunft von Verdächtigten vorhergesagt werden.
In dem dreistündigen Workshop experimentieren und diskutieren wir gemeinsam mit Matthias Burba zu den Möglichkeiten und Grenzen von DNA-Analyseverfahren und deren darauffolgender maschineller Auswertung.
Matthias Burba studierte Jura und Biologie; im Rahmen seiner beruflichen Laufbahn war er u.a. tätig als Justiziar und Leiter der Rechtsabteilung sowie Leiter der Kriminaltechnik der Hamburger Polizei; als Vorsitzender des Unterausschusses Recht und Verwaltung der Innenministerkonferenz sowie als stellvertretender Hamburgischer Datenschutzbeauftragter.
Inhaltliche Vorbereitung: