Einführung in die Programmierung Künstlicher Intelligenzen: Unterschied zwischen den Versionen
Aus exmediawiki
C.heck (Diskussion | Beiträge) |
C.heck (Diskussion | Beiträge) |
||
Zeile 230: | Zeile 230: | ||
'''07.11.2019, 14-16h - Vortrag und Diskussionsrunde mit Thomas Wagner (Kultursoziologe, Publizist, Literaturredakteur »Junge Welt«)''' | '''07.11.2019, 14-16h - Vortrag und Diskussionsrunde mit Thomas Wagner (Kultursoziologe, Publizist, Literaturredakteur »Junge Welt«)''' | ||
− | + | Im Umfeld von Konzernen wie Google, Facebook und Co. gedeiht eine Ideologie technologischer Machbarkeit. Ihre Anhänger propagieren die Verschmelzung von Mensch und Maschine, spekulieren über künstliche Superintelligenz und träumen von der Unsterblichkeit in der Cloud. En passant ließen sich sämtliche gesellschaftliche Probleme lösen. Fantastische Visionen, irre Ideen. Doch mehr als Hirngespinste: Ihre Propagandisten finanzieren Start-ups, beraten Regierungen, leiten die Labore von High-Tech-Unternehmen und verbreiten ihre Ideen an eigenen Hochschulen. Im Resultat wird die Herrschaft der gegenwärtigen Eliten weiter zementiert. Der Autor porträtiert die wichtigsten Verfechter der Robokratie und legt ihre Verflechtungen offen. Politik, also die Austragung gegensätzlicher Interessen, erscheint im Zeichen elektronischer Vernetzung und künftiger Maschinenherrschaft als überflüssig. Am Ende steht die Frage nach einem demokratischen Gebrauch von Technologie: Damit der Mensch nicht zum Auslaufmodell wird. | |
---- | ---- | ||
+ | |||
===capulcu=== | ===capulcu=== | ||
'''14.11.2019, 14-16h - Vortrag und Diskussionsrunde im exLabIII mit dem [https://capulcu.blackblogs.org/ Redaktionskollektiv capulcu]''' | '''14.11.2019, 14-16h - Vortrag und Diskussionsrunde im exLabIII mit dem [https://capulcu.blackblogs.org/ Redaktionskollektiv capulcu]''' |
Version vom 18. September 2019, 11:45 Uhr
ALLES NUR TEST
Inhaltsverzeichnis
notes
nummerierte überschrieften ja/nein?: https://wiki.natenom.de/sammelsurium/dokuwiki/nummerierte_ueberschriften
ToDo
- jupyter-workaround (anaconda etc)
- wikiseiten bauen
- nextcloud für beide seminare
Topics
- bias and false positives
von rushkoffs programm or be programmed http://ds1416.risd.gd/wp-content/uploads/2014/10/ProgramOrBeProgrammed_intro.pdf :
Aber es ist ein Gespräch, das jetzt begonnen werden muss. Akzeptieren Sie also bitte diesen ersten Schritt in einer "Poetik" der digitalen Medien in dem bescheidenen Geist, in dem sie abseits stehen: zehn einfache Befehle, die uns helfen könnten, einen Weg durch das digitale Reich zu gehen. Jeder Befehl basiert auf einer der Tendenzen oder "Vorurteile" der digitalen Medien und schlägt vor, wie diese Vorurteile mit den Bedürfnissen der realen Menschen, die in physischen und virtuellen Räumen leben und arbeiten, in Einklang gebracht werden können - manchmal gleichzeitig. Eine Verzerrung ist einfach eine Tendenz, eine Reihe von Verhaltensweisen über eine andere zu stellen. Alle Medien und alle Technologien haben Vorurteile. Es mag wahr sein, dass "Waffen keine Menschen töten, Menschen töten Menschen"; aber Waffen sind eine Technologie, die eher zum Töten neigt als beispielsweise Uhrenradios. Fernseher sind voreingenommen gegenüber Menschen, die noch auf der Couch sitzen und zusehen. Automobile sind auf Bewegung, Individualität und das Leben in den Vororten ausgerichtet. Die mündliche Kultur ist voreingenommen, um persönlich zu kommunizieren, während wri" en culture auf eine Kommunikation ausgerichtet ist, die nicht zwischen Menschen zur gleichen Zeit und an demselben Ort stattfindet. Die Filmfotografie und ihre teuren Prozesse waren auf Knappheit ausgerichtet, während die digitale Fotografie auf eine sofortige und weitreichende Verbreitung ausgerichtet ist. Einige Kameras laden sogar automatisch Fotos auf Websites hoch und verwandeln den Klick des shu" er in einen Akt der globalen Veröffentlichung. Für die meisten von uns fühlt sich dieser "Klick" aber immer noch gleich an, auch wenn die Ergebnisse sehr unterschiedlich sind. Wir können nicht ganz spüren, wie sich die Vorurteile verschieben, wenn wir von Technologie zu Technologie oder von Aufgabe zu Aufgabe wechseln. Das Schreiben einer E-Mail ist nicht dasselbe wie das Schreiben eines le" er, und das Senden einer Nachricht über einen sozialen Netzwerkdienst ist nicht dasselbe wie das Schreiben einer E-Mail. Jede der Handlungen bringt nicht nur unterschiedliche Ergebnisse, sondern verlangt von uns auch unterschiedliche Denkweisen und Ansätze. So wie wir in verschiedenen Situationen unterschiedlich denken und handeln, denken und verhalten wir auch beim Einsatz unterschiedlicher Technologien unterschiedlich. Nur wenn wir die Vorurteile der Medien verstehen, durch die wir uns mit der Welt beschäftigen, können wir unterscheiden zwischen dem, was wir beabsichtigen, und dem, was die von uns verwendeten Maschinen für uns bestimmen, ob sie oder ihre Programmierer es überhaupt wissen.
How to make human machine readable
"Meine DNA gehört mir! - über dna-entnahmen und die notwendigkeit solidarischen widerstandes“
so lautete vor ein paar Jahren eine Überschrift im »autonomes Blättchen«. Die technologische Entwicklung macht weiter. Der Widerstand macht weiter. Die Repressionen auch: durch die erweiterte DNA-Analyse dürfen nun Polizisten und weitere Staatsbedienstete „menschliche“ Merkmale wie etwa Hautfarbe, Augenfarbe, Haarfarbe etc. auslesen. Auf die Frage hin, wie sich denn beispielsweise ein „Stdout < dunkle Hautfarbe“ für die weiteren Ermittlungen auswirken könne antwortete Christine Lambrecht (SPD): „Ein seltenes Merkmal ist für die Polizei immer nützlicher als ein häufiges Merkmal (…) das ist doch keine Stigmatisierung“.
Nun gut, wir schauen uns diese Technologie und seine bisweilen entsolidarisierenden Auswirkungen etwas genauer an.
Wir analysieren unsere DNA. Bis zu 10 Seminarsteilnehmer können ihre eigene DNA auslesen. Gemiensam progammieren wir ein Perceptron (ein künstliches Neuron) in Python und werten diese dann aus.
Klassifiziere dich selbst - bevor es andere für dich tun.
Classify youself
Georg Trogemann, Christian Heck
Einführung in die Programmierung Künstlicher Intelligenzen
Grundlagenseminar Material/Skulptur/Code Grundstudium
Donnerstag wöchentlich 11:00 – 13:00
Erster Termin 17.10.2019
Filzengraben 8 - 10, 0.2 Experimentelle Informatik
Tief greifende kulturelle Konsequenzen von KI treten nicht erst beim Einsatz von Uploadfiltern zur algorithmischen Zensur unerwünschter Text- und Bildinhalte oder der Versteigerung von KI-Gemälden bei Christie's in Erscheinung; auch nicht bei der Ausformulierung ethischer Leitlinien für den Umgang mit KI oder dem vermehrten Aufkommen von AI powered Hate Speech Bots. Sie beginnen, ganz abstrakt und meist unbeachtet bei ihrer Programmierung, in semi-öffentlich geführten, sehr formalen Diskursfeldern.
Genau dort setzen wir experimentell an. Das Seminar wird sehr elementar in die subsymbolische KI der Neuronalen Netze und deren Programmierung einführen. Coden from scratch, den Code gemeinsam diskutieren und zu verstehen lernen, um auf diesem Wege die Möglichkeiten, Grenzen und Gefahren dieser Technologie für sich einschätzen zu lernen ist Ziel dieses Seminars.
Wir machen uns die Technologie der Künstlichen Intelligenz nicht als ein Tool im Homo Faberischen Sinne zu eigen, sondern verbinden Programmieren als künstlerische Praxis mit der kritischen Analyse ihrer gesellschaftlichen Auswirkungen, welche im parallel stattfindenden Theorieseminar "Future Minds – Kritik Künstlicher Intelligenzen" vertiefend erarbeitet werden kann.
Georg Trogemann, Christian Heck
Future Minds – Kritik Künstlicher Intelligenzen
Theorieseminar Hauptstudium und weiterqualifizierendes Studium
Donnerstag wöchentlich 14:00 – 16:00
Erster Termin 24.10.2019
Filzengraben 8 - 10, 0.2 Experimentelle Informatik
Ausgehend von einem Rückblick auf die Wurzeln der Künstlichen Intelligenz (KI) in der Kybernetik werden eine Reihe von Themen und Begriffen vorgestellt, die einer genaueren Betrachtung bedürfen, will man sich als Künstler*in oder Theoretiker*in ihnen gegenüber positionieren. Hierbei handelt es sich keineswegs ausschließlich um die der kybernetischen Tradition zuzuordnenden Begriffe wie z.B. Artificial Neuron, Black Box oder Machine Learning. Auch Modebegriffe wie Open Culture, Transparency oder technologische Singularität müssen vor dem Hintergrund der zu ahnenden kulturellen, politischen und sozialen Konsequenzen von KI-Technologien neu verhandelt werden.
Worin besteht beispielsweise das Kontrollproblem automatisierter Entscheidungsprozesse? Wo liegen technische und wo ethische Probleme, wenn wir Entscheidungen an Maschinen delegieren? Kann man Ethik programmieren? Können KI’s ihre Entscheidungen begründen? KI wird zur Steuerung unterschiedlichster Prozesse eingesetzt, wobei der Übergang zwischen Steuerung und Vorhersage fließend ist. Doch Vorhersagen unterliegen prinzipiellen Grenzen, die auch Hinweise auf die Grenzen von KI’s geben.
In Ergänzung zur parallel stattfindenden Grundlagenveranstaltung „Einführung in die Programmierung Künstlicher Intelligenzen“ wird ein verdichteter Einblick in Machine Learning und die Arbeitsweise Künstlicher Neuronaler Netze gegeben, die den gegenwärtigen Diskurs zur KI ausgelöst haben. Anhand ausgewählter künstlerischer Arbeiten wird gezeigt, wie sich die Künste ästhetisch und kritisch mit diesen Technologien auseinandersetzen.
Termine
Vorträge/Gäste
Thomas Wagner
07.11.2019, 14-16h - Vortrag und Diskussionsrunde mit Thomas Wagner (Kultursoziologe, Publizist, Literaturredakteur »Junge Welt«)
Im Umfeld von Konzernen wie Google, Facebook und Co. gedeiht eine Ideologie technologischer Machbarkeit. Ihre Anhänger propagieren die Verschmelzung von Mensch und Maschine, spekulieren über künstliche Superintelligenz und träumen von der Unsterblichkeit in der Cloud. En passant ließen sich sämtliche gesellschaftliche Probleme lösen. Fantastische Visionen, irre Ideen. Doch mehr als Hirngespinste: Ihre Propagandisten finanzieren Start-ups, beraten Regierungen, leiten die Labore von High-Tech-Unternehmen und verbreiten ihre Ideen an eigenen Hochschulen. Im Resultat wird die Herrschaft der gegenwärtigen Eliten weiter zementiert. Der Autor porträtiert die wichtigsten Verfechter der Robokratie und legt ihre Verflechtungen offen. Politik, also die Austragung gegensätzlicher Interessen, erscheint im Zeichen elektronischer Vernetzung und künftiger Maschinenherrschaft als überflüssig. Am Ende steht die Frage nach einem demokratischen Gebrauch von Technologie: Damit der Mensch nicht zum Auslaufmodell wird.
capulcu
14.11.2019, 14-16h - Vortrag und Diskussionsrunde im exLabIII mit dem Redaktionskollektiv capulcu
about çapulcu...:
Im Zuge der Gezi-Proteste 2013 in Istanbul formierte sich das redaktionskollektiv çapulcu. Eine Gruppe von technologie-kritischen Aktivist*innen und Hacktivist*innen, die ihre Arbeit von Beginn an solidarisch in diesen Kontext stellten.
çapulcu veröffentlicht seither Texte in verschiedenen linken Medien, erarbeitet HowTo‘s zur digitalen Selbstverteidigung und bieten Diskussionsveranstaltungen, Seminare und Schlungen zur Gegenwehr gegen den technologischen Angriff.
Das Redaktionskollektiv plädiert für eine Wiederbelebung der praktischen Technologiekritik zwischen Verweigerung und widerständiger Aneignung spezifischer Techniken und veröffentlicht in diesem Kontext regelmäßig Broschüren
Inhaltliche Vorbereitung:
- https://capulcu.blackblogs.org/
- in der Bibliothek:
- »DELETE!«, GES D.10.4 - 119
- »DISRUPT!«, GES D.10.4 - 118
Informationsstelle Militarisierung
05.12.2019, 14-16h - Vortrag und Diskussionsrunde im exLabIII mit Christoph Marischka von der Informationsstelle Militarisierung
Exkursionen
FIfF-Konferenz 2019
22.11.-24.11.2019
Einladungstext:
In der berühmten Erzählung Alice im Wunderland von Lewis Carroll begegnet die Protagonistin im Wunderland den merkwürdigsten Gestalten und erlebt kuriose Abenteuer. Ein neues Wunderland eröffnet sich heute durch Künstliche Intelligenz. Es ist von Robotern bevölkert, die Fußball spielen, tanzen, jonglieren, kochen, Dienstleistungen aller Art erbringen, Alte und Kranke pflegen und Orte erkunden, die für Menschen gefährlich oder unerreichbar sind. Es gibt dort selbstfahrende Autos und unbemannte Flugobjekte. Lernende neuronale Netze beeindrucken, weil sie fast alle Spiele gegen fast alle Spielerinnen und Spieler gewinnen. Man trifft allenthalben auf Systeme, die sehen, lesen, sprechen und lernen können. Und es wird gemunkelt, dass sich demnächst eine neue Spezies mit Superintelligenz dazu gesellen wird, die besser denken kann als alle Menschen zusammen.
Wir möchten alle Interessierten zur FIfF-Konferenz 2019 vom 22. bis 24. November 2019 nach Bremen einladen, um mit uns dieses Wunderland zu erkunden und genauer unter die Lupe zu nehmen. Was ist dran an den hochfliegenden Plänen und Versprechungen? Welche Erwartungen und Hoffnungen sind realistisch, welche sind übertrieben, welche sind unerfüllbar? Welche gesellschaftlichen Auswirkungen sind zu erwarten und wie soll man mit ihnen umgehen? Welche Risiken und Gefahren sind mit den aktuellen und zukünftigen Entwicklungen der Künstlichen Intelligenz verbunden und wie ist ihnen zu begegnen?
TeilnehmerInnen
[[Benutzer:]] | [[Benutzer:]] | [[Benutzer:]] |
[[Benutzer:]] | [[Benutzer:]] | [[Benutzer:]] |
[[Benutzer:]] | 'Benutzer: | [[Benutzer:]] |
[[Benutzer:]] | [[Benutzer:]] | [[Benutzer:]] |
Topics
Literatur
File Sharing
link zu unsrer cloud
Codes/HowTos
- per SSH auf AI-Lab-Rechner zugreifen
- AI-Lab-Rechner_Ausstattung
- KI Workaround installieren
- GPU-Erweiterung für Ubuntu
nützliche Cheat-Sheets