Aktionen

KI-Newsletter 4

Aus exmediawiki

notes:

scheuer < autonomes fahren nächstes jahr
US < autonomous weapons
buch < UK | gpt-3

---

http://datalab.christiandoeller.de/
Laufzeit: 25.2. – 25.3.21
Rahmenprogramm: 
Einleitung in das CYTTER Datenlabor, Livestream, 25. Februar, 21 Uhr
Open Lab (Q&A), Livestream, 11. März, 19 Uhr
CYTTER.datalab in Concert, Livestream, 25. März, 21 Uhr
maja ausstellung < exkursion???

---

was war? berliner gazette etc. / adobetype

was kommt? disruption lab
auch zivilklausel



  _         _         __
 | |__  ___| |_ ___  / _|_ _ ___ _ __
 | '_ \/ _ \  _(_-< |  _| '_/ _ \ '  \
 |_.__/\___/\__/__/ |_| |_| \___/_|_|_|
  _   _          _                 _
 | |_| |_  ___  | |_  ___  ___  __| |
 |  _| ' \/ -_) | ' \/ _ \/ _ \/ _` |
  \__|_||_\___| |_||_\___/\___/\__,_|


	 Neuerscheinungen und Links
	 in unregelmäßigen Abständen
	zu Künstlichen Intelligenzen
	    in Kunst und Kultur

Links/Artikel:

Kommentare / Papers

»Speech 2 Face: Konstruktion von Gesichtern aus Stimmen«

Nerdcore- Artikel, 27.05.19

In einem neu veröffentlichten Paper lernt ein Künstliches Neurales Netz Gesichtsassoziationen nach Stimmen und kann schließlich Gesichter nach Sprachaufnahmen konstruieren. Funktioniert im Detail eher so mittel, wiedererkennen könnte man die Leute nicht, aber der Algorithmus sortiert die Sprachaufnahmen auffallend gut nach Hautfarbe, Geschlecht und Alter:

»Deepfake aus einem einzigen Bild«

Nerdcore- Artikel, 24.05.19

Ein Algorithmus, der nur noch eine handvoll Bilder für ein durchaus ansehnliches Ergebnis braucht. Der Algorithmus kommt sogar mit einem einzigen Bild als Quelle klar, braucht dafür aber für seine sogenanntes „Meta-Learning“ entsprechend viel Videomaterial. Im Prinzip lernt das Modell Bewegungsabläufe aus einem großen Haufen Videos und zieht dann eine Textur drüber:

»Der Geist in der Maschine«

Süddeutsche- Artikelreihe, 15.3.19 - 16.5.19

Die Süddeutsche veröffentlichte einige von John Brockman herausgegebene Essays zur Künstlichen Intelligenz. Er ließ Autorinnen und Autoren wie z.B. dem Genforscher George Church, Alison Gopnik, der Kunsthistorikerin Caroline Jones, Steven Pinker und dem Nobelpreisträger und Präsident der Royal Society Venki Ramakrishnan ihre Gedanken zu gegenwärtigen Entwicklungssträngen der KI niederschreiben.

Hier die fehlenden Artikel die nach dem Versenden des letzten Newsletters noch erschienen sind:

Brockman hat die Vereinigung der Natur- und Geisteswissenschaften zu einer sogenannten dritten Kultur schon lange gefordert. Seit 1981 versammelt er Wissenschaftler, Schriftsteller und Künstler in New York, San Francisco oder London in Lokalen, Lofts, Museen und Wohnzimmern zum „Reality Club“ oder den „Edge Dinners“. 1996 gründete er die Webseite Edge.org

Alle Artikel zum Download unter: https://exmediawiki.khm.de/exmediawiki/index.php/Artikelreihen

»Synthetische Folklore: Wenn Künstliche Intelligenz Kunsthandwerk erstellt«

Berliner Gazette- Artikel, 14.05.19

Was wäre, wenn eine künstliche Intelligenz darauf trainiert würde, „Folklore“ zu kreieren? Können Datensets und Algorithmen die komplexen Charakteristiken und Bedingungen, die dem Erstellen von regionalem, menschlichen Kunsthandwerk zu Grunde liegen tatsächlich simulieren? Und so im digitalen Verweben textiler Muster zu hierarchieloseren kulturellen Hybriden gelangen, als die menschliche Kreativität?
Ein Künstler aus Polen hat genau das ausprobiert. Die Berliner Gazette-Autorin und Kunstkritikerin Julia Gwendolyn Schneider hat sich die Arbeit „Synthetic Folklore“ in Warschau angeschaut:

»Warum der Algorithmus die Welt manchmal mit anderen Augen sieht«

Wired- Artikel (Artificial Intelligence May Not 'Hallucinate' After Al), 08.05.19

Algorithmen zur Bilderkennung sehen mitunter Dinge, die Menschen nicht sehen – ein Phänomen, das sich auch für Angriffe (Adversarial Attacks) ausnutzen lässt. Bislang war weitgehend unklar, warum Künstliche Intelligenz (KI) durch bestimmte Objekte oder Konstellationen auf Bildern in die Irre geführt wird. Wie Wired-Reporterin Louise Matsakis berichtet, bringt ein neues Paper von Wissenschaftler:innen des Massachusetts Institute of Technology (MIT ) Licht ins Dunkel: Demnach nehmen die Algorithmen subtilste Muster oder mikroskopische visuelle Details wahr und bemerken so Gemeinsamkeiten zwischen Objekten, die dem menschlichen Auge entgehen. So könne aus der Perspektive der KI ein abgebildeter Hund in bestimmten Fällen zu einer Katze werden. Es handele sich also eigentlich gar nicht um einen Fehler:

»Facebooks Beiträge werden händisch gelabelt«

Reuters- Artikel (Facebook 'labels' posts by hand, posing privacy questions), 06.05.19

Das händische Labeln von Daten zum Training von Künstlicher Intelligenz (KI) ist ein aufstrebender Markt. Wenn etwa der Facebook-Algorithmus die Stimmung eines Nutzerpostings “versteht”, Anzeigen im Umfeld bestimmter Inhalte blockiert oder Marktplatzeinträge automatisch einer Kategorie zuweist, dann geht dies oft auf die menschliche Vorarbeit zurück. Munsif Vengattil und Paresh Dave, Reporter bei der Nachrichtenagentur Reuters, berichten, dass bei dem Internetkonzern jederzeit für bis zu 200 Projekte Drittfirmen die Kategorisierung vornehmen. Dafür versehen die Zuarbeiter:innen von Nutzer:innen bei Facebook privat veröffentlichte Inhalte mit Labels, von denen später Algorithmen Gebrauch machen können. Wie die Autoren anmerken, werfe die Methode unter anderem Fragen dazu auf, ob die Privatsphäre der Anwender:innen verletzt werde und inwieweit sie mit der Datenschutz-Grundverordnung vereinbar sei:


Veranstaltungen:

Ausstellungen

Konferenzen

Seminare

»AI TRAPS: Automating Discrimination« @ Disruption Network Lab

14. - 15.06.19, Studio 1, Kunstquartier Bethanien, Mariannenplatz 2, 10997 Berlin.

"Die Konferenz möchte kritisch über die Implementierung von künstlicher Intelligenz in unsere Gesellschaft reflektieren und ein Bewusstsein für mögliche künstlerische, technologische und politische Gegenmaßnahmen fördern. Es wird untersucht, inwiefern die Auswirkungen der Nutzung künstlicher Intelligenz und Algorithmen Kultur, Politik und Institutionen, sowie unser tägliches Leben und gesellschaftliches Verhalten beeinflussen. Der Fokus liegt auf den aus sozialen, rassistischen und geschlechtsbedingten Vorurteilen resultierenden Ungleichheiten. Algorithmen sind nicht neutral und vorurteilsfrei, und die Konsequenzen aus individuellen Entscheidungen prägen Suchmaschinenergebnisse, die Funktionsweisen von Social-Media-Plattformen und Softwareanwendungen, welche so systematische und unfaire Diskriminierungen fortschreiben":


Livestreams:

»BigBrotherAwards«

08.06.19, 18h, Stadttheater Bielefeld, https://bigbrotherawards.de/

Morgen ist es wieder soweit:
die ‚Oscars für Überwachung' (Le Monde) an die größten Datensünder des letzten Jahres vergeben.
Eine Jury aus prominenten Bürgerrechtlern verleiht jährlich diesen Datenschutz-Negativpreis an Firmen, Organisationen und Politiker.

Livestream: https://bigbrotherawards.de/stream

Reminder: »capulcu zu Gast @ KHM«

18.06.19, 13h30, Filzengraben 8-10, 0.2 Experimentelle Informatik

Vortrag und Diskussionsrunde im Lab mit dem Redaktionskollektiv capulcu

PlakatA2red.jpg


Künstliche Intelligenz
Bereicherung oder Bevormundung?

Künstliche Intelligenz (KI) lenkt die Kommunikation in den sozialen Medien, organisiert die Arbeitswelt im Sinne einer Industrie 4.0 neu und leitet die Transformation des Gesundheitswesens hin zu einer vollständig personalisierten Medizin ein.
Wie viel Bereicherung und wie viel Bevormundung steckt in der Digitalisierung sämtlicher Lebensbereiche? Welche Freiheit verspricht der „Digitalismus“ also die Verbindung von allen mit allem? Was bedeutet eine permanente Vermessung und Bewertung sämtlicher Handlungen und sozialer Beziehungen für unsere unmittelbare Zukunft - werden wir leichter vorhersagbar, oder gar steuerbar? Wie verändert sich „Öffentlichkeit“ und der demokratische Aushandlungsprozess unterschiedlicher Interessen?
Reduziert sich unsere „Freiheit“ auf die von „User*innen“, die als Konsument*innen und Datenlieferant*innen zwischen verschiedenen vordefinierten Software-Produkten wählen dürfen? Wie organisiert sich die Ökonomie über digitale Plattformen neu? Sind „soziale Punktesysteme“ zur Verhaltenssteuerung (in China) bereits totalitär?
Und wenn die Zukunft tatsächlich so stark fremdbestimmt ist, was könnten kollektive Auswege aus einer programmierten Gesellschaft sein?


Neue Veröffentlichungen:

»We Need to Talk, AI«

https://weneedtotalk.ai/ – Dr. Julia Schneider & Lena Kadriye Ziyal

Ein Comic-Essay über KI, eine illustrierte Reise durch die Dimensionen und Auswirkungen dieser Technologie.
Ideal für Einsteiger, sich zu informieren und an der Debatte teilzunehmen.

Downloadable und bestellbar als Printversion unter:

»The Internet of other people’s things«

Editiert von: http://kairus.org/ – Linda Kronman, Andreas Zingerle

"Das Internet der Dinge (IoT), Smart-City-Initiativen und Smart-Home-Technologien werden uns als schlanke und glamouröse 3D-Renderings vermarktet, die eine bequeme und nachhaltige Technologie versprechen, die uns und unseren Planeten vor einer Zukunft der Umweltprobleme bewahren wird. Doch das Schlagwortbingo der Smart City Rhetorik, die ausgefeilte Werbung für vernetzte Geräte und die Hochglanzverpackung von Smart Home Geräten stehen in krassem Gegensatz zu den Nachrichten und Untersuchungen, die die Schwachstellen unseres vernetzten Lebens untersuchen. Der Ausbau des IoT und die Verbreitung virtuell verbundener Datenpunkte bieten immer mehr Informationen für diejenigen, die sich für die Nutzung oder den Missbrauch interessieren. Die massive Implementierung des IoT in hyper-vernetzten städtischen Umgebungen geht den Weg zu technokratischer Governance und Stadtentwicklung, indem sie unsere Lebensräume in lock-in-, hack-able, "pan optische" Smart Cities organisiert. Das IoT scheint sich zu einem Internet der Dinge anderer Menschen (IoopT) zu entwickeln, in dem die Nutzer ihre Daten nicht besitzen, den Nutzungsbedingungen zustimmen, was bedeutet, dass ihre Daten dann standardmäßig an Dritte weitergegeben werden, und die Risiken, dass die Bürgerrechte von technokratischen Behörden verwaltet werden oder Cyberkriminelle kritische Infrastrukturen angreifen, sind immer vorhanden.

In diesem Cyberkrieg der Ideen, einem asymmetrischen Kampf um Macht und Einfluss, müssen die Systeme robuster und die Menschen wachsamer werden. Deshalb wandten wir uns an die Gemeinschaft von Künstlern, Designern, Aktivisten, Hackern und Forschern mit einem offenen Aufruf zu neuen kritischen Perspektiven auf die allgegenwärtige Technologie und ihre Auswirkungen auf unseren Lebensstil. Wir suchten nach Projekten, die missbraucht werden, um sie zu enthüllen; künstlerische Forschung und stillschweigendes Wissen, das durch Kulturen des Machens, Hackens und Reverse Engineering erzeugt wird. Unser Ziel war es, Kunstwerke, Projekte, Essays und Interviews zu sammeln, die Fragen wie diese diskutieren: Wie sieht die Privatsphäre in einem Smart Home mit verbundenen Objekten aus? Wie werden die Bürger in Co-Design-Kooperationen mit privaten Unternehmen und dem öffentlichen Sektor einbezogen, um bessere Städte zu bauen? Wie können wir eine sichere und vertrauenswürdige Internetkommunikation ermöglichen, damit geschäftliche, persönliche und maschinelle Interaktionen sicher und störungsfrei durchgeführt werden können?"

Downloadable under: