Aktionen

Einführung in die Programmierung künstlicher Intelligenzen: Unterschied zwischen den Versionen

Aus exmediawiki

 
(48 dazwischenliegende Versionen von 7 Benutzern werden nicht angezeigt)
Zeile 23: Zeile 23:
 
Gefahren dieser Technologie einschätzen zu lernen.
 
Gefahren dieser Technologie einschätzen zu lernen.
 
</pre>
 
</pre>
=StudentInnen=
+
=Seminar Notebooks 2 download=
 +
==20.11.2018==
 +
[https://noparts.org/own-cloud/public.php?service=files&t=d028fb7e5917484ea05853407e38dfc4 seminar-11-20-18_notebooks-as-zip-archive]
 +
==13.11.2018==
 +
[https://noparts.org/own-cloud/public.php?service=files&t=68f914e10dcedad5df26d7298d90f144 seminar-11-13-18_notebook-as-zip-archive]
 +
==06.11.2018==
 +
[https://noparts.org/own-cloud/public.php?service=files&t=4bc38f2b413675f6c83c2cd8e84858a3 seminar-11-06-18_notebook]
  
'''Liste von StudentInnen'''
+
=TeilnemerInnen=
*in den Studentenseiten (Seite des jew. Accounts) kann man z.b.  
+
 
**die im Seminar geschriebenen jupyter-notebooks ablegen
+
{| class="wikitable"
**individuelle multimediale Dokumentation anlegen
+
|- style="vertical-align:top;"
**etc.
+
| style="height:100px; width:150px; text-align:center;" | [[Benutzer:Mayuko Kudo|Mayuko]]
 +
| style="height:100px; width:150px; text-align:center;" | [[Benutzer:Verena|Verena]]
 +
| style="height:100px; width:150px; text-align:center;" | [[Benutzer:B.cao|Cao]]
 +
| style="height:100px; width:150px; text-align:center;" | [[Benutzer:Jessica Pong|Jessica]]
 +
| style="height:100px; width:150px; text-align:center;" | [[Benutzer:C.heck|Christian]]
 +
|- style="vertical-align:middle;"
 +
| style="height:100px; width:150px; text-align:center;" | [[Benutzer:Dazun Kim|Dazun]]
 +
| style="height:100px; width:150px; text-align:center;" | [[Benutzer:Moritz|Moritz]]
 +
| style="height:100px; width:150px; text-align:center;" | [[Benutzer:Verena_L|Verena_L]]
 +
| style="height:100px; width:150px; text-align:center;" | [[Benutzer:Phaidonas|Phaidonas]]
 +
| style="height:100px; width:150px; text-align:center;" | [[Benutzer:Johannes Hoffmann|Johannes]]
 +
|- style="vertical-align:middle;"
 +
| style="height:100px; width:150px; text-align:center;" | [[Benutzer:Christina Knak|Christina]]
 +
| style="height:100px; width:150px; text-align:center;" | [[Benutzer:Dafun Kim|Dafun]]
 +
| style="height:100px; width:150px; text-align:center;" | [[Benutzer:Sam|Sam]]
 +
| style="height:100px; width:150px; text-align:center;" | [[Benutzer:Soo yeun|Soo Yeun]]
 +
| style="height:100px; width:150px; text-align:center;" | [[Benutzer:Paula Pedraza|Paula]]
 +
|- style="vertical-align:bottom;"
 +
| style="height:100px; width:150px; text-align:center;" | [[Benutzer:Karin|Karin]]
 +
| style="height:100px; width:150px; text-align:center;" | [[Benutzer:Georg|Georg]]
 +
| style="height:100px; width:150px; text-align:center;" | [[Benutzer:Hans W. Koch|Hans]]
 +
| style="height:100px; width:150px; text-align:center;" | [[Benutzer:Florian|Florian]]
 +
| style="height:100px; width:150px; text-align:center;" | [[Benutzer:Mattis|Mattis]]
 +
|}
  
 
=Exkursion=
 
=Exkursion=
Zeile 49: Zeile 78:
 
** '''Kurzinfo:''' ''Ohne jede öffentliche Diskussion wurde von der Max-Planck-Gesellschaft, der Landesregierung, der Industrie und den Universitäten Stuttgart und Tübingen das Neckartal zwischen Stuttgart und Tübingen zum Cyber Valley erklärt, das als „Biotop für die Entwicklung Künstlicher Intelligenz“ fungieren soll. Diese Pläne, die bereits seit etwa zehn Jahren verfolgt werden, führen insbesondere zu einer engen Verquickung zwischen Politik, Wissenschaft und Industrie und zeigen bereits jetzt deutliche Folgen für die Stadt und den Universitätsstandort Tübingen. Explizit vorgesehen ist die schnelle Umsetzung neuer Forschungsergebnisse in Praxis und kommerzielle Nutzung. Dabei ist klar, dass die aktuelle Forschung zu Künstlicher Intelligenz und „Big Data“ v.a. Potentiale zur immer intensiveren Überwachung der Bevölkerung und militärischer Nutzung birgt. Bereits jetzt laufen Pilotprojekte zur Gesichtserkennung und intelligenten Videoüberwachung im öffentlichen Raum, obwohl diese Technologien noch keineswegs ausgereift und gesellschaftlich hochumstritten sind. Unternehmen wie Atos, das mittlerweile ebenfalls in Tübingen angesiedelt ist, entwickeln Grenzüberwachungs- und Zielerkennungssysteme auf der Basis multisensorieller Mustererkennung (https://atos.net/en/products/defense-mission-critical/homeland-security/…). Die Forschung zu „intelligenten Algorithmen“ soll u.a. auf Kundendaten basieren, weshalb sich das Cyber-Valley-Konsortium über die Beteiligung des Internet-Konzerns Amazon freut, der noch in diesem Jahr mit dem Bau eines Entwicklungszentrums auf der Oberen Viehweide beginnen will. Insgesamt feuert das Cyber Valley die Bautätigkeiten für Forschungseinrichtungen und hochpreisige Wohnimmobilien in Tübingen an und treibt auch damit Preise in die Höhe.''
 
** '''Kurzinfo:''' ''Ohne jede öffentliche Diskussion wurde von der Max-Planck-Gesellschaft, der Landesregierung, der Industrie und den Universitäten Stuttgart und Tübingen das Neckartal zwischen Stuttgart und Tübingen zum Cyber Valley erklärt, das als „Biotop für die Entwicklung Künstlicher Intelligenz“ fungieren soll. Diese Pläne, die bereits seit etwa zehn Jahren verfolgt werden, führen insbesondere zu einer engen Verquickung zwischen Politik, Wissenschaft und Industrie und zeigen bereits jetzt deutliche Folgen für die Stadt und den Universitätsstandort Tübingen. Explizit vorgesehen ist die schnelle Umsetzung neuer Forschungsergebnisse in Praxis und kommerzielle Nutzung. Dabei ist klar, dass die aktuelle Forschung zu Künstlicher Intelligenz und „Big Data“ v.a. Potentiale zur immer intensiveren Überwachung der Bevölkerung und militärischer Nutzung birgt. Bereits jetzt laufen Pilotprojekte zur Gesichtserkennung und intelligenten Videoüberwachung im öffentlichen Raum, obwohl diese Technologien noch keineswegs ausgereift und gesellschaftlich hochumstritten sind. Unternehmen wie Atos, das mittlerweile ebenfalls in Tübingen angesiedelt ist, entwickeln Grenzüberwachungs- und Zielerkennungssysteme auf der Basis multisensorieller Mustererkennung (https://atos.net/en/products/defense-mission-critical/homeland-security/…). Die Forschung zu „intelligenten Algorithmen“ soll u.a. auf Kundendaten basieren, weshalb sich das Cyber-Valley-Konsortium über die Beteiligung des Internet-Konzerns Amazon freut, der noch in diesem Jahr mit dem Bau eines Entwicklungszentrums auf der Oberen Viehweide beginnen will. Insgesamt feuert das Cyber Valley die Bautätigkeiten für Forschungseinrichtungen und hochpreisige Wohnimmobilien in Tübingen an und treibt auch damit Preise in die Höhe.''
  
* Wir '''schlafen in''' einer Pension in '''Tübingen'''
+
* Wir '''schlafen in''' der Jugendherberge in '''Tübingen'''
  
* '''Am nächsten Tag''' fahren wir nach '''Karlsruhe''' ins Zentrum für Kunst & Medientechnologie ZKM.
+
* '''Am nächsten Tag''' werden wir entweder ins Max-Plank-Institut fahren oder nach Esslingen zu Festo oder in den derzeit noch besetzten Kupferbau oder Mari wird uns eine Führung zum zukünftigen Cyber Valley geben.
  
* Dort läuft derzeit '''[[https://zkm.de/de/pressemappe/2018/open-codes-ii-die-welt-als-datenfeld-zweite-phase-des-bildungsexperiments »Open Codes II, Die Welt als Datenfeld«]]''', die sich auch mit dieser Fragestellung, nur eben anders auseinandersetzt.
+
* '''Gegen Nachmittag''' fahren wir wieder '''in Richtung Köln'''
** OpenCodesII #machinelearning https://zkm.de/en/exhibition/2017/10/open-codes/machinelearning
 
:: '''Kurzinfo:''' ''„Die große Zahl von elektronischen Schnittstellen wie Smartphone, Computer, Fernsehen, Radio, Anzeigetafeln in Büros, Flughäfen, Börse und Bahnhöfen, welche jeden Menschen der westlichen Welt täglich umgeben, zeigt deutlich, dass die Navigation mit Hilfe von Sonne, Mond und Sternen schon seit langem durch satellitengestützte Navigation und andere Instrumente ersetzt wurde. Der Mensch im digitalen Zeitalter richtet sich nach verfügbaren Mobilfunkmasten, sichtbaren Satelliten am Himmel und lässt sich durch Algorithmen zu seinem Ziel leiten. Migranten von heute reisen mit Smartphone anstatt Reisepass: in einer von Codes verwalteten Welt ist es das Passepartout des einundzwanzigsten Jahrhunderts. Nach der codierten Welt gibt die Ausstellung nun einen Einblick in diese von Daten beherrschte digitale Welt.“''  
 
  
* '''Gegen Nachmittag''' fahren wir wieder '''in Richtung Köln'''
+
==Infoseiten/Links==
 +
 
 +
*'''Informationsstelle Militarisierung e.V.'''
 +
**https://www.imi-online.de/uber-imi/
 +
 
 +
*'''Das Cyber Valley in Tübingen und die Transformation zum Rüstungsstandort'''
 +
**https://www.imi-online.de/download/IMI-Analyse2018-18-Cybervalley-Web.pdf
 +
 
 +
*'''»Angriffsvorteil« durch KI. Künstliche Intelligenz: Deutschland am Wettrüsten beteiligt'''
 +
*'''Flugsimulatoren als Grundlagenforschung? Eine Spurensuche im Cyber Valley'''
 +
**https://www.imi-online.de/download/Ausdruck-Oktober2018-Web.pdf
 +
 
 +
*'''Mehr als nur Päckchen, Amazons Rolle in der Militärtechnik und dem Cyber Valley'''
 +
**https://www.imi-online.de/2018/11/23/mehr-als-nur-paeckchen/
 +
 
 +
*'''Bündnis gegen das Cyber Valley'''
 +
**https://nocybervalley.de/
 +
 
 +
*'''KUPFERBAUBESETZUNG, Gegen das Cyber Valley – für eine demokratische Uni'''
 +
**https://www.blochuni.org/Kupferbau/
 +
 
 +
*'''Max-Plank-Institut für Intelligente Systeme'''
 +
**https://is.mpg.de/de
 +
 
 +
*'''Festo Esslingen'''
 +
**https://www.festo.com/cms/de_de/Ueber_Festo.htm
  
 
==Termin==
 
==Termin==
Zeile 64: Zeile 116:
  
 
=KI Programmierung=
 
=KI Programmierung=
==KI Workaround »Jupyter Notebook«==
+
 
 +
'''open jupyter notebook'''
 +
 
 +
type Jupyter-button on your Desktop or
 +
 
 +
or type in Terminal:
 +
jupyter-notebook
 
[[Datei:Content_jupyternotebook1.gif]]
 
[[Datei:Content_jupyternotebook1.gif]]
 
----
 
----
 +
'''how to use...?'''
 
[[Datei:Content_jupyternotebook3b.gif]]
 
[[Datei:Content_jupyternotebook3b.gif]]
 
----
 
----
Zeile 224: Zeile 283:
  
 
wenn die Versionsnr. angezeigt wird ist das Environement fertiggestellt
 
wenn die Versionsnr. angezeigt wird ist das Environement fertiggestellt
 +
 +
===GPU-Erweiterung on Ubuntu===
 +
auf einem System auf dem noch nicht Anaconda etc. vorinstalliert ist.
 +
 +
sudo apt-get update
 +
 +
sudo apt-get upgrade
 +
 +
sudo apt-get install python3-pip python3-dev
 +
 +
 +
sudo apt-get install build-essential cmake git
 +
 +
sudo apt-get install libopenblas-dev
 +
 +
sudo apt-get install liblapack-dev
 +
 +
sudo apt-get install python-numpy python-scipy python-matplotlib
 +
 +
sudo apt-get install libhdf5-serial-dev python-h5py
 +
 +
sudo apt-get install graphviz
 +
 +
sudo pip3 install pydot-ng
 +
 +
sudo apt-get install python-opencv
 +
 +
 +
CUDA downloaden:
 +
 +
https://developer.nvidia.com/cuda-90-download-archive?target_os=Linux&target_arch=x86_64&target_distro=Ubuntu
 +
 +
CUDA-Version für 17.04 auswählen (funktioniert auch für Ubuntu 18.04)
 +
 +
sudo dpkg -i cuda-repo-ubuntu1704-9-0-local_9.0.176-1_amd64.deb
 +
 +
sudo apt-key add /var/cuda-repo-9-0-local/7fa2af80.pub
 +
 +
sudo apt-get update
 +
 +
sudo apt-get install cuda
 +
 +
cuda dir: /usr/local/cuda-9.0
 +
cuDNN >= 7.2
 +
https://developer.nvidia.com/cudnn
 +
 +
sudo dpkg -i libcudnn7_7.4.1.5-1+cuda9.0_amd64.deb
 +
 +
sudo pip3 install tensorflow-gpu
 +
 +
verify:
 +
python3 -c "import tensorflow as tf; tf.enable_eager_execution(); print(tf.reduce_sum(tf.random_normal([1000, 1000])))"
 +
 +
output:
 +
2018-12-11 17:19:43.988326: I tensorflow/core/platform/cpu_feature_guard.cc:141] Your CPU supports instructions that this
 +
TensorFlow binary was not compiled to use: AVX2 FMA
 +
2018-12-11 17:19:44.075230: I tensorflow/stream_executor/cuda/cuda_gpu_executor.cc:964] successful NUMA node read from SysFS had
 +
negative value (-1), but there must be at least one NUMA node, so returning NUMA node zero
 +
2018-12-11 17:19:44.075916: I tensorflow/core/common_runtime/gpu/gpu_device.cc:1432] Found device 0 with properties:
 +
name: GeForce GTX 960M major: 5 minor: 0 memoryClockRate(GHz): 1.176
 +
pciBusID: 0000:01:00.0
 +
totalMemory: 1.96GiB freeMemory: 1.72GiB
 +
2018-12-11 17:19:44.075953: I tensorflow/core/common_runtime/gpu/gpu_device.cc:1511] Adding visible gpu devices: 0
 +
2018-12-11 17:22:28.528023: I tensorflow/core/common_runtime/gpu/gpu_device.cc:982] Device interconnect StreamExecutor with
 +
strength 1 edge matrix:
 +
2018-12-11 17:22:28.528065: I tensorflow/core/common_runtime/gpu/gpu_device.cc:988]      0
 +
2018-12-11 17:22:28.528072: I tensorflow/core/common_runtime/gpu/gpu_device.cc:1001] 0:  N
 +
2018-12-11 17:22:28.528250: I tensorflow/core/common_runtime/gpu/gpu_device.cc:1115] Created TensorFlow device
 +
(/job:localhost/replica:0/task:0/device:GPU:0 with 1477 MB memory) -> physical GPU (device: 0, name: GeForce GTX 960M, pci bus
 +
id: 0000:01:00.0, compute capability: 5.0)
 +
tf.Tensor(-253.9591, shape=(), dtype=float32)
 +
 +
sudo pip3 install keras
 +
 +
sudo python3 -m pip install jupyter
  
 
==Cheat-Sheets==
 
==Cheat-Sheets==
Zeile 239: Zeile 373:
 
|-
 
|-
 
| Markdown Syntax || https://help.github.com/articles/basic-writing-and-formatting-syntax/
 
| Markdown Syntax || https://help.github.com/articles/basic-writing-and-formatting-syntax/
 +
|-
 +
| Cheat Sheets for AI, Neural Networks, Machine Learning, Deep Learning & Big Data || https://becominghuman.ai/cheat-sheets-for-ai-neural-networks-machine-learning-deep-learning-big-data-678c51b4b463
 
|-
 
|-
 
| Mediawiki Syntax || interner Link: [[Cheat-sheet|Cheet-sheet]]
 
| Mediawiki Syntax || interner Link: [[Cheat-sheet|Cheet-sheet]]
 +
|-
 +
| Keras CheatSheet || https://tanthiamhuat.files.wordpress.com/2018/04/deeplearningwithkeras.pdf
 
|}
 
|}
  
 
=Art & Society=
 
=Art & Society=
==Künstler/Kollektive==
+
==KünstlerInnen/Kollektive==
 
* Patrick Tresset http://patricktresset.com/
 
* Patrick Tresset http://patricktresset.com/
 
* Mario Klingemann http://quasimondo.com/
 
* Mario Klingemann http://quasimondo.com/
Zeile 250: Zeile 388:
 
* Roman Lipski http://www.romanlipski.com/home.html
 
* Roman Lipski http://www.romanlipski.com/home.html
 
* Obvious http://obvious-art.com/
 
* Obvious http://obvious-art.com/
 +
* Tega Brain http://tegabrain.com/
  
 
==Kunstwerke / Projekte==
 
==Kunstwerke / Projekte==
Zeile 258: Zeile 397:
 
* Sociality https://www.sociality.today/?/tag/Learning_Machines/
 
* Sociality https://www.sociality.today/?/tag/Learning_Machines/
 
* Joy Bots, Silly Bots, Brave Bots etc.: http://www.botjoy.com/projects
 
* Joy Bots, Silly Bots, Brave Bots etc.: http://www.botjoy.com/projects
 +
* Deep Swamp http://tegabrain.com/Deep-Swamp
 +
* Sarah Meyohas - Cloud of Petals https://www.sarahmeyohas.com/rosesatbell/
  
 
==Ausstellungen==
 
==Ausstellungen==
Zeile 270: Zeile 411:
 
* OpenCodesII https://zkm.de/en/exhibition/2017/10/open-codes/
 
* OpenCodesII https://zkm.de/en/exhibition/2017/10/open-codes/
  
==Talks /  Festivals / Workshops==
+
==Talks /  Festivals / Workshops / Konferenzen==
 +
 
 +
Ambient Revolts << HOW CAN WE RETHINK POLITICAL AGENCY IN AN AI-DRIVEN WORLD?
 +
* https://projekte.berlinergazette.de/ambient-revolts/
  
 
==AIR / Wettbewerbe==
 
==AIR / Wettbewerbe==
 
* https://robotart.org/
 
* https://robotart.org/
 +
* http://www.chronusartcenter.org/en/research_creation/announcement/ OR http://lab.chronusartcenter.org/fellowship/
 +
* Open Call European ARTificial Intelligence Lab << https://ars.electronica.art/ailab/de/opencall/
 +
** Einsendeschluss für die Online-Einreichung: 17. Februar 2019
  
 
==Anwendungen, Datasets etc.==
 
==Anwendungen, Datasets etc.==
Zeile 291: Zeile 438:
 
==News, Artikel etc.==
 
==News, Artikel etc.==
  
 +
* 27.11.2018 '''HfG Karlsruhe druckt 3D-Modelle illegaler Munition, um neuronale Netze auszubilden und illegale Waffen im Syrienkrieg zu entdecken''' https://www.hfg-karlsruhe.de/aktuelles/hfg-karlsruhe-druckt-3d-modelle-illegaler-munition-um-neuronale-netze-auszubilden-und-illegale-waffen-im-syrienkrieg-zu-entdecken/
 +
* 26.11.2018 '''Super-Curator Carolyn Christov-Bakargiev Talks About Hito Steyerl’s Latest Work and Why AI Is Actually ‘Artificial Stupidity’''' https://news.artnet.com/exhibitions/carolyn-christov-bakargiev-interview-1396936?fbclid=IwAR3UqBQyat9pJzb86hcVZ42-VVHujJZgjDnXdh5fWHhUO21Pv8kSZvxcvIo#.W_1higeb3nk.facebook
 
* 26.10.2018 '''KI druckt Kunst: Auktionshaus Christie's versteigert KI-Gemälde für 380.000 Euro''' https://www.heise.de/newsticker/meldung/KI-druckt-Kunst-Auktionshaus-Christie-s-versteigert-KI-Gemaelde-fuer-380-000-Euro-4204793.html
 
* 26.10.2018 '''KI druckt Kunst: Auktionshaus Christie's versteigert KI-Gemälde für 380.000 Euro''' https://www.heise.de/newsticker/meldung/KI-druckt-Kunst-Auktionshaus-Christie-s-versteigert-KI-Gemaelde-fuer-380-000-Euro-4204793.html
 
* 16.10.2018 '''Adobe Creative Cloud: Produktiver und kreativer mit KI''' https://www.heise.de/newsticker/meldung/Adobe-Creative-Cloud-Produktiver-und-kreativer-mit-KI-4190585.html
 
* 16.10.2018 '''Adobe Creative Cloud: Produktiver und kreativer mit KI''' https://www.heise.de/newsticker/meldung/Adobe-Creative-Cloud-Produktiver-und-kreativer-mit-KI-4190585.html
Zeile 306: Zeile 455:
 
* https://de.wikipedia.org/wiki/K%C3%BCnstliche_Intelligenz#Kreativit%C3%A4t
 
* https://de.wikipedia.org/wiki/K%C3%BCnstliche_Intelligenz#Kreativit%C3%A4t
 
* http://www.yaronhadad.com/deep-learning-most-amazing-applications/
 
* http://www.yaronhadad.com/deep-learning-most-amazing-applications/
 +
* 3Blue1Brown neural network series 1: https://www.youtube.com/watch?v=aircAruvnKk&t=992s
 +
* 3Blue1Brown neural network series 2: https://www.youtube.com/watch?v=IHZwWFHWa-w
 +
* 3Blue1Brown neural network series 3: https://www.youtube.com/watch?v=Ilg3gGewQ5U
 +
* 3Blue1Brown neural network series 4: https://www.youtube.com/watch?v=tIeHLnjs5U8
  
 
==Markdown==
 
==Markdown==
Zeile 377: Zeile 530:
  
  
[[Category:Seminare]]
+
[[Category:Seminar]]
 +
[[Category:KI]]
 +
[[Category: deep learning]]
 +
[[Category:Programmierung]]
 +
[[Category:Python]]
 +
[[Category:Tensorflow]]
 +
[[Category:Keras]]

Aktuelle Version vom 7. Oktober 2019, 11:42 Uhr

Grundlagenseminar Material/ Skulptur/ Code Grundstudium
Georg Trogemann, Christian Heck
Dienstag wöchentlich 11:00 –13:00
Erster Termin 23.10.2018
Filzengraben 8 - 10, 0.2 Experimentelle Informatik

Googles „Deep Dream“ Algorithmus, der Fall „Cambridge
Analytica, der tödliche „Uber“-Unfall eines selbstfahrenden Autos.
Das sind nur drei Beispiele für Künstliche Intelligenz, über die in
der Presse breit berichtet wurde. Die Diskussionen zur KI sind
verbunden mit Begriffen wie „deep learning“, „neuronale Netze“
oder „technologische Singularität“. Kann man den Kern der
dahinter stehenden Verfahren ohne Vorkenntnisse innerhalb eines
Semesters überhaupt noch verstehen? Ja, man kann.
Das Seminar wird sehr elementar in die subsymbolische KI
der Neuronalen Netze und deren Programmierung einführen.
Wir setzen dabei keine mathematischen Kenntnisse oder
Programmiererfahrungen voraus. Ziel ist es, dass am Ende jede/
jeder Studierende ein Programm erstellt hat, das Bilder nach dem
Prinzip des Deep Dream Algorithmus generiert. Vor allem geht es
darum, kritikfähig zu werden und die Möglichkeiten, Grenzen und
Gefahren dieser Technologie einschätzen zu lernen.

Seminar Notebooks 2 download

20.11.2018

seminar-11-20-18_notebooks-as-zip-archive

13.11.2018

seminar-11-13-18_notebook-as-zip-archive

06.11.2018

seminar-11-06-18_notebook

TeilnemerInnen

Mayuko Verena Cao Jessica Christian
Dazun Moritz Verena_L Phaidonas Johannes
Christina Dafun Sam Soo Yeun Paula
Karin Georg Hans Florian Mattis

Exkursion

"Erfindungen sind ... nicht vorhersehbar. Nur das Umfeld und die Bedingungen unter denen sie stattfinden ist beeinflußbar." Zitat Georg Trogemann

  • Wir fahren Mittags los nach Tübingen.
  • Abends hält Mari (Christoph Marischka) einen Vortrag für uns über seine derzeitigen Forschungsergebnisse zu diversen KI-Forschungsprojekten an der Schnittstelle zu militärischer Forschung, universitären Lehrstühlen und Start-Up Unternehmen.
  • Der Abend findet im IMI-Büro statt, ein atmosphärischer Ort am Tübinger Stadtrand.
  • Mari ist ein sehr interessanter Zeitgenosse mit einen kritischen Blick und pointierten Forschungsergebnissen, bzw. Artikeln die die gesellschaftlichen Konsequenzen durch den alltäglichen Gebrauch ziviler und mitlitärischer Techonolgien thematisieren, z.b. http://www.imi-online.de/2018/09/03/angriffsvorteil-durch-ki/
  • Gezielt wird Mari für uns auf seine Forschungsergebnisse zu »Cyber Valley« eingehen.
  • Anschließend werden wir zusammen mit den anderen Aktivisten vom IMI mit Bier & Snacks zusammensitzen und diskutieren über mögliche Kooperationen zwischen uns und unserem künstlerischen Handlungsspielraum und dem aktivistischen und ein bißchen vielleicht auch dikutieren über die Frage in wie weit wir uns und unsere Umwelt der KI-Umwelt denn heute schon anpassen müssen, damit sie denn irgendwann einmal für die Augen einiger und dem Leid anderer fehlerfrei zu funktionieren vermag...
  • Zu »Cyber Valley«, der aktuelle IMI-Report:
    • Das Cyber Valley in Tübingen und die Transformation zum Rüstungsstandort, Christoph Marischka, 5. Juli 2018
    • http://www.imi-online.de/download/IMI-Analyse2018-18-Cybervalley-Web.pdf
    • Kurzinfo: Ohne jede öffentliche Diskussion wurde von der Max-Planck-Gesellschaft, der Landesregierung, der Industrie und den Universitäten Stuttgart und Tübingen das Neckartal zwischen Stuttgart und Tübingen zum Cyber Valley erklärt, das als „Biotop für die Entwicklung Künstlicher Intelligenz“ fungieren soll. Diese Pläne, die bereits seit etwa zehn Jahren verfolgt werden, führen insbesondere zu einer engen Verquickung zwischen Politik, Wissenschaft und Industrie und zeigen bereits jetzt deutliche Folgen für die Stadt und den Universitätsstandort Tübingen. Explizit vorgesehen ist die schnelle Umsetzung neuer Forschungsergebnisse in Praxis und kommerzielle Nutzung. Dabei ist klar, dass die aktuelle Forschung zu Künstlicher Intelligenz und „Big Data“ v.a. Potentiale zur immer intensiveren Überwachung der Bevölkerung und militärischer Nutzung birgt. Bereits jetzt laufen Pilotprojekte zur Gesichtserkennung und intelligenten Videoüberwachung im öffentlichen Raum, obwohl diese Technologien noch keineswegs ausgereift und gesellschaftlich hochumstritten sind. Unternehmen wie Atos, das mittlerweile ebenfalls in Tübingen angesiedelt ist, entwickeln Grenzüberwachungs- und Zielerkennungssysteme auf der Basis multisensorieller Mustererkennung (https://atos.net/en/products/defense-mission-critical/homeland-security/…). Die Forschung zu „intelligenten Algorithmen“ soll u.a. auf Kundendaten basieren, weshalb sich das Cyber-Valley-Konsortium über die Beteiligung des Internet-Konzerns Amazon freut, der noch in diesem Jahr mit dem Bau eines Entwicklungszentrums auf der Oberen Viehweide beginnen will. Insgesamt feuert das Cyber Valley die Bautätigkeiten für Forschungseinrichtungen und hochpreisige Wohnimmobilien in Tübingen an und treibt auch damit Preise in die Höhe.
  • Wir schlafen in der Jugendherberge in Tübingen
  • Am nächsten Tag werden wir entweder ins Max-Plank-Institut fahren oder nach Esslingen zu Festo oder in den derzeit noch besetzten Kupferbau oder Mari wird uns eine Führung zum zukünftigen Cyber Valley geben.
  • Gegen Nachmittag fahren wir wieder in Richtung Köln

Infoseiten/Links

Termin

  • 17.12. Mo - 18.12. Di

KI Programmierung

open jupyter notebook

type Jupyter-button on your Desktop or

or type in Terminal:

jupyter-notebook

Content jupyternotebook1.gif


how to use...? Content jupyternotebook3b.gif


Content jupyternotebook7.gif

Workaround installieren

Interner Link: KI Workaround installieren

Install Jupyter & Tensorflow on Ubuntu

Anaconda download & install

3.7 version downloaden unter: https://www.anaconda.com/download/#linux

Terminal öffnen

sich zum Downloadordner navigieren:

cd Downloads

die Bash das Installscript ausführen lassen:

bash Anaconda3-5.3.0-Linux-x86_64.sh 

Anweisungen folgen...

Python downgraden:

conda install python=3.6

Python-Pakete installieren:

sudo apt-get install python-pip python-dev

Wissenschaftliche Pakete installieren:

sudo apt-get install build-essential cmake git unzip pkg-config libopenblas-dev liblapack-dev
sudo apt-get install python-numpy python-scipy python-matplotlib
sudo apt-get install libhdf5-serial-dev python-h5py
sudo apt-get install graphviz
sudo apt-get install python-opencv

GPU-Unterstützung einrichten:

CUDA-Downloaden

wget https://developer.nvidia.com/compute/cuda/10.0/Prod/local_installers/cuda-repo-ubuntu1604-10-0-local-10.0.130-410.48_1.0-1_amd64

oder

wget https://developer.nvidia.com/compute/cuda/10.0/Prod/local_installers/cuda-repo-ubuntu1604-10-0-local-10.0.130-410.48_1.0-1_amd64.deb

Tensorflow installieren

ohne GPU

pip install tensorflow

mit GPU

pip install tensorflow-gpu

Keras installieren

pip install keras

alternativer keras install

git clone https://github.com/fchollet/keras
cd keras
sudo python setup.py install

Install Jupyter & Tensorflow on Windows

Download & Install anaconda

https://www.anaconda.com/download/#windows

Update Anaconda.

Open Anaconda Prompt and type

conda update conda
conda update --all

python environment, with python 3.5, named as "tensorflow"

conda create --name tensorflow python=3.5

environement aktivieren

activate tensorflow

Bibliotheken installieren:

conda install jupyter scipy pandas seaborn scikit-learn spyder matplotlib

evtl. PIP installieren

conda install pip

TensorFlow installieren

pip install tensorflow

Keras installieren

conda install -c conda-forge keras

danach type:

ipython

ipython prompt öffnet sich... > in diesem prompt type:

import tensorflow as tf
import keras

mit STRG+D wieder aus IPython Umgebung raus

im anaconda prompt type um ein jupyter notebook zu starten in dem sich tensorflow code ausführen lässt:

activate tensorflow
jupyter notebook

In Jupyter Notebook unter New ein Python 3 Notebook starten

in den erste Zeile tippen:

import tensorflow as tf; print(tf.__version__)

wenn die Versionsnr. angezeigt wird ist das Environement fertiggestellt

Install Jupyter & Tensorflow on Mac

Download & Install anaconda

https://www.anaconda.com/download/

Update Anaconda.

Open Terminal and type

conda update conda
conda update --all

Derzeit bietet Anaconda seine Version mit Python 3.7 zum Download bereit, d.h. wir müssen Python downgraden mit:

conda install python=3.6

nachsehen ob auch wirklich die version 3.6 installiert wurde:

python --version

PIP installieren

conda install pip

PIP upgraden

pip install --upgrade pip

Tensorflow installieren

pip install --upgrade tensorflow 

Keras installieren#

pip install Keras

im Terminal type, um ein jupyter notebook zu starten in dem sich tensorflow code ausführen lässt:

jupyter notebook

Jupyter startet...:

In Jupyter Notebook unter New ein Python 3 Notebook starten

in den erste Zeile tippen:

import tensorflow as tf; print(tf.__version__)

wenn die Versionsnr. angezeigt wird ist das Environement fertiggestellt

GPU-Erweiterung on Ubuntu

auf einem System auf dem noch nicht Anaconda etc. vorinstalliert ist.

sudo apt-get update
sudo apt-get upgrade
sudo apt-get install python3-pip python3-dev


sudo apt-get install build-essential cmake git
sudo apt-get install libopenblas-dev 
sudo apt-get install liblapack-dev
sudo apt-get install python-numpy python-scipy python-matplotlib
sudo apt-get install libhdf5-serial-dev python-h5py
sudo apt-get install graphviz
sudo pip3 install pydot-ng
sudo apt-get install python-opencv


CUDA downloaden:

https://developer.nvidia.com/cuda-90-download-archive?target_os=Linux&target_arch=x86_64&target_distro=Ubuntu

CUDA-Version für 17.04 auswählen (funktioniert auch für Ubuntu 18.04)

sudo dpkg -i cuda-repo-ubuntu1704-9-0-local_9.0.176-1_amd64.deb
sudo apt-key add /var/cuda-repo-9-0-local/7fa2af80.pub
sudo apt-get update
sudo apt-get install cuda
cuda dir: /usr/local/cuda-9.0
cuDNN >= 7.2
https://developer.nvidia.com/cudnn
sudo dpkg -i libcudnn7_7.4.1.5-1+cuda9.0_amd64.deb
sudo pip3 install tensorflow-gpu

verify:

python3 -c "import tensorflow as tf; tf.enable_eager_execution(); print(tf.reduce_sum(tf.random_normal([1000, 1000])))"

output:

2018-12-11 17:19:43.988326: I tensorflow/core/platform/cpu_feature_guard.cc:141] Your CPU supports instructions that this 
TensorFlow binary was not compiled to use: AVX2 FMA
2018-12-11 17:19:44.075230: I tensorflow/stream_executor/cuda/cuda_gpu_executor.cc:964] successful NUMA node read from SysFS had 
negative value (-1), but there must be at least one NUMA node, so returning NUMA node zero
2018-12-11 17:19:44.075916: I tensorflow/core/common_runtime/gpu/gpu_device.cc:1432] Found device 0 with properties: 
name: GeForce GTX 960M major: 5 minor: 0 memoryClockRate(GHz): 1.176
pciBusID: 0000:01:00.0
totalMemory: 1.96GiB freeMemory: 1.72GiB
2018-12-11 17:19:44.075953: I tensorflow/core/common_runtime/gpu/gpu_device.cc:1511] Adding visible gpu devices: 0
2018-12-11 17:22:28.528023: I tensorflow/core/common_runtime/gpu/gpu_device.cc:982] Device interconnect StreamExecutor with 
strength 1 edge matrix:
2018-12-11 17:22:28.528065: I tensorflow/core/common_runtime/gpu/gpu_device.cc:988]      0 
2018-12-11 17:22:28.528072: I tensorflow/core/common_runtime/gpu/gpu_device.cc:1001] 0:   N 
2018-12-11 17:22:28.528250: I tensorflow/core/common_runtime/gpu/gpu_device.cc:1115] Created TensorFlow device 
(/job:localhost/replica:0/task:0/device:GPU:0 with 1477 MB memory) -> physical GPU (device: 0, name: GeForce GTX 960M, pci bus 
id: 0000:01:00.0, compute capability: 5.0)
tf.Tensor(-253.9591, shape=(), dtype=float32)
sudo pip3 install keras
sudo python3 -m pip install jupyter

Cheat-Sheets

Jupyter Notebook & IPython (OnePager) https://s3.amazonaws.com/assets.datacamp.com/blog_assets/Jupyter_Notebook_Cheat_Sheet.pdf
Jupyter & IPython (detailled) http://get.treasuredata.com/rs/714-XIJ-402/images/TD_Jupyter%20Notebook%20Cheatsheet_V1%281%29%20%281%29.pdf
Jupyter Notebook (Shortcuts) https://ugoproto.github.io/ugo_py_doc/weidadeyue_jupyter-notebook.pdf
Conda https://ugoproto.github.io/ugo_py_doc/conda-cheatsheet.pdf
Python Beginner Cheat Sheet https://github.com/ehmatthes/pcc/releases/download/v1.0.0/beginners_python_cheat_sheet_pcc_all.pdf
Markdown Syntax https://help.github.com/articles/basic-writing-and-formatting-syntax/
Cheat Sheets for AI, Neural Networks, Machine Learning, Deep Learning & Big Data https://becominghuman.ai/cheat-sheets-for-ai-neural-networks-machine-learning-deep-learning-big-data-678c51b4b463
Mediawiki Syntax interner Link: Cheet-sheet
Keras CheatSheet https://tanthiamhuat.files.wordpress.com/2018/04/deeplearningwithkeras.pdf

Art & Society

KünstlerInnen/Kollektive

Kunstwerke / Projekte

Ausstellungen

past

upcoming

Talks / Festivals / Workshops / Konferenzen

Ambient Revolts << HOW CAN WE RETHINK POLITICAL AGENCY IN AN AI-DRIVEN WORLD?

AIR / Wettbewerbe

Anwendungen, Datasets etc.

News, Artikel etc.

Links/HowTo's

Markdown

Python

social bots/chatbots

Video/Graphics

Sound

Literature

Poetry

AI Poems

Code Poetry (with Python)

Robotics

Mensch/Maschine

intelligente Videoüberwachung