Aktionen

XAI / Language Models: Unterschied zwischen den Versionen

Aus exmediawiki

(huggingface)
 
(8 dazwischenliegende Versionen von 2 Benutzern werden nicht angezeigt)
Zeile 149: Zeile 149:
  
 
* »on the road« by AI: https://medium.com/artists-and-machine-intelligence/ai-poetry-hits-the-road-eb685dfc1544
 
* »on the road« by AI: https://medium.com/artists-and-machine-intelligence/ai-poetry-hits-the-road-eb685dfc1544
 
+
----
 
====Autoencoder====
 
====Autoencoder====
 
https://www.wired.co.uk/article/google-artificial-intelligence-poetry
 
https://www.wired.co.uk/article/google-artificial-intelligence-poetry
 
+
----
 
====LSTM+Autoencoder====
 
====LSTM+Autoencoder====
 
* https://github.com/keras-team/keras/issues/1401
 
* https://github.com/keras-team/keras/issues/1401
 
* https://www.dlology.com/blog/how-to-do-unsupervised-clustering-with-keras/
 
* https://www.dlology.com/blog/how-to-do-unsupervised-clustering-with-keras/
 
+
----
 
====GAN====
 
====GAN====
 
https://arxiv.org/abs/1705.10929
 
https://arxiv.org/abs/1705.10929
 
+
----
 
====Newer techniques====
 
====Newer techniques====
=====transformer-based language models=====
+
====='''transformer-based language models'''=====
======OpenAI's gpt-2======
+
======'''OpenAI's gpt-2'''======
 
* https://openai.com/blog/better-language-models/
 
* https://openai.com/blog/better-language-models/
 
** Improving Language Understanding by Generative Pre-Training https://s3-us-west-2.amazonaws.com/openai-assets/research-covers/language-unsupervised/language_understanding_paper.pdf
 
** Improving Language Understanding by Generative Pre-Training https://s3-us-west-2.amazonaws.com/openai-assets/research-covers/language-unsupervised/language_understanding_paper.pdf
 
** https://github.com/openai/gpt-2
 
** https://github.com/openai/gpt-2
 +
 +
======'''Weiterentwicklung / Implementierung'''======
 +
https://huggingface.co/
 +
Writer: https://transformer.huggingface.co/doc/distil-gpt2
 +
  
 
Diskussion (old):
 
Diskussion (old):
Zeile 172: Zeile 177:
 
How to Build...(old):
 
How to Build...(old):
 
* https://blog.floydhub.com/gpt2/
 
* https://blog.floydhub.com/gpt2/
 +
----
  
======BERT======
+
======'''BERT'''======
 
bidirectional encoder representations from Transformers https://arxiv.org/abs/1810.04805
 
bidirectional encoder representations from Transformers https://arxiv.org/abs/1810.04805
  
 
+
----
=====LSTM-based language models=====
+
====='''LSTM-based language models'''=====
======ELMO======
+
======'''ELMO'''======
 
Deep contextualized word representations https://arxiv.org/abs/1802.05365 <  uses bidirectional LSTM  
 
Deep contextualized word representations https://arxiv.org/abs/1802.05365 <  uses bidirectional LSTM  
 
+
----
======GRU (Gated Recurrent Unit)======
+
======'''GRU''' (Gated Recurrent Unit)======
 
it uses so-called, update gate and reset gate https://arxiv.org/abs/1406.1078
 
it uses so-called, update gate and reset gate https://arxiv.org/abs/1406.1078
 
* https://towardsdatascience.com/understanding-gru-networks-2ef37df6c9be
 
* https://towardsdatascience.com/understanding-gru-networks-2ef37df6c9be
Zeile 187: Zeile 193:
  
 
===datenbanken===
 
===datenbanken===
 +
muß upgedated werden!!
 +
 
deutsch:
 
deutsch:
 
* https://de.wikipedia.org/wiki/GermaNet
 
* https://de.wikipedia.org/wiki/GermaNet
Zeile 198: Zeile 206:
  
 
----
 
----
 +
 
===chatbots===
 
===chatbots===
* https://bdtechtalks.com/2017/08/21/rob-high-ibm-watson-cto-artificial-intelligence-chatbots/
+
'''siehe [[Chatbots|Chatbot-exMediaWiki-Seite]]'''
* https://chatbotsmagazine.com/contextual-chat-bots-with-tensorflow-4391749d0077
 
** Jupyter Notebook: https://github.com/ugik/notebooks/blob/master/Tensorflow%20chat-bot%20model.ipynb
 
* Facebook-Messenger-Bot: https://dzone.com/articles/how-i-used-deep-learning-to-train-a-chatbot-to-tal
 
** Git-Repo: https://github.com/adeshpande3/Facebook-Messenger-Bot
 
* https://tutorials.botsfloor.com/how-to-build-your-first-chatbot-c84495d4622d
 
** Jupyter Notebooks: https://github.com/suriyadeepan/practical_seq2seq
 
  
 
----
 
----
 +
 
===Toolkits/Librarys===
 
===Toolkits/Librarys===
 
* Natural Language Toolkit: http://www.nltk.org/
 
* Natural Language Toolkit: http://www.nltk.org/

Aktuelle Version vom 14. Februar 2020, 08:14 Uhr

Xai-figure1-inline-graphic.png
Zettels-traum.jpg

ETHICS



XAI

XAI/NLG


Bedeutung:



Code to work on...

Lime: Explaining the predictions of any machine learning classifier

This project is about explaining what machine learning classifiers (or models) are doing. At the moment, we support explaining individual predictions for text classifiers or classifiers that act on tables (numpy arrays of numerical or categorical data) or images, with a package called lime (short for local interpretable model-agnostic explanations).


Argument Mining AM

Argumentext

rgumenText ist ein Validierungsprojekt des Ubiquitous Knowledge Processing (UKP) Labs an der Technischen Universität Darmstadt. Unser Ziel ist es, die aktuellsten Forschungsergebnisse in den Bereichen Argument Mining und Textanalyse für die industrielle Anwendung zu validieren und Produkte zu entwickeln, die das Potenzial unstrukturierter Daten freisetzen. Von einer zuvor für die Identifikation von Argumentstrukturen in Studentenaufsätzen entwickelten Joint-Modeling Methode (Stab und Gurevych 2017) ausgehend, entwickeln wir robuste „end-to-end“ Ansätze um Argumente aus webbasierten Datensammlungen zu extrahieren.

Durch Sprachadaption erweitern wir unsere aktuellen Methoden auf andere Sprachen wie Deutsch und evaluieren deren Performanz auf diversen Themen und Textarten. Die daraus resultierende Software kann in Echtzeit Argumente aus dynamischen Textquellen wie Nachrichtenströmen oder sozialen Netzwerken gewinnen, um dann daraus eine für den Nutzer verständliche Zusammenfassung zu erstellen.

Demo


XAI durch Sprachrationalisierung

Youtube Video:



LANGUAGE


Konstruierte, bzw. Künstliche Sprachen

esoterische (KI) Programmiersprachen


Computer (und) Literatur

Florian Cramer:


KI und Literatur

https://www.faz.net/aktuell/feuilleton/buecher/literatur-und-ki-vernunft-ist-auch-eine-herzenssache-16079038.html?printPagedArticle=true#void

AI-Poetry Examples...


(KI-generierte) Krypto


NLU / NLI


NLP

Speech recognition


NLG

https://byteacademy.co/blog/overview-NLG


(un-)supervised techniques

LSTM

LSTM+RNN


Autoencoder

https://www.wired.co.uk/article/google-artificial-intelligence-poetry


LSTM+Autoencoder


GAN

https://arxiv.org/abs/1705.10929


Newer techniques

transformer-based language models
OpenAI's gpt-2
Weiterentwicklung / Implementierung

https://huggingface.co/ Writer: https://transformer.huggingface.co/doc/distil-gpt2


Diskussion (old):

How to Build...(old):


BERT

bidirectional encoder representations from Transformers https://arxiv.org/abs/1810.04805


LSTM-based language models
ELMO

Deep contextualized word representations https://arxiv.org/abs/1802.05365 < uses bidirectional LSTM


GRU (Gated Recurrent Unit)

it uses so-called, update gate and reset gate https://arxiv.org/abs/1406.1078


datenbanken

muß upgedated werden!!

deutsch:

englisch:

E2E NLG Challenge:


chatbots

siehe Chatbot-exMediaWiki-Seite


Toolkits/Librarys

tryouts:



REPRODUKTIVE KI

https://www.sir-apfelot.de/kuenstliche-intelligenz-erschafft-neue-ki-systeme-10436/