Aktionen

XAI / Language Models: Unterschied zwischen den Versionen

Aus exmediawiki

Zeile 173: Zeile 173:
 
* https://blog.floydhub.com/gpt2/
 
* https://blog.floydhub.com/gpt2/
  
======BERT======
+
======'''BERT'''======
 
bidirectional encoder representations from Transformers https://arxiv.org/abs/1810.04805
 
bidirectional encoder representations from Transformers https://arxiv.org/abs/1810.04805
  
  
 
=====LSTM-based language models=====
 
=====LSTM-based language models=====
======ELMO======
+
======'''ELMO'''======
 
Deep contextualized word representations https://arxiv.org/abs/1802.05365 <  uses bidirectional LSTM  
 
Deep contextualized word representations https://arxiv.org/abs/1802.05365 <  uses bidirectional LSTM  
  
======GRU (Gated Recurrent Unit)======
+
======'''GRU''' (Gated Recurrent Unit)======
 
it uses so-called, update gate and reset gate https://arxiv.org/abs/1406.1078
 
it uses so-called, update gate and reset gate https://arxiv.org/abs/1406.1078
 
* https://towardsdatascience.com/understanding-gru-networks-2ef37df6c9be
 
* https://towardsdatascience.com/understanding-gru-networks-2ef37df6c9be

Version vom 14. Januar 2020, 22:45 Uhr

Xai-figure1-inline-graphic.png
Zettels-traum.jpg

ETHICS



XAI

XAI/NLG


Bedeutung:



Code to work on...

Lime: Explaining the predictions of any machine learning classifier

This project is about explaining what machine learning classifiers (or models) are doing. At the moment, we support explaining individual predictions for text classifiers or classifiers that act on tables (numpy arrays of numerical or categorical data) or images, with a package called lime (short for local interpretable model-agnostic explanations).


Argument Mining AM

Argumentext

rgumenText ist ein Validierungsprojekt des Ubiquitous Knowledge Processing (UKP) Labs an der Technischen Universität Darmstadt. Unser Ziel ist es, die aktuellsten Forschungsergebnisse in den Bereichen Argument Mining und Textanalyse für die industrielle Anwendung zu validieren und Produkte zu entwickeln, die das Potenzial unstrukturierter Daten freisetzen. Von einer zuvor für die Identifikation von Argumentstrukturen in Studentenaufsätzen entwickelten Joint-Modeling Methode (Stab und Gurevych 2017) ausgehend, entwickeln wir robuste „end-to-end“ Ansätze um Argumente aus webbasierten Datensammlungen zu extrahieren.

Durch Sprachadaption erweitern wir unsere aktuellen Methoden auf andere Sprachen wie Deutsch und evaluieren deren Performanz auf diversen Themen und Textarten. Die daraus resultierende Software kann in Echtzeit Argumente aus dynamischen Textquellen wie Nachrichtenströmen oder sozialen Netzwerken gewinnen, um dann daraus eine für den Nutzer verständliche Zusammenfassung zu erstellen.

Demo


XAI durch Sprachrationalisierung

Youtube Video:



LANGUAGE


Konstruierte, bzw. Künstliche Sprachen

esoterische (KI) Programmiersprachen


Computer (und) Literatur

Florian Cramer:


KI und Literatur

https://www.faz.net/aktuell/feuilleton/buecher/literatur-und-ki-vernunft-ist-auch-eine-herzenssache-16079038.html?printPagedArticle=true#void

AI-Poetry Examples...


(KI-generierte) Krypto


NLU / NLI


NLP

Speech recognition


NLG

https://byteacademy.co/blog/overview-NLG


(un-)supervised techniques

LSTM

LSTM+RNN

Autoencoder

https://www.wired.co.uk/article/google-artificial-intelligence-poetry

LSTM+Autoencoder

GAN

https://arxiv.org/abs/1705.10929

Newer techniques

transformer-based language models
OpenAI's gpt-2

Diskussion (old):

How to Build...(old):

BERT

bidirectional encoder representations from Transformers https://arxiv.org/abs/1810.04805


LSTM-based language models
ELMO

Deep contextualized word representations https://arxiv.org/abs/1802.05365 < uses bidirectional LSTM

GRU (Gated Recurrent Unit)

it uses so-called, update gate and reset gate https://arxiv.org/abs/1406.1078


datenbanken

deutsch:

englisch:

E2E NLG Challenge:


chatbots


Toolkits/Librarys

tryouts:



REPRODUKTIVE KI

https://www.sir-apfelot.de/kuenstliche-intelligenz-erschafft-neue-ki-systeme-10436/