Seminar zu Machine Learning, mathematischen Fragestellungen und Anwendungen

Themenvergabe: war am Di, 15.01.2019, 12:45 Uhr, HS 1. Es können noch einige in der Regel selbständig ausgestaltete Themen bis zum 28.02. vergeben werden (siehe unten).

Vorbereitungsempfehlung für die Vergabe: Interessierte sollten sich vorher ansehen, welches Material ihnen zur Verfügung steht. Im Zweifelsfall kommen Sie in meine Sprechstunde.

Vortragstermine: Die Termine werden in der ersten Vorlesungswoche des Semesters festgelegt, unter Umständen in einer gesonderten Vorbesprechung, die allen mit Themen versehenen Teilnehmern per email mitgeteilt wird. In der Vergangenheit wurde mehrheitlich für Blöcke an den vorlesungsfreien Tagen votiert. Im SS 2019 sind das der 23.05., 26.06. und 09.07.

Sprache: Der Vortrag darf zur Teilnahmemöglichkeit für unsere internationalen Studierenden auch auf Englisch gehalten werden, was mit einem Pluspunkt in der Bewertung berücksichtigt wird.

Teilnehmerkreis: Es wurden Vorträge an Bachelor- und Masterstudierende aller IT-Studiengänge vergeben. Von Masterstudierenden wird eine vertiefte wissenschaftliche Auseinandersetzung erwartet. Als Zuhörer darf jeder teilnehmen.

Thematik

Die Themenauswahl für dieses Seminar bestand ursprünglich aus mehreren Teilen. Bis auf den letzten Vortrag wurden aber ausschließlich Themen zu Machine Learning gewählt.

Es wird für manche Themen Literatur als Anregung gegeben. Jedoch sollte sich jeder Teilnehmer gehalten fühlen, weitere Quellen zu erschließen. Die Erarbeitung geeigneter Quellen gehört zur wesentlichen Seminarleistung. Die bereits angegebene Literatur findet sich natürlich in unserer Bibliothek. Wenn Sie sich rechtzeitig darum bemühen, dann können wir von Ihnen weitere von Ihnen als nützlich empfundene Literatur nachbestellen.

Eine Warnung sei vorausgeschickt: Auch wenn sich zu vielen Themen zahlreiche Internetreferenzen finden, so reicht es nicht aus, nur die ersten zu nehmen, die Google anzeigt (z.B. Wikipedia). Das würde zu oberflächliches Wissen generieren und häufig nicht den Kern der Fragestellungen treffen.

Vortragsthemen

Die im Folgenden verlinkten Ausarbeitungen und Vortragsunterlagen sind im Original dargestellt und ausschließlich von den Verfassern bearbeitet worden. Daher kann der Lehrveranstalter keine Gewähr für die Qualität und Richtigkeit geben.

 

1) Details of the backpropagation algorithm (in English)

The backprogation algorithm has to be presented which has been common in modern neural networks since 1986. Following an introduction and an overview of neural networks, the focus should be layed on the details how to adjust the weights exactly, if there is a discrepancy between given output values and the predicted values in a test example due to the previously set weights.

Vortragender: Jakob Hansen
23.05.2019, 09:30 Uhr

presentation   paper

 

2) Unsupervised learning in neural networks (in English)

It should be explained how the weights adjust when a neural network is used to classify data without being given training examples. In an introduction and overview, a use case should be presented in which unsupervised learning makes sense. The algorithm can be explained with this use case. But also the explanation of the underlying mathematics is allowed (or a combination of both).

Vortragender: Dane Dahlem
23.05.2019, 10:45 Uhr

presentation   Ausarbeitung

 

3) Besondere Methoden zum Trainieren und Auswerten tiefer neuronaler Netze

Es sollen anhand der vielfältigen Literatur einige Anpassungen vorgestellt werden, in denen in tiefen neuronalen Netze noch zusätzliche Aspekte zu 1) oder sogar Veränderungen vorgenommen werden. Gerne kann das anhand ausgewählter Beispiele von bestimmten Typen tiefer neuronaler Netze erklärt werden. Neuronale Netze mit Gedächtnis sollen aber nicht behandelt werden, weil das Vortrag 5) vorbehalten ist.

Vortragender: Dennis Maas
23.05.2019, 12:30 Uhr

Vortrag   Ausarbeitung

 

4) Der Random-Forest-Algorithmus für unüberwachtes Lernen

Vortragender: Henrik Oehmke
26.06.2019, 09:30 Uhr

Vortrag   Ausarbeitung

 

5) Gewichtsanpassung in neuronalen Netzen mit Gedächtnis

Es soll konkret erklärt werden, wie die Gewichtsanpassung in neuronalen Netzen mit feedback-Schleifen funktioniert. Das kann in gängigen Recurrent Neural Netzworks (RNN) erklärt werden, aber gerne auch an anderen Typen mit Gedächtnis. Auch ein sinnvolles Anwendungsbeispiel sollte nicht fehlen.

Vortragender: Marcello Attila Messina
26.06.2019, 10:45 Uhr

Vortrag   Ausarbeitung

 

6) Nutzung von Neuronalen Netzen im Bereich Spiele ohne perfekte
Information - erklärt anhand der Poker-KI Libratus

Vortragender: Linus Stenzel
26.06.2019, 12:30 Uhr

Vortrag   Ausarbeitung

 

7) Unentscheidbare Probleme in der Praxis

Basis ist ein Artikel im Spektrum der Wissenschaften (siehe Literatur unten), welcher sich an allgemeingebildete Leser wendet. Aufbauend auf diesem kann das auf verschiedene Weise vertieft werden. Die Beschränkung auf nur diesen Artikel reicht nicht aus! Ich empfehle eine Absprache mit mir.

Vortragender: Henning Brandt
26.06.2019, 13:45 Uhr

Vortrag   Ausarbeitung

Literatur

Aurelien Geron: Hands-On Machine Learning with Scikit-Learn & TensorFlow, O'Really 2017, ISBN 978-1-491-96229-9

Ian Goodfellow, Yoshua Bengio, Aaron Courville: Deep Learning, MIT Press 2016, public linkhandout link (nur für Mitglieder der FH Wedel)

Tariq Rashid: Neuronale Netze selbst programmieren, Ein verständlicher Einstieg mit Python, O'Really 2017, ISBN 978-153-082660-5

Jan-Paul Delahaye: Bedrohliche Unentscheidbarkeit, Spektrum der Wissenschaften 9 / 2017, download

Die Benutzung weiterer Literatur ist ausdrücklich willkommen.