Lehrver­anstaltung

ML - Maschinelles Lernen


PDF Lehrveranstaltungsverzeichnis English Version: ML

Version: 1 | Letzte Änderung: 23.09.2019 12:26 | Entwurf: 0 | Status: vom verantwortlichen Dozent freigegeben

Langname Maschinelles Lernen
Anerkennende LModule ML_BaTIN
Verantwortlich
Prof. Dr. Lothar Thieling
Professor Fakultät IME
Niveau Bachelor
Semester im Jahr Wintersemester
Dauer Semester
Stunden im Selbststudium 78
ECTS 5
Dozenten
Prof. Dr. Lothar Thieling
Professor Fakultät IME
Voraussetzungen Grundlagen der Programmierung in Java oder C
Grundlagen der Analysis und Linearen Algebra
Unterrichtssprache deutsch
separate Abschlussprüfung Ja
Literatur
Géron, Aurélien, Hands-On Machine Learning with Scikit-Learn and TensorFlow, O'Reilly Medi
Abschlussprüfung
Details
Die Studierenden sollen in einer mündlichen Prüfung folgende Kompetenzen nachweisen: 1.) Sicherer Umgang mit grundlegenden Begrifflichkeiten, Mechanismes und Konzepten. 2.) Problemstellungen aus dem Bereich des Maschinellen Lernens analysieren und mit passenden Methoden lösen können. 3.) Vorliegende Problemlösungen analysieren und die dabei verwendeten algorithmischen und theoretischen Grundlagen erklären können.
Mindeststandard
Mindestens 50% der möglichen Gesamtpunktzahl.
Prüfungstyp
Die Studierenden sollen in einer mündlichen Prüfung folgende Kompetenzen nachweisen: 1.) Sicherer Umgang mit grundlegenden Begrifflichkeiten, Mechanismes und Konzepten. 2.) Problemstellungen aus dem Bereich des Maschinellen Lernens analysieren und mit passenden Methoden lösen können. 3.) Vorliegende Problemlösungen analysieren und die dabei verwendeten algorithmischen und theoretischen Grundlagen erklären können.

Lernziele

Kenntnisse
Allgemeine Grundlagen
Arten des Lernens
Einfachste Klassifikatoren (Quader, Minimum-Distance, Nearest Neighbour)
Einfacher Predictor (Ausgleichsgerade alias Lineare Regression)
Herausforderungen beim Lernen
Lineare Regression als einfachster Predictor
Lineare Regression als einfachster Klassifikator
Trainingsdaten (Handhabung, Analyse, Aufbereitung)
Gradientenabstiegsverfahren
Qualitätsmaße
Lernkurve
Multi-Class-Klassifikator auf Basis binärer Klassifikatoren
Klassifikation mit mehreren Labels und/oder Ausgaben
Logistische Regression
Einfache neuronale Netze
Das künstliche Neuron als einfachster Klassifikator
Arbeitsweise
Aufgabe der Aktivierungsfunktion
Aufgabe des Bias
Training eines Neurons
Multi-Layer-Perceptron
Aufbau
Aufgabe der Layer
Backpropagation-Trainingsalgorithmus
Tools zur Erstellung und zum Training einfacher Neuronaler Netze und zum Handling der Trainingsdaten
Handhabung, Analyse und Aufbereitung der Trainingsdaten
Erstellen und konfiguration neuronaler Netze
Training neuronaler Netze
Verifikation trainierter Netze
Deep Neural Networks
Prinzipielle Probleme die sich gegenüber einfachen Neuronalen Netzen ergeben
schwindende oder explodierende Gradienten
hohe Trainingszeiten
Übertrainieren
Lösungsansätze für die o.g. Probleme
geeignete Initialisierung der Gewichte, nicht sättigende Aktivierungsfunktion, Gradient Clipping
beschleunigte Optimierungsverfahren, Wiederverwendung vortrainierter Schichten
Regularisierung zur Vermeidung des Übertranierens
Tools zur Erstellung und zum Training von Deep Neural Networks
Handhabung, Analyse und Aufbereitung der Trainingsdaten
Erstellen und konfiguration neuronaler Netze
Training neuronaler Netze
Verifikation und Validierung trainierter Netze
Convolutional Neural Networks (CNNs)
Idee
Aufbau
Convolutional Layer
Pooling Layer
Faltungsoperator als grundlegender Implementierungsoperator für Training und Erkennung
Architekturen von CNNs für verschiedene Problemstellungen
Tools zur Erstellung und zum Training von CNNs
Rekurrente Neuronale Netze (RNN)
Idee
Rekurrente Neuronen
Training von RNNs und Deep RNNs
Long Short Term Memory (LSTM)
Architekturen von RNNs für verschiedene Problemstellungen
Tools zur Erstellung und zum Training von deep CNNs

Fertigkeiten
Die vorgestellten neuronalen Netze
angeben
beschreiben
hinsichtlich der Einsatzfelder abgrenzen
hinsichtlich der Vor- und Nachteile bewerten

Lösung von Problemstellungen unter Verwendung von Tools
zur Handhabung, Analyse und Aufbereitung der Trainingsdaten
zur Erstellung, Verifikation, Validierung und zum Training aller vorgestellten Neuralen Netzen
Aufwand Präsenzlehre
Typ Präsenzzeit (h/Wo.)
Vorlesung 2
Übungen (ganzer Kurs) 0
Übungen (geteilter Kurs) 0
Tutorium (freiwillig) 0
Besondere Literatur
keine/none
Besondere Voraussetzungen
keine
Begleitmaterial
elektronische Vortragsfolien zur Vorlesung
Tools zur Handhabung, Analyse und Aufbereitung der Trainingsdaten
Tools zur Erstellung, Verifikation, Validierung und zum Training aller vorgestellten Neuralen Netzen
elektronische Tutorials für Selbststudium der Tools
Separate Prüfung
keine

Lernziele

Fertigkeiten
siehe Fertigkeiten, die unter "Vorlesung/Übung->Lernziele->Fertigkeiten" aufgeführt sind
komplexere Aufgaben in einem Kleinteam bewältigen
Erarbeitung von komplexeren Problemlösungen die sich mit neuronalen Netzen implementieren lassen
komplexere Problemstellungen verstehen und analysieren
Systemverhalten aus spezifizierenden Texten herleiten
System strukturiert analysieren
sinnvolle Teilsysteme erkennen
Schnittstellen zwischen Teilsystemen erfassen
Gesamtsystem auf Basis von Teilsystemes modellieren
Auswahl geeigneter bekannter Verfahren/Netze
Modifikation bekannter Verfahren
Kombination geeigneter Vefahren
Aufwand Präsenzlehre
Typ Präsenzzeit (h/Wo.)
Praktikum 2
Tutorium (freiwillig) 0
Besondere Literatur
keine/none
Besondere Voraussetzungen
keine
Begleitmaterial
elektronische Aufgabenstellung (Problembeschreibung)
Tools für Neuronale Netze
Elektronische Tutorials für Selbststudium
Handhabung der Tools
Separate Prüfung
keine

© 2022 Technische Hochschule Köln