Maschinelles Lernen
PDF Lehrveranstaltungsverzeichnis English Version: ML
Version: 1 | Letzte Änderung: 23.09.2019 12:26 | Entwurf: 0 | Status: vom verantwortlichen Dozent freigegeben
Langname | Maschinelles Lernen |
---|---|
Anerkennende LModule | ML_BaTIN |
Verantwortlich |
Prof. Dr. Lothar Thieling
Professor Fakultät IME |
Gültig ab | Wintersemester 2022/23 |
Niveau | Bachelor |
Semester im Jahr | Wintersemester |
Dauer | Semester |
Stunden im Selbststudium | 78 |
ECTS | 5 |
Dozenten |
Prof. Dr. Lothar Thieling
Professor Fakultät IME |
Voraussetzungen | Grundlagen der Programmierung in Java oder C Grundlagen der Analysis und Linearen Algebra |
Unterrichtssprache | deutsch |
separate Abschlussprüfung | Ja |
Géron, Aurélien, Hands-On Machine Learning with Scikit-Learn and TensorFlow, O'Reilly Medi |
Details | Die Studierenden sollen in einer mündlichen Prüfung folgende Kompetenzen nachweisen: 1.) Sicherer Umgang mit grundlegenden Begrifflichkeiten, Mechanismes und Konzepten. 2.) Problemstellungen aus dem Bereich des Maschinellen Lernens analysieren und mit passenden Methoden lösen können. 3.) Vorliegende Problemlösungen analysieren und die dabei verwendeten algorithmischen und theoretischen Grundlagen erklären können. |
---|---|
Mindeststandard | Mindestens 50% der möglichen Gesamtpunktzahl. |
Prüfungstyp | mündliche Prüfung, strukturierte Befragung |
Zieltyp | Beschreibung |
---|---|
Kenntnisse | Allgemeine Grundlagen Arten des Lernens Einfachste Klassifikatoren (Quader, Minimum-Distance, Nearest Neighbour) Einfacher Predictor (Ausgleichsgerade alias Lineare Regression) Herausforderungen beim Lernen Lineare Regression als einfachster Predictor Lineare Regression als einfachster Klassifikator Trainingsdaten (Handhabung, Analyse, Aufbereitung) Gradientenabstiegsverfahren Qualitätsmaße Lernkurve Multi-Class-Klassifikator auf Basis binärer Klassifikatoren Klassifikation mit mehreren Labels und/oder Ausgaben Logistische Regression |
Kenntnisse | Einfache neuronale Netze Das künstliche Neuron als einfachster Klassifikator Arbeitsweise Aufgabe der Aktivierungsfunktion Aufgabe des Bias Training eines Neurons Multi-Layer-Perceptron Aufbau Aufgabe der Layer Backpropagation-Trainingsalgorithmus Tools zur Erstellung und zum Training einfacher Neuronaler Netze und zum Handling der Trainingsdaten Handhabung, Analyse und Aufbereitung der Trainingsdaten Erstellen und konfiguration neuronaler Netze Training neuronaler Netze Verifikation trainierter Netze |
Kenntnisse | Deep Neural Networks Prinzipielle Probleme die sich gegenüber einfachen Neuronalen Netzen ergeben schwindende oder explodierende Gradienten hohe Trainingszeiten Übertrainieren Lösungsansätze für die o.g. Probleme geeignete Initialisierung der Gewichte, nicht sättigende Aktivierungsfunktion, Gradient Clipping beschleunigte Optimierungsverfahren, Wiederverwendung vortrainierter Schichten Regularisierung zur Vermeidung des Übertranierens Tools zur Erstellung und zum Training von Deep Neural Networks Handhabung, Analyse und Aufbereitung der Trainingsdaten Erstellen und konfiguration neuronaler Netze Training neuronaler Netze Verifikation und Validierung trainierter Netze |
Kenntnisse | Convolutional Neural Networks (CNNs) Idee Aufbau Convolutional Layer Pooling Layer Faltungsoperator als grundlegender Implementierungsoperator für Training und Erkennung Architekturen von CNNs für verschiedene Problemstellungen Tools zur Erstellung und zum Training von CNNs |
Kenntnisse | Rekurrente Neuronale Netze (RNN) Idee Rekurrente Neuronen Training von RNNs und Deep RNNs Long Short Term Memory (LSTM) Architekturen von RNNs für verschiedene Problemstellungen Tools zur Erstellung und zum Training von deep CNNs |
Fertigkeiten | Die vorgestellten neuronalen Netze angeben beschreiben hinsichtlich der Einsatzfelder abgrenzen hinsichtlich der Vor- und Nachteile bewerten Lösung von Problemstellungen unter Verwendung von Tools zur Handhabung, Analyse und Aufbereitung der Trainingsdaten zur Erstellung, Verifikation, Validierung und zum Training aller vorgestellten Neuralen Netzen |
Typ | Präsenzzeit (h/Wo.) |
---|---|
Vorlesung | 2 |
Übungen (ganzer Kurs) | 0 |
Übungen (geteilter Kurs) | 0 |
Tutorium (freiwillig) | 0 |
keine |
Begleitmaterial |
elektronische Vortragsfolien zur Vorlesung, Tools zur Handhabung, Analyse und Aufbereitung der Trainingsdaten Tools zur Erstellung, Verifikation, Validierung und zum Training aller vorgestellten Neuralen Netzen, elektronische Tutorials für Selbststudium der Tools |
---|---|
Separate Prüfung | Nein |
Zieltyp | Beschreibung |
---|---|
Fertigkeiten | siehe Fertigkeiten, die unter "Vorlesung/Übung->Lernziele->Fertigkeiten" aufgeführt sind |
Fertigkeiten | komplexere Aufgaben in einem Kleinteam bewältigen |
Fertigkeiten | Erarbeitung von komplexeren Problemlösungen die sich mit neuronalen Netzen implementieren lassen komplexere Problemstellungen verstehen und analysieren Systemverhalten aus spezifizierenden Texten herleiten System strukturiert analysieren sinnvolle Teilsysteme erkennen Schnittstellen zwischen Teilsystemen erfassen Gesamtsystem auf Basis von Teilsystemes modellieren Auswahl geeigneter bekannter Verfahren/Netze Modifikation bekannter Verfahren Kombination geeigneter Vefahren |
Typ | Präsenzzeit (h/Wo.) |
---|---|
Praktikum | 2 |
Tutorium (freiwillig) | 0 |
keine |
Begleitmaterial |
elektronische Aufgabenstellung (Problembeschreibung), Tools für Neuronale Netze, Elektronische Tutorials für Selbststudium Handhabung der Tools |
---|---|
Separate Prüfung | Nein |
© 2022 Technische Hochschule Köln