Studiengänge >> Informatik 2024 B.Sc. >> Programmieren mit Daten |
Code: | 278200 |
Modul: | Programmieren mit Daten |
Module title: | Programming with Data |
Version: | 1.0 (06/2021) |
letzte Änderung: | 04.09.2024 |
Modulverantwortliche/r: | Prof. Dr.-Ing. ten Hagen, Klaus k.tenhagen@hszg.de |
angeboten im Studiengang: | Informatik (B.Sc.) gültig ab Matrikel 2024 |
Modul läuft im: | WiSe (Wintersemester) |
Niveaustufe: | Bachelor/Diplom |
Dauer des Moduls: | 1 Semester |
Status: | Pflichtmodul |
Lehrort: | Görlitz |
Lehrsprache: | Deutsch |
Workload* in | SWS ** | |||||||||||||||||||||||||
Zeit- std. | ECTS- Pkte |
|||||||||||||||||||||||||
* | Gesamtarbeitsaufwand pro Modul (1 ECTS-Punkt entspricht einem studentischen Arbeitsaufwand von 30 Zeitstunden) |
** | eine Semesterwochenstunde (SWS) entspricht 45 Minuten pro Woche |
Selbststudienzeit in h | ||||
Lehr- und Lernformen: | Interaktive Vorlesung Wöchentliche Konsultationen der Gruppen, welche an einem Projekt arbeiten. |
Prüfung(en) | |||
Prüfung | Prüfungsleistung als Beleg (PB) | 100.0% |
Lerninhalt: |
= Programmierung indem man Daten sammelt, ein Deep Learning Model optimiert und mit dem Modell Probleme löst = Modellierung mit Teachable Machines, Tensorflow und Keras = Experimente mit Jupyter Notebooks und https://playground.tensorflow.org/ = Supervised, Unsupervised, Reinforcement Learning und Regression = Fehler des Modells, "Loss function" = Seichte "shallow" Modelle mit Nichtlinearitäten = Abschnittsweise lineare Approximation = Zahl der Abschnitte vs Zahl der Parameter = Aktivierungsfunktionen = Tiefe "deep" Netze, d.h. Verkettung von abschnittweise linearen Modellen = Deep vs Shallow: Zahl der Abschnitte vs Parameter = Hyperparameter = Training: Modelloptimierung gegeben die Daten und Fehlerfunktion = Gradienten und der "Backpropagation" Algorithmus = Batch vs Epoch = Rauschen und der "bias-variance" Abtausch = Der Fluch der Dimensionen = Bessere Generalisierung durch Regularisierung = Netze für Bilder » Convolutional Neural Networks (CNN) = Generierung von Bildern = ChatGPT, Large Language Models & Transformer |
Lernergebnisse/Kompetenzen: | |
Fachkompetenzen: | Die Studis ... ... lösen ein Problem z.B. in der Vorhersage oder der Bilderkennung indem Daten gesammelt werden, ein Modell trainiert und dieses in die Problemlösung integriert wird. ... modellieren auf verschiedenen Ebenen von Teachable Machines bis Tensorflow. ... wählen den für das Problem geeigneten Modelltyp aus, beschreiben das Modell z.B. mit Keras, optimieren die Parameter basierend auf den Daten und bewerten das Modell. |
Fachübergreifende Kompetenzen: | Die Studis ... ... erkennen Missverständnisse zwischen Gesprächspartnern frühzeitig, argumentieren in kontroversen Diskussionen zielorientiert, gehen mit Kritik sachlich um und bauen Missverständnisse ab. ... übernehmen in Teams mit vielfältigen Hintergründen und Erfahrungen verschiedene Rollen und lösen auftretende Konflikte sachlich und zielgerichtet. ... gehen ziel- und ergebnisorientiert mit großer Beharrlichkeit vor. ... bewerten Lösungsalternativen, treffen Entscheidungen und setzen diese tatkräftig um. ... analysieren offene Fragestellungen mit Experimenten. |
Notwendige Voraussetzungen für die Teilnahme: | Das Modul ist für das dritte Semester des Bachelorstudiums Informatik konzeptiert und verlangt daher eine Vertrautheit mit der OOP Programmierung und der Organisation von Daten. |
Empfohlene Voraussetzungen für die Teilnahme: | Python und Jupyter Notebooks |
Literatur: | "Understanding Deep Learning" von Simon J. D. Prince "Hands-On Machine Learning with Scitkit-Learn, Keras & TensorFlow" von Aurelien Geron "Advanced Applied Deep Learning" von Uberto Michelucci "Computer Vision with TensorFlow 2" von Benjamin Planche & Eliot Andres "TinyML" von Pete Warden & Daniel Siunayake |