Machine Learning - Data Science und künstliche Intelligenz (TDE-KIML)

Die Themen Data Science, künstliche Intelligenz und Machine Learning bilden heute das Rückgrat jeder IoT- oder Digitalisierungslösung, versteckt sich dahinter doch die eigentliche Wertschöpfung. Dieses Training gibt einen Einblick, nach welchen Methoden und mit welchen Technologien digitale Daten aufbereitet, analysiert und für eine selbstlernende Business-Optimierung genutzt werden können. Der Kurs ist an den Erfordernissen der Industrie ausgerichtet und mit vielen interaktiven Übungen versehen, die sowohl für den direkten Anwender als auch den Entscheider aufbereitet sind. Somit wird ein fundierter sowie breiter Einstieg in die Bereiche künstliche Intelligenz und Machine Learning ermöglicht. Dabei werden die benötigten Kernkompetenzen für die Ausarbeitung neuer oder Bewertung bestehender Konzepte vermittelt und der Praxisbezug hergestellt.


Kursinhalt

  • Einführung Data Science, Machine Learning und Künstliche Intelligenz
  • Grundlagen Python rund um Datenverarbeitung, Statistik und Datenvisualisierung
  • Machine Learning Workflow
  • Lernszenarien und ihre Einsatzgebiete (u. a. Predictive Analytics, Bots,  Empfehlungsdienste)
  • Machine Learning Methoden im Vergleich (vom Decision Tree bis hin zu Deep Learning)- Künstliche neuronale Netze- Entscheidungsbäume- Support Vector Machines - Clustering
  • Modelle richtig bewerten und validieren
  • Überblick an Software und Tools
  • Anwendungs- und Praxisbeispiele (Was ist Hype und was hat Potential?)
  • Fragen und Ängste im gesellschaftlichen Kontext
  • durchgehende, interaktive Hands-On mit Übungen


Zielgruppe

Der Kurs wendet sich an IT-affine Teilnehmer (vom Anwender bis hin zum Entscheider), die einen breiten Einstieg in die Themen Data Science, künstliche Intelligenz und Machine Learning für die Anwendung suchen.


Voraussetzungen

Die Teilnehmer sollten ein Verständnis und Interesse an den Trendthemen Digitalisierung, Big Data und IoT mitbringen. Grundlegende Programmierkenntnisse sind von Vorteil.

Details anzeigen


Inhaltsverzeichnis

1 Machine Learning im Überblick

  • 1.1 Was ist Machine Learning?
    • 1.1.1 Schon wieder Statistik
    • 1.1.2 Die Zeit ist reif.
    • 1.1.3 Künstliche Intelligenz
  • 1.2 Aktuelle Beispiele
    • 1.2.1 AlphaGo
    • 1.2.2 Spracherkennung
    • 1.2.3 Online-Shopping

   

2 Machine Learning von A bis Z

  • 2.1 Intro und Motivation
  • 2.2 Grundlagen am Beispiel
    • 2.2.1 Vorbereitung der Daten
    • 2.2.2 Feature-Extraction
    • 2.2.3 Feature Engineering
    • 2.2.4 Training
    • 2.2.5 Performance
    • 2.2.6 Optimierung
    • 2.2.7 Validierung
  • 2.3 Zusammenfassung

   

3 Deskriptive Statistik

  • 3.1 Intro und Motivation
    • 3.1.1 Survivorship Bias und die Excel-Frage
  • 3.2 Grundlagen und Hands-On
  • 3.3 Python - die Grundlagen
    • 3.3.1 Scientific Computing in Python mit numpy und pandas
    • 3.3.2 Datenvisualisierung in Python mit matplotlib
  • 3.4 Grundlagen der Statistik
    • 3.4.1 Verteilungen
    • 3.4.2 Zentralwerte
    • 3.4.3 Klassenbildung
    • 3.4.4 Korrelationen
  • 3.5 Zusammenfassung

   

4 Anpassungen und Minimierungen

  • 4.1 Intro und Motivation
    • 4.1.1 Häufige Verteilungen
    • 4.1.2 Normalverteilungen und Fits
    • 4.1.3 Erwartungen und Erfahrungen
  • 4.2 Fitmethoden
    • 4.2.1 Die Methode der kleinsten Quadrate
    • 4.2.2 Likelihood Fits
  • 4.3 Fits bewerten
    • 4.3.1 Goodness of Fit
    • 4.3.2 Viele Dimensionen
    • 4.3.3 Bias-Variance-Dilemma und Overfitting
    • 4.3.4 Fitergebnisse richtig interpretieren
  • 4.4 Materie-Antimaterie-Asymmetrie
  • 4.5 Zusammenfassung

   

5 Lernszenarien und Aufgabenstellung

  • 5.1 Intro und Motivation
  • 5.2 Lernszenarien
    • 5.2.1 Supervised Learning
    • 5.2.2 Unsupervised Learning
    • 5.2.3 Reinforcement Learning
  • 5.3 Aufgabenstellung
  • 5.4 Was gibt es sonst noch?
  • 5.5 Zusammenfassung

   

6 Vorbereitung der Daten

  • 6.1 Intro und Motivation
  • 6.2 Grundlagen: Features und Merkmale
  • 6.3 Bereinigung der Daten
    • 6.3.1 Ausreißer
    • 6.3.2 Expertenwissen
  • 6.4 Feature Engineering
    • 6.4.1 Encoding
    • 6.4.2 Runden, Diskretisierung
  • 6.5 Feature Selection
    • 6.5.1 Korrelationen
    • 6.5.2 Reduzierung
  • 6.6 Zusammenfassung

   

7 Von Bäumen und Netzen

  • 7.1 Intro und Motivation
  • 7.2 Abgrenzung zwischen Bäumen und Netzen
    • 7.2.1 Entscheidungsbaum
    • 7.2.2 Random Forest
    • 7.2.3 Perceptron
    • 7.2.4 Multi Layer Perceptron
    • 7.2.5 Abgrenzung zum Deep Learning
  • 7.3 Klassifizierung von Murmeln
    • 7.3.1 Manuelle Trennung
    • 7.3.2 Aufbau der Daten-Pipeline
    • 7.3.3 K-Means
    • 7.3.4 Random Forest
    • 7.3.5 Multi-Layer-Perceptron
    • 7.3.6 Features
  • 7.4 Zusammenfassung

   

8 Validierung und Performance

  • 8.1 Intro und Motivation
  • 8.2 Performanceanalyse
    • 8.2.1 Vorhersagewahrscheinlichkeiten
    • 8.2.2 Falsch Positive - Fall-Out
    • 8.2.3 Auch auf die Sensitivity kommt es an.
    • 8.2.4 Confusion Matrix
    • 8.2.5 Abgeleitete Kennzahlen und Raten
    • 8.2.6 ROC und AUC
  • 8.3 Validierungsbeispiele
    • 8.3.1 Train-Test-Split
    • 8.3.2 K-Faltigkeiten
    • 8.3.3 Kreuzvalidierung
  • 8.4 Zusammenfassung

   

9 Anwendungen und Praxisbeispiele

  • 9.1 Chatbots
    • 9.1.1 Was ist ein Chatbot?
    • 9.1.2 Weitere Bot-Typen
    • 9.1.3 Turing-Test
    • 9.1.4 Funktionsweise
    • 9.1.5 Die bekanntesten Chat-Bots
  • 9.2 Empfehlungsdienste
    • 9.2.1 Was ist ein Empfehlungssystem?
    • 9.2.2 Einflussgrößen
    • 9.2.3 Beispiele
    • 9.2.4 Der Netflix-Preis
  • 9.3 Bilderkennung
    • 9.3.1 Bilderkennung für das autonome Fahren
    • 9.3.2 Medizinische Bilderkennung
    • 9.3.3 Ausblick
  • 9.4 Industrielle Anwendung und Herausforderung
    • 9.4.1 Predictive Maintenance
    • 9.4.2 Predictive Quality
  • 9.5 Natural Language Processing
    • 9.5.1 Schrifterkennung
    • 9.5.2 Syntaktische Aufgaben
    • 9.5.3 Semantische Aufgaben
    • 9.5.4 Weitere Anwendungsfelder
    • 9.5.5 Techniken am Beispiel Sentimentanalyse

   

10 ML-Methoden im Vergleich

  • 10.1 Intro und Motivation
  • 10.2 Neue ML-Modelle
    • 10.2.1 Support Vector Machines
    • 10.2.2 K-Nearest Neighbors
    • 10.2.3 Clustering-Methoden
  • 10.3 Testdatensätze
    • 10.3.1 Entscheidungsbaum
    • 10.3.2 Multi Layer Perceptron (MLP)
    • 10.3.3 Deep MLP
    • 10.3.4 K-Nearest Neighbors
    • 10.3.5 Support Vector Machines
    • 10.3.6 K-Means
    • 10.3.7 Gaussian Mixture
    • 10.3.8 DBSCAN
  • 10.4 Zusammenfassung

   

11 Software und Tools

  • 11.1 Intro und Motivation
  • 11.2 Machine Learning as a Service
  • 11.3 Machine Learning in Python
    • 11.3.1 Weitere Pakete
  • 11.4 Andere Frameworks
    • 11.4.1 Weitere Open Source Frameworks
    • 11.4.2 Proprietäre Lösungen
  • 11.5 Zusammenfassung

   

12 Gesellschaftliche Aspekte

  • 12.1 Intro und Motivation
  • 12.2 Anreize für eine Diskussion
  • 12.3 Robotergesetze
  • 12.4 Biased Data und Potentiale
  • 12.5 Technologische Singularität und die großen Fragestellungen
  • 12.6 Unterstützen statt Ersetzen
  • 12.7 Datenschutz und Privacy
  • 12.8 Das Lernen