Bild: FH Salzburg

Praxisworkshop Data-Science in KMU

Datum

Donnerstag, 30. März 2023
}

Uhrzeit

09:00 – 16:00 Uhr

Ort

Fachhochschule Salzburg, Urstein Süd 1, 5412 Puch/Salzburg

Kosten

kostenfrei
DIH West FH Salzburg Partnerlogo

FH Salzburg

Referent

Mit Big-Data kann man auch klein anfangen!

Data Science gewinnt zunehmend an Relevanz im Businessprozess im Zuge der Digitalisierung. Als Spezialgebiet verbindet es Elemente aus vielen bestehenden Gebieten wie Statistik, Informatik, Business Intelligence, DevOps. Durch die zunehmende Reife ist auch die Qualität und Verfügbarkeit von Werkzeugen gestiegen, so dass diese nicht mehr nur von Spezialist*innen angewendet werden können. Dieser Workshop soll Mitarbeiter*innen, welche bereits Kenntnisse im Scripting/Programmieren, der EDV oder Statistik haben, einen Praxisorientierten Einstieg in das Thema geben. Dies wird erreicht, indem moderne De-Facto Standardwerkzeuge erklärt, und mit ihnen umfängliche und praxisnahe Beispiele erarbeitet werden, welche dann direkt als Vorlagen für die eigene Arbeit dienen können.

Ein eigener Laptop auf dem Sie Admin-Rechte haben um aktuelle Software zu installieren ist erforderlich. Wenn Sie sich vorbreiten wollen, können Sie bereits Python 3.11.2 installieren (https://www.python.org/downloads/release/python-3112/). Unter Linux/Mac über Ihren Paketmanager.
In diesem Workshop lernen Sie speziell die Werkzeuge Python, Jupyter-Notebooks, Polars und div. Plotting-Bibliotheken kennen.

ECKDATEN

  • Dauer

  • 09:00 – 16:00 Uhr 
  • Zielgruppe

  • Interessenten, die mehr zum Thema „Data Science“ erfahren möchten, sind herzlich eingeladen.
  • Termin

  • Donnerstag, 30. März 2023
  • Ort

  • Fachhochschule Salzburg, Urstein Süd 1, 5412 Puch/Salzburg | > Infos zur Anfahrt
  • Kosten

  • kostenfrei
  • Anmeldung

  • Eine Anmeldung ist bis spätestens Dienstag, 28. März erforderlich.
  • Voraussetzungen

  • Ein eigener Laptop auf dem Sie Admin-Rechte haben um aktuelle Software zu installieren ist erforderlich.

Inhalt

Der Workshop umfasst alle Teile des datenbasierten Arbeitens aufgeteilt in vier Arbeitspakete:

  • Daten laden, Zusammenführen und Bereinigen – Dies ist der wohl aufwändigste Schritt im Gesamten Zyklus. Daten unterschiedlicher Form müssen oft aus verschiedenen Quellen Zusammengeführt werden. Zusätzlich müssen die Daten bereinigt werden, um sie einheitlich und maschinenverständlich zu machen.
  • Transformieren, Extrahieren, Visualisieren – Oftmals sind die Daten in Ihrer Grundform noch nicht direkt verwertbar bzw. wenig aussagekräftig. In diesem Falle transformieren wir die Daten und extrahieren neue Spalten aus bereits bestehenden. Danach werden erste Hypothesen über die Daten aufgestellt, indem in einem explorativen Schritt verschiedenste Visualisierungen erzeugt werden.
  • Daten für die Modellierung vorbereiten und einfache Modelle anpassen – Bevor es an die Modellierung geht, müssen wir die Daten noch ein letztes mal anpassen, damit sie dem Algorithmus gefüttert werden können. Kodierung von Klassen und Skalierung von Variablen gehören dazu. Danach wird ein Modell angepasst um Vorhersagen zu einer bestimmten Fragestellung zu generieren.
  • Validierung und Deployment – Dieser Teil wird angesprochen, jedoch zeitlich den Rahmen Sprengen. Die Teilnehmer*innen bekommen Hinweise, Dokumentation und Best-Practices mit auf den Weg um diese Ziele später selbst zu erarbeiten.

Programm

09:00 Uhr
Start mit Begrüßung und kurzer Vorstellung

09:30 Uhr
Set-Up Software und Einführung in Jupyter Notebooks

10:00 Uhr
Geführtes Beispiel zum Laden, Mergen und Bereinigen von Daten

12:00 Uhr
Mittagspause

12:30 Uhr
Interaktive Einführung ins Transformieren und Visualisieren. Teilnehmer*innen bearbeiten danach individuelle Fragestellungen oder aus einer vorgegebenen Menge

14:30 Uhr
Einführung in die Modellierung und begleitetes Beispiel

16:00 Uhr
Offizielles Ende mit anschl. offenem Austausch

(Kaffeepausen nach Bedarf)