Bild: FH Salzburg
Praxisworkshop Data-Science in KMU
Datum
Uhrzeit
Ort
Kosten
FH Salzburg
Referent
Mit Big-Data kann man auch klein anfangen!
Data Science gewinnt zunehmend an Relevanz im Businessprozess im Zuge der Digitalisierung. Als Spezialgebiet verbindet es Elemente aus vielen bestehenden Gebieten wie Statistik, Informatik, Business Intelligence, DevOps. Durch die zunehmende Reife ist auch die Qualität und Verfügbarkeit von Werkzeugen gestiegen, so dass diese nicht mehr nur von Spezialist*innen angewendet werden können. Dieser Workshop soll Mitarbeiter*innen, welche bereits Kenntnisse im Scripting/Programmieren, der EDV oder Statistik haben, einen Praxisorientierten Einstieg in das Thema geben. Dies wird erreicht, indem moderne De-Facto Standardwerkzeuge erklärt, und mit ihnen umfängliche und praxisnahe Beispiele erarbeitet werden, welche dann direkt als Vorlagen für die eigene Arbeit dienen können.
Ein eigener Laptop auf dem Sie Admin-Rechte haben um aktuelle Software zu installieren ist erforderlich. Wenn Sie sich vorbreiten wollen, können Sie bereits Python 3.11.2 installieren (https://www.python.org/downloads/release/python-3112/). Unter Linux/Mac über Ihren Paketmanager.
In diesem Workshop lernen Sie speziell die Werkzeuge Python, Jupyter-Notebooks, Polars und div. Plotting-Bibliotheken kennen.
ECKDATEN
-
Dauer
- 09:00 – 16:00 Uhr
-
Zielgruppe
- Interessenten, die mehr zum Thema „Data Science“ erfahren möchten, sind herzlich eingeladen.
-
Termin
- Donnerstag, 30. März 2023
-
Ort
- Fachhochschule Salzburg, Urstein Süd 1, 5412 Puch/Salzburg | > Infos zur Anfahrt
-
Kosten
- kostenfrei
-
Anmeldung
- Eine Anmeldung ist bis spätestens Dienstag, 28. März erforderlich.
-
Voraussetzungen
- Ein eigener Laptop auf dem Sie Admin-Rechte haben um aktuelle Software zu installieren ist erforderlich.
Inhalt
Der Workshop umfasst alle Teile des datenbasierten Arbeitens aufgeteilt in vier Arbeitspakete:
- Daten laden, Zusammenführen und Bereinigen – Dies ist der wohl aufwändigste Schritt im Gesamten Zyklus. Daten unterschiedlicher Form müssen oft aus verschiedenen Quellen Zusammengeführt werden. Zusätzlich müssen die Daten bereinigt werden, um sie einheitlich und maschinenverständlich zu machen.
- Transformieren, Extrahieren, Visualisieren – Oftmals sind die Daten in Ihrer Grundform noch nicht direkt verwertbar bzw. wenig aussagekräftig. In diesem Falle transformieren wir die Daten und extrahieren neue Spalten aus bereits bestehenden. Danach werden erste Hypothesen über die Daten aufgestellt, indem in einem explorativen Schritt verschiedenste Visualisierungen erzeugt werden.
- Daten für die Modellierung vorbereiten und einfache Modelle anpassen – Bevor es an die Modellierung geht, müssen wir die Daten noch ein letztes mal anpassen, damit sie dem Algorithmus gefüttert werden können. Kodierung von Klassen und Skalierung von Variablen gehören dazu. Danach wird ein Modell angepasst um Vorhersagen zu einer bestimmten Fragestellung zu generieren.
- Validierung und Deployment – Dieser Teil wird angesprochen, jedoch zeitlich den Rahmen Sprengen. Die Teilnehmer*innen bekommen Hinweise, Dokumentation und Best-Practices mit auf den Weg um diese Ziele später selbst zu erarbeiten.
Programm
09:00 Uhr
Start mit Begrüßung und kurzer Vorstellung
09:30 Uhr
Set-Up Software und Einführung in Jupyter Notebooks
10:00 Uhr
Geführtes Beispiel zum Laden, Mergen und Bereinigen von Daten
12:00 Uhr
Mittagspause
12:30 Uhr
Interaktive Einführung ins Transformieren und Visualisieren. Teilnehmer*innen bearbeiten danach individuelle Fragestellungen oder aus einer vorgegebenen Menge
14:30 Uhr
Einführung in die Modellierung und begleitetes Beispiel
16:00 Uhr
Offizielles Ende mit anschl. offenem Austausch
(Kaffeepausen nach Bedarf)