Aufgaben
- Entwicklung, Pflege und Optimierung von Datenpipelines und ETL-Prozessen
- Integration und Verarbeitung großer Datenmengen aus unterschiedlichen Quellen
- Sicherstellung der Datenqualität und -konsistenz
- Zusammenarbeit mit Data Scientists und anderen Fachbereichen zur Bereitstellung von Datenlösungen
- Unterstützung bei der Implementierung von Cloud- oder On-Premise-Datenplattformen
Profil
- Erfahrung in der Arbeit mit Python für Datenverarbeitung und Automatisierung
- Grundkenntnisse oder Erfahrung mit Apache-Technologien (z. B. Apache Spark, Kafka, Airflow)
- Verständnis für Datenbanken (SQL und NoSQL)
- Kenntnisse in Datenmodellierung und -architektur von Vorteil
- Analytisches Denken, Problemlösungsfähigkeit und Teamorientierung
Benefits
- Flexible Arbeitszeiten und die Möglichkeit für Remote-Arbeit
- Weiterbildungsmöglichkeiten und moderne Technologien
- Attraktive Vergütung und Benefits