Arbeitszeit: Vollzeit
- Pipelines bauen & skalieren: Du entwickelst robuste ETL/ELT-Pipelines zur Verarbeitung großer Datenmengen aus verschiedenen Quellen
- Datenmodelle pflegen: Du sicherst die Datenqualität durch durchdachte Datenmodelle und sorgst für Konsistenz in unseren Datenstrukturen
- Integration & Sicherheit: Du bindest neue Datenquellen an – immer mit Blick auf Datenschutz und Sicherheit
- Zusammenarbeit leben: Du arbeitest eng mit Data Scientists, Analysts und Fachbereichen zusammen, um datengetriebene Lösungen zu ermöglichen
- Prozesse monitoren: Du überwachst bestehende Prozesse, behebst Probleme und optimierst die Performance kontinuierlich
- Datenzugang ermöglichen: Du dokumentierst deine Architektur und sorgst dafür, dass alle Teams auf saubere, nachvollziehbare Daten zugreifen können