Sicherstellung eines stabilen und effizienten Datenbetriebs durch Betrieb, Unterhalt und Optimierung bestehender Daten‑Pipelines auf Basis von MS SQL Server und komplexen Stored Procedures
Unterstützung bei der Evaluation und schrittweisen Einführung moderner Technologien (z. B. Snowflake, dbt) zur Weiterentwicklung unserer Datenlandschaft
Entwicklung und Wartung performanter Datenflüsse, inklusive Einsatz von Python zur Orchestrierung und Automatisierung
Mitarbeit beim Ausbau unserer Datenarchitektur mit Schwerpunkt auf Azure‑Services im Data‑ und Analytics‑Bereich
Enge Zusammenarbeit mit den Fachbereichen zur Übersetzung komplexer Banking‑Logiken in robuste technische Modelle
Aktive Mitgestaltung unserer digitalen Arbeitswelt sowie Einbringen eigener Ideen zur Weiterentwicklung unserer Datenstrategie
Requirements
Tiefgehende SQL‑Kenntnisse und Erfahrung mit komplexen Abfragen, Stored Procedures oder modernen Analytics‑Frameworks
Offenheit gegenüber neuen Technologien sowie idealerweise erste Erfahrung mit Snowflake
Fundierte Kenntnisse in Python zur Automatisierung und modernen Pipeline‑Orchestrierung (Dagster-Erfahrung von Vorteil)
Erfahrung im Azure‑Ökosystem, insbesondere mit Data‑ und Analytics‑Services wie Azure Data Factory, Azure SQL, Azure DevOps oder Container‑Technologien
Selbständige, verantwortungsbewusste und unternehmerisch denkende Arbeitsweise in einem kleinen, dynamischen Team
Hohe Lernbereitschaft, Veränderungsfreude und Sicherheit in der Kommunikation mit unterschiedlichen Stakeholdern
Präzise und qualitätsorientierte Arbeitsweise, insbesondere im Umgang mit sensiblen Daten aus dem Private Banking