Design und Implementierung von Daten-pipelines, -speicherung und -verarbeitungslösungen
Sicherstellung der Skalierbarkeit, Sicherheit und Verfügbarkeit der Dateninfrastruktur
Enge Zusammenarbeit mit Datenarchitekten und funktionsübergreifenden Teams, um Fachbereichsanforderungen zu verstehen und datengetriebene Lösungen zu entwickeln
Kommunikation und Arbeit in einem internationalen Umfeld
Ihre Qualifikationen:
Ausgeprägte Kenntnisse in Programmiersprachen wie Python, Java oder C# und SQL
Erfahrung mit ETL- und ELT-Prozessen
Vertiefte Kenntnisse in den Bereichen Data Warehousing, Data Pipeline und Datenverarbeitungstechnologien
Starke Problemlösungs- und Analysefähigkeiten
Erfahrung mit Cloud-Plattformen wie z.B. Azure sowie- Erfahrung mit Big-Data-Technologien wie Hadoop, Spark oder Erfahrung mit DevOps-Methoden (z.B. CI/CD) und -Tools