Wir fördern Dein persönliches Wachstum, gemeinsamen Erfolg und neue Innovationen.
Devoteam ist ein führendes Technologieberatungsunternehmen für digitale Transformation und Cloud-Innovation. Als globaler AWS Premier Consulting Partner unterstützen wir mit über 11.000 Experten Unternehmen bei ihrer digitalen Transformation.
Unsere Data & Analytics Practice entwickelt moderne Datenarchitekturen und intelligente Geschäftslösungen. Im Data Engineering Team transformierst du komplexe Datenlandschaften und baust skalierbare Analytics-Plattformen mit AWS Cloud Services und Snowflake.
Als AWS/Snowflake Senior Data Engineer (m/w/d) wirst du zum technischen Experten und Mentor. Du realisierst komplexe Data Lake- und Warehouse-Lösungen und gestaltest die nächste Generation von Analytics-Plattformen. In enger Zusammenarbeit mit Kunden agierst du als strategischer Berater, teilst dein Wissen und entwickelst innovative, cloud-native Datenplattformen mit messbarem Geschäftserfolg. Wir suchen kreative Problemlöser, die strategisch über Datenarchitekturen nachdenken und bestehende Prozesse herausfordern.
#AI DRIVEN TECH CONSULTING
Deine Benefits
Moderne Büros in Toplage in Frankfurt und MünchenHybrid Working mit der Möglichkeit, Deine Arbeitszeiten und Arbeitsorte individuell auf Deine Bedürfnisse anzupassenUnsere Devoteam Academy bietet Dir ein großes Angebot an zertifizierten Trainings und SprachkursenInternationale Entwicklungsmöglichkeiten für Deinen Karriereboost bei DevoteamGaming-Lounge für Deine kreative Pause zwischen Meetings und CallsGet-Together Partys und Teamevents für den regelmäßigen Austausch und Spaß mit Deinen Kollleg:innenMitarbeiter:innen-Prämien beim Werben von neuen Mitarbeiter:innenModerne IT-Ausstattung - Wähle aus einer Vielzahl von Möglichkeiten das für Dich passende ProduktCorporate Benefits mit großer Auswahl an zahlreichen Angeboten für nahezu jeden BereichJobrad und Firmenwagen Angebot mit attraktiven steuerlichen Vorteilen für DichBetriebliche Altersvorsorge, Direktversicherungen und vermögenswirksame Leistungen stehen Dir als Zusatzleistungen zur VerfügungIntegration Day inkl. Mentorenprogramme für Deinen perfekten Start bei DevoteamStellenbeschreibungKEY JOB RESPONSIBILITIES
Modern Data Platform Architecture: Konzeption und Implementierung skalierender Data Lake und Data Warehouse Architekturen mit AWS Services (Redshift, Glue, EMR, Kinesis) und Snowflake als zentrale Analytics EngineData Pipeline Engineering: Entwicklung hochperformanter, fault-toleranter ELT/ETL-Pipelines mit modernen Frameworks wie Apache Spark, dbt und AWS Step Functions für komplexe DatenverarbeitungsworkflowsSnowflake Platform Optimization: Design und Implementierung von Snowflake Data Models, Performance-Tuning, Multi-Cluster Warehouses und Advanced Features wie Data Sharing und Secure Data ExchangeReal-time Analytics Solutions: Implementierung von Streaming Analytics Plattformen mit Kinesis, Kafka und Snowflake Streams für Echtzeit-Datenverarbeitung und Live-DashboardingData Integration & Migration: Planung und Durchführung komplexer Datenmigrationsprojekte von Legacy-Systemen zu modernen Cloud Data Platforms mit minimaler AusfallzeitDevOps for Data: Aufbau von DataOps-Praktiken mit Infrastructure as Code (Terraform, CloudFormation), CI/CD-Pipelines für Datenverarbeitung und automatisiertem Testing von Data PipelinesPerformance Engineering: Optimierung von Datenverarbeitungsworkflows, Query-Performance Tuning und Cost Optimization für große Datenvolumen in Cloud-UmgebungenTechnical Consulting: Beratung von Kunden bei Data Strategy, Technology Selection und Best Practices für moderne Data Governance und Compliance-AnforderungenA DAY IN THE LIFE
Dein Tag beginnt oft mit einem Review der nächtlichen Data Pipeline Runs und Performance Monitoring Dashboards, um sicherzustellen, dass alle kritischen Datenflüsse erfolgreich ausgeführt wurden. Anschließend führst du ein Stand-up mit deinem Data Engineering Team durch, um den Fortschritt aktueller Implementierungen zu besprechen und eventuelle Issues zu adressieren.
Der Vormittag wird häufig von Technical Deep-Dive Sessions mit Kunden geprägt, in denen du komplexe Datenarchitekturen designst - sei es die Modernisierung eines legacy Data Warehouses oder die Implementierung einer Real-time Analytics Plattform mit Snowflake. Dabei arbeitest du eng mit Data Scientists und Business Analysts zusammen, um sicherzustellen, dass die technische Lösung auch die fachlichen Anforderungen optimal erfüllt.
Nachmittags konzentrierst du dich auf hands-on Development Work: Du entwickelst neue dbt Models, optimierst Spark Jobs für bessere Performance oder implementierst neue Snowflake Features für erweiterte Analytics Use Cases. Ein wichtiger Teil deiner Arbeit ist auch das Code Review und Mentoring von Junior Data Engineers - du teilst deine Expertise in technischen Diskussionen und leitest Workshops zu modernen Data Engineering Patterns.
Den Tag schließt du häufig mit der Arbeit an Innovation Projekten ab, wo du neue AWS Services oder Snowflake Features evaluierst, Proof-of-Concepts für ML-Pipeline Integration entwickelst oder an der Dokumentation von Best Practices und Learnings für das Team arbeitest.
QualifikationenBASIC QUALIFICATIONS
4+ Jahre Erfahrung in Data Engineering, ETL/ELT-Entwicklung und Datenplattform-Implementierung mit AWS ServicesNachgewiesene Snowflake-Expertise in Data Modeling, Performance Optimization, Administration und Advanced FeaturesSolide AWS Data Services Kenntnisse (Redshift, Glue, EMR, Kinesis, Lambda, S3) und deren Integration in moderne DatenarchitekturenProgrammier-Expertise in Python/Scala/SQL mit Erfahrung in Spark, dbt oder vergleichbaren Data Processing FrameworksInfrastructure as Code Kenntnisse (Terraform, CloudFormation) für automatisierte Deployment von DateninfrastrukturenAusgezeichnete Kommunikationsfähigkeiten für die Zusammenarbeit mit technischen Teams und Business StakeholdernFließende Deutsch- und Englischkenntnisse für internationale Kundenprojekte und globale ZusammenarbeitPREFERRED QUALIFICATIONS
AWS und Snowflake Zertifizierungen (Data Analytics, Data Engineer, SnowPro Core/Advanced)Expertise in Real-time Data Processing mit Kafka, Kinesis oder anderen Streaming TechnologienMachine Learning Pipeline Erfahrung mit SageMaker, MLflow oder Integration von ML-Models in DatenverarbeitungsworkflowsData Governance und Compliance Kenntnisse für regulierte Branchen (GDPR, SOX, HIPAA)Container- und Orchestration-Erfahrung (Docker, Kubernetes, ECS) für containerisierte Data Processing WorkloadsIndustry-spezifische Datenmodellierungs-Erfahrung in Bereichen wie Financial Services, Retail oder ManufacturingThought Leadership durch Konferenz-Präsentationen über Data Engineering Topics oder Open-Source BeiträgeInternationale Projekterfahrung mit Multi-Region Data Architectures und globalen Compliance-AnforderungenZusätzliche InformationenMelde Dich bei unserem Recruiting Team
Durch unsere offene Unternehmenskultur legen wir großen Wert darauf, Menschen die Chance zu geben, sich zu bewerben, auch wenn nicht alle spezifischen Fähigkeiten der Stellenbeschreibung erfüllt werden. Wir sind überzeugt, dass jede:r Einzelne durch unsere Unterstützung und ein motiviertes Team sein volles Potenzial entfalten kann.
Wir freuen uns auf Deine Bewerbung!