Aufgaben
- Du unterstützt aktiv beim Inhousing der AWS Data Platform im Data Mesh-Ansatz
- Die Verantwortung für die Bereitstellung von Features und Services für unsere AWS Datenplattform liegt in deinen Händen
- Du bringst einen starken Fokus auf die Entwicklung mit und hast gleichzeitig ein ausgeprägtes Verständnis für Operations
- Die Weiterentwicklung unserer Master Data Infrastruktur zur Abrechnungsautomatisierung treibst du voran
- Du entwickelst und optimierst kontinuierlich unsere Infrastructure as Code (IaC) mit Pulumi und Self-Service Funktionalitäten in Backstage
- Automatisierungsskripte und Tools in Python entwickelst du, um die Effizienz zu steigern – insbesondere im Bereich Self-Service Automation und Billing End-to-End Automation
- Du implementierst und wartest CI/CD-Pipelines mit GitHub
- Die Integration von KI-Komponenten gestaltest du aktiv mit, beispielsweise durch die Bereitstellung von Sagemaker Unified Studio auf Konzernebene
-
Du gewährleistest höchste Sicherheits- und Compliance-Standards, indem du Security Guidelines und Data Protection Maßnahmen gemäß AWS Best Practices und Mercedes-Benz Richtlinien implementierst und optimierst
Profil
- Fundierte AWS-Expertise: Du verfügst über fundierte Erfahrung mit AWS, idealerweise belegt durch entsprechende Zertifikate
- Du besitzt tiefgehende Kenntnisse in Services wie EC2, S3, RDS, Lambda und IAM, inklusive der Nutzung von Mercedes-Benz-Lösungen wie Alice
- Infrastructure as Code (IaC): Du hast umfassende Expertise mit Pulumi und nutzt es gekonnt zur Erstellung, Bereitstellung und Verwaltung wiederverwendbarer und skalierbarer IaC-Module
- Automatisierung & Scripting: Du hast praktische Erfahrung in Python für die Entwicklung von Automatisierungslösungen, die du gekonnt mit AWS SDKs und APIs verbindest
- CI/CD-Pipelines: Du besitzt umfassende Expertise in der Konzeption, Implementierung und Wartung von CI/CD-Pipelines mit GitHub Actions
- Monitoring & Sicherheit: Du hast exzellente Kenntnisse in AWS CloudWatch für Monitoring und Logging sowie ein umfassendes Verständnis der AWS-Sicherheitsbestimmungen und Compliance-Frameworks zur effektiven Implementierung von Datenschutzmaßnahmen und souveränen Fehlerbehebung
- Technologie-Stack: Du bist versiert im Umgang mit Databricks, Python ist für dich eine zweite Sprache und du hast Erfahrung in der API-Entwicklung
- Kenntnisse in Go und Typescript sind ein Pluspunkt. Zudem bist du mit Backstage, Kubernetes und MeshCDK vertraut
- Soft Skills: Du zeichnest dich durch ausgezeichnete Kommunikationsfähigkeiten, eine hohe Organisationsfähigkeit und Anpassungsfähigkeit aus
- Internationales Umfeld: Du bist in der Lage, effektiv in einem internationalen Umfeld zu arbeiten
- On Top: Eine AWS Certified DevOps Engineer Zertifizierung oder eine vergleichbare Qualifikation ist für dich von Vorteil
- Erfahrungen mit Data Mesh Architekturen sind wünschenswert
Benefits
- Anspruchsvolle und abwechslungsreiche Aufgaben in einer zukunftsträchtigen und innovativen Branche
- Ein hoch motiviertes Team und ein offener Kommunikationsstil