Deine Aufgaben
Design und Implementierung verteilter Batch- und Stream-Processing Lösungen
Erstellen von data lakes und data pipelines
Entwicklung und Realisierung von Big Data Infrastrukturen
Gewährleistung der Datensicherheit in einer Cloud Umgebung
Dein PROFIL
Abgeschlossenes Informatikstudium oder langjährige Erfahrung in der Datenverarbeitung
Solide Programmierkenntnisse in mindestens einer prominenten Sprache, vorzugsweise Java, Scala oder Python
Gutes Verständnis für Softwarearchitekturen, Testen und Applikationsmonitoring
Praxiswissen aus der Entwicklung von Big Data Projekten
Ausgezeichnete Kenntnisse in relationalen Datenbanken und SQL oder No-SQL Datenbanken
Erfahrung mit GIT, Linux/Bash
OPTIONALe Erfahrung und Fähigkeiten
Verteilte Datenbank-Engines (z.B. Apache Drill, Impala)
Verarbeitung von großen Datenmengen oder Graph-Cluster-Computing (z.B. Apache Spark, Apache Airflow, Dask)
Container Technologien (z.B. Docker, Kubernetes)
Streaming/Event-getriebene Plattformen (z.B. Apache Kafka)
Idealerweise Erfahrung mit Cloud-Service (z.B. Google Cloud)
BONUS (Wähle 0 oder mehr)
Hast du ein aktives GitHub-Profil?
Betreibst Du einen Blog zum Thema Data Engineering?
Gehalt
Wir bieten ein Gehalt von 2.518 EUR brutto pro Monat basierend auf der im IT-Kollektivvertrag festgelegten Erfahrungsstufe ST1. Je nach Vorkenntnis und Berufserfahrung verhandelbar.
Über uns
Wir bauen unser Remote First-Unternehmen mit Innovation auf. Wir wollen uns kontinuierlich verbessern und unsere Arbeitsumgebung stets an die aktuellen Gegebenheiten anpassen, um auch für die kommenden Jahre gewappnet zu sein. Erfahre mehr darüber, was es bedeutet, mit uns zu arbeiten.