Disk.jpg
 
 

Deine Aufgaben

  • Design und Implementierung verteilter Batch- und Stream-Processing Lösungen

  • Erstellen von data lakes und data pipelines

  • Entwicklung und Realisierung von Big Data Infrastrukturen

  • Gewährleistung der Datensicherheit in einer Cloud Umgebung

Dein PROFIL

  • Abgeschlossenes Informatikstudium oder langjährige Erfahrung in der Datenverarbeitung

  • Solide Programmierkenntnisse in mindestens einer prominenten Sprache, vorzugsweise Java, Scala oder Python

  • Gutes Verständnis für Softwarearchitekturen, Testen und Applikationsmonitoring

  • Praxiswissen aus der Entwicklung von Big Data Projekten

  • Ausgezeichnete Kenntnisse in relationalen Datenbanken und SQL oder No-SQL Datenbanken

  • Erfahrung mit GIT, Linux/Bash

OPTIONALe Erfahrung und Fähigkeiten

  • Verteilte Datenbank-Engines (z.B. Apache Drill, Impala)

  • Verarbeitung von großen Datenmengen oder Graph-Cluster-Computing (z.B. Apache Spark, Apache Airflow, Dask)

  • Container Technologien (z.B. Docker, Kubernetes)

  • Streaming/Event-getriebene Plattformen (z.B. Apache Kafka)

  • Idealerweise Erfahrung mit Cloud-Service (z.B. Google Cloud)

BONUS (Wähle 0 oder mehr)

  • Hast du ein aktives GitHub-Profil?

  • Betreibst Du einen Blog zum Thema Data Engineering?

Gehalt

Wir bieten ein Gehalt von 2.518 EUR brutto pro Monat basierend auf der im IT-Kollektivvertrag festgelegten Erfahrungsstufe ST1. Je nach Vorkenntnis und Berufserfahrung verhandelbar.

Über uns

Wir bauen unser Remote First-Unternehmen mit Innovation auf. Wir wollen uns kontinuierlich verbessern und unsere Arbeitsumgebung stets an die aktuellen Gegebenheiten anpassen, um auch für die kommenden Jahre gewappnet zu sein. Erfahre mehr darüber, was es bedeutet, mit uns zu arbeiten.

 

Passt das zu dir?