Ładowanie...
Ładowanie...
Oferta nie zawiera opisu stanowiska. Na podstawie tytułu i wymienionych technologii (Scala, Apache Spark, SQL, Java) rola koncentruje się na budowie i utrzymaniu pipeline'ów danych, przetwarzaniu dużych zbiorów danych w środowisku rozproszonym przy użyciu Spark i Scali. Prawdopodobnie jest to stanowisko w zespole data engineering, pracującym nad platformą danych lub aplikacjami big data.
Oferta dla doświadczonych specjalistów (Senior).
Inżynier danych z minimum 3-4 letnim doświadczeniem w Scali i Spark, potrafiący samodzielnie projektować i wdrażać pipeline'y danych.
Osoby szukające pracy w pełni zdalnej lub niemające doświadczenia w Scali/Spark. Juniorzy bez ugruntowanej wiedzy w tych technologiach.