Ładowanie...
Ładowanie...
Rola polega na projektowaniu i wdrażaniu systemów przetwarzania danych (hurtownie, jeziora danych, przetwarzanie strumieniowe) w środowiskach chmurowych (Azure, AWS, GCP) przy użyciu Hadoop, Spark i Kafka. Praca w międzynarodowej firmie konsultingowej, gdzie projekty są realizowane dla różnych klientów, co oznacza zmienność technologii i domen. Codzienność to budowanie pipeline'ów ETL/ELT, optymalizacja wydajności oraz zapewnianie jakości danych.
Oferta skierowana do developerów z doświadczeniem komercyjnym (Mid).
Inżynier danych z 2-3 letnim doświadczeniem w budowie pipeline'ów ETL, podstawową znajomością ekosystemu Big Data i chęci rozwoju w kierunku chmury.
Juniorzy bez komercyjnego doświadczenia w Big Data, osoby preferujące stabilny produkt własny (zamiast projektów klienckich) oraz osoby szukające w pełni zdalnej pracy bez kontaktu z klientem.
Brakuje części pól — sprawdź szczegóły u źródła.