Ładowanie...
Ładowanie...
Rola polega na projektowaniu i utrzymywaniu skalowalnych pipeline'ów danych w chmurze oraz modelach danych, głównie z użyciem PySpark i Python. Praca jest wykonywana w modelu hybrydowym (2 dni w biurze w Krakowie). Kontekst to rozwój rozwiązań data-driven dla klienta zewnętrznego – firma pełni rolę outsourcingową.
Oferta skierowana do developerów z doświadczeniem komercyjnym (Mid).
Osoba z co najmniej 2-3 letnim doświadczeniem w data engineering, która swobodnie pisze w Pythonie i PySpark, zna SQL i pracowała z przynajmniej jedną platformą chmurową. Kandydat powinien być gotowy na pracę w modelu hybrydowym i komunikację po angielsku.
Osoby szukające wyłącznie pracy zdalnej (model hybrydowy wymaga 2 dni w biurze) oraz juniorzy bez doświadczenia w PySpark i chmurze.
Międzynarodowe, oparte na współpracy środowisko pracy, gdzie data driven decisions są kluczowe.