Ładowanie...
Ładowanie...

To rola senior Big Data Developera/Data Engineera, który będzie projektować i rozwijać systemy przetwarzania dużych wolumenów danych w ekosystemie Hadoop, głównie przy użyciu Spark (PySpark). Codzienna praca obejmuje tworzenie pipeline'ów ETL/ELT, integrację danych z wielu źródeł oraz udział w migracji do chmury GCP. Mimo że w danych strukturalnych widnieje tryb 'remote', ogłoszenie wspomina o hybrydzie z 2 dniami w biurze w Warszawie miesięcznie – warto to wyjaśnić.