Ładowanie...
Ładowanie...
To rola platformowa/infrastrukturalna skupiona na operacjonalizacji inferencji LLM. Będziesz odpowiadać za integrację API inferencyjnych (OpenAI, Anthropic itp.), zarządzanie Kubernetes, monitorowanie wydajności i niezawodności, a także za bezpieczeństwo i zgodność z regulacjami. Praca w modelu współdzielonej odpowiedzialności (1–2 FTE) z dyżurami on-call. Nie będziesz trenować modeli, ale zapewnisz ich stabilne działanie w produkcji.
Oferta dla doświadczonych specjalistów (Senior).
Inżynier z 5+ latami Pythona i solidnym Kubernetes, który miał styczność z LLM APIs i potrafi utrzymać serwis w produkcji. Wymagana znajomość monitorowania i umiejętność pracy w modelu współdzielonej odpowiedzialności.
Juniorzy bez doświadczenia w Kubernetes i produkcji. Osoby szukające pracy wyłącznie developerskiej (czysty kod) – tutaj duży nacisk na operacyjność i infrastrukturę. Ktoś, kto nie chce dyżurować on-call.
Zespół cross-funkcyjny, współpraca z backendem, platformą i infrastrukturą. Kładzie się nacisk na dokumentację i dzielenie się wiedzą w modelu współdzielonej odpowiedzialności.