Inżynier MLOps
Numer referencyjny: MLO/F
Lokalizacje:
Kraków, Katowice, Kielce
Dołącz do naszego zespołu na stanowisku Inżynier MLOps i stań się kluczowym architektem systemów Machine Learning! Poszukujemy osoby z minimum 2-3 letnim doświadczeniem (DevOps, Platform Engineer lub SRE) z zaawansowaną znajomością Kubernetesa i Dockera, a także płynnie posługującą się narzędziami IaC. Bardzo ważna jest dla nas również zdolność do swobodnej obsługi instastruktury sprzętowej CPU/TPU/GPU wspierającej obliczeniowo modele AI.
Jeśli chcesz rozwijać się wśród ekspertów AI, doskonalić swoje umiejętności i mieć realny wpływ na produkty używane przez globalne banki – dołącz do nas!
Profil pracownika
- Wykształcenie wyższe (preferowane informatyczne)
- Minimum 1-2 lata doświadczenia na stanowisku DevOps Engineer, Platform Engineer, SRE lub podobnym
- Doświadczenie z narzędziami Infrastructure as Code (IaC), zwłaszcza z Terraform oraz w budowaniu i zarządzaniu pipeline'ami CI/CD (np. GitLab CI, Jenkins, GitHub Actions)
- Dobra znajomość co najmniej jednego dostawcy chmury publicznej (AWS, Azure lub GCP)
- Praktyczna, zaawansowana znajomość Dockera i Kubernetes
- Umiejętność pisania skryptów i automatyzacji w języku Python i/lub Bash czy HCL
- Rozumienie cyklu życia modeli ML i narzędzi do hostowania modeli. Znajomość KServe, vLLM, NVIDIA Triton Inference Server będzie dodatkowym atutem
- Dobra znajomość języka angielskiego (poziom min. B2)
- Umiejętność pracy w zespole i skuteczne zarządzanie czasem oraz priorytetami
- Analityczne myślenie i nastawienie na realizację celów
- Mile widziane doświadczenie z dedykowanymi platformami MLOps (Kubeflow, MLflow) i/lub praktyka w pracy z narzędziami do monitoringu (Prometheus, Grafana, ELK Stack lub/i OpenTelemetry)
Twoje zadania
- Projektowanie i budowa pipeline'ów CI/CD dla Machine Learningu, automatyzacja procesów testowania, trenowania, walidacji i wdrażania modeli
- Zarządzanie infrastrukturą AI, budowa i utrzymanie skalowalnych środowisk do trenowania oraz serwowania modeli z wykorzystaniem Dockera i Kubernetes
- Definiowanie i zarządzanie zasobami chmurowymi za pomocą narzędzi takich jak Terraform lub CloudFormation
- Tworzenie systemów do monitorowania wydajności modeli, wykrywania dryftu danych (data/concept drift) i alertowania w czasie rzeczywistym (np. przy użyciu Prometheus, Grafana)
- Wdrażanie narzędzi do wersjonowania modeli, danych i eksperymentów (np. MLflow, DVC)
- Bliska współpraca z ML Engineerami i Data Scientistami w celu definiowania najlepszych praktyk produkcyjnych
Dla Ciebie
- Możliwość tworzenia funkcjonalności AI dla produktu używanego przez globalne banki
- Pracujemy z najnowszymi narzędziami i nie boimy się eksperymentować
- Dostęp do szkoleń, konferencji, wewnętrznych warsztatów oraz praca z ekspertami w dziedzinie AI i FinTech
- Praca w modelu hybrydowym po okresie wdrożenia (60% stacjonarnie, 40% zdalnie)
- Dostęp do prywatnej opieki medycznej dla Ciebie i Twojej rodziny
- Możliwość udziału w akcjach i wydarzeniach promujących aktywny tryb życia
- Możliwość udziału w wydarzeniach sportowych, spotkaniach integracyjnych i akcjach społecznych – bo wspólnie możemy więcej!