
NATEK
Data Engineer – praca w biurze (1 raz na kwartał) i zdalnie, projekt bankowy: rozwój warstwy danych, migracja do Databricks, budowa i optymalizacja procesów ETL, integracja API, RabbitMQ/Kafka, batch. Wymagane ≥3 lata doświadczenia w Data Engineering, Python, SQL, PySpark, Databricks, ETL, komunikacja z biznesem. Benefity: program mobilności, polecenia, klub NATEK, CSR, kafeteria, opieka medyczna, Multisport, szkolenia, kursy językowe, ubezpieczenie na życie, bonusy, dzień wolny na wolontariat.
Lokalizacja | Wrocław | praca w biurze 1 raz na kwartałO projekcieDołącz do Natek jako Data Engineer i wesprzyj projekt dla jednej z czołowych instytucji bankowych, którego celem jest rozwój centralnej warstwy danych oraz budowa i migracja procesów ETL integrujących informacje z wielu źródeł. Będziesz pracować nad rozszerzaniem istniejącej architektury o nowe źródła danych, wspierać migrację do Databricks oraz odgrywać kluczową rolę w procesach zasilających aplikacje biznesowe.Zakres obowiązków Prowadzenie procesu integracji danych end-to-end: od zebrania i zrozumienia potrzeby biznesowej, przez analizę źródeł, aż po implementację i wpięcie danych w proces zasilania. Projektowanie, rozwój i optymalizacja procesów ETL. Parsowanie danych i praca z dużymi zbiorami informacji. Integracja z różnorodnymi źródłami danych: API, kolejki (RabbitMQ/Kafka), batch. Wspieranie migracji procesów do Databricks / PySpark. Ścisła współpraca z biznesem i innymi jednostkami. Wymagania Minimum 3 lata doświadczenia w obszarze Data Engineering. Bardzo dobra komunikatywność oraz umiejętność współpracy z biznesem. Samodzielność w prowadzeniu pełnego procesu ETL end-to-end – od analizy wymagań, przez projekt, implementację, aż po wdrożenie. Silne umiejętności analityczne oraz doświadczenie w tworzeniu analiz biznesowych. Doświadczenie we wdrażaniu produktów end-to-end i koordynacji tematów między jednostkami. Zaawansowane umiejętności w zakresie Python. Zaawansowane umiejętności w zakresie SQL (PL/SQL / Teradata). Zaawansowane umiejętności w zakresie projektowania i budowy procesów ETL. Zaawansowane umiejętności w zakresie pracy z PySpark oraz Databricks. Umiejętność integrowania danych z różnych źródeł (API, kolejki RabbitMQ /Kafka, batch). Umiejętność parsowania i przetwarzania dużych zbiorów danych. Mile widziane Doświadczenie w budowie lub rozwoju aplikacji. Znajomość RabbitMQ. Znajomość zasad projektowania architektur danych oraz orkiestracji procesów. Doświadczenie z rozwiązaniami chmurowymi (Azure/AWS/GCP). Benefity Program Mobilności Wewnętrznej – ciesz się wieloma możliwościami rozwoju kariery, rotacją stanowisk, różnorodnością projektów i technologii Program Poleceń – ciesz się współpracą ze swoimi kolegami i otrzymaj bonus! Klub NATEK 5/10 lat – oferujemy długoterminową współpracę i świętujemy każdą piątą rocznicę współpracy prezentami Wydarzenia CSR NATEK i budowanie zespołów – ciesz się naszymi wartościami: odpowiedzialnością, partnerstwem i wiedzą specjalistyczną oraz #workITwithus Kafeteria Opieka medyczna Karta Klubu Multisport Szkolenia techniczne i personalne Kursy językowe Dodatkowo tylko dla UOP: Ubezpieczenie na życie Bonusy za wydarzenia personalne Dzień wolny na wolontariat
Zaloguj się, aby zobaczyć pełny opis oferty
| Opublikowana | około miesiąc temu |
| Wygasa | za około 2 miesiące |
| Rodzaj umowy | B2B, PERMANENT |
| Źródło |
Nie znaleziono ofert, spróbuj zmienić kryteria wyszukiwania.