
P&P Solutions
Senior Data Platform Architect (GCP) – migracja hurtowni Oracle do GCP, projektowanie hybrydowej platformy danych, integracja Spark, Kubernetes, BigQuery; wymagana min. 5 lat doświadczenia w architekturze danych, praktyczna znajomość GCP, Spark, Kubernetes; praca hybrydowa w Warszawie (2‑3 dni w biurze), B2B lub umowa o pracę.
📍 Lokalizacja: Warszawa, praca hybrydowa (2-3 razy w tygodniu z Warszawskiego biura, do uzgodnienia)💰 Wynagrodzenie: do 175 PLN/h📄 Forma współpracy: B2BKlientem jest jeden z wiodących operatorów telekomunikacyjnych w Polsce, działający w ramach międzynarodowej grupy. Firma koncentruje się na innowacjach, transformacji cyfrowej oraz rozwoju nowoczesnych technologii, aby utrzymać silną pozycję rynkową.Projekt dotyczy migracji Hurtowni Danych opartej o Oracle do Google Cloud Platform (GCP).Kluczowy nacisk położony jest na projektowanie i rozwój hybrydowej platformy danych (cloud + on-premise) oraz modernizację architektury w kierunku cloud-native.Stack technologiczny Google Cloud Platform (GCP): BigQuery, Dataflow, Dataproc, Pub/Sub Apache Spark Kubernetes Hurtownie Danych (DWH) Big Data Frameworki analityczne Narzędzia do dokumentacji technicznej Zakres obowiązków: Definiowanie standardów architektonicznych i wzorców dla hybrydowych platform danych (chmura / on-premise). Projektowanie oraz integracja rozwiązań analitycznych opartych o Apache Spark, orkiestrację Kubernetes oraz usługi GCP. Współpraca z zespołami inżynieryjnymi i biznesowymi przy inicjatywach związanych z platformami analityki danych. Ustalanie i utrzymywanie najlepszych praktyk w zakresie skalowalności, niezawodności oraz utrzymania platform danych. Wsparcie projektów migracyjnych, modernizacyjnych i optymalizacyjnych. Tworzenie oraz komunikowanie dokumentacji architektury danych, wzorców integracyjnych i przepływów pracy. Ocena oraz rekomendowanie technologii i metodologii dopasowanych do potrzeb biznesowych oraz wymogów zgodności. Wsparcie zespołów w rozwiązywaniu problemów, optymalizacji wydajności i planowaniu strategicznym. Wymagania – must have Minimum 5 lat doświadczenia w architekturze lub inżynierii platform danych. Bardzo dobra, praktyczna znajomość: GCP (BigQuery, Dataflow, Dataproc, Pub/Sub) Apache Spark Kubernetes Hurtowni Danych i rozwiązań Big Data Doświadczenie w migracjach cloud-native oraz modernizacji architektur hybrydowych. Udokumentowane doświadczenie w integracji środowisk chmura / on-premise. Silne kompetencje w zakresie: projektowania systemów, tworzenia dokumentacji technicznej, współpracy z interesariuszami (biznes / IT). Mile widziane: Znajomość zagadnień data governance. Praktyczna wiedza z obszaru zaawansowanych frameworków analitycznych.
Zaloguj się, aby zobaczyć pełny opis oferty
| Opublikowana | 24 dni temu |
| Wygasa | za 2 miesiące |
| Rodzaj umowy | B2B, PERMANENT |
| Źródło |
Nie znaleziono ofert, spróbuj zmienić kryteria wyszukiwania.