SCALO
Stanowisko: Senior Data Engineer. Obowiązki: rozwój rozwiązań Data Lake/Warehouse. Wymagania: doświadczenie z Neo4j, GCP, Python, ETL. Korzyści: prywatna opieka medyczna, Multisport.
W Scalo zajmujemy się dostarczaniem projektów software'owych i wspieraniem naszych partnerów w rozwijaniu ich biznesu. Tworzymy oprogramowanie, które umożliwia ludziom dokonywanie zmian, działanie w szybszym tempie oraz osiąganie lepszych rezultatów. Jesteśmy firmą, która wykorzystuje szerokie spektrum usług IT, żeby pomagać klientom.Obszary naszego działania to m.in.: doradztwo technologiczne, tworzenie oprogramowania, systemy wbudowane, rozwiązania chmurowe, zarządzanie danymi, dedykowane zespoły developerskie.Cześć! U nas znajdziesz to, czego szukasz - przekonaj się!W Scalo czeka na Ciebie: udział w budowie i rozwoju rozwiązań klasy Data Lake oraz Data Warehouse, projektowanie oraz realizacja rozwiązań informatycznych w obszarze zasilania i przetwarzania danych, analiza danych oraz przygotowywanie modeli logicznych i fizycznych, tworzenie przepływów danych off-line i on-line z wykorzystaniem narzędzi on-premise oraz usług chmurowych Google Cloud Platform, rozwój rozwiązań do ładowania danych w Pythonie oraz Rust dla danych strukturalnych i niestrukturalnych, przygotowywanie tematycznych datamartów na bazach relacyjnych i kolumnowych, opracowywanie koncepcji oraz implementacja rozwiązań w oparciu o wymagania i potrzeby biznesowe, udział w usuwaniu incydentów oraz rozwiązywaniu problemów technicznych, wsparcie testów oraz wdrożeń zmian w obszarze procesów zasilania danych, praca w modelu hybrydowym: 1 raz w tygodniu praca z biura w Warszawie, stawka do 160 zł/h przy B2B w zależności od doświadczenia. Ta oferta jest dla Ciebie, jeśli: posiadasz praktyczne doświadczenie w pracy z Neo4j, dobrze znasz koncepcje teorii grafów oraz zasady ich wykorzystania w systemach IT, masz doświadczenie w modelowaniu grafów i optymalizacji wydajności, pracujesz w środowisku chmurowym GCP, znasz zagadnienia związane z budową pipeline’ów ETL/ELT, masz doświadczenie z technologiami event-driven, takimi jak Kafka lub Pub/Sub, rozumiesz aspekty budowy rozwiązań Big Data z wykorzystaniem GenAI, znasz Google BigQuery, programujesz w Pythonie, masz doświadczenie w pracy z narzędziami CI/CD, mile widziana znajomość: Apache Spark (preferowane GCP Dataproc), Apache Beam (preferowane GCP Dataflow), Airflow, Rust. Co dla Ciebie mamy? Stabilną współpracę i różnorodne projekty (Software, Embedded, Data, Cloud Services), możliwość rozwoju kompetencji jako Ambasador Scalo - doskonal skille techniczne i presalesowe w społeczności naszych ekspertów, wpływaj na rozwój organizacji, wspieraj innych, przestrzeń do budowania marki osobistej - twórz wartościowe treści, dziel się wiedzą i doświadczeniem, występuj jako prelegent na wydarzeniach (np. ProMeet), prywatną opiekę medyczną - Luxmed, kafeteryjny system benefitów - Motivizer, dostęp do karty Multisport, program poleceń pracowniczych z nagrodami, integracje i wydarzenia firmowe.
Zaloguj się, aby zobaczyć pełny opis oferty
| Opublikowana | 2 dni temu |
| Wygasa | za 28 dni |
| Rodzaj umowy | B2B |
| Źródło |
Nie znaleziono ofert, spróbuj zmienić kryteria wyszukiwania.