Scalo
Czym będziesz się zajmować? uczestnictwo w projekcie dot. branży finansowej. Wykorzystywany stos technologiczny: Scala, Apache Spark, SQL/HQL, Airflow, Control-M, Jenkins, GitHub, Hive, Databricks, Azure, AWS S3,tworzenie kompleksowych procesów ETL z wykorzystaniem Spark/Scala – obejmujących transfer danych do/z Data Lake, walidacje techniczne oraz implementację logiki biznesowej,dokumentowanie tworzonych rozwiązań w narzędziach takich jak: JIRA, Confluence czy ALM,weryfikacja jakości dostarczanego rozwiązania – projektowanie i przeprowadzanie testów integracyjnych, zapewniających jego poprawne działanie i zgodność z innymi komponentami,praca w modelu hybrydowym: 1-2 razy w tygodniu praca z biura w Warszawie,stawka do 180zł/h przy B2B w zależności od doświadczenia.
Kogo poszukujemy? masz co najmniej 7 lat doświadczenia w programowaniu,przez minimum 3 lata pracujesz z technologiami Big Data, najlepiej Spark i Scala,znasz podejście Agile/Scrum,korzystasz z narzędzi Continuous Integration – Git, GitHub, Jenkins,swobodnie posługujesz się SQL,komunikujesz się w języku angielskim na poziomie minimum B2,dodatkowym atutem będzie: doświadczenie z technologiami frontendowymi: React, TypeScript, Next.js, Qlik, umiejętność pisania skryptów w Bash, znajomość narzędzia Control-M, znajomość Docker, Kubernetes, AWS S3, Azure, AWS.
Opublikowana | 3 miesiące temu |
Wygasa | za 23 dni |
Tryb pracy | Pełny etat |
Źródło | ![]() ![]() |
Milczenie jest przytłaczające. Wysyłasz aplikacje jedna po drugiej, ale Twoja skrzynka odbiorcza pozostaje pusta. Nasze AI ujawnia ukryte bariery, które utrudniają Ci dotarcie do rekruterów.
Nie znaleziono ofert, spróbuj zmienić kryteria wyszukiwania.