Data Engineer, WARSZAWA

Nasze wymagania


  • Bardzo dobra znajomość i co najmniej kilkuletnie doświadczenia jako deweloper Data Engineer:
    w obszarze procesów integracji danych za pomocą narzędzi ETLowych (Informatica Power Center) 
    w obszarze technologii GCP (Big Query, Pub-Sub, Google Cloud Anthos, Cloud Storage Buckets 
    w programowaniu w języku Phyton (znajomość jednego z framework Python: Flask, Django) 
    w projektowaniu i tworzeniu relacyjnych baz danych (PostgresSQL, Oracle) 
     

  • Znajomość środowiska Linux (doświadczenie w pracy z terminalem, podstawowa znajomość skryptów powłoki bash) 

  • Znajomość narzędzi harmonogramujących: Apache Airflow 

  • Doświadczenie w pracy z dużymi wolumenami danych ~100TB 

  • Umiejętności analitycznego myślenia i szybkiego przyswajania wiedzy 

  • Samodzielności i kreatywności w rozwiązywaniu problemów 

  • Terminowości i rzetelności w realizacji projektów 


Mile widziane



  • Znajomość Dash, Streamlit 

  • Znajomość SqlAlchemy 

  • Doświadczenie z aplikacjami uruchamianymi w kontenerach (Kubernetes, Anthos, Docker lub podobne) aplikacji do harmonogramowania zadań ScheduleIN 

  • Znajomość developerska środowiska SAS 


Dla naszego klienta, dużego polskiego banku, poszukujemy kandydatów na stanowisko Data Engineer do wsparcia projektu w trybie hybrydowym.



Oferujemy



  • Stabilne zatrudnienie w firmie o dużym potencjale 

  • Przyjazną atmosferę pracy w zespole, który lubi ze sobą pracować, dzieli się wiedzą i wzajemnie wspiera 

  • Możliwość ciągłego rozwoju poprzez: 

  • Pracę z wykorzystaniem różnorodnych technologii w projektach dla renomowanych klientów 

  • Pracę z doświadczonym zespołem ekspertów, którzy chętnie dzielą się wiedzą 

  • Dofinansowanie do szkoleń i certyfikatów 

  • Dostęp do platformy do nauki języka angielskiego 

  • Atrakcyjny pakiet benefitów: opieka medyczna Luxmed, Karta Multisport, Ubezpieczenie grupowe 

  • Elastyczne godziny pracy 

  • Program Poleceń Pracowniczych 

  • Praca hybrydowa  z Warszawy ( 1 dzień w tygodniu) 




 

,[Analiza danych oraz przygotowywanie dla nich modeli logicznych i fizycznych , Projektowanie i realizacja rozwiązań informatycznych w obszarze zasilania danych , Praca z relacyjnymi bazami danych (Postgres Sql, Oracle) , Budowa procesów zsilań ETL – Power Center Informatica , Tworzenie i rozwijanie skonteneryzowanej aplikacji w technologii Phyton z użyciem framework Flask/Django oraz architektury mikroserwisów , Korzystanie z systemu operacyjnego Linux , Praca w środowisku chmurowym na Google Cloud Platform (Big Query, Cloud SQL, Kubernetes) , Automatyzacja cyklu życia aplikacji (GitLab, Jira, Jenkins i podobne) , Tworzenie koncepcji rozwiązań i implementacja rozwiązań w oparciu o wymagania i potrzeby biznesu , Wspieranie testów i wdrażania zmian w zakresie procesów zasilania danych , Usuwanie incydentów i branie udziału w rozwiązywaniu problemów , Wspieranie zespołu w zakresie rozwoju kompetencji w technologii Oracle / Postgres ] Requirements: Informatica, GCP, Google Cloud, Cloud, Storage, Phyton, Flask, Django, Oracle, Linux, Bash, Apache Airflow, Python, Kubernetes, Docker, SAS Additionally: Sport Subscription, Private healthcare, Friendly atmosphere, Remote work, Flexible working hours, Training budget.
Data publikacji: 2024-04-21
APLIKUJ