Data Engineer, WARSZAWA


  • Minimum 3-5 lat doświadczenia w roli inżyniera danych

  • Doświadczenie w pracy z bazami danych np. Teradata, Oracle, Hive, BigQuery,

  • Doświadczenie w pracy z Google Cloud Platform, w szczególności z usługami takimi jak BigQuery, Dataproc, Pub/Sub, Google Cloud Storage itp.

  • Znajomość języka SQL na poziomie zaawansowanym,

  • Tworzenie i rozwijanie skonteneryzowanej aplikacji w technologii Phyton z uzyciem framework Flask/Django oraz architektury mikroserwisów

  • Znajomość języka programowania Python na poziomie srednio zaawansowanym

  • Umiejętność tworzenia, optymalizacja i automatyzacja procesów ETL (Informaitica Power Center)

  • Znajomość narzędzi harmonogramujących: Apache Airflow

  • Automatyzacja cyklu życia aplikacji (GitLab, Jira, Jenkins i podobne)

  • Dodatkowe atuty to:
    • Znajomość Dash, Streamlit
    • Znajomość SqlAlchemy
    • Doświadczenie z aplikacjami uruchamianymi w kontenerach (Kubernetes, Anthos, Docker lub podobne)aplikacji do harmonogramowania zadań ScheduleIN,
    • Znajomość developerska środowiska SAS  (aplikacji do raportowania i budowania dashboardów np. Google Data Studio, SuperSet,
    • Narzędzi do monitorowania np. Grafana, rozwiązań chmurowych wykorzystywanych w procesach lądowania danych np.. data flow, nifi.

    ,[Analiza danych oraz przygotowywanie dla nich modeli logicznych i fizycznych,, Projektowanie i realizacja rozwiazan informatycznych w obszarze zasilania danych,, Praca z relacyjnymi bazami danych (Postgres Sql, Oracle), Budowa procesów zsilan ETL – Power Center Informatica, Tworzenie i rozwijanie skonteneryzowanej aplikacji w technologii Phyton z uzyciem framework Flask/Django oraz architektury mikroserwisów, Korzystanie z systemu operacyjnego Linux, Praca w srodowisku chmurowym na Google Cloud Platform (Big Query, Cloud SQL, Kubernetes), Automatyzacja cyklu zycia aplikacji (GitLab, Jira, Jenkins i podobne), Tworzenie koncepcji rozwiazan i implementacja rozwiazan w oparciu o wymagania i potrzeby biznesu, Wspieranie testów i wdrazania zmian w zakresie procesów zasilania danych,, Usuwanie incydentów i branie udzialu w rozwiazywaniu problemów, , Wspieranie zespolu w zakresie rozwoju kompetencji w technologii Oracle / Posgres] Requirements: Python, Teradata, BigQuery, Google Cloud Platform, SQL, ETL, Flask, Django, Apache Airflow, GitLab, Jira, Jenkins, Kubernetes, Docker, SAS, Google Data Studio, Grafana
Data publikacji: 2024-04-21
APLIKUJ