Data Engineer, PUŁAWSKA WARSZAWA

Czym będziesz się zajmować?

  • Analiza danych oraz przygotowywanie dla nich modeli logicznych i fizycznych
  • Projektowanie i realizacja rozwiązań informatycznych w obszarze zasilania danych
  • Praca z relacyjnymi bazami danych (Postgres Sql, Oracle)
  • Budowa procesów zasileń ETL – Power Center Informatica
  • Tworzenie i rozwijanie skonteneryzowanej aplikacji w technologii Phyton z uzyciem framework Flask/Django oraz architektury mikroserwisów
  • Korzystanie z systemu operacyjnego Linux
  • Praca w środowisku chmurowym na Google Cloud Platform (Big Query, Cloud SQL, Kubernetes)
  • Tworzenie koncepcji rozwiązań i implementacja rozwiązań w oparciu o wymagania i potrzeby biznesu
  • Wspieranie testów i wdrażania zmian w zakresie procesów zasilania danych
  • Usuwanie incydentów i branie udziału w rozwiązywaniu problemów
  • Wspieranie zespołu w zakresie rozwoju kompetencji w technologii Oracle / Posgres


Kogo poszukujemy?

  • Minimum 3-5 lat doświadczenia w roli inżyniera danych
  • Doświadczenie w pracy z bazami danych np. Teradata, Oracle, Hive, BigQuery,
  • Doświadczenie w pracy z Google Cloud Platform, w szczególnosci z uslugami takimi jak BigQuery, Dataproc, Pub/Sub, Google Cloud Storage itp.
  • Znajomość języka SQL na poziomie zaawansowanym,
  • Tworzenie i rozwijanie skonteneryzowanej aplikacji w technologii Phyton z uzyciem framework Flask/Django oraz architektury mikroserwisów
  • Znajomość języka programowania Python na poziomie średnio zaawansowanym
  • Umiejętność tworzenia, optymalizacja i automatyzacja procesów ETL (Informaitica Power Center)
  • Znajomość narzędzi harmonogramujących: Apache Airflow
  • Automatyzacja cyklu życia aplikacji (GitLab, Jira, Jenkins i podobne)
Dodatkowe atuty to:
  • Znajomość Dash, Streamlit
  • Znajomość SqlAlchemy
  • Doświadczenie z aplikacjami uruchamianymi w kontenerach (Kubernetes, Anthos, Docker lub podobne)aplikacji do harmonogramowania zadań ScheduleIN,
  • Znajomość developerska środowiska SAS
  • Znajomość aplikacji do raportowania i budowania dashboardów np. Google Data Studio, SuperSet,
  • Znajomość narzędzi do monitorowania np. grafana,
  • Znajomość rozwiązań chmurowych wykorzystywanych w procesach ładowania danych np.. data flow, nifi.


Czego wymagamy?

3 lata doświadczenia na podobnym stanowisku
Znajomości:
  • Python
  • PySpark
  • GCP
  • SQL
  • ETL
Języki:
  • Polski
  • Angielski


Jakie warunki i benefity otrzymasz?
  • 19000-21000 PLN miesięcznie
  • B2B - Elastyczne godziny pracy (100%)
  • Praca zdalna: Możliwa częściowo


Kim jesteśmy?
W Square One Poland dążymy tam, gdzie nie dotarła jeszcze żadna agencja rekrutacyjna – prosto na orbitę transparentności i działania w duchu win-win. Jesteśmy towarzyszem, opiekunem, wsparciem – na każdej drodze rekrutacyjnej podróży. Specjalistom IT dajemy nieskrępowaną możliwość rozwoju – przy inspirujących projektach, z nowoczesnymi technologiami. Ważna jest dla nas kultura uczciwości i rzetelnego informowania o możliwościach rozwoju kariery.
Jesteśmy wyspecjalizowanym zespołem działającym na skalę międzynarodową, a do codziennej pracy wplatamy kreatywność, zwinność, elastyczność. Mimo wieloletniego doświadczenia, mamy startup’owe DNA i to stanowi naszą przewagę.
Data publikacji: 2024-04-21
APLIKUJ