Data Engineer, PUŁAWSKA WARSZAWA
Czym będziesz się zajmować?
- Analiza danych oraz przygotowywanie dla nich modeli logicznych i fizycznych
- Projektowanie i realizacja rozwiązań informatycznych w obszarze zasilania danych
- Praca z relacyjnymi bazami danych (Postgres Sql, Oracle)
- Budowa procesów zasileń ETL – Power Center Informatica
- Tworzenie i rozwijanie skonteneryzowanej aplikacji w technologii Phyton z uzyciem framework Flask/Django oraz architektury mikroserwisów
- Korzystanie z systemu operacyjnego Linux
- Praca w środowisku chmurowym na Google Cloud Platform (Big Query, Cloud SQL, Kubernetes)
- Tworzenie koncepcji rozwiązań i implementacja rozwiązań w oparciu o wymagania i potrzeby biznesu
- Wspieranie testów i wdrażania zmian w zakresie procesów zasilania danych
- Usuwanie incydentów i branie udziału w rozwiązywaniu problemów
- Wspieranie zespołu w zakresie rozwoju kompetencji w technologii Oracle / Posgres
Kogo poszukujemy?
- Minimum 3-5 lat doświadczenia w roli inżyniera danych
- Doświadczenie w pracy z bazami danych np. Teradata, Oracle, Hive, BigQuery,
- Doświadczenie w pracy z Google Cloud Platform, w szczególnosci z uslugami takimi jak BigQuery, Dataproc, Pub/Sub, Google Cloud Storage itp.
- Znajomość języka SQL na poziomie zaawansowanym,
- Tworzenie i rozwijanie skonteneryzowanej aplikacji w technologii Phyton z uzyciem framework Flask/Django oraz architektury mikroserwisów
- Znajomość języka programowania Python na poziomie średnio zaawansowanym
- Umiejętność tworzenia, optymalizacja i automatyzacja procesów ETL (Informaitica Power Center)
- Znajomość narzędzi harmonogramujących: Apache Airflow
- Automatyzacja cyklu życia aplikacji (GitLab, Jira, Jenkins i podobne)
- Znajomość Dash, Streamlit
- Znajomość SqlAlchemy
- Doświadczenie z aplikacjami uruchamianymi w kontenerach (Kubernetes, Anthos, Docker lub podobne)aplikacji do harmonogramowania zadań ScheduleIN,
- Znajomość developerska środowiska SAS
- Znajomość aplikacji do raportowania i budowania dashboardów np. Google Data Studio, SuperSet,
- Znajomość narzędzi do monitorowania np. grafana,
- Znajomość rozwiązań chmurowych wykorzystywanych w procesach ładowania danych np.. data flow, nifi.
Czego wymagamy?
3 lata doświadczenia na podobnym stanowisku
Znajomości:
- Python
- PySpark
- GCP
- SQL
- ETL
- Polski
- Angielski
Jakie warunki i benefity otrzymasz?
- 19000-21000 PLN miesięcznie
- B2B - Elastyczne godziny pracy (100%)
- Praca zdalna: Możliwa częściowo
Kim jesteśmy?
W Square One Poland dążymy tam, gdzie nie dotarła jeszcze żadna agencja rekrutacyjna – prosto na orbitę transparentności i działania w duchu win-win. Jesteśmy towarzyszem, opiekunem, wsparciem – na każdej drodze rekrutacyjnej podróży. Specjalistom IT dajemy nieskrępowaną możliwość rozwoju – przy inspirujących projektach, z nowoczesnymi technologiami. Ważna jest dla nas kultura uczciwości i rzetelnego informowania o możliwościach rozwoju kariery.
Jesteśmy wyspecjalizowanym zespołem działającym na skalę międzynarodową, a do codziennej pracy wplatamy kreatywność, zwinność, elastyczność. Mimo wieloletniego doświadczenia, mamy startup’owe DNA i to stanowi naszą przewagę.
Data publikacji: 2024-04-21
APLIKUJ
Podobne oferty
Data Analyst Remote, ROBOTNICZA WROCŁAW, Angry Nerds
Data Analyst, WARSZAWA, LeasingTeam Group
Vice President Data Management & Quantitative Analysis I, WROCŁAW, BNY Mellon (Poland) Sp. z o.o. BNY Mellon (Poland) Sp. z o.o.
Senior Data Engineer, CENTRUM WARSZAWA, Next Technology Professionals
Loans Administrator & Data Analyst Corporate Trust, WROCŁAW, BNY Mellon (Poland) Sp. z o.o. BNY Mellon (Poland) Sp. z o.o.
Senior Data Engineer Python/AWS Remote, GRZYBOWSKA WARSZAWA, Capco
Senior Data Engineer, WARSAW, Devire Sp. z o.o.
Senior Data Engineer, WARSZAWA, Link Group
Python Data Engineer, REMOTE WROCŁAW, ComScore (via CC)
Senior Data Engineer GCP, REMOTE WARSAW, GetInData | Part of Xebia