Data Engineer, PUŁAWSKA WARSZAWA
Czym będziesz się zajmować?
- Analiza danych oraz przygotowywanie dla nich modeli logicznych i fizycznych
- Projektowanie i realizacja rozwiązań informatycznych w obszarze zasilania danych
- Praca z relacyjnymi bazami danych (Postgres Sql, Oracle)
- Budowa procesów zasileń ETL – Power Center Informatica
- Tworzenie i rozwijanie skonteneryzowanej aplikacji w technologii Phyton z uzyciem framework Flask/Django oraz architektury mikroserwisów
- Korzystanie z systemu operacyjnego Linux
- Praca w środowisku chmurowym na Google Cloud Platform (Big Query, Cloud SQL, Kubernetes)
- Tworzenie koncepcji rozwiązań i implementacja rozwiązań w oparciu o wymagania i potrzeby biznesu
- Wspieranie testów i wdrażania zmian w zakresie procesów zasilania danych
- Usuwanie incydentów i branie udziału w rozwiązywaniu problemów
- Wspieranie zespołu w zakresie rozwoju kompetencji w technologii Oracle / Posgres
Kogo poszukujemy?
- Minimum 3-5 lat doświadczenia w roli inżyniera danych
- Doświadczenie w pracy z bazami danych np. Teradata, Oracle, Hive, BigQuery,
- Doświadczenie w pracy z Google Cloud Platform, w szczególnosci z uslugami takimi jak BigQuery, Dataproc, Pub/Sub, Google Cloud Storage itp.
- Znajomość języka SQL na poziomie zaawansowanym,
- Tworzenie i rozwijanie skonteneryzowanej aplikacji w technologii Phyton z uzyciem framework Flask/Django oraz architektury mikroserwisów
- Znajomość języka programowania Python na poziomie średnio zaawansowanym
- Umiejętność tworzenia, optymalizacja i automatyzacja procesów ETL (Informaitica Power Center)
- Znajomość narzędzi harmonogramujących: Apache Airflow
- Automatyzacja cyklu życia aplikacji (GitLab, Jira, Jenkins i podobne)
- Znajomość Dash, Streamlit
- Znajomość SqlAlchemy
- Doświadczenie z aplikacjami uruchamianymi w kontenerach (Kubernetes, Anthos, Docker lub podobne)aplikacji do harmonogramowania zadań ScheduleIN,
- Znajomość developerska środowiska SAS
- Znajomość aplikacji do raportowania i budowania dashboardów np. Google Data Studio, SuperSet,
- Znajomość narzędzi do monitorowania np. grafana,
- Znajomość rozwiązań chmurowych wykorzystywanych w procesach ładowania danych np.. data flow, nifi.
Czego wymagamy?
3 lata doświadczenia na podobnym stanowisku
Znajomości:
- Python
- PySpark
- GCP
- SQL
- ETL
- Polski
- Angielski
Jakie warunki i benefity otrzymasz?
- 19000-21000 PLN miesięcznie
- B2B - Elastyczne godziny pracy (100%)
- Praca zdalna: Możliwa częściowo
Kim jesteśmy?
W Square One Poland dążymy tam, gdzie nie dotarła jeszcze żadna agencja rekrutacyjna – prosto na orbitę transparentności i działania w duchu win-win. Jesteśmy towarzyszem, opiekunem, wsparciem – na każdej drodze rekrutacyjnej podróży. Specjalistom IT dajemy nieskrępowaną możliwość rozwoju – przy inspirujących projektach, z nowoczesnymi technologiami. Ważna jest dla nas kultura uczciwości i rzetelnego informowania o możliwościach rozwoju kariery.
Jesteśmy wyspecjalizowanym zespołem działającym na skalę międzynarodową, a do codziennej pracy wplatamy kreatywność, zwinność, elastyczność. Mimo wieloletniego doświadczenia, mamy startup’owe DNA i to stanowi naszą przewagę.
Data publikacji: 2024-04-21
APLIKUJ
Podobne oferty
Data Engineer, LEGNICKA WROCŁAW, Avenga
Data Engineer Remote, PRZYOKOPOWA WARSZAWA, Avenga
Mid+ Senior Data Engineer GCP, GRZYBOWSKA WARSZAWA, Capco
Vice President Data Management & Quantitative Analysis I, WROCŁAW, BNY Mellon (Poland) Sp. z o.o. BNY Mellon (Poland) Sp. z o.o.
Data Engineer, CENTRUM WARSZAWA, Develocraft
Loans Administrator & Data Analyst Corporate Trust, WROCŁAW, BNY Mellon (Poland) Sp. z o.o. BNY Mellon (Poland) Sp. z o.o.
Autonomous Driving Data Framework Senior Engineer, KRAKÓW, Capgemini Polska Capgemini Polska
Data Engineer GCP Remote, OGRODOWA WARSZAWA, Next Technology Professionals
Relocate to Malta GCP Data and ML Engineer, WARSAW, Black Pen Recruitment
Data Engineer Snowflake Remote, AL JEROZOLIMSKIE WARSZAWA, Britenet