DevOps Engineer, WARSZAWA
W ITLT pomagamy naszym zaprzyjaźnionym firmom przekształcać ambitne pomysły w cyfrową rzeczywistość.
Z nastawieniem na wyzwania, ciekawość technologii i zwinność - współtworzymy wyjątkowe rozwiązania IT i zapewniamy najlepszych specjalistów - którzy pomagają przyspieszyć cyfrową transformację.
Aktualnie poszukujemy kandydatów na stanowisko:
KONKRETY:
- Stawka:
PROJEKT I: 100-150PLN/h
PROJEKT II: 150-155PLN/h
PROJEKT III: 150 - 165PLN/h
- Miejsce pracy/praca zdalna:
PROJEKT I+III: Zapewniamy swobodę pracy zdalnej, przy czym 1-2x/miesiącu zapraszamy do warszawskiego biura na PI planning/workshop.
PROJEKT II: Zapewniamy swobodę pracy zdalnej, przy czym 2-4x/miesiącu zapraszamy do warszawskiego biura na PI planning/workshop.
- Sektor:
PROJEKT I+III: Money Services
PROJEKT II: Telco
- Opis:
PROJEKT I: Współpraca ze zróżnicowanymi departamentami w realizacji projektów z zakresu Money Services. Codzienna pracaw środowisku Hadoop (Cloudera), R&D, projektowanie przetwarzania streaming/batch, wdrażanie modeli ML wraz z zespołem Data Science
PROJEKT II: Transformacja Systemów Sieci. Na początku focus na SRE czyli budowanie / obsługa observability, w drugim rzędzie budowa CI/CD. Większość pracy będzie się skupiała na budowie automatyzacji monitoringu i obsłudze produkcji (awarie, incydenty, zapewnianie poprawnego przebiegu procesów biznesowych).
PROJEKT III: Działania R&D z wykorzystaniem nowych technologii w obszarze automatyzacji zadań w sektorze Money Services
- Proces rekrutacji: 1-etapowy (techniczne spotkanie zdalne), sporadycznie może się zdarzyć krótkie dodatkowe spotkanie z Managerem połączone z decyzją
- Szacowany czas trwania projektu: Długoterminowy/bezterminowy
- Czas pracy/Strefa czasowa: Standardowe polskie godziny pracy (8->16 lub 9->17)
- Zespół/Struktura:
PROJEKT I: Zespół 10-osobowy (4x DevOps, 6x Developerów)
PROJEKT II: Zespół 5-cio osobowy
- Technologie na projekcie:
PROJEKT I: Hadoop (Cloudera), Kafka, Nifi, Kubeflow, Spark, Python, Scala
PROJEKT II: JEE (Microprofile, Quarkus, Spring-boot), React, ActiveMQ, Kafka, Apache Jackrabbit, MinIO, Keycloak, Oracle, Postgres, GitLab, Elastic, Dynatrace, Zabbix, BMC Remedy, Jira, Confluence
PROJEKT III: GCP, Azure, Elastick Stack (Kibana, Logstash, Elastisearch), Hashicorp Stack (Terraform, Packer, Vault, Consul), Grafana, Checkmarx, Sonarqube, Gitlab, Jenkins, Ansible, Artifactory
Do Twoich głównych obowiązków na tym stanowisku należeć będzie:
PROJEKT I:
- Zarządzanie infrastrukturą informatyczną powiązaną z klastrem Hadoop z Big Data
- Codzienna praca z problemami związanymi z przetwarzaniem dużych zbiorów danych
- Stałe wsparcie i współpraca z analitykami i użytkownikami narzędzi ekosystemu Big Data
- Zapewnienie wsparcia przy projektach rozwoju platformy Big Data
- Monitoring oraz zapewnienie wsparcia systemów Hadoop (Python, Spark, Hive, Impala)
- Administracja systemem Linux
PROJEKT II:
- Monitoring dostępności, zamówień i procesów biznesowych
- Zapewnienie odpowiedniej dostępności systemu
- Reagowanie na alerty
- Rozwój narzędzi monitorujących i automatyzujących monitoring
- Implementacja (we współpracy z zespołem developerskim) zmian w systemie podnoszących dostępność/efektywność realizacji procesów biznesowych
- Implementacja i wykorzystanie pipeline CI/CD
- Implementacja architektury HA
- Zapewnienie dostępności infrastruktury
- Zapewnienie aktualizacji komponentów systemu - OS, DB
PROJEKT III:
- Współtworzenie procesów CI/CD dla rozwiązań informatycznych,
- Współpracowanie z zespołami developerskimi oraz bezpieczeństwem IT
- Otrzymywanie wsparcia mentorskiego od doświadczonych kolegów z zespołu
- Zbieranie doświadczenia w obszarze Cloud, Terraform, DevOps, IaC
- Realizowanie prac R&D z wykorzystaniem nowych technologii w obszarze automatyzacji zadań z zakresu Money Services
Ta oferta będzie idealna dla Ciebie, jeśli posiadasz:
PROJEKT I:
- Minimum 3-letnie praktyczne doświadczenie z zakresu zarządzania infrastrukturą informatyczną
- Znajomość architektury środowiska rozproszonego Hadoop
- Minimum 3-lata doświadczenia w zakresie administracji środowiskiem Hadoop (Cloudera, Hortonworks)
- Minimum 3-lata doświadczenia w monitoringu i wsparciu aplikacji wykorzystujących: Apache Spark, Hive, HBase, Impala, Kudu
- Znajomość narzędzi do monitoringu (Zabbix, Grafana, SMM itp.)
- Podstawowa znajomość baz relacyjnych (Oracle, MS SQL, Postgres)
- Znajomość systemów Linux Red Hat w zakresie administracji
Nice to have:
- Wiedza w zakresie administracji: Informatica Big Data Managment, Apache Kafka, Apache Nifi, Kubernetes oraz automatyzacji CI/CD
PROJEKT II:
- Min. 3 letnie doświadczenie w tworzeniu pipeline CI/CD
- Doświadczenie w pracy z systemami produkcyjnymi w zakresie utrzymania, monitoringu, obsługi incydentów i problemów
- Doświadczenie w automatyzacji narzędzi
- Znajomość OS Linux
- Praktyczna znajomość platformy GitLab (lub podobnej) zapewniającej CI/CD
- Znajomość platformy JIRA, Confluence, Remedy
- Znajomość narzędzi automatyzacji infrastruktury/aplikacji (Ansible, Terraform czy podobne)
Nice to have:
- Znajomość Pythona, Perla, Ruby lub Lispa oraz znajomość Javy/JavaVM/Groovy
PROJEKT III:
- Znajomość GCP i/lub Azure,
- Doświadczenie w administracji serwerami działającymi pod kontrolą systemu operacyjnego Linux (zarówno w środowiskach produkcyjnych jak i rozwojowych),
- Znajomość narzędzi typu: Elastick Stack (Kibana, Logstash, Elastisearch), Hashicorp Stack (Terraform, Packer, Vault, Consul), Grafana, Checkmarx, Sonarqube, GitLab, Jenkins, Ansible, Artifactory,
- Doświadczenie w konteneryzacji aplikacji (Kubernetes, Docker, Podman, Openshift, GKE lub inne)
- Umiejętność pisania kodu do celów automatyzacji (Bash/Python/Java/Groovy/Go/lub inne)
- Wiedzę na temat praktyk DevSecOps
Warto do nas dołączyć, ponieważ oferujemy:
- Dużą swobodę pracy zdalnej
- Długofalowe stabilne zatrudnienie w oparciu o kontrakt B2B.
- Dopłatę do karty MultiSport oraz ubezpieczenia.
- Elastyczne godziny startu pracy.
- Szansę na uczestniczenie w kluczowych projektach dla dużej firmy działającej w bardzo stabilnym sektorze.