Inżynier danych z Pythonem | Data Engineer with Python

Lokalizacja: Hybrydowy | Wrocław, Polska

Ogłoszenie Agencja Pracy

Aplikuj na to stanowisko

Szczegóły oferty:

Nasz klient poszukuje  inżyniera danych ze znajomością języka Python, który będzie musiał pracować w trybie hybrydowym 3 dni w tygodniu w swoim biurze we Wrocławiu.
 


 

Start: jak najszybciej
 

Czas trwania projektu: do ustalenia (raczej długoterminowy projekt)
 

Lokalizacja: hybryda z Wrocławia (3 razy w tygodniu)
 

Proces weryfikacji: 2-3 wywiady
 

Główne obowiązki
 

  • Opracowywanie, wdrażanie, testowanie i uruchamianie systemów przetwarzania danych w celu wsparcia inicjatyw związanych ze sztuczną inteligencją.
  • Projektowanie i utrzymywanie procesów ETL.
  • Optymalizacja struktur danych w celu zapewnienia lepszej wizualizacji i analizy.
  • Analizuj, udoskonalaj i realizuj wymagania biznesowe i techniczne.
  • Integruj nowe źródła danych i twórz, testuj i wdrażaj oparte na chmurze potoki danych, magazyny danych oraz modele/produkty.

Wymagania techniczne
 

Musi zawierać:
 


 

  • co najmniej 5 lat doświadczenia komercyjnego
  • co najmniej 2 lata doświadczenia komercyjnego na stanowisku inżyniera danych
  • zaawansowany SQL i Python oraz Spark/PySpark
  • praktyczne doświadczenie w modelowaniu danych
  • zrozumienie kluczowych koncepcji, takich jak Data Warehousing, Data Lakes i Data Lakehouse
  • doświadczenie z zestawem narzędzi do inżynierii danych w chmurze (skupiając się na platformie Azure)


 

Miło mieć:
 


 

  • Płatek śniegu
  • DataBrick
  • Doświadczenie z narzędziami BI

 

______________________________________________________________________________________________________________________________

Our customer is looking for a Data Engineer with Python whi need to work in Hybrid mode for 3days a week at their Wroclaw Office.
 


 

Start:ASAP
 

Project duration:to be decided (rather long-term project)
 

Location:hybrid from Wrocław (3 times per week)
 

Verification process:2 - 3 interviews
 

Main Responsibilities
 

  • Develop, implement, test, and deploy data processing systems to support AI initiatives.
  • Design and maintain ETL processes.
  • Optimize data structures for enhanced visualization and analysis.
  • Analyze, refine, and execute business and technical requirements.
  • Integrate new data sources and create, test, and deploy cloud-based data pipelines, warehouses, and models/products.

Technical Requirements
 

Must have:
 


 

  • minimum 5 years of commercial experience
  • minimum 2 years of commercial experience as a Data Engineer
  • advanced SQL and Python and Spark/PySpark
  • hands-on experience with Data Modelling
  • understanding of key concepts such as Data Warehousing, Data Lakes and Data Lakehouses
  • experience with Cloud Data engineering toolset (Azure focus)


 

Nice to have:
 


 

  • Snowflake
  • DataBrick
  • Experience with BI tools

Wynagrodzenie:

110 zł za godzinę wliczając całość

Informacje dodatkowe:

Kliknij na link i naszą stronę Kariera, aby wyświetlić ofertę pracy i złożyć podanie, wysyłając swoje CV oraz odpowiadając na pytania rekrutacyjne.

Click on the link and our Careers page to view the job offer and apply by sending your CV and answering the recruitment questions.

Dodano dnia: 09-03-2025

Już teraz każdy ma możliwość stworzenia własnego życiorysu w kilka chwil.

Darmowy kreator CV bez rejestracji