Job title: Datový Analytik
Job type: Contract
Emp type: Full-time
Pay interval: Daily
Pay rate: 7.000 Kč
Job published: 10/04/2026
Job ID: 42289

Job Description

Chcete pracovat s velkým objemem dat a ověřovat business hypotézy v praxi?
Baví Vás detailní analytická práce a hledání souvislostí v datech?
Hledáte roli, kde je důležitá pečlivost, systematičnost a schopnost dotahovat věci do konce?

Pro Klienta z bankovního sektoru hledáme Datového analytika, který se zapojí do práce s digitálními a transakčními daty.
Role je zaměřena především na detailní analýzu dat, ověřování business hypotéz a přípravu datových transformací.
Nejedná se o čistě vývojovou ani AI/ML roli důraz je kladen na systematickou „mravenčí“ práci s daty, kvalitu výstupů a schopnost převádět analytické poznatky do praxe.

Náplň práce:
- Analýza digitálních a transakčních dat v prostředí PySpark
- Formulace a ověřování business hypotéz nad daty
- Příprava a implementace datových transformací (ETL)
- Práce s daty na úrovni explorace i produkčního zpracování
- Vyhodnocování přínosu jednotlivých analýz (např. coverage, lift, robustnost)
- Spolupráce s business týmy a interpretace výsledků
- Iterativní práce na základě zpětné vazby
- Důsledné dodržování standardů pro produkční kód

Požadavky:
- Minimálně 3 roky zkušeností s prací s daty (analýza / data engineering / data science)
- Praktická znalost PySparku a zkušenost s tvorbou ETL procesů
- Znalost Pandas nebo Polars
- Zkušenost s data miningem a ověřováním hypotéz
- Schopnost dotahovat i rutinní úkoly do produkce bez poklesu kvality
- Znalost verzování kódu (Git, Bitbucket nebo GitHub)
- Schopnost pracovat s daty jak v explorativní fázi (např. Jupyter), tak v produkčním kódu
- Dobré komunikační dovednosti a schopnost spolupráce s businessem
- Proaktivní přístup a schopnost přicházet s vlastními hypotézami
- Angličtina na úrovni práce s dokumentací a komunikace

Výhodou:
- Znalost SQL a schopnost samostatného psaní dotazů
- Zkušenost z bankovního nebo finančního prostředí
- Zkušenost s orchestrací datových pipeline (např. Airflow, Jenkins)
- Znalost optimalizace výkonu v PySparku
- Zkušenost s analýzou změn v datech (event-based přístup)
- Základní přehled v oblasti statistiky a práce s daty