Náš stack: Python 3 (asyncio), Airflow, Docker, postgreSQL/TimescaleDB, Gitlab, Metabase, Streamlit, RabbitMQ, Kubernetes, AWS (S3, EC2) a hrajeme si s Clickhouse, Apache Iceberg, duckDB, Trino
Jsme Quantlane, proprietární tradingová firma postavená pro tradery. Provozujeme diverzifikované portfolio systematických i diskrečních strategií napříč akciemi, futures, energiemi a komoditami. Klíčovou součástí firmy je datová platforma, poskytující nejrůznější data na jejichž základě provádějí tradeři (a jejich alga) svá obchodní rozhodnutí.
👨💻 Jak pracujeme?
Development tým čítá 16 lidí, fungujeme v agilním prostředí, vyvíjíme iterativně a klademe důraz na testování. Máme aktuálně tři specializované produktové subtýmy — Exekuce, Data a Infrastruktura — které se zaměřují na rozvoj a provoz našich klíčových domén.
📊 Koho hledáme?
Tuto roli hledáme do naší Data týmu, kde máme pět Data engineerů a jednoho Data scientistu. Věnujme se tu zajímavým datovým výzvám - naším cílem je zajistit, aby byla data v požadované kvalitě, formátu a čase na požadovaném místě.
🔥Chceš se podílet na vývoji datové platformy, která má reálný dopad na úspěch našich traderů? Přidej se k nám!🚀
Jak bude vypadat tvůj běžný den:
Vývoj Python aplikací zpracovávající data (pandas, asyncio)Podílení se na návrhu a zlepšování datové platformyVývoj backendových aplikací v Pythonu (asyncio, RabbitMQ)Nasazování těchto aplikací do produkce (Airflow, Kubernetes)Komunikace s tradery a analytiky - tedy tvými interními zákazníky - o požadovaných featuresBudeš se s ostatními členy týmu střídat v rámci supportu platformyÚčast na SCRUM ceremoniích, ale nemusíš se bát dlouhých schůzek, kde nevíš proč jsi. U nás jde hlavně o to jak efektivně odbavit byznysové priority a ne bezhlavě používat SCRUM.
Co nabízíme?
Občerstvení, 5 týdnů dovolené a 5 sick days, multisportkuModerní kanceláře v Quadriu v centru PrahySpolupracujeme hybridně – ideálně 3 dny on-site.Možnost pravidelných sezení s firemním terapeutem / koučemLekce angličtiny s rodilým mluvčímInterní školení a příspěvky na technické konference
Něco o tobě:
Máš zkušenosti s používáním konceptů Data Lake, Lakehouse, Streaming dataMáš zkušenosti s vývojem aplikací zpracovávající data (historická i realtime)Znáš best-practices v rámci SW vývoje (GIT, testování)
Ideálně
Máš praktické zkušenosti s Apache Iceberg, Trino/AWS Athena, ClickhouseUmíš používat datové knihovny (pandas/polars)Znáš nástroje pro správu ETL Workflow (Apache Airflow)Orientuješ se v rámci SQL, nejlépe postgreSQLZnalost Python asyncioZájem o kapitálové trhy