CLIENT ZONE
Data QA Specialist
Wrocław
Data QA Specialist
Lokalizacja: praca zdalna (Polska)
Liczba potrzebnych osób: 1 FTE
Wynagrodzenie: stawka B2B – do ustalenia
Długość kontraktu: do ustalenia (start ASAP)
Start: ASAP
Waluta: PLN
🗓️ Termin składania aplikacji:
Rekrutacja aktywna – kandydaci weryfikowani na bieżąco.
🌍 O projekcie:
Dla jednego z naszych klientów poszukujemy Data QA Specialist, który dołączy do zespołu odpowiedzialnego za zapewnienie jakości w obszarze danych – w szczególności w środowisku opartym na ELT, Snowflake, narzędziach modelowania danych oraz platformach wizualizacyjnych.
Rola obejmuje testowanie przepływów danych, raportów, modeli oraz procesów integracji, a także pracę w nowoczesnym ekosystemie opartym na dbt, Pythonie, SQL i narzędziach AWS.
Projekt koncentruje się na automatyzacji, jakości danych, testach opartych o dane oraz zapewnieniu rzetelności procesów analitycznych.
🎯 Zakres obowiązków:
• testowanie przepływów danych w środowisku ELT,
• weryfikacja modeli danych w Snowflake i dbt,
• testowanie raportów oraz dashboardów (np. ThoughtSpot),
• analiza danych – SQL (agregacje, joiny, CTE, window functions),
• praca z Pythonem (Jupyter, Pandas) w kontekście weryfikacji danych,
• testy data-driven i database testing,
• współpraca z Data Engineers, analitykami i zespołami produktowymi,
• testowanie pipeline’ów danych i monitorowanie jakości danych,
• praca z narzędziami AWS (S3, Athena, QuickSight),
• tworzenie i utrzymanie scenariuszy BDD (Cucumber),
• weryfikacja integralności i spójności danych w różnych warstwach (lake, warehouse, marts).
🧠 Wymagania
Core knowledge areas:
• hurtownie danych / data lakes / data marts,
• znajomość procesów data engineering,
• ETL vs ELT (aktualny projekt wykorzystuje ELT),
• testowanie baz danych i przepływów danych,
• SQL — bardzo dobra znajomość (joins, unions, CTEs, window functions, agregacje),
• testowanie raportów,
• Snowflake,
• dbt – znajomość SQL, Jinja templates, YAML,
• narzędzia do wizualizacji danych (preferowany ThoughtSpot),
• Python / Jupyter / Pandas,
• BDD (Cucumber),
• AWS (S3, Athena, QuickSight).
Technologie / umiejętności techniczne:
• Data Engineering
• Data Mining
• Data Modeling
• Data Visualization
• Data Warehouse & BI
• Data-Driven Testing
• ETL / ELT
• Pandas
• Python
• Snowflake
• SQL
⚙️ Technologie (stack):
• Snowflake
• dbt (SQL, Jinja, YAML)
• SQL (zaawansowany)
• Python + Pandas + Jupyter
• ThoughtSpot (lub inne narzędzia BI)
• AWS: S3, Athena, QuickSight
• Cucumber (BDD)
🕒 Organizacja pracy:
• start: ASAP,
• zaangażowanie: pełne FTE,
• praca w pełni zdalna,
• godziny pracy do uzgodnienia, standardowo w przedziale 9:00–17:00 (PL).
📄 Proces rekrutacji:
1️⃣ Wstępna rozmowa techniczna / weryfikacja kompetencji
2️⃣ Rozmowa z klientem
💼 W ramach oferty zapewniamy:
• udział w projekcie data/analytics działającym w oparciu o najnowsze technologie,
• pracę w ekosystemie Snowflake + dbt + Python + AWS,
• możliwość wpływu na jakość danych i procesy testowania,
• stabilny kontrakt i transparentny proces rekrutacyjny,
• wsparcie DorwijNerda na każdym etapie współpracy.
🚀 Jak aplikować:
Jeśli masz doświadczenie w Data QA i chcesz pracować w nowoczesnym środowisku opartym na ELT i Snowflake – wyślij swoją aplikację!
KRAZ 19622