logo
Send your CVContact

/

logo

CLIENT ZONE

Data QA Specialist

Wrocław

Data QA Specialist


Lokalizacja: praca zdalna (Polska)
Liczba potrzebnych osób: 1 FTE
Wynagrodzenie: stawka B2B – do ustalenia
Długość kontraktu: do ustalenia (start ASAP)
Start: ASAP
Waluta: PLN


🗓️ Termin składania aplikacji:

Rekrutacja aktywna – kandydaci weryfikowani na bieżąco.


🌍 O projekcie:

Dla jednego z naszych klientów poszukujemy Data QA Specialist, który dołączy do zespołu odpowiedzialnego za zapewnienie jakości w obszarze danych – w szczególności w środowisku opartym na ELT, Snowflake, narzędziach modelowania danych oraz platformach wizualizacyjnych.

Rola obejmuje testowanie przepływów danych, raportów, modeli oraz procesów integracji, a także pracę w nowoczesnym ekosystemie opartym na dbt, Pythonie, SQL i narzędziach AWS.

Projekt koncentruje się na automatyzacji, jakości danych, testach opartych o dane oraz zapewnieniu rzetelności procesów analitycznych.


🎯 Zakres obowiązków:

• testowanie przepływów danych w środowisku ELT,
• weryfikacja modeli danych w Snowflake i dbt,
• testowanie raportów oraz dashboardów (np. ThoughtSpot),
• analiza danych – SQL (agregacje, joiny, CTE, window functions),
• praca z Pythonem (Jupyter, Pandas) w kontekście weryfikacji danych,
• testy data-driven i database testing,
• współpraca z Data Engineers, analitykami i zespołami produktowymi,
• testowanie pipeline’ów danych i monitorowanie jakości danych,
• praca z narzędziami AWS (S3, Athena, QuickSight),
• tworzenie i utrzymanie scenariuszy BDD (Cucumber),
• weryfikacja integralności i spójności danych w różnych warstwach (lake, warehouse, marts).


🧠 Wymagania

Core knowledge areas:
• hurtownie danych / data lakes / data marts,
• znajomość procesów data engineering,
• ETL vs ELT (aktualny projekt wykorzystuje ELT),
• testowanie baz danych i przepływów danych,
• SQL — bardzo dobra znajomość (joins, unions, CTEs, window functions, agregacje),
• testowanie raportów,
• Snowflake,
• dbt – znajomość SQL, Jinja templates, YAML,
• narzędzia do wizualizacji danych (preferowany ThoughtSpot),
• Python / Jupyter / Pandas,
• BDD (Cucumber),
• AWS (S3, Athena, QuickSight).

Technologie / umiejętności techniczne:
• Data Engineering
• Data Mining
• Data Modeling
• Data Visualization
• Data Warehouse & BI
• Data-Driven Testing
• ETL / ELT
• Pandas
• Python
• Snowflake
• SQL


⚙️ Technologie (stack):

• Snowflake
• dbt (SQL, Jinja, YAML)
• SQL (zaawansowany)
• Python + Pandas + Jupyter
• ThoughtSpot (lub inne narzędzia BI)
• AWS: S3, Athena, QuickSight
• Cucumber (BDD)


🕒 Organizacja pracy:

• start: ASAP,
• zaangażowanie: pełne FTE,
• praca w pełni zdalna,
• godziny pracy do uzgodnienia, standardowo w przedziale 9:00–17:00 (PL).


📄 Proces rekrutacji:

1️⃣ Wstępna rozmowa techniczna / weryfikacja kompetencji
2️⃣ Rozmowa z klientem


💼 W ramach oferty zapewniamy:

• udział w projekcie data/analytics działającym w oparciu o najnowsze technologie,
• pracę w ekosystemie Snowflake + dbt + Python + AWS,
• możliwość wpływu na jakość danych i procesy testowania,
• stabilny kontrakt i transparentny proces rekrutacyjny,
• wsparcie DorwijNerda na każdym etapie współpracy.


🚀 Jak aplikować:

Jeśli masz doświadczenie w Data QA i chcesz pracować w nowoczesnym środowisku opartym na ELT i Snowflake – wyślij swoją aplikację!

KRAZ 19622

Apply!

logo
ContactSend CV