Konsumera data från Snowflake i Qlik Sense

Nu har vi kommit fram till den sista delen i serien som har handlat om att extrahera data från ett källsystem med hjälp av Azure Data Factory in till Snowflake, utföra transformeringar med hjälp av dbt och slutligen ladda in data till Qlik Sense. I Qlik Sense är det enkelt att hämta ut data från Snowflake för analys, både i on-prem och SaaS-versionen finns färdiga konnektorer för Snowflake. För att läsa ut ny data väljer vi att skapa en ny anslutning och väljer Snowflake i listan.

När vi väljer Snowflake får vi fylla i uppgifter enligt nedan. Server namnet utgår från ditt account name, region och cloud provider vilka enklast hittas i url:en när du är inloggad i Snowflake. 

Warehouse anger vilket warehouse i Snowflake som ska användas vid utläsning av data. Här är det möjligt att skapa upp ett separat warehouse som endast Qlik använder vilket gör att vi enkelt kan se konsumtionen av credits i Snowflake som uppstår vid läsning från Qlik samtidigt som vi kan se till att utläsningen inte köas upp på grund av andra queries som görs i/mot Snowflake. På samma sätt kan man skapa en separat roll som endast ger tillgång till att läsa från ”consume”-schemat i Snowflake. På det sättet säkerställer vi att endast de färdigtransformerade tabellerna i Snowflake kan användas i Qlik.

Vi väljer att autentisera oss med användarnamn/lösenord där vi även här skapat en separat användare för Qlik.

Sedan testar vi anslutningen:

Nu återstår bara att välja vilken data vi ska ladda in och vi väljer tabellen CUSTOMERORDERS.

I en bloggserie om tre avsnitt har vi visat hur man kan gå till väga för att ladda in data från olika källsystem till att datan finns i Qlik Sense redo för analys med hjälp av Azure Data Factory, dbt och Snowflake. Det kan låta som många system för vårt enkla exempel men har ni flera källsystem och flera olika system som ska konsumera datan så är det en enkel och kraftfull trio att utvärdera!

Dela inlägget
LinkedIn