Nesse projeto explorei, ao máximo, o uso da linguagem T-SQL para implementação e automação de ponta a ponta de um Data Mart, seguindo as melhores práticas e conceitos fundamentais de cubo OLAP.
Nesse projeto usaremos o Pentaho como motor de execução e automação para implementação de um Data Warehouse, usando conceitos fundamentais para modelagem Star Schema.
Nesse projeto usaremos o Apache Airflow para orquestrar a carga de dados no Data Warehouse com Astro Python SDK.
Nesse projeto usaremos o dbt-core para construir um pipeline de dados fim a fim.
Testes e documentação técnica serão incorporados no projeto.
Neste projeto usaremos o Apache Airflow para orquestrar o Data Pipeline do projeto dbt utilizando o Data Warehouse moderno BigQuery e o Power Bi como ferramenta de data viz.