4 Fevereiro 2025
Key takeways
Até há pouco tempo, a visualização de dados no PowerBI exigia sempre uma conexão com outras plataformas, como Azure, SharePoint ou Excel. Isto significava que o controlo do armazenamento dos dados estava, muitas vezes, fora do ecossistema do PowerBI. Contudo, com a mais recente atualização do Fabric, já é possível criar uma solução end-to-end, onde tanto a base de dados como o relatório do PowerBI residem no mesmo ambiente. Neste guia, explico como montar esta solução utilizando cinco elementos essenciais: Fabric SQL Database, Lakehouse, Dataflow, Data Pipeline e PowerBI Report.
SQL Database
O primeiro passo é criar uma base de dados SQL utilizando o Fabric SQL Database. Este componente funciona exatamente como uma base de dados tradicional, permitindo a ingestão, atualização e consulta de dados. Pode interagir com a base de dados através de queries SQL ou, de forma mais intuitiva, utilizando outras ferramentas, como os Dataflows.
Lakehouse
Embora o Fabric SQL Database não ofereça uma conexão direta com o PowerBI, o Lakehouse permite fazê-lo. O Lakehouse torna-se, assim, o repositório final de dados, permitindo a integração com várias fontes. Este elemento é ideal para centralizar dados num único local, sendo possível até mesmo conectar-se a várias bases de dados.
Dataflow
O Dataflow é o componente responsável pela extração, transformação e carregamento (ETL) dos dados. Através dele, pode configurar como os dados serão extraídos, transformados e carregados para os repositórios. Para esta solução, pode usar um ou dois Dataflows:
- Um Dataflow para ligar a SQL Database ao Lakehouse.
- Um segundo Dataflow (opcional) para ligar fontes externas de dados, como um Excel, à sua base de dados (se optar por esta alternativa de ingestão de dados na base de dados).
Se optar por criar a base de dados de forma convencional via SQL, não será necessário configurar um Dataflow. Todo o controlo será feito diretamente na base de dados.
Data Pipeline
Embora os Dataflows sejam suficientes para integrar os dados, pode ser útil adicionar automações, como agendamentos e triggers. O Data Pipeline permite construir processos automatizados, unindo diferentes elementos e definindo ações para cenários de sucesso ou falha.
Com os Data Pipelines, pode agendar o carregamento dos dados com a frequência desejada (diária, semanal, mensal, etc.) e configurar notificações em caso de falha no processo, utilizando plataformas de comunicação como o Outlook ou o WhatsApp. Isto proporciona um maior controlo sobre todo o ecossistema de dados no Fabric.
PowerBI Report
O último elemento da solução é a visualização dos dados através do PowerBI Report. Para usar os dados preparados no Lakehouse, basta configurar uma ligação SQL Endpoint através do conector Lakehouse no PowerBI. Após isso, pode criar os relatórios desejados e publicá-los diretamente, tornando a solução totalmente operacional no servidor.
Conclusão
Com a mais recente versão do Fabric, armazenar e explorar dados tornou-se cada vez mais simples. Com os elementos e dicas apresentados neste guia, criar soluções end-to-end torna-se fácil e seguro, mantendo o controlo total dos dados num único local.