Passo 01: Servidor de Data WarehousePara realizar a criação e configuração do Servidor de Data Warehouse, deverá seguir as orientações disponíveis no link abaixo: |
Passo 02: Atualiza DWA partir da versão 23.01, a atualização do módulo Data Warehouse é feita através do executável Atualiza DW. Este componente é encontrado no pacote de atualização do DW, onde sua distribuição é feita pelo Agente de Atualização. Para realizar a atualização, deverá seguir as orientações disponíveis no link abaixo (o Atualiza DW considerará como base do ERP a mesma que estiver apontada para os usos das aplicações do ERP). Para clientes com a versão do ERP acima da 23.01, é necessário executar o Atualiza DW primeiro da versão 23.01 e depois das versões seguintes. IMPORTANTE: O pacote que for executado em uma base não deve ser utilizado novamente em outras bases. Neste caso, o correto é baixar novamente o pacote ou criar uma cópia para cada base que for atualizar, antes de executar. |
Passo 03: Gerenciador DWA aplicação Gerenciador DW possibilita que o usuário realize configurações relativas à fatos e dimensões, execução de cargas avulsas, acompanhamento de cargas, dentre outras opções. Caso tenha dúvidas com relação à aplicação, poderá seguir as orientações disponíveis no link abaixo: |
Passo 04: Configuração do Job de Atualização de CargasPara que as informações do ERP estejam atualizadas na base de dados do Data Warehouse, existem duas formas: Manualmente através do Gerenciador DW - DW00010 ou automaticamente através de um job no banco de dados. ManualmenteÉ feita através da aplicação Gerenciador DW / Aba Cargas onde o usuário pode iniciar cargas gerais, ou separadas de fatos e dimensões. Automática É feita através de um JOB que poderá ser parametrizado o período de atualização. OBS: É importante realizar a configuração do Job de forma diária, após a execução da baixa de PDV e média de venda. O script padrão de carga geral é: Begin
Pkg_Etl_Gerencial.sp_Executacargageral( null );
End; |
Este primeiro modelo dispara uma carga geral, atualizando primeiro todas as tabelas dimensão e depois todas tabelas fato ativas no ambiente, considerando os dias de refresh cadastrados no Gerenciador DW e todas empresas. O exemplos abaixo disparam, respectivamente, uma carga somente nas tabelas dimensão e outra carga geral somente das tabelas fato ativas. Begin
Pkg_Etl_Gerencial.sp_Executacargageral( '', sysdate, sysdate, 'D');
End;
Begin
Pkg_Etl_Gerencial.sp_Executacargageral( '', sysdate, sysdate, 'F');
End;
|
O exemplo abaixo dispara uma carga isolada das tabelas de venda no DW somente das empresas ativas no ERP. Begin
Pkg_Etl_Gerencial.sp_FatoVenda( 'A',
'01-jan-2024',
'31-jan-2024',
'S',
'S' );
End;
|
O exemplo abaixo dispara uma carga isolada dos últimos 15 dias de estoque Begin
Pkg_Etl_Gerencial.sp_FatoEstoque( '',
trunc(sysdate - 15),
trunc(sysdate)) ;
End; |
Sugestão de estrutura de carga: As cargas de tabelas dimensão funcionam um pouco diferente das tabelas fato, onde, algumas fato possuem dependência das dimensões, portanto os fatos não devem ser atualizados antes das dimensões. Outro ponto é que os fatos podem ser executados em paralelo agrupados por empresa sem problemas de conflito de dados. Uma estrutura performática ficaria da seguinte forma Um job inicial que fará a atualização das dimensões Begin
Pkg_Etl_Gerencial.sp_Executacargageral( '', sysdate, sysdate, 'D');
End;
|
- Jobs agrupados por empresa que vão executar em paralelo e serão disparados pelo job de dimensão quando o mesmo terminar.
-- Supondo que exista o NROEMPRESA 1 até o 30 cadastrados, a carga pode ser dividida em 3 jobs com 10 empresas cada, ficando da forma:
-- JOB 1
Begin
Pkg_Etl_Gerencial.sp_Executacargageral( '1,2,3,4,5,6,7,8,9,10', trunc(sysdate - 5), trunc(sysdate - 5), 'F' );
End;
-- JOB 2
Begin
Pkg_Etl_Gerencial.sp_Executacargageral( '11,12,13,14,15,16,17,18,19,20', trunc(sysdate - 5), trunc(sysdate - 5), 'F' );
End;
-- JOB 3
Begin
Pkg_Etl_Gerencial.sp_Executacargageral( '21,22,23,24,25,26,27,28,29,30', trunc(sysdate - 5), trunc(sysdate - 5), 'F' );
End; |
|
Passo 05: Primeiras validações da implantaçãoAqui estão algumas sugestões das primeiras validações que podem ser feitas após a implantação para garantir que o produto está funcional: - Validação da parametrização da Análise ABC de Venda (Data Warehouse):
A Análise ABC de Venda (Data Warehouse) foi desenvolvida com base na Análise ABC de Vendas Distribuição, onde nela, existem alguns parâmetros dinâmicos que dependendo do valor, podem mudar os valores apresentados na aplicação. Para acompanhar este mesmo conceito, existe uma aplicação específica dentro do módulo DataWarehouse para equiparar esta parametrização. Se trata da Configuração de Parâmetros Análise ABC de Vendas (Data Warehouse).
Dentro da documentação da aplicação existe um DE-PARA no trecho Comparação das funcionalidades dos parâmetros da Análise ABC de Vendas Distribuição com os parâmetros da Análise ABC de Venda (Data Warehouse), que é referente a exportação dos parâmetros de uma ABC para a outra. A exportação é feita de forma automática durante a implantação do DW, porém, é indicado que seja feita uma validação comparando os parâmetros dinâmicos da ABC Venda Distribuição com os parâmetros equivalentes na aplicação citada.
Validação da carga de Dimensões A validação das cargas deve começar pelas tabelas dimensão, visto que algumas delas são dependências dos fatos. A carga pode ser disparada tanto via banco, utilizando o trecho JOB DIMENSÃO E FATO do Passo 04 do guia, ou então via aplicação através do Gerenciador DW - DW00010. No final da carga, o log deve ser analisado no Gerenciador, aba Logs e nenhum erro deve ser listado.
Validação da carga de Fatos Depois de validar a carga de dimensões, deve ser validada a carga dos fatos. A carga pode ser disparada tanto via banco, utilizando o trecho JOB DIMENSÃO E FATO do Passo 04 do guia, ou então via aplicação através do Gerenciador DW - DW00010. No final da carga, o log deve ser analisado no Gerenciador, aba Logs e nenhum erro deve ser listado.
- Comparação enrte Análise ABC de Vendas Distribuição e Análise ABC de Venda (Data Warehouse) validando os três agrupamentos de venda.
A Análise ABC de Venda (Data Warehouse) possui uma lógica na sua estrutura que, dependendo da consulta que será realizada, consegue buscar os dados de tabelas agrupadas, deixando assim os resultados mais rápidos de acordo com a análise. Esta lógica é dividida em três agrupamentos e é indicado realizar uma consulta com cada um deles para validar que as vendas subiram para todas as tabelas: - Agrupamento 1 - ITEM
- Agrupamento 2 - DIA
- Agrupamento 3 - MÊS
|
|