Sunday 21 May 2017

Oracle Sql Exponencial Móvel Média



Se você vir esta mensagem, seu navegador desativou ou não suporta JavaScript. Para usar os recursos completos deste sistema de ajuda, como a pesquisa, o navegador deve ter o suporte JavaScript ativado. Médias Móveis Ponderadas Com Médias Móveis Simples, cada valor de dados no quotwindow no qual o cálculo é executado recebe um significado ou peso igual. É freqüentemente o caso, especialmente na análise de dados de preços financeiros, que mais dados cronologicamente recentes devem ter um peso maior. Nestes casos, a funcionalidade de Média Móvel Ponderada (ou Média Móvel Exponencial - consulte o tópico seguinte) é frequentemente preferida. Considere a mesma tabela de valores de dados de Vendas para doze meses: Para calcular uma Média Móvel Ponderada: Calcule quantos intervalos de dados estão participando no cálculo da Média Móvel (ou seja, o tamanho do cálculo quotwindowquot). Se a janela de cálculo é dita ser n, então o valor de dados mais recente na janela é multiplicado por n, o próximo mais recente multiplicado por n-1, o valor anterior ao multiplicado por n-2 e assim por diante para todos os valores na janela. Divida a soma de todos os valores multiplicados pela soma dos pesos para dar a Média Móvel Ponderada sobre essa janela. Coloque o valor da Média Móvel Ponderada em uma nova coluna de acordo com o posicionamento das médias de arrasto descrito acima. Para ilustrar essas etapas, considere se uma Média Móvel Ponderada de 3 meses de Vendas em dezembro é necessária (usando a tabela acima de valores de Vendas). O termo quot3-mês implica que o cálculo quotwindowquot é 3, portanto, o algoritmo de cálculo da Média Móvel Ponderada para este caso deve ser: Ou, se uma Média Móvel Ponderada de 3 meses foi avaliada em toda a gama original de dados, os resultados seriam : Média móvel ponderada de 3 meses média móvel exponencial Havia uma pergunta agradável em OTN hoje sobre se há uma função padrão de Oracle para calcular a média movente exponencial. A resposta é que não há tal função, mas com a cláusula modelo, você pode calculá-lo muito fácil. E é um ótimo exemplo do que eu quero dizer com o número variável de cálculos baseados em valores calculados, escrito na minha terceira parte do tutorial de cláusula modelo. Antes de hoje, eu nem sabia o que uma média móvel exponencial era exatamente. Você pode ler mais sobre ele aqui na Wikipedia ou aqui com um bom exemplo. A partir do primeiro link: Uma média móvel exponencial (EMA), aplica fatores de ponderação que diminuem exponencialmente. A ponderação para cada ponto de dados mais antigo diminui exponencialmente, dando muito mais importância a observações recentes, enquanto ainda não descarta observações mais antigas inteiramente. A partir do segundo link: A fórmula para calcular uma média móvel exponencial (EMA) é: X EMA atual (ou seja, EMA a ser calculada) C Valor de dados original atual K Smoothing Constant P EMA anterior (O primeiro EMA no intervalo a ser calculado é Arbitrária e pode ser o valor de dados original correspondente ou, muitas vezes, um valor de média móvel simples K Smoothing Constant 2 (1 n) E esta fórmula é seguida por um exemplo que eu estendi um pouco, usando esta tabela: Os registros do produto A Corresponder ao exemplo no link. Eu fiz os números do produto B. Aqui está a consulta de cláusula de modelo que implementa a fórmula. Nota como a fórmula traduzir diretamente para a única regra da cláusula do modelo. A constante de suavização K é definido Para .5, com base em uma janela de valores (n) igual a 3. Desafio: tente isso sem a cláusula do modelo e veja se você pode chegar a algo mais abrangente 5 comentários: 11.2 recursos em uso com dat como (selecione 39A39 produto Data 392009-01-0139 mês, 10 de dupla união todos selecionam 39A39, data 392009-02-0139, 15 de dupla união todos selecionam 39A39, data 392009-03-0139, 17 de dupla união todos selecionam 39A39, data 392009-04-0139, 20 de dupla união Todos selecionam 39A39, data 392009-05-0139, 22 da união dupla todos selecionam 39A39, data 392009-06-0139, 20 da união dupla todos selecionam 39A39, data 392009-07-0139, 25 da união dupla todos selecionam 39A39, data 392009-08-0139, 27 de dupla união todos selecionam 39A39, data 392009-09-0139, 30 de dupla união todos selecionam 39A39, data 392009-10-0139, 35 de dupla união todos selecionam 39A39, data 392009-11-0139 , 37 de dupla união todos selecionam 39A39, data 392009-12-0139, 40 de dupla união todos selecionam 39B39, data 392009-01-0139, 0 de dupla união todos selecionam 39B39, data 392009-02-0139, 50 de dupla união Todos selecionar 39B39, data 392009-03-0139, 10 de dupla união todos selecionar 39B39, data 392009-04-0139, 40 de dupla união todos selecionar 39B39, data 392009-05-0139, 15 de dupla união todos selecionar 39B39, data 392009-06-0139, 35 de Dupla união todos selecionar 39B39, data 392009-07-0139, 30 de união dupla todos selecionar 39B39, data 392009-08-0139, 30 de união dupla todos selecionar 39B39, data 392009-09-0139, 20 de dupla união todos selecionar 39B39 , Data 392009-10-0139, 20 de dupla união todos selecionam 39B39, data 392009-11-0139, 20 de dupla união todos selecionam 39B39, data 392009-12-0139, 20 de dupla), rns como (data de seleção). . Rownumber () over (partição por produto fim por mês) rn -. 2 (1count () sobre (partição por produto)) k. 0,5 k de dat), res (produto, mês, quantidade, rn, x) como (selecione r. produto, r. month, r. amount, r. rn, r. amount x de rns r onde rn 1 union all select Ns. product, ns. month, ns. amount, ns. rn, ns. k (ns. amount - es. x) es. xx de rns ns, res es onde ns. rn es. rn 1 e ns. product es (EMA de res. Ordem por produto, mês após a computação do formulário fechado eu vim com o seguinte código que se mais como uma ofuscação do que qualquer coisa abrangente. A idéia é criar múltiplos executando usando uma concatenação de seqüência de caracteres ea xml-eval-funcionalidade. As formas fechadas dos casos especiais só precisam de somas correntes. Há um caso geral e dois casos especiais que são muito mais fáceis: com t1 como (selecione o produto, o mês, o montante, o montante ci, o número do rownumber () sobre (partição por ordem de produto por mês) rn, --2 (1 rownumber (Partição por ordem de produto por mês)) ki 0,5 ki de vendas), t2 como (produto selecionado, mês, montante, (caso quando rn 1 então 1 outro ki fim ci) ai, caso quando rn 1 então 1 else Ki) end bi de t1), t3 como (produto SELECT, MONTH, amount, ai, xmlquery), 39,39, 3939 (REPLACE (wmconcat (bi) over (PARTIÇÃO BY product ORDER BY MONTH linhas ) RETORNAR conteúdo).getnumberval () mi FROM t2), t4 como (selecionar produto, mês, quantidade, mi, (ai mi) xi de t3) SELECT produto, MONTH, amount, round BY produto ORDEM POR MONTH linhas entre ENTRADA ilimitada precedente E CORRENTE), 3) ema FROM t4 Caso especial K 0,5: com t1 como (selecione produto, mês, quantidade, rownumber () sobre (partição por produto ordem por mês) rn, quantidade Poder (2, nvl (nullif (r Número de ordem (por ordem de produto por mês) - 1, 0), 1)) ci), produto, mês, valor, rodada (soma (ci) (2, rn), 3) ema de t1 Caso especial K 2 (1 i): com t1 como (selecione produto, mês, quantidade, rownumber () Número de rownumber () sobre (partição por produto ordem por mês) ci de vendas) select product, month, amount, round (sum (ci) over) Rn 1)), 3) ema de t1 I39ll postar a prova da forma fechada se alguém está interessado nele. Este é um ótimo exemplo de quotfun com SQLquot :-) Uma combinação de XMLQuery, o wmconcat não documentado, e funções analíticas com a cláusula windowing. Eu gosto disso. Embora não seja tão abrangente como a variante de cláusula modelo e o Rafu39s recursivo com um, como você mesmo disse. E certamente, gostaria de ver a prova da forma fechada. Abordei outra questão: como otimizar a constante de suavização SELECT k - suavização constante. Mse - erro quadrado médio FROM (SELECT FROM vendas MODEL DIMENSION BY (produto. ROWNUMBER () OVER (PARTITION BY produto ORDEM POR mês ASC) rn) AS P - 0 AS X. 0 AS SE - erro quadrado - - linha de trabalho e atributos - a) linha de trabalho é produto 39X39, rn 1 - b) atributos de trabalho são os seguintes:. 0 AS SSE - soma SE para todos os meses do produto. 0 AS MSE - significa SSE para todos os meses do produto. 0 AS k - para todos os produtos meses. 0 AS PreMSE - pré-MS39 k39s para todos os meses de produtos. 0 AS diff - entre MSE atual e anterior. 0.1 AS delta - incremento inicial. 0 AS priorpt - ponto de partida inicial) REGRAS ITERATE (99) ATÉ (abs (diff39A39,1) lt 0,00010) (Cany, rn amountcv (), cv () K39A39,1 priorpt39A39,1 delta39A39,1. , Rn ORDER BY produto, rn ASC COALESCE (K39A39,1 Ccv (), cv () (1-K39A39,1) Xcv (), cv () - 1, Ccv (), cv ()) Pproduct, rn Xcv (), Cv () - 1. SEproduct, rn POWER (Ccv (), cv () - Xcv (), cv () - 1, 2) SSE39A39,1 SUM (SE) any, any MSE39A39,1 SUM (SE) any, any 24. diff39A39,1 CASE iterationnumber QUANDO 0 então NULL ELSE preMSE39A39,1 - MSE39A39,1 END PreMSE39A39,1 MSE39A39,1 delta39A39,1 CASO QUANDO diff39A39,1 lt 0 THEN - abs (delta39A39, 12) ELSE abs (delta39A39,1) ENDPT39A39,1 K39A39,1)) onde o produto 39A39 e rn 1 K MSE ---------- .599999237 174.01609421 SQL para Análise e Relatórios Tratamento de NULLs como Entrada para Funções de Janela Funções de janela A semântica NULL corresponde à semântica NULL para funções de agregação de SQL. Outras semânticas podem ser obtidas por funções definidas pelo usuário, ou usando a expressão DECODE ou CASE dentro da função window. Funções Windowing com Offset Lógico Um offset lógico pode ser especificado com constantes como RANGE 10 PRECEDING. Ou uma expressão que avalia a uma constante, ou por uma especificação de intervalo como RANGE INTERVAL N DAY MÊS ANO PRECEDING ou uma expressão que avalia a um intervalo. Com o deslocamento lógico, só pode haver uma expressão na lista de expressão ORDER BY na função, com o tipo compatível com NUMERIC se offset for numérico ou DATE se for especificado um intervalo. Exemplo 21-7 Função de agregação cumulativa A seguir, um exemplo de valores acumulados por ID de cliente por trimestre em 1999: Neste exemplo, a função analítica SUM define, para cada linha, uma janela que começa no início da partição (UNBOUNDED PRECEDING ) E termina, por padrão, na linha atual. Sumas aninhadas são necessárias neste exemplo, uma vez que estamos executando uma Soma sobre um valor que é em si uma SOMA. As agregações aninhadas são usadas muitas vezes em funções agregadas analíticas. Exemplo 21-8 Movendo Função Agregada Este exemplo de uma janela baseada em tempo mostra, para um cliente, a média móvel de vendas para o mês atual e dois meses anteriores: Observe que as duas primeiras linhas para o cálculo da média móvel de três meses no Os dados de saída são baseados em um tamanho de intervalo menor do que o especificado porque o cálculo da janela não pode alcançar além dos dados recuperados pela consulta. Você precisa considerar os diferentes tamanhos de janela encontrados nas bordas dos conjuntos de resultados. Em outras palavras, talvez seja necessário modificar a consulta para incluir exatamente o que você deseja. Função agregada centralizada Cálculo das funções de agregação de janelas centralizadas em torno da linha atual é direta. Este exemplo calcula para todos os clientes uma média móvel centrada de vendas para uma semana no final de dezembro de 1999. Apresenta uma média do total de vendas para o dia anterior à linha atual e um dia após a linha atual, incluindo a linha atual também. Exemplo 21-9 Agregado Centrado As linhas inicial e final para cada cálculo de média móvel centrada nos produtos nos dados de saída são baseadas em apenas dois dias, uma vez que o cálculo da janela não pode ultrapassar os dados recuperados pela consulta. Os usuários precisam considerar os diferentes tamanhos de janela encontrados nas bordas dos conjuntos de resultados: a consulta pode precisar ser ajustada. Funções de agrupamento de janelas na presença de duplicatas O exemplo a seguir ilustra como as funções de agregação de janelas calculam valores quando há duplicatas, ou seja, quando várias linhas são retornadas para um único valor de ordenação. A consulta recupera a quantidade vendida a vários clientes durante um intervalo de tempo especificado. A consulta define uma janela em movimento que é executada a partir da data da linha atual para 10 dias mais cedo. Observe que a palavra-chave RANGE É usado para definir a cláusula windowing deste exemplo. Isso significa que a janela potencialmente pode conter muitas linhas para cada valor no intervalo. Neste caso, existem três pares de linhas com valores de data duplicados. Exemplo 21-10 Funções de agrupamento de janelas com deslocamentos lógicos Na saída deste exemplo, todas as datas exceto 6 de maio e 12 de maio retornam duas linhas com datas duplicadas. Examine os números comentados à direita da saída para ver como os valores são calculados. Observe que cada grupo entre parênteses representa os valores retornados para um único dia. Observe que este exemplo se aplica somente quando você usa a palavra-chave RANGE em vez da palavra-chave ROWS. Também é importante lembrar que com RANGE. Você só pode usar uma expressão ORDER BY na função ORDER BY de funções analíticas. Com a palavra-chave ROWS, você pode usar várias ordens por expressões nas funções analíticas ORDER BY. Tamanho variável da janela para cada linha Há situações em que é útil variar o tamanho de uma janela para cada linha, com base em uma condição especificada. Por exemplo, você pode querer fazer a janela maior para certas datas e menor para outros. Suponha que você deseja calcular a média móvel do preço das ações em três dias úteis. Se você tiver um número igual de linhas para cada dia para todos os dias úteis e não dias não úteis forem armazenados, então você pode usar uma função de janela física. No entanto, se as condições observadas não forem cumpridas, você ainda pode calcular uma média móvel usando uma expressão nos parâmetros de tamanho de janela. As expressões em uma especificação de tamanho de janela podem ser feitas em várias fontes diferentes. A expressão pode ser uma referência a uma coluna em uma tabela, como um cronograma. Também pode ser uma função que retorna o limite apropriado para a janela com base em valores na linha atual. A instrução a seguir para um banco de dados de preço de ações hipotético usa uma função definida pelo usuário em sua cláusula RANGE para definir o tamanho da janela: Nesta declaração, ttimekey é um campo de data. Aqui, fn poderia ser uma função PLSQL com a seguinte especificação: 4 se ttimekey é segunda-feira, terça-feira Se algum dos dias anteriores for feriados, ajusta a contagem apropriadamente. Observe que, quando a janela é especificada usando um número em uma função de janela com ORDER BY em uma coluna de data, então ela é convertida para significar o número de dias. Você poderia também ter usado a função de conversão literal de intervalo, como NUMTODSINTERVAL (fn (ttimekey), DAY) em vez de apenas fn (ttimekey) para significar a mesma coisa. Você também pode escrever uma função PLSQL que retorna um valor de tipo de dados INTERVAL. Funções agregadas com compensações físicas Para janelas expressas em linhas, as expressões de ordenação devem ser exclusivas para produzir resultados determinísticos. Por exemplo, a consulta a seguir não é determinística porque timeid não é exclusivo neste conjunto de resultados. Exemplo 21-11 Funções de agrupamento com compensações físicas Uma maneira de lidar com esse problema seria adicionar a coluna prodid ao conjunto de resultados e ordem em timeid e prodid. FIRSTVALUE e LASTVALUE Funções As funções FIRSTVALUE e LASTVALUE permitem que você selecione a primeira e última linhas de uma janela. Estas linhas são especialmente valiosas porque são frequentemente utilizadas como linhas de base nos cálculos. Por exemplo, com uma partição com dados de vendas ordenados por dia, você pode perguntar Quanto foi cada dias de vendas em relação ao primeiro dia de vendas (FIRSTVALUE) do período Ou você pode querer saber, para um conjunto de linhas em ordem de vendas crescente , Qual foi o tamanho percentual de cada venda na região em comparação com a maior venda (LASTVALUE) na região Se a opção IGNORE NULLS é usada com FIRSTVALUE. Ele retornará o primeiro valor não nulo no conjunto ou NULL se todos os valores forem NULL. Se IGNORE NULLS é usado com LASTVALUE. Ele retornará o último valor não nulo no conjunto ou NULL se todos os valores forem NULL. A opção IGNORE NULLS é particularmente útil para preencher corretamente uma tabela de inventário. Relatório de Funções Agregadas Depois de uma consulta ter sido processada, valores agregados como o número de linhas resultantes ou um valor médio em uma coluna podem ser facilmente computados dentro de uma partição e disponibilizados para outras funções de relatório. As funções de agregação de relatórios retornam o mesmo valor agregado para cada linha em uma partição. Seu comportamento com relação a NULLs é o mesmo que as funções de agregação do SQL. A sintaxe é: Além disso, as seguintes condições se aplicam: Um asterisco () é permitido somente em COUNT () DISTINCT é suportado somente se as funções de agregação correspondentes o permitir valor expression1 e value expression2 pode ser qualquer expressão válida envolvendo referências de coluna ou agregados. A cláusula PARTITION BY define os grupos nos quais as funções de janelas serão computadas. Se a cláusula PARTITION BY estiver ausente, a função será calculada sobre todo o conjunto de resultados da consulta. As funções de relatório podem aparecer apenas na cláusula SELECT ou na cláusula ORDER BY. O principal benefício das funções de relatório é a capacidade de fazer várias passagens de dados em um único bloco de consulta e acelerar o desempenho da consulta. Consultas como Contar o número de vendedores com vendas de mais de 10 das vendas da cidade não requerem junções entre blocos de consulta separados. Por exemplo, considere a questão Para cada categoria de produto, localize a região na qual teve vendas máximas. A consulta SQL equivalente usando a função de agregação de relatórios MAX seria: A consulta interna com a função de agregação de relatórios MAX (SUM (montantes)) retorna: Os resultados de consulta completos são: Exemplo 21-12 Relatando Exemplo agregado Relatando agregados combinados com consultas aninhadas habilitar Responder a consultas complexas de forma eficiente. Por exemplo, se você quiser conhecer os produtos mais vendidos em suas subcategorias de produtos mais significativos A seguir está uma consulta que localiza os 5 produtos mais vendidos para cada subcategoria de produtos que contribui com mais de 20 das vendas dentro de sua categoria de produto: RATIOTOREPORT Função A função RATIOTOREPORT calcula a relação de um valor para a soma de um conjunto de valores. Se a expressão valor de expressão é avaliada como NULL. RATIOTOREPORT também avalia NULL. Mas é tratado como zero para calcular a soma dos valores para o denominador. Sua sintaxe é: Neste, o seguinte se aplica: expr pode ser qualquer expressão válida envolvendo referências de coluna ou agregados. A cláusula PARTITION BY define os grupos nos quais a função RATIOTOREPORT deve ser calculada. Se a cláusula PARTITION BY estiver ausente, a função será calculada sobre todo o conjunto de resultados da consulta. Para calcular RATIOTOREPORT de vendas para cada canal, você pode usar a seguinte sintaxe: Funções LAGLEAD As funções LAG e LEAD são úteis para comparar valores quando as posições relativas de linhas podem ser conhecidas de forma confiável. Eles funcionam especificando a contagem de linhas que separam a linha de destino da linha atual. Como as funções fornecem acesso a mais de uma linha de uma tabela ao mesmo tempo sem uma auto-associação, elas podem aumentar a velocidade de processamento. A função LAG fornece acesso a uma linha em um determinado deslocamento antes da posição atual ea função LEAD fornece acesso a uma linha em um determinado deslocamento após a posição atual. Sintaxe LAGLEAD Essas funções têm a seguinte sintaxe: offset é um parâmetro opcional e padrão 1. default é um parâmetro opcional e é o valor retornado se o offset cair fora dos limites da tabela ou partição. Consulte Densificação de dados para relatórios para obter informações que mostram como usar as funções LAG LEAD para fazer consultas de comparação de período a período em dados esparsos. Funções do FIRSTLAST As funções de agregação do FIRSTLAST permitem que você classifique um conjunto de dados e trabalhe com suas fileiras com classificação superior ou inferior. Depois de encontrar as linhas classificadas de topo ou de baixo, uma função agregada é aplicada a qualquer coluna desejada. Ou seja, FIRST LAST permite classificar na coluna A, mas retornar o resultado de um agregado aplicado nas linhas de primeira ou última ordem da coluna B. Isso é valioso porque evita a necessidade de uma auto-união ou subconsulta, assim Melhorando o desempenho. Essas funções sintaxe começa com uma função agregada regular (MIN. MAX. SUM. AVG. COUNT. VARIANCE. STDDEV) que produz um único valor de retorno por grupo. Para especificar o ranking utilizado, as funções FIRST LAST adicionam uma nova cláusula começando com a palavra KEEP. Sintaxe FIRSTLAST Essas funções têm a seguinte sintaxe: Observe que a cláusula ORDER BY pode ter várias expressões. FIRSTLAST Como agregados regulares Você pode usar a família FIRST LAST de agregados como funções agregadas regulares. Exemplo 21-15 FIRSTLAST Exemplo 1 A consulta a seguir permite comparar o preço mínimo eo preço de lista dos nossos produtos. Para cada subcategoria de produtos dentro da categoria Mens clothing, devolve o seguinte: Preço de listagem do produto com o preço mínimo mais baixo Preço mínimo mais baixo Preço de listagem do produto com o preço mínimo mais elevado Preço mais elevado FIRSTLAST Como agregados de relatórios Também pode utilizar o FIRST LAST família de agregados como relatando funções agregadas. Um exemplo é calcular quais meses tiveram o maior e menor aumento na contagem de cabeças ao longo do ano. A sintaxe para essas funções é semelhante à sintaxe para qualquer outro agregado de relatório. Considere o exemplo no Exemplo 21-15 para FIRSTLAST. E se quiséssemos encontrar os preços de tabela de produtos individuais e compará-los com os preços de lista dos produtos em sua subcategoria que tinham os preços mínimos mais altos e mais baixos A consulta a seguir nos permite encontrar essas informações para a subcategoria Documentação usando FIRSTLAST como relatórios Agregados. Exemplo 21-16 Exemplo 2 Utilizando as funções FIRST e LAST como agregados de relatórios, é fácil incluir os resultados em cálculos como Salário como uma porcentagem do salário mais alto. Funções de percentil inverso Usando a função CUMEDIST, você pode encontrar a distribuição cumulativa (percentil) de um conjunto de valores. No entanto, a operação inversa (encontrar que valor calcula a um certo percentil) não é nem fácil nem eficazmente calculada. Para superar esta dificuldade, foram introduzidas as funções PERCENTILECONT e PERCENTILEDISC. Estes podem ser usados ​​tanto como funções de relatório de janela, bem como funções agregadas normais. Essas funções precisam de uma especificação de classificação e um parâmetro que leva um valor de percentil entre 0 e 1. A especificação de classificação é tratada usando uma cláusula ORDER BY com uma expressão. Quando usado como uma função agregada normal, ele retorna um único valor para cada conjunto ordenado. PERCENTILECONT. Que é uma função contínua calculada por interpolação, e PERCENTILEDISC. Que é uma função de etapa que assume valores discretos. Como outros agregados, PERCENTILECONT e PERCENTILEDISC operam em um grupo de linhas em uma consulta agrupada, mas com as seguintes diferenças: Eles exigem um parâmetro entre 0 e 1 (inclusive). Um parâmetro especificado fora dessa faixa resultará em erro. Esse parâmetro deve ser especificado como uma expressão que é avaliada como uma constante. Eles exigem uma especificação de classificação. Esta especificação de ordenação é uma cláusula ORDER BY com uma única expressão. Várias expressões não são permitidas. Sintaxe de agregação normal Percentile inverso Base de exemplo Utilizamos a consulta a seguir para retornar as 17 linhas de dados usadas nos exemplos desta seção: PERCENTILEDISC (x) é calculada digitalizando os valores CUMEDIST em cada grupo até encontrar o primeiro maior do que Ou igual a x. Onde x é o valor percentil especificado. Para a consulta de exemplo onde PERCENTILEDISC (0.5), o resultado é 5.000, como o seguinte ilustra: O resultado de PERCENTILECONT é computado por interpolação linear entre linhas depois de ordená-los. Para calcular PERCENTILECONT (x). Primeiro calculamos o número de linha RN (1x (n-1)), onde n é o número de linhas no grupo e x é o valor percentil especificado. O resultado final da função agregada é calculado por interpolação linear entre os valores de linhas nas linhas números CRN CEIL (RN) e FRN FLOOR (RN). O resultado final será: PERCENTILECONT (X) se (CRN FRN RN), então (valor de expressão da linha em RN) else (CRN - RN) (valor de expressão para a linha em FRN) (RN - FRN) Expressão para linha no CRN). Considere a consulta de exemplo anterior, onde calculamos PERCENTILECONT (0.5). Aqui n é 17. O número de linha RN (1 0,5 (n-1)) 9 para ambos os grupos. Colocando isto na fórmula, (FRNCRN9), devolvemos o valor da linha 9 como resultado. Outro exemplo é, se você quiser calcular PERCENTILECONT (0.66). O número de linha calculado RN (1 0,66 (n-1)) (1 0,6616) 11,67. PERCENTILECONT (0,66) (12-11,67) (valor da linha 11) (11,67-11) (valor da linha 12). Esses resultados são: As funções de agregado percentil inverso podem aparecer na cláusula HAVING de uma consulta como outras funções agregadas existentes. Como agregados de relatórios Você também pode usar as funções agregadas PERCENTILECONT. PERCENTILEDISC como funções de agregação de relatórios. Quando usada como funções de agregação de relatórios, a sintaxe é semelhante à de outros agregados de relatórios. Essa consulta calcula a mesma coisa (limite de crédito médio para os clientes neste conjunto de resultados, mas relata o resultado para cada linha no conjunto de resultados, como mostrado na seguinte saída: Restrições de percentil inverso Para PERCENTILEDISC a expressão na cláusula ORDER BY pode Ser de qualquer tipo de dados que você pode classificar (numérico, seqüência de caracteres, data e assim por diante).No entanto, a expressão na cláusula ORDER BY deve ser um tipo numérico ou datetime (incluindo intervalos) porque interpolação linear é usada para avaliar PERCENTILECONT. Se a expressão for do tipo DATE, o resultado interpolado é arredondado para a unidade mais pequena para o tipo. Para um tipo DATE, o valor interpolado será arredondado para o segundo mais próximo, para os tipos de intervalo para o segundo mais próximo (INTERVAL DAY TO SECOND) Ou ao mês (INTERVALO ANO A MÊS) Como outros agregados, as funções de percentil inverso ignoram NULLs na avaliação do resultado. Por exemplo, quando você deseja encontrar o valor mediano em um conjunto, o Oracle Database ignora o NUL Ls e localiza a mediana entre os valores não nulos. Você pode usar a opção NULLS FIRST NULLS LAST na cláusula ORDER BY, mas eles serão ignorados como NULLs são ignorados. Funções de Classificação e Distribuição Hipotéticas Estas funções fornecem funcionalidade útil para a análise do que-se. Como exemplo, qual seria a classificação de uma linha, se a linha fosse hipoteticamente inserida em um conjunto de outras linhas Esta família de agregados leva um ou mais argumentos de uma linha hipotética e um grupo ordenado de linhas, retornando o RANK. DENSERANK. PERCENTRANK ou CUMEDIST da linha como se fosse hipoteticamente inserido no grupo. Sintaxe hipotética de classificação e distribuição Aqui, expressão constante refere-se a uma expressão que é avaliada como uma constante, e pode haver mais de uma dessas expressões que são passadas como argumentos para a função. A cláusula ORDER BY pode conter uma ou mais expressões que definem a ordem de classificação na qual o ranking será baseado. ASC. DESC. NULLS PRIMEIRO. As opções NULLS LAST estarão disponíveis para cada expressão no ORDER BY. Exemplo 21-17 Classificação e distribuição hipotética Exemplo 1 Usando os dados de preços de tabela da tabela de produtos usados ​​nesta seção, você pode calcular o RANCO. PERCENTRANK e CUMEDIST para uma camisola hipotética com um preço de 50 para a forma como ele se encaixa dentro de cada subcategorias camisola. A consulta e os resultados são: Ao contrário dos agregados de percentil inverso, a cláusula ORDER BY na especificação de ordenação para funções de classificação e distribuição hipotéticas pode ter várias expressões. O número de argumentos e as expressões na cláusula ORDER BY devem ser iguais e os argumentos devem ser expressões constantes do mesmo tipo ou compatível com a expressão ORDER BY correspondente. O seguinte é um exemplo usando dois argumentos em várias funções de classificação hipotética. Exemplo 21-18 Exemplo de classificação e distribuição hipotética 2 Estas funções podem aparecer na cláusula HAVING de uma consulta como outras funções agregadas. Eles não podem ser usados ​​como funções de agregação de relatórios ou funções de agregação de janelas. Funções de Regressão Linear As funções de regressão suportam o ajuste de uma linha de regressão de mínimos quadrados comuns a um conjunto de pares de números. Você pode usá-los como funções agregadas ou janelas ou funções de relatório. As funções são as seguintes: Oracle aplica a função ao conjunto de pares (e1. E2) após a eliminação de todos os pares para os quais e1 ou e2 é nulo. E1 é interpretado como um valor da variável dependente (um valor y), e e2 é interpretado como um valor da variável independente (um valor x). Ambas as expressões devem ser números. As funções de regressão são todas computadas simultaneamente durante uma única passagem através dos dados. Eles são freqüentemente combinados com o COVARPOP. COVARSAMP. E funções CORR. REGRCOUNT Função REGRCOUNT retorna o número de pares de números não nulos usados ​​para ajustar a linha de regressão. Se aplicada a um conjunto vazio (ou se não existirem pares (e1, e2) onde nem e1 ou e2 é nulo), a função retorna 0. REGRAVGY e REGRAVGX Funções REGRAVGY e REGRAVGX calculam as médias da variável dependente e as independentes Variável da linha de regressão, respectivamente. REGRAVGY calcula a média de seu primeiro argumento (e1) depois de eliminar (e1. E2) pares onde ou de e1 ou e2 é nulo. Da mesma forma, REGRAVGX calcula a média de seu segundo argumento (e2) após a eliminação nula. Ambas as funções retornam NULL se aplicado a um conjunto vazio. REGRSLOPE e REGRINTERCEPT Funções A função REGRSLOPE calcula a inclinação da linha de regressão ajustada aos pares não nulos (e1. E2). A função REGRINTERCEPT calcula o intercepto-y da linha de regressão. REGRINTERCEPT retorna NULL sempre inclinação ou as médias de regressão são NULL. Função REGRR2 A função REGRR2 calcula o coeficiente de determinação (geralmente chamado R-quadrado ou bondade de ajuste) para a linha de regressão. REGRR2 retorna valores entre 0 e 1 quando a linha de regressão é definida (inclinação da linha não é nula), e retorna NULL caso contrário. Quanto mais próximo o valor for 1, melhor a linha de regressão se ajusta aos dados. REGRSXX, REGRSYY e REGRSXY Funções REGRSXX. As funções REGRSYY e REGRSXY são utilizadas na computação de várias estatísticas de diagnóstico para análise de regressão. Depois de eliminar (e1. E2) pares onde ou de e1 ou e2 é nulo, estas funções fazem os seguintes cálculos: Regressão Linear Estatísticas Exemplos Algumas estatísticas diagnósticas comuns que acompanham a análise de regressão linear são dadas na Tabela 21-2, Expressões . Observe que isso libera novas funções permitem que você calcule tudo isso. Tabela 21-2 Estatísticas de diagnóstico comuns e suas expressões Cálculo de regressão linear de amostra Neste exemplo, calculamos uma linha de regressão de mínimos quadrados ordinários que expressa a quantidade vendida de um produto como uma função linear do preço de lista de produtos. The calculations are grouped by sales channel. The values SLOPE. INTCPT. RSQR are slope, intercept, and coefficient of determination of the regression line, respectively. The (integer) value COUNT is the number of products in each channel for whom both quantity sold and list price data are available. Frequent Itemsets Instead of counting how often a given event occurs (for example, how often someone has purchased milk at the grocery), frequent itemsets provides a mechanism for counting how often multiple events occur together (for example, how often someone has purchased both milk and cereal together at the grocery store). The input to the frequent-itemsets operation is a set of data that represents collections of items (itemsets). Some examples of itemsets could be all of the products that a given customer purchased in a single trip to the grocery store (commonly called a market basket), the web-pages that a user accessed in a single session, or the financial services that a given customer utilizes. The notion of a frequent itemset is to find those itemsets that occur most often. If you apply the frequent-itemset operator to a grocery stores point-of-sale data, you might, for example, discover that milk and bananas are the most commonly bought pair of items. Frequent itemsets have thus been used in business intelligence environments for many years, with the most common one being for market basket analysis in the retail industry. Frequent itemsets are integrated with the database, operating on top of relational tables and accessed through SQL. This integration provides a couple of key benefits: Applications that previously relied on frequent itemset operations now benefit from significantly improved performance as well as simpler implementation. SQL-based applications that did not previously use frequent itemsets can now be easily extended to take advantage of this functionality. Frequent itemsets analysis is performed with the PLSQL package DBMSFREQUENTITEMSETS. See PLSQL Packages and Types Reference for more information. Other Statistical Functions Oracle introduces a set of SQL statistical functions and a statistics package, DBMSSTATFUNCS. This section lists some of the new functions along with basic syntax. See PLSQL Packages and Types Reference for detailed information about the DBMSSTATFUNCS package and Oracle Database SQL Reference for syntax and semantics. Descriptive Statistics You can calculate the following descriptive statistics: Median of a Data Set Mode of a Data Set You can calculate the following parametric statistics: Spearmans rho Coefficient Kendalls tau-b Coefficient In addition to the functions, this release has a new PLSQL package, DBMSSTATFUNCS. It contains the descriptive statistical function SUMMARY along with functions to support distribution fitting. The SUMMARY function summarizes a numerical column of a table with a variety of descriptive statistics. The five distribution fitting functions support normal, uniform, Weibull, Poisson, and exponential distributions. WIDTHBUCKET Function For a given expression, the WIDTHBUCKET function returns the bucket number that the result of this expression will be assigned after it is evaluated. You can generate equiwidth histograms with this function. Equiwidth histograms divide data sets into buckets whose interval size (highest value to lowest value) is equal. The number of rows held by each bucket will vary. A related function, NTILE. creates equiheight buckets. Equiwidth histograms can be generated only for numeric, date or datetime types. So the first three parameters should be all numeric expressions or all date expressions. Other types of expressions are not allowed. If the first parameter is NULL. the result is NULL. If the second or the third parameter is NULL. an error message is returned, as a NULL value cannot denote any end point (or any point) for a range in a date or numeric value dimension. The last parameter (number of buckets) should be a numeric expression that evaluates to a positive integer value 0, NULL. or a negative value will result in an error. Buckets are numbered from 0 to ( n 1). Bucket 0 holds the count of values less than the minimum. Bucket( n 1) holds the count of values greater than or equal to the maximum specified value. WIDTHBUCKET Syntax The WIDTHBUCKET takes four expressions as parameters. The first parameter is the expression that the equiwidth histogram is for. The second and third parameters are expressions that denote the end points of the acceptable range for the first parameter. The fourth parameter denotes the number of buckets. Consider the following data from table customers. that shows the credit limits of 17 customers. This data is gathered in the query shown in Example 21-19 . In the table customers. the column custcreditlimit contains values between 1500 and 15000, and we can assign the values to four equiwidth buckets, numbered from 1 to 4, by using WIDTHBUCKET (custcreditlimit, 0, 20000, 4). Ideally each bucket is a closed-open interval of the real number line, for example, bucket number 2 is assigned to scores between 5000.0000 and 9999.9999. sometimes denoted 5000, 10000) to indicate that 5,000 is included in the interval and 10,000 is excluded. To accommodate values outside the range 0, 20,000), values less than 0 are assigned to a designated underflow bucket which is numbered 0, and values greater than or equal to 20,000 are assigned to a designated overflow bucket which is numbered 5 (num buckets 1 in general). See Figure 21-3 for a graphical illustration of how the buckets are assigned. You can specify the bounds in the reverse order, for example, WIDTHBUCKET ( custcreditlimit. 20000. 0. 4 ). When the bounds are reversed, the buckets will be open-closed intervals. In this example, bucket number 1 is ( 15000,20000 , bucket number 2 is ( 10000,15000 , and bucket number 4, is ( 0 ,5000. The overflow bucket will be numbered 0 ( 20000. infinity ), and the underflow bucket will be numbered 5 (- infinity. 0 . It is an error if the bucket count parameter is 0 or negative. The followin g query shows the bucket numbers for the credit limits in the customers table for both cases where the boundaries are specified in regular or reverse order. We use a range of 0 to 20,000. User-Defined Aggregate Functions Oracle offers a facility for creating your own functions, called user-defined aggregate functions. These functions are written in programming languages such as PLSQL, Java, and C, and can be used as analytic functions or aggregates in materialized views. See Oracle Data Cartridge Developers Guide for further information regarding syntax and restrictions. The advantages of these functions are: Highly complex functions can be programmed using a fully proced ural language. Higher scalability than other techniques when user-defined functions are programmed for parallel processing. Object datatypes can be processed. As a simple example of a user-defined aggregate function, consider the skew statistic. This calculation measures if a data set has a lopsided distribution about its mean. It will tell you if one tail of the distribution is significantly larger than the other. If you created a user-defined aggregate called udskew and applied it to the credit limit data in the prior example, the SQL statement and results might look like this: Before building user-defined aggregate functions, you should consider if your needs can be met in regular SQL. Many complex calculations are possible directly in SQL, particularly by using the CASE expression. Staying with regular SQL will enable simpler development, and many query operations are already well-parallelized in SQL. Even the earlier example, the skew statistic, can be created using standard, albeit lengthy, SQL. CASE Expressions Oracle now supports simple and searched CASE statements. CASE statements are similar in purpose to the DECODE statement, but they offer more flexibility and logical power. They are also easier to read than traditional DECODE statements, and offer better performance as well. They are commonly used when breaking categories into buckets like age (for example, 20-29, 30-39, and so on). The syntax for simple statements is: The syntax for searched statements is: You can specify only 255 arguments and each WHEN. THEN pair counts as two arguments. For a workaround to this limit, see Oracle Database SQL Reference . Suppose you wanted to find the average salary of all employees in the company. If an employees salary is less than 2000, you want the query to use 2000 instead. Without a CASE statement, you would have to write this query as follows, In this, foo is a function that returns its input if the input is greater than 2000, and returns 2000 otherwise. The query has performance implications because it needs to invoke a function for each row. Writing custom functions can also add to the development load. Using CASE expressions in the database without PLSQL, this query can be rewritten as: Using a CASE expression lets you avoid developing custom functions and can also perform faster. Creating Histograms With User-Defined Buckets You can use the CASE statement when you want to obtain histograms with user-defined buckets (both in number of buckets and width of each bucket). The following are two examples of histograms created with CASE statements. In the first example, the histogram totals are shown in multiple columns and a single row is returned. In the second example, the histogram is shown with a label column and a single column for totals, and multiple rows are returned. Example 21-21 Histogram Example 1 Example 21-22 Histogram Example 2 Data Densification for Reporting Data is normally stored in sparse form. That is, if no value exists for a given combination of dimension values, no row exists in the fact table. However, you may want to view the data in dense form, with rows for all combination of dimension values displayed even when no fact data exist for them. For example, if a product did not sell during a particular time period, you may still want to see the product for that time period with zero sales value next to it. Moreover, time series calculations can be performed most easily when data is dense along the time dimension. This is because dense data will fill a consistent number of rows for each period, which in turn makes it simple to use the analytic windowing functions with physical offsets. Data densification is the process of converting spare data into dense form. To overcome the problem of sparsity, you can use a partitioned outer join to fill the gaps in a time series or any other dimension. Such a join extends the conventional outer join syntax by applying the outer join to each logical partition defined in a query. Oracle logically partitions the rows in your query based on the expression you specify in the PARTITION BY clause. The result of a partitioned outer join is a UNION of the outer joins of each of the partitions in the logically partitioned table with the table on the other side of the join. Note that you can use this type of join to fill the gaps in any dimension, not just the time dimension. Most of the examples here focus on the time dimension because it is the dimension most frequently used as a basis for comparisons. Partition Join Syntax The syntax for partitioned outer join extends the ANSI SQL JOIN clause with the phrase PARTITION BY followed by an expression list. The expressions in the list specify the group to which the outer join is applied. The following are the two forms of syntax normally used for partitioned outer join: Note that FULL OUTER JOIN is not supported with a partitioned outer join. Sample of Sparse Data A typi cal situation with a sparse dimension is shown in the following example, which computes the weekly sales and year-to-date sales for the product Bounce for weeks 20-30 in 2000 and 2001: In this example, we would expect 22 rows of data (11 weeks each from 2 years) if the data were dense. However we get only 18 rows because weeks 25 and 26 are missing in 2000, and weeks 26 and 28 in 2001. Filling Gaps in Data We can take the sparse data of the preceding query and do a partitioned outer join with a dense set of time data. In the following query, we alias our original query as v and we select data from the times table, which we alias as t. Here we retrieve 22 rows because there are no gaps in the series. The four added rows each have 0 as their Sales value set to 0 by using the NVL function. Note that in this query, a WHERE condition was placed for weeks between 20 and 30 in the inline view for the time dimension. This was introduced to keep the result set small. Filling Gaps in Two Dimensions N-dimensional data is typically displayed as a dense 2-dimensional cross tab of (n - 2) page dimensions. This requires that all dimension values for the two dimensions appearing in the cross tab be filled in. The following is another example where the partitioned outer join capability can be used for filling the gaps on two dimensions: In this query, the WITH sub-query factoring clause v1. summarizes sales data at the product, country, and year level. This result is sparse but users may want to see all the country, year combinations for each product. To achieve this, we take each partition of v1 based on product values and outer join it on the country dimension first. This will give us all values of country for each product. We then take that result and partition it on product and country values and then outer join it on time dimension. This will give us all time values for each product and country combination. Filling Gaps in an Inventory Table An inventory table typically tracks quantity of units available for various products. This table is sparse: it only stores a row for a product when there is an event. For a sales table, the event is a sale, and for the inventory table, the event is a change in quantity available for a product. For example, consider the following inventory table: The inventory table now has the following rows: For reporting purposes, users may want to see this inventory data differently. For example, they may want to see all values of time for each product. This can be accomplished using partitioned outer join. In addition, for the newly inserted rows of missing time periods, users may want to see the values for quantity of units column to be carried over from the most recent existing time period. The latter can be accomplished using analytic window function LASTVALUE value. Here is the query and the desired output: The inner query computes a partitioned outer join on time within each product. The inner query densifies the data on the time dimension (meaning the time dimension will now have a row for each day of the week). However, the measure column quantity will have nulls for the newly added rows (see the output in the column quantity in the following results. The outer query uses the analytic function LASTVALUE. Applying this function partitions the data by product and orders the data on the time dimension column ( timeid ). For each row, the function finds the last non-null value in the window due to the option IGNORE NULLS. which you can use with both LASTVALUE and FIRSTVALUE. We see the desired output in the column repeatedquantity in the following output: Computing Data Values to Fill Gaps Examples in previous section illustrate how to use partitioned outer join to fill gaps in one or more dimensions. However, the result sets produced by partitioned outer join have null values for columns that are not included in the PARTITION BY list. Typically, these are measure columns. Users can make use of analytic SQL functions to replace those null values with a non-null value. For example, the following q uery computes monthly totals for products 64MB Memory card and DVD-R Discs (product IDs 122 and 136) for the year 2000. It uses partitioned outer join to densify data for all months. For the missing months, it then uses the analytic SQL function AVG to compute the sales and units to be the average of the months when the product was sold. If working in SQLPlus, the following two commands will wrap the column headings for greater readability of results: Time Series Calculations on Densified Data Densificatio n is not just for reporting purpose. It also enables certain types of calculations, especially, time series calculations. Time series calculations are easier when data is dense along the time dimension. Dense data has a consistent number of rows for each time periods which in turn make it simple to use analytic window functions with physical offsets. To illustrate, lets first take the example on Filling Gaps in Data. and lets add an analytic function to that query. In the following enhanced version, we calculate weekly year-to-date sales alongside the weekly sales. The NULL values that the partitioned outer join inserts in making the time series dense are handled in the usual way: the SUM function treats them as 0s. Period-to-Period Comparison for One Time Level: Example How do we use this feature to compare values across time periods Specifically, how do we calculate a year-over-year sales comparison at the week level The following query returns on the same row, for each product, the year-to-date sales for each week of 2001 with that of 2000. Note that in this example we start with a WITH clause. This improves readability of the query and lets us focus on the partitioned outer join. If working in SQLPlus, the following command will wrap the column headings for greater readability of results: In the FROM clause of the in-line view densesales. we use a partitioned outer join of aggregate view v and time view t to fill gaps in the sales data along the time dimension. The output of the partitioned outer join is then processed by the analytic function SUM. OVER to compute the weekly year-to-date sales (the weeklyytdsales column). Thus, the view densesales computes the year-to-date sales data for each week, including those missing in the aggregate view s. The in-line view yearoveryearsales then computes the year ago weekly year-to-date sales using the LAG function. The LAG function labeled weeklyytdsalesprioryear specifies a PARTITION BY clause that pairs rows for the same week of years 2000 and 2001 into a single partition. We then pass an offset of 1 to the LAG function to get the weekly year to date sales for the prior year. The outermost query block selects data from yearoveryearsales with the condition yr 2001, and thus the query returns, for each product, its weekly year-to-date sales in the specified weeks of years 2001 and 2000. Period-to-Period Comparison for Multiple Time Levels: Example While the prior example shows us a way to create comparisons for a single time level, it would be even more useful to handle multiple time levels in a single query. For example, we could compare sales versus the prior period at the year, quarter, month and day levels. How can we create a query which performs a year-over-year comparison of year-to-date sales for all levels of our time hierarchy We will take several steps to perform this task. The goal is a single query with comparisons at the day, week, month, quarter, and year level. The steps are as follows: We will create a view called cubeprodtime. which holds a hierarchical cube of sales aggregated across times and products . Then we will create a view of the time dimension to use as an edge of the cube. The time edge, which holds a complete set of dates, will be partitioned outer joined to the sparse data in the view cubeprodtime . Finally, for maximum performance, we will create a materialized view, mvprodtime. built using the same definition as cubeprodtime . For more information regarding hierarchical cubes, see Chapter 20, SQL for Aggregation in Data Warehouses. The materialized view is defined using the following statement: Step 1 Create the hierarchical cube view The materialized view shown in the following may already exist in your system if not, create it now. If you must generate it, please note that we limit the query to just two products to keep processing time short: Because this view is limited to two products, it returns just over 2200 rows. Note that the column HierarchicalTime contains string representations of time from all levels of the time hierarchy. The CASE expression used for the HierarchicalTime column appends a marker (0, 1. ) to each date string to denote the time level of the value. A 0 represents the year level, 1 is quarters, 2 is months, and 3 is day. Note that the GROUP BY clause is a concatenated ROLLUP which specifies the rollup hierarchy for the time and product dimensions. The GROUP BY clause is what determines the hierarchical cube contents. Step 2 Create the view edgetime, which is a complete set of date values edgetime is the source for filling time gaps in the hierarchical cube using a partitioned outer join. The column HierarchicalTime in edgetime will be used in a partitioned join with the HierarchicalTime column in the view cubeprodtime. The following statement defines edgetime : Step 3 Create the materialized view mvprodtime to support faster performance The materialized view definition is a duplicate of the view cubeprodtime defined earlier. Because it is a duplicate query, references to cubeprodtime will be rewritten to use the mvprodtime materialized view. The following materialized may already exist in your system if not, create it now. If you must generate it, please note that we limit the query to just two products to keep processing time short. Step 4 Create the comparison query We have now set the stage for our comparison query. We can obtain period-to-period comparison calculations at all time levels. It requires applying analytic functions to a hierarchical cube with dense data along the time dimension. Some of the calculations we can achieve for each time level are: Sum of sales for prior period at all levels of time. Variance in sales over prior period. Sum of sales in the same period a year ago at all levels of time. Variance in sales over the same period last year. The following example performs all four of these calculations. It uses a partitioned outer join of the views cubeprodtime and edgetime to create an in-line view of dense data called densecubeprodtime. The query then uses the LAG function in the same way as the prior single-level example. The outer WHERE clause specifies time at three levels: the days of August 2001, the entire month, and the entire third quarter of 2001. Note that the last two rows of the results contain the month level and quarter level aggregations. Note: To make the results easier to read if you are using SQLPlus, the column headings should be adjusted with the following commands. The commands will fold the column headings to reduce line length: Here is the query comparing current sales to prior and year ago sales: The first LAG function ( salespriorperiod ) partitions the data on gidp. cat. subcat. prod. gidt and orders the rows on all the time dimension columns. It gets the sales value of the prior period by passing an offset of 1. The second LAG function ( salessameperiodprioryear ) partitions the data on additional columns qtrnum. monnum. and daynum and orders it on yr so that, with an offset of 1, it can compute the year ago sales for the same period. The outermost SELECT clause computes the variances. Creating a Custom Member in a Dimension: Example In many OLAP tasks, it is helpful to define custom members in a dimension. For instance, you might define a specialized time period for analyses. You can use a partitioned outer join to temporarily add a member to a dimension. Note that the new SQL MODEL clause is suitable for creating more complex scenarios involving new members in dimensions. See Chapter 22, SQL for Modeling for more information on this topic. As an example of a task, what if we want to define a new member for our time dimension We want to create a 13th member of the Month level in our time dimension. This 13th month is defined as the summation of the sales for each product in the first month of each quarter of year 2001. The solution has two steps. Note that we will build this solution using the views and tables created in the prior example. Two steps are required. First, create a view with the new member added to the appropriate dimension. The view uses a UNION ALL operation to add the new member. To query using the custom member, use a CASE expression and a partitioned outer join. Our new member for the time dimension is created with the following view: In this statement, the view timec is defined by performing a UNION ALL of the edgetime view (defined in the prior example) and the user-defined 13th month. The gidt value of 8 was chosen to differentiate the custom member from the standard members. The UNION ALL specifies the attributes for a 13th month member by doing a SELECT from the DUAL table. Note that the grouping id, column gidt. is set to 8, and the quarter number is set to 5. Then, the second step is to use an inline view of the query to perform a partitioned outer join of cubeprodtime with timec. This step creates sales data for the 13th month at each level of product aggregation. In the main query, the analytic function SUM is used with a CASE expression to compute the 13th month, which is defined as the summation of the first months sales of each quarter. The SUM function uses a CASE to limit the data to months 1, 4, 7, and 10 within each year. Due to the tiny data set, with just 2 products, the rollup values of the results are necessarily repetitions of lower level aggregations. For more realistic set of rollup values, you can include more products from the Game Console and Y Box Games subcategories in the underlying materialized view. Exponential moving average in T-SQL Exponential moving averages are similar to weighted moving averages in that they assign less weight to changes long ago, and more weight to recent changes. Weighted moving averages are linear, but exponential moving averages are exponential. That is, the weight can be expressed as a curve: There is a great way to calculate exponential moving averages in T-SQL using an undocumented feature about variables and running totals in SQL Server. Nesta postagem do blog vou mostrar como usar esse método para calcular a média móvel exponencial em T-SQL, mas também apresentarei um método que está usando recursos padrão no SQL Server. Infelizmente, isso significa usar um loop. Nos exemplos vou calcular uma média móvel exponencial de 9 dias. The examples use the database TAdb. Um script para criar TAdb pode ser encontrado aqui. A teoria por trás dos recursos totais em atualizações é descrita em detalhes por Jeff Moden em seu artigo Resolvendo os Problemas de Total Corrente e Ordinal Rank. Other resources that describe using this method to calculate EMA are the blog post Calculating Moving Averages with T-SQL by Gabriel Priester and the forum post Exponential Moving Average Challenge. Ambos no SQL Server Central. Basicamente, no T-SQL você pode atualizar variáveis, bem como colunas em uma instrução de atualização. As atualizações são feitas linha a linha internamente pelo SQL Server. Esse comportamento linha a linha é o que torna o cálculo de um total em execução possível. Este exemplo mostra como ele funciona: Observe que 8220ColumnRunningTotal8221 é um total de execução de 8220ColumnToSum8221. Usando este método, podemos calcular EMA9 com este T-SQL: O cálculo de EMA é bastante simples. We use the current row and the previous, but with more weight to the current row. O peso é calculado pela fórmula 2 (19), onde 822098221 é o parâmetro para o comprimento do EMA. To calculate EMA9 for row 10 above, the calculation is: In this case the current row gets 20 of the weight (2(19)0.2) and the previous row gets 80 of the weight (1-2(19)0.8). You find this calculation in the statement above in the CASE statement: Exponential Moving Average (EMA): Looping Method As far as I know, except for the running totals method outlined above, there is no way to calculate EMA using a set based SQL statement. Therefore, the T-SQL below is using a while loop to calculate EMA9: The results are the same as in the running totals example above. Performance As expected, the set based running totals version is way faster than the loop version. On my machine the set based solution was about 300 ms, compared to about 1200 with the loop version. A versão do laço é mais conforme aos padrões do SQL entretanto. So the choice between the methods depends on what8217s most important for you, performance or standards. A média móvel exponencial pode ser utilizada na análise de tendências, como nos outros tipos de médias móveis, média móvel simples (SMA) e média móvel ponderada (WMA). There are also other calculations in technical analysis that uses the EMA, MACD for instance. Este blog é parte de uma série sobre análise técnica, TA, no SQL Server. Veja os outros posts aqui. Postado por Tomas Lind Tomas Lind - Serviços de consultoria como SQL Server DBA e desenvolvedor de banco de dados na High Coast Database Solutions AB.

No comments:

Post a Comment