Análise de atrito e detecção em um negócio de telecomunicações

Bitcoin é um enxame de cyber horners Servindo a Deusa da Sabedoria, alimentando-se do fogo da verdade, crescendo exponencialmente mais inteligente, mais rápido e mais forte atrás de uma parede de energia criptografada

II.6 Técnicas Datamining

Por trás dessas análises são ferramentas posicionadas em diferentes técnicas. Oferecemos uma apresentação das mais importantes técnicas.

– Análise do carrinho da dona de casa

– Raciocínio com base na memória

– detecção automática de clusters

– análise de links

– árvores de decisão

– redes neurais

– descoberta das regras

– sinal de processamento

– fractais

II.6.1 Análise da cesta de lâmpada

A análise da dona de casa é um meio para encontrar os grupos de “artigos que acompanham durante um Transação.Esta é uma técnica de descoberta de conhecimento não processado (tipo análise de clusters) que gera regras etsupporting a análise da série temporal (se as transações não são anônimas). As regras geradas são simples, fáceis de entender e acompanhadas de uma probabilidade, que é infectada com uma ferramenta agradável e explorada diretamente pelo usuário.

Exemplo: o cliente que compra de pintar um pincel

O cliente que compra o chá compra Dusucre

II.6.2 Análise de links

A análise dos links é uma técnica de descrição que inspira e depende da teoria do gráfico. Consiste nas entidades entre eles (clientes, empresas, …) por Deslox. Em cada link é afetado um peso, definido pela análise, que quantifica a força desse relacionamento. Esta técnica pode ser usada para a previsão ou classificação, mas uma simples observação do gráfico permite realizar a análise.

II.6.3 As árvores de decisão

As árvores de decisão são usados no lecadre da descoberta do conhecimento dirigido. Estas são ferramentas muito poderosas usadas principalmente para laclassificação, descrição ou estimativa. O princípio da operação é o seguinte: Para explicar uma variável, a pesquisa do sistema é mais decisiva e corta as populações da população com a mesma entidade de Ceceriteère. Cada sub-população é então analisada como uma colisão inicial. O modelo renderizado é fácil de entender e as regras encontradas são muito explícitas. O CESYSTEM é, portanto, muito apreciado.

O objetivo desta técnica é criar um eixo de dedicação prosseguindo para uma análise de critério. A determinação desses critérios significativos é feita de acordo com os pesos estatísticos dos valores. A ferramenta de tabela de mineração de dados Os diferentes critérios possíveis, que serão para encontrar links entre os caminhos que têm um dos problemas fornecidos.

Damos um conjunto X de N cujos elementos são observados XI e cujos atributos são quantitativo. Cada elemento do X é rotulado, ou seja, ele está associado a ele uma classe ou um atributo alvo que denotamos pertencendo a Y.

A partir do acima, construímos a UNARBRE disse “decisão” tal que:

– Cada nó corresponde a um teste no valor de um múltiplos atributos;

– Cada ramo que começa a partir de um nó corresponde a um valores de OUssee deste teste;

As árvores de decisão são para laclassificação e previsão.

Sua operação é baseada em uma encadeamento de regras expressas no idioma atual.

Uma árvore de decisão é uma estrutura que permite um resultado de um resultado das decisões. Para navegar em uma árvore de decisão e encontrar uma solução da raiz. Cada nó é uma decisão atômica.Cada resposta possível é levada em conta e permite que você dirija para um filho do nó. Perto de perto, descemos no treejust para cair em uma folha. A folha representa a árvore que a árvore traz para o caso que acabamos de testar.

– Comece na raiz da árvore

– desça para a árvore na árvore passando Os nós de teste

– A folha de ponta a ponta permite classificar a instância testada.

Muitas vezes consideramos que um nó que estabelece sobre uma variável, o valor que esta variável faz É possível saber sobre quais fios. Para as variáveis enumeradas, às vezes é possível ter um filho por valor, também pode decidir que várias variáveis diferentes levam ao mesmo debaixo da árvore.Para variáveis contínuas, não é imaginável criar um nó potencialmente insistido por um número de encadeamentos infinitos, o domínio contínuo (arredondado, aproximação) deve ser desconectado, portanto, decidir segmentar o domínio nos conjuntos. Quanto mais fácil a árvore é simples, e quanto mais aparentemente rápido para usar. Na verdade, é mais interessante obter uma árvore que é adaptada às probabilidades de variáveis para testar. Na maioria das vezes, uma árvore equilibrada será o resultado do comportamento. Se uma árvore só puder levar a uma solução, toda essa subárvore pode ser reduzida à conclusão da Sasimple, simplifica o tratamento e não altera nada final.

O algoritmo ID3 foi proposto por Quinlan em 1979 para gerar decisões de dedão. Imagine que temos à nossa disposição um conjunto de registro. Todos os registros têm a mesma estrutura, ou seja, vários pares ou valor de atributos. Um dos sesattributos representa a categoria de gravação. O leproblem é construir uma árvore de decisão que a base de respostas a perguntas em atributos não-alvo possam prever corretamente o valor do atributo. Muitas vezes, o atributo de destino leva apenas valores verdadeiros, false ouececec, sucesso.

As principais idéias em que o restante do ID3 são os usuários:

Na árvore de decisão Cada nó corresponde a um não atributo de destino e cada arco a um possível atributo decet. Uma folha do eixo fornece o valor esperado do atributo de destino para o registro testado descrito pelo caminho da raiz da árvore de decisão até a folha.

Na árvore de decisão, em cada nó deve estar associado ao atributo não-alvo, que fornece as informações de outros atributos ainda não utilizados no caminho da raiz. (Critério de uma boa dedicação)

A entropia é usada para medir as informações da máquina fornecidas por um nó. (Esta noção prevista introduzida por Claude Shannon durante a sua pesquisa da Teoria da Informação que serve de base de métodos de mineração de dados.)

Uma árvore de decisão pode ser explorada Diddore Manners:

Ø classificando novos dados (um cidracina pelo qual entre os registros),

Ø, tornando a estimativa de atributo,

Ø Extraindo um conjunto de declaração de regras em relação ao atributo de destino,

Ø interpretando a relevância dos atributos do dessoadeade da folha que correspondem a uma classificação.

FIG> 4 As árvores de decisão

a. O carrinho

Este algoritmo foi publicado em 1984 Parl.Bremen. É usado em muitas ferramentas de mercado.

Processo

Ø Encontre a primeira bifurcação,

Ø Desenvolver o eixo completo,

Ø Meça a taxa de erro em cada nó,

Ø Calcule a taxa de erro da árvore inteira,

Ø elaguer,

Ø Identifique as subtaces,

Ø Avaliar as subárvores,

Ø Avalie a melhor subárvore.

A primeira bifurcação é aquela que divide registros melhores em grupos. Assim, para determinar o critério que fará com que o melhor compartilhamento entre os elementos, um índice de diversidade é calculado, de acordo com a seguinte fórmula:

max. De: Diversidade (Antes da Divisão) – (Diversidade Esquerda Filho + Fio Reta Diversidade)

Existem diferentes modos de cálculo para o índice de dedicação:

Ø min. (Probabilidade (C1), Probabilidade (C2)),

Ø 2 Probabilidade (C1) Probabilidade (C2),

Ø (probabilidade (C1) Logprobabilidade (C1)) + probabilidade (C2) LOGPBABILIDADE (C2))

fig: 5 O algoritmo de Decart

Uma vez estabelecida a primeira bifurcação, por isso temos o nó raiz que se separa ao meio. O treinador é, portanto, desenvolver a árvore completa dividindo os novos nós criados a partir de Lamême, e assim o resultado da divisão tem um valor significativo. O nó Lenner sendo o nó da folha que fornece a classificação final de um registro.

A árvore resultante não é necessariamente a mesma, a próxima etapa é calcular a taxa de erro para o nó. Se assumirmos que 11 gravações em 15 são corretamente com base na montagem de aprendizagem, a exploração para este nó é 11/15 ou 0,7333. A taxa de erro é de 1 – 0,7333 = 0,2667.O cálculo da taxa de erro de cada nó sendo feito, é possível calcular a taxa de erro de toda a árvore:

T: taxa de erro de um nó

p: probabilidade para ir ao nó

taxa de erro do eixo = (t * p)

No exemplo, com uma taxa de erro (15/17) para Lenoim masculino

((11/15) * 0,80) + ((15/17) * 0,20) = 0,763

o perigo da árvore de decisão, conforme descrito no final da primeira passagem, É que certos neonesfouls não contêm gravações suficientes para seres informativos. Deve ser podada, o ser mais complexo para encontrar o bom limite para aplicar.

A escolha dos ramos a ser excluída, é feita por intermediário da taxa de erro ajustada de um eixo que se secrale, em cada Árvore Sub Possível, como segue:

A licença das folhas

taxa de erro ajustada = taxa de erro + contagem de feuil

Uma primeira sob a árvore é candidate quando Sua taxa de erro ajustada torna-se menor ou igual à taxa de erro ajustada a árvore inteira. Todos os ramos, que não fazem parte dele, o sovels e o processo começa novamente até a raiz até então.

Então você tem que escolher entre todos os tremores. Para isso, cada uma árvore sob uma árvore será executada com um teste inteiro, aquele que terá a menor taxa de erro será o melhor.

Finalmente para controlar a eficiência do Tremor, um conjunto de avaliação para ele. Sua taxa de erro obtida dará uma estimativa do desempenho da árvore.

primeiro, chaid usa para escolher as bifurcações quettest de Chi-2, que não serão detalhar aqui.

e Finalmente, ao contrário dos outros, não desenvolve uma árvore cheia e, em seguida, podendo, mas tenta a transição de limitar seu crescimento.

b. O algoritmo ID3

O princípio do algoritmo ID3 para determinar o atributo para colocar na raiz da árvore de decisão agora pode ser expresso: para pesquisar o atributo que apontou o ganho de informação máxima, o lugar na raiz , eitando para cada filho, isto é, para cada valor do atributo. Dito isto, podemos dar o algorithmeid3.

Entradas: conjunto de atributos a; amostra e; Classe C

Iniciar

Inicialize para o eixo vazio;

Se todos os exemplos de e tiver Lamême Classe C

Então rotule o parque Raiz; caso contrário, se todos os atributos estiverem vazios

, em seguida, rotule a laracina pela aula da maioria em e;

Caso contrário, seja o melhor atributo escolhido em A;

rótulo O para –

para qualquer valor VDE A

Construa uma bandeja de tira por v;

Deixe AEV l Conjunto de exemplos como E (a) = V ;

Adicione o eixo construído parid3 (a- {a}, eaev, c);

finpour

finsinon

finsinon

root de retorno;

final

anteriorSomairesutante

Deixe uma resposta

O seu endereço de email não será publicado. Campos obrigatórios marcados com *