Conceitos Fundamentais de Machine Learning

Classificado em Matemática

Escrito em em português com um tamanho de 4,92 KB

Distância e Agrupamento

Distância de Manhattan

O cálculo da Distância de Manhattan entre dois pontos X e Y é dado por: d(x,y) = |X1 - Y1| + |X2 - Y2| + ... + |Xn - Yn|.

Cálculo de Centróides

Em algoritmos de agrupamento, o novo centróide de um grupo é calculado pela média aritmética das coordenadas das instâncias pertencentes a esse grupo.

Teoria da Informação e Árvores de Decisão

Entropia

A Entropia é uma medida da incerteza ou aleatoriedade em um conjunto de dados (S), utilizada na teoria da informação. Para um conjunto com c classes distintas, a entropia é calculada como:

Entropia(S) = Σ -pi * log2(pi)

Onde pi é a proporção de instâncias pertencentes à classe i. A entropia é máxima (ex: 1 para duas classes com proporção 0.5 cada, ou seja, meio a meio) quando há máxima incerteza e mínima (0) quando todas as instâncias pertencem a uma única classe (ex: proporções 1 e 0).

Ganho de Informação (ID3)

O Ganho de Informação é usado no algoritmo ID3 (e outros de árvores de decisão) para selecionar o atributo que melhor divide o conjunto de dados. Ele mede a redução na entropia após a divisão por um atributo.

Ganho(Atributo) = Entropia(Classe) - Entropia(Atributo)

O cálculo envolve a entropia do conjunto original e a média ponderada das entropias dos subconjuntos criados pela divisão do atributo.

Métricas de Avaliação

Métricas comuns para avaliar classificadores, frequentemente derivadas de uma matriz de confusão:

  • Precisão: Mede a proporção de instâncias classificadas como pertencentes a uma classe que realmente pertencem a ela, dentre todas as que foram classificadas naquela classe. Precisão = VP / (VP + FP). (Na matriz de confusão, geralmente calculada sobre o total da coluna).
  • Sensibilidade (Recall): Mede a taxa de instâncias corretamente classificadas como pertencentes a uma classe, dentre todas as que realmente são daquela classe. Sensibilidade = VP / (VP + FN). (Na matriz de confusão, geralmente calculada sobre o total da linha).
  • Falso Positivo (FP): Instâncias negativas classificadas incorretamente como positivas.
  • Falso Negativo (FN): Instâncias positivas classificadas incorretamente como negativas.

Redes Neurais e Perceptron

Vetor de Pesos

Corresponde às sinapses biológicas, servindo para ponderar a relevância das entradas para um neurônio. Os pesos são importantes e, no primeiro momento, são tipicamente inicializados com valores aleatórios.

Ajuste de Pesos

É o processo fundamental pelo qual a rede neural aprende. Ela só aprende ajustando os pesos, geralmente com base no erro calculado entre a saída prevista e a saída real.

Perceptron

Um modelo simples de neurônio artificial, capaz de resolver apenas problemas linearmente separáveis.

Taxa de Aprendizado

Define a magnitude do ajuste aplicado aos pesos durante o treinamento. Qual o impacto dela no aprendizado do classificador?

  • Valores altos: Fazem com que as variações nos pesos sejam grandes, podendo levar a convergência rápida, mas com risco de instabilidade ou ultrapassar a solução ótima.
  • Valores baixos: Implicam poucas variações nos pesos, resultando em convergência mais lenta, porém potencialmente mais estável e precisa.

Operações Lógicas Básicas

Resultados das operações lógicas fundamentais:

  • AND (^): Verdadeiro (1) apenas se ambas as entradas forem 1.
    • 0 AND 0 = 0
    • 0 AND 1 = 0
    • 1 AND 0 = 0
    • 1 AND 1 = 1
  • OR (v): Verdadeiro (1) se pelo menos uma entrada for 1.
    • 0 OR 0 = 0
    • 0 OR 1 = 1
    • 1 OR 0 = 1
    • 1 OR 1 = 1
  • XOR: Verdadeiro (1) se as entradas forem diferentes.
    • 0 XOR 0 = 0
    • 0 XOR 1 = 1
    • 1 XOR 0 = 1
    • 1 XOR 1 = 0
  • XNOR (Equivalência / Se e somente se): Verdadeiro (1) se as entradas forem iguais (oposto do XOR).
    • 0 XNOR 0 = 1
    • 0 XNOR 1 = 0
    • 1 XNOR 0 = 0
    • 1 XNOR 1 = 1
  • Implicação (→): Falso (0) apenas se a primeira entrada (antecedente) for 1 e a segunda (consequente) for 0.
    • 0 → 0 = 1
    • 0 → 1 = 1
    • 1 → 0 = 0
    • 1 → 1 = 1

Entradas relacionadas: