Fundamentos de IA: Árvores, Redes Neurais e Algoritmos Genéticos
Classificado em Computação
Escrito em em português com um tamanho de 4,25 KB
Fundamentos de Inteligência Artificial
Árvores de Decisão
Vantagens
- Fáceis de implementar
- Permitem extrair regras claras
- Não incrementais (mais eficientes e práticas, sem backtracking)
Desvantagens
- Função objetivo deve ser discreta
- Principalmente para problemas de classificação
Critérios de Parada
- Todos os exemplos pertencem à mesma classe
- Todos os exemplos têm o mesmo valor dos atributos
- O ganho em cada partição for insignificante
- O número de exemplos atingiu um certo limite
Problema de Overfitting
Se o número de nós for muito grande, as decisões são tomadas com base em partições muito pequenas dos exemplos, o que diminui a generalização.
Fórmulas
- Entropia (Ent(S)):
Ent(S) = -(p+ * log2p+) - (p- * log2p-)
, ondeS
é o conjunto de exemplos para aquele nó,p+
é a probabilidade de saídas positivas ep-
é a probabilidade de saídas negativas. - Informação (Info(A)):
Info(atributo A) = Σ(p(vi) * Ent(vi))
, ondep(vi)
é a probabilidade do valori
(número de exemplos com valori
/ número total de exemplos). - Ganho de Informação (Ganho-info(S, A)):
Ganho-info(S, A) = Ent(S) - Info(A)
.
Algoritmo
- Escolha o atributo que melhor divide os exemplos.
- Expanda a árvore criando um novo ramo para cada valor do atributo escolhido.
- Passe os exemplos para cada nó de acordo com o valor do atributo.
- Repita para cada folha até alcançar o critério de parada:
- Se todos os exemplos pertencem à mesma classe, atribua o nó à classe.
- Senão, repita os passos 1 a 4.
Função Recursiva geraArvore(Exs)
- Se
Exs
atende a algum critério de parada, retorne uma folha. - Senão, escolha o melhor atributo para dividir
Exs
e crie um nó associado ao atributo. - Para cada valor
i
do atributo escolhido, façaarvore_i = geraArvore(Exs_i)
. - Retorne a subárvore gerada tendo como descendentes
arvores_i
. - Fim.
Redes Neurais
Principais Características (Vantagens)
- Capacidade de se adaptar e aprender
- Capacidade de generalizar
- Capacidade de classificar
- Usadas principalmente em problemas de classificação, categorização, otimização e aproximação
- Implementação rápida e simples
Perceptron
Fórmulas
- Erro:
Erro = (saída desejada - saída da rede)
- Ajuste de Peso:
Δw = η * xi * Erroi
- Atualização de Peso:
Wij(t + 1) = wij(t) + Δw
MLP (Multi-Layer Perceptron)
Fórmulas
- Erro (Quadrático):
Erro = 1/2 Σ(saída desejada - saída da rede)2
- Ajuste de Peso:
Δwij = η * xi * δ
, ondeδ
é:(saída desejada - saída da rede) * f'(net)
se for nó de saída(Σδda camada seguinte * w(peso entre o neurônio atual e o da camada seguinte)) * f'(net)
para nós ocultos
Critérios de Parada
- Número máximo de iterações
- Erro em treinamento < mínimo escolhido
- Erro aumenta por
k
vezes consecutivas na etapa de validação
Algoritmos Genéticos
Fórmula de Normalização do Vetor de Entrada
X = min + (Max - min) * valor_base_10 / (2número_de_bits - 1)
Critérios de Parada
- Não houve melhoria na aptidão
- A melhor solução foi encontrada (se conhecida)
- Perda de diversidade
- Número máximo de gerações alcançado