Percepton
Perceptron Simples
Algoritmo do Bolso com catraca
Perceptron - Características
• O perceptron é usado para conjuntos de treinamento linearmente separáveis: p W j .u j
• Inclusão de tendência (“bias”): S W0 j 1
• No algoritmo de aprendizagem do Perceptron busca-se um vetor W que tenha projeção positiva (produto interno) com todos os exemplos positivos e projeção negativa com todos os exemplos negativos.
• A aprendizagem do perceptron sempre tem sucesso em tempo finito para um conjunto de treinamento finito e separável de exemplos de treinamento.
Algoritmo do Perceptron
• 1. Fazer W ser o vetor nulo.
• 2. Selecionar um exemplo de treinamento E k (com a correspondente classificação C k). Isto pode ser feito de maneira cíclica (em ordem) através dos exemplos de treinamento ou pegando um exemplo aleatoriamente.
• 3. Se W classifica Ek corretamente, isto é, se:
{W.Ek 0 e Ck = +1} ou se {W.Ek < 0 e Ck = -1}
– Então: não fazer nada.
– Senão Passo de alteração: Modificar W somando ou subtraindo Ek de acordo com a saída correta ser +1 ou -1:
W’ = W + CkEk.
• 4. Ir ao passo 2.
Perceptron - conclusões
Para um conjunto finito de exemplos de treinamento E, com componentes inteiros (ou racionais), o algoritmo de aprendizagem do perceptron, em tempo finito:
– Produzirá um vetor peso que satisfaz todos os exemplos de treinamento (se e somente se E é separável); ou
– Abandonará e reutilizará um vetor peso (se e somente se E é nãoseparável).
Se um conjunto de exemplos de treinamento E é não-separável, então por definição não existe um vetor de pesos W que classifique corretamente todos os exemplos de treinamento em E utilizando o algoritmo de aprendizagem do perceptron. A alternativa mais natural é encontrar um vetor de pesos W* que classifique tantos exemplos de treinamento quanto possível de E. Tal conjunto de pesos é chamado de ótimo. Perceptron - conclusões
O algoritmo de aprendizagem do perceptron