Aprendizado de Redes Neurais
O Aprendizado Backpropagation
- Utiliza o mesmo princípio da Regra Delta
- a minimização de uma função custo, no caso, a soma dos erros médios quadráticos sobre um conjunto de treinamento, utilizando a técnica de busca do gradiente-descendente.
- Também é chamado muitas vezes de Regra Delta Generalizada ("Generalized Delta-Rule").
- A modificação principal em relação a Regra Delta foi a utilização de funções contínuas e suaves como função de saída dos neurônios ao invés da função de limiar lógico.
- Como as funções de saída passaram a ser deriváveis, isto permitiu a utilização da busca do gradiente-descendente também para os elementos das camadas intermediárias.