Se describe un nuevo procedimiento de aprendizaje, llamado retropropagación, para redes de unidades similares a neuronas. Este procedimiento ajusta repetidamente los pesos de las conexiones en la red con el fin de minimizar una medida de la diferencia entre el vector de salida real de la red y el vector de salida deseado. Como resultado de estos ajustes de peso, las unidades internas "ocultas", que no forman parte de la entrada ni de la salida, llegan a representar características importantes del dominio de la tarea, y las regularidades de la tarea se capturan mediante la interacción de estas unidades. La capacidad de crear nuevas características útiles distingue a la retropropagación de métodos anteriores y más simples, como el procedimiento de convergencia del perceptrón.
Especificaciones
- Autor/es: David E. Rumelhart, Geoffrey E. Hinton y Ronald J. Williams.
- Fecha de edición: Octubre de 1986
- Publicado en : Nature Vol. 323, Páginas 533–536
- Idioma: Inglés