Learning representations by back-propagating errors
Learning representations by back-propagating errors

Etiquetas

1986 | IA | IA_1986 | Ordenador

Se describe un nuevo procedimiento de aprendizaje, llamado retropropagación, para redes de unidades similares a neuronas. Este procedimiento ajusta repetidamente los pesos de las conexiones en la red con el fin de minimizar una medida de la diferencia entre el vector de salida real de la red y el vector de salida deseado. Como resultado de estos ajustes de peso, las unidades internas "ocultas", que no forman parte de la entrada ni de la salida, llegan a representar características importantes del dominio de la tarea, y las regularidades de la tarea se capturan mediante la interacción de estas unidades. La capacidad de crear nuevas características útiles distingue a la retropropagación de métodos anteriores y más simples, como el procedimiento de convergencia del perceptrón.

Especificaciones

  • Autor/es: David E. Rumelhart, Geoffrey E. Hinton y Ronald J. Williams.
  • Fecha de edición: 1986-10
  • Publicado en : Nature Vol. 323, Páginas 533–536
  • Idioma: Inglés
Foro

Foro Histórico

de las Telecomunicaciones

Contacto

logo COIT
C/ Almagro 2. 1º Izq. 28010. Madrid
Teléfono 91 391 10 66 coit@coit.es
logo AEIT Horizontal
C/ General Arrando, 38. 28010. Madrid
Teléfono 91 308 16 66 aeit@aeit.es

Copyright Foro Histórico de las Telecomunicaciones