| Año | Autor(es) | Resultado principal | Alcance / Impacto |
|---|---|---|---|
| 1943 | McCulloch & Pitts | Modelo lógico de la neurona artificial | Base conceptual de las redes neuronales. |
| 1958 | Rosenblatt | Perceptrón y primera regla de aprendizaje supervisado | Clasificación de patrones linealmente separables. |
| 1969 | Minsky & Papert | Limitaciones del perceptrón (ej. XOR no resoluble) | Declive de la investigación en redes neuronales (primer “invierno de la IA”). |
| 1974 | Werbos | Retropropagación en tesis doctoral | Algoritmo clave, aunque sin difusión en su momento. |
| 1985 | Funahashi | Demuestra capacidad de aproximación de MLP | Primeros fundamentos formales de aproximación universal (difusión limitada). |
| 1986 | Rumelhart, Hinton & Williams | Popularización de la retropropagación | Entrenamiento eficiente de redes multicapa. |
| 1987 | Barron | Inicia análisis de tasas de convergencia en aproximación con redes | Conexión con teoría de Fourier. |
| 1989 | George Cybenko | Teorema de Aproximación Universal para funciones sigmoides | Garantiza que una red con una capa oculta aproxima funciones continuas. |
| 1990–91 | Hornik, Stinchcombe & White | Generalizan el teorema a cualquier activación no polinómica, en espacios (L^p) | Consolidación del teorema en un marco matemático más amplio. |
| 1993 | Leshno, Lin, Pinkus & Schocken | Condiciones necesarias y suficientes para activaciones universales | Cierra formalmente la caracterización del teorema. |
| 1993 | Barron | Análisis de velocidad de convergencia | Explica eficiencia relativa de redes neuronales frente a otros métodos. |
| 1995 | Hecht-Nielsen | Teorema como corolario de resultados clásicos de análisis funcional | Refuerza el marco teórico general. |
| 2001 | Park & Sandberg | Universalidad en redes RBF y escenarios no lineales | Extiende aproximación universal a arquitecturas de base radial. |
| 2003–2006 | Poggio, Girosi, Mhaskar, Micchelli | Resultados para CNN y arquitecturas con bases radiales | Fundamentos teóricos de arquitecturas modernas. |
| 2006 | Hinton, Osindero & Teh | Deep Belief Networks | Punto de partida del aprendizaje profundo, jerarquías de representación. |
| 2008 | Bengio | Redes profundas son más eficientes que las superficiales | Introducción del argumento de eficiencia en aproximación universal. |
| 2010 | Montúfar y otros | Análisis de capacidad en función de la profundidad | Evidencia formal de la ventaja de las redes profundas. |
Created
September 30, 2025 20:12
-
-
Save robintux/17ae94389a0c741ae728843c7a52ecc3 to your computer and use it in GitHub Desktop.
Sign up for free
to join this conversation on GitHub.
Already have an account?
Sign in to comment