Skip to content

Instantly share code, notes, and snippets.

@robintux
Created September 30, 2025 20:12
Show Gist options
  • Select an option

  • Save robintux/17ae94389a0c741ae728843c7a52ecc3 to your computer and use it in GitHub Desktop.

Select an option

Save robintux/17ae94389a0c741ae728843c7a52ecc3 to your computer and use it in GitHub Desktop.
Año Autor(es) Resultado principal Alcance / Impacto
1943 McCulloch & Pitts Modelo lógico de la neurona artificial Base conceptual de las redes neuronales.
1958 Rosenblatt Perceptrón y primera regla de aprendizaje supervisado Clasificación de patrones linealmente separables.
1969 Minsky & Papert Limitaciones del perceptrón (ej. XOR no resoluble) Declive de la investigación en redes neuronales (primer “invierno de la IA”).
1974 Werbos Retropropagación en tesis doctoral Algoritmo clave, aunque sin difusión en su momento.
1985 Funahashi Demuestra capacidad de aproximación de MLP Primeros fundamentos formales de aproximación universal (difusión limitada).
1986 Rumelhart, Hinton & Williams Popularización de la retropropagación Entrenamiento eficiente de redes multicapa.
1987 Barron Inicia análisis de tasas de convergencia en aproximación con redes Conexión con teoría de Fourier.
1989 George Cybenko Teorema de Aproximación Universal para funciones sigmoides Garantiza que una red con una capa oculta aproxima funciones continuas.
1990–91 Hornik, Stinchcombe & White Generalizan el teorema a cualquier activación no polinómica, en espacios (L^p) Consolidación del teorema en un marco matemático más amplio.
1993 Leshno, Lin, Pinkus & Schocken Condiciones necesarias y suficientes para activaciones universales Cierra formalmente la caracterización del teorema.
1993 Barron Análisis de velocidad de convergencia Explica eficiencia relativa de redes neuronales frente a otros métodos.
1995 Hecht-Nielsen Teorema como corolario de resultados clásicos de análisis funcional Refuerza el marco teórico general.
2001 Park & Sandberg Universalidad en redes RBF y escenarios no lineales Extiende aproximación universal a arquitecturas de base radial.
2003–2006 Poggio, Girosi, Mhaskar, Micchelli Resultados para CNN y arquitecturas con bases radiales Fundamentos teóricos de arquitecturas modernas.
2006 Hinton, Osindero & Teh Deep Belief Networks Punto de partida del aprendizaje profundo, jerarquías de representación.
2008 Bengio Redes profundas son más eficientes que las superficiales Introducción del argumento de eficiencia en aproximación universal.
2010 Montúfar y otros Análisis de capacidad en función de la profundidad Evidencia formal de la ventaja de las redes profundas.
Sign up for free to join this conversation on GitHub. Already have an account? Sign in to comment