DOI:
https://doi.org/10.14483/22484728.279Publicado:
2010-08-12Número:
Vol. 4 Núm. 2 (2010)Sección:
Visión InvestigadoraComparación por simplicidad de métodos de aprendizaje en estimación de funciones
Comparison by simplicity of learning methods for function estimation
Palabras clave:
gradient descent, conjugate gradient, simplicity, function estimation (en).Palabras clave:
gradiente descendente, gradiente conjugado, simplicidad, estimación de funciones (es).Descargas
Resumen (es)
Uno de los problemas que resuelven los sistemas inteligentes consiste en la estimación de funciones, para lo cual se parte de un número finito de datos de un proceso y el objetivo es encontrar la función que mejor los modela. Dentro de los métodos de aprendizaje, los métodos de optimización, como el descenso de gradiente y el gradiente conjugado, han sido tradicionalmente utilizados en este tipo de problemas, con ventajas como la sencillez en los primeros y la rapidez de convergencia en los segundos. De acuerdo con el principio de simplicidad, se escoge el método que sea más sencillo, pero a la vez el más preciso, de tal forma que ninguno de los dos puede a priori considerarse rotundamente mejor que el otro, porque no satisface simultáneamente las dos condiciones. En este trabajo se evalúan los dos métodos en la estimación de funciones lineales y cuadráticas y se proponen mejoras con el objetivo de proporcionar un método que sea el mejor en términos de "simplicidad".
Resumen (en)
One of the problems they solve Intelligent Systems, is the estimation of functions, for
which part of a finite number of data from one process and the goal is to find better
role models. Among the unsupervised learning methods, optimization methods like
gradient descent and conjugate gradient have been traditionally used in such problems, with advantages such as simplicity CO in the first and the speed of convergence in the latter. According to the principle of simplicity, we choose the method that is simple yet the most accurate, so that neither of the two methods can strongly considered better than another, why not simultaneously satisfy both conditions. This paper evaluates the two methods in the estimation of linear and quadratic functions and suggests improvements in its definition with the objective of proportional method that is best in terms of "simplicity."
Referencias
W. Fritz, "Sistemas inteligentes artificiales", en Sistemas inteligentes y sus sociedades, 2010. Consultado en: http://intelligent-systems.com.ar/ intsyst/indexSp.htm#Back3
S. Bermejo, "Aprendizaje", en Desarrollo de robots basados en el comportamiento, 1a ed., UPC, cap. 4, pp. 147-52, 2003.
G. Harman y S. Kulkarni, "Induction and Simplicity," en Reliable
Reasoning, MIT Press, cap. 3, pp. 55-76, 2007.
P. Grunwald, J. Myung y M. Pitt, Advances in Minimum Description Length: Theory and applications, MIT Press, cap. 1, pp. 3-40, 2005.
G. Hernández, "Métodos clásicos de optimización para problemas no-lineales sin restricciones", 2006, pp. 1-14. Consultado en https://www.u-cursos.cl/ingenieria/2010/2/MA3701/1/material_ docente/bajar?id_material=329674.
D. Ginestar, Métodos de gradiente: precondicionadores, Universidad Politécnica de Valencia, 2009.