DOI:

https://doi.org/10.14483/2248762X.6420

Publicado:

2013-07-07

Número:

Vol. 4 Núm. 1 (2013)

Sección:

Investigación

DISEÑO Y EVALUACIÓN DE UN CLASIFICADOR DE TEXTURAS BASADO EN LS-SVM

Autores/as

  • Beitmantt Cárdenas Quintero Universidad Distrital Francisco José de Caldas
  • Nelson Enrique Vera Parra Universidad Distrital Francisco José de Caldas
  • Pablo Emilio Rozo García Universidad Distrital Francisco José de Caldas

Biografía del autor/a

Beitmantt Cárdenas Quintero, Universidad Distrital Francisco José de Caldas

Magister en Ciencias de la Información y las Comunicaciones. Bogotá.

Nelson Enrique Vera Parra, Universidad Distrital Francisco José de Caldas

Magister en Ciencias de la Información y las Comunicaciones. Bogotá.

Pablo Emilio Rozo García, Universidad Distrital Francisco José de Caldas

Magister en Ciencias de la Información y las Comunicaciones. Bogotá.

Cómo citar

APA

Cárdenas Quintero, B., Vera Parra, N. E., y Rozo García, P. E. (2013). DISEÑO Y EVALUACIÓN DE UN CLASIFICADOR DE TEXTURAS BASADO EN LS-SVM. Redes de Ingeniería, 4(1), 20–28. https://doi.org/10.14483/2248762X.6420

ACM

[1]
Cárdenas Quintero, B. et al. 2013. DISEÑO Y EVALUACIÓN DE UN CLASIFICADOR DE TEXTURAS BASADO EN LS-SVM. Redes de Ingeniería. 4, 1 (jul. 2013), 20–28. DOI:https://doi.org/10.14483/2248762X.6420.

ACS

(1)
Cárdenas Quintero, B.; Vera Parra, N. E.; Rozo García, P. E. DISEÑO Y EVALUACIÓN DE UN CLASIFICADOR DE TEXTURAS BASADO EN LS-SVM. redes ing. 2013, 4, 20-28.

ABNT

CÁRDENAS QUINTERO, Beitmantt; VERA PARRA, Nelson Enrique; ROZO GARCÍA, Pablo Emilio. DISEÑO Y EVALUACIÓN DE UN CLASIFICADOR DE TEXTURAS BASADO EN LS-SVM. Redes de Ingeniería, [S. l.], v. 4, n. 1, p. 20–28, 2013. DOI: 10.14483/2248762X.6420. Disponível em: https://revistas.udistrital.edu.co/index.php/REDES/article/view/6420. Acesso em: 5 nov. 2024.

Chicago

Cárdenas Quintero, Beitmantt, Nelson Enrique Vera Parra, y Pablo Emilio Rozo García. 2013. «DISEÑO Y EVALUACIÓN DE UN CLASIFICADOR DE TEXTURAS BASADO EN LS-SVM». Redes de Ingeniería 4 (1):20-28. https://doi.org/10.14483/2248762X.6420.

Harvard

Cárdenas Quintero, B., Vera Parra, N. E. y Rozo García, P. E. (2013) «DISEÑO Y EVALUACIÓN DE UN CLASIFICADOR DE TEXTURAS BASADO EN LS-SVM», Redes de Ingeniería, 4(1), pp. 20–28. doi: 10.14483/2248762X.6420.

IEEE

[1]
B. Cárdenas Quintero, N. E. Vera Parra, y P. E. Rozo García, «DISEÑO Y EVALUACIÓN DE UN CLASIFICADOR DE TEXTURAS BASADO EN LS-SVM», redes ing., vol. 4, n.º 1, pp. 20–28, jul. 2013.

MLA

Cárdenas Quintero, Beitmantt, et al. «DISEÑO Y EVALUACIÓN DE UN CLASIFICADOR DE TEXTURAS BASADO EN LS-SVM». Redes de Ingeniería, vol. 4, n.º 1, julio de 2013, pp. 20-28, doi:10.14483/2248762X.6420.

Turabian

Cárdenas Quintero, Beitmantt, Nelson Enrique Vera Parra, y Pablo Emilio Rozo García. «DISEÑO Y EVALUACIÓN DE UN CLASIFICADOR DE TEXTURAS BASADO EN LS-SVM». Redes de Ingeniería 4, no. 1 (julio 7, 2013): 20–28. Accedido noviembre 5, 2024. https://revistas.udistrital.edu.co/index.php/REDES/article/view/6420.

Vancouver

1.
Cárdenas Quintero B, Vera Parra NE, Rozo García PE. DISEÑO Y EVALUACIÓN DE UN CLASIFICADOR DE TEXTURAS BASADO EN LS-SVM. redes ing. [Internet]. 7 de julio de 2013 [citado 5 de noviembre de 2024];4(1):20-8. Disponible en: https://revistas.udistrital.edu.co/index.php/REDES/article/view/6420

Descargar cita

Visitas

456

Dimensions


PlumX


Descargas

Los datos de descargas todavía no están disponibles.


DISEÑO Y EVALUACIÓN DE UN CLASIFICADOR DE TEXTURAS BASADO EN LS-SVM

DESIGN AND EVALUATION OF A TEXTURE CLASSIFIER BASED ON LS-SVM

Beitmantt Cárdenas Quintero1, Nelson Enrique Vera Parra1, Pablo Emilio Rozo García1

1Universidad Distrital Francisco José de Caldas, Bogotá - Colombia. bgcardenasq@udistrital.edu.co, neverap@udistrital.edu.co, perozog@udistrital.edu.co

Recibido: 03/2/2013 - Aceptado: 05/2/2013


RESUMEN

Evaluar el desempeño y el costo computacional de diferentes arquitecturas y metodologías Least Square Support Vector Machine (LS-SVM) ante la segmentación de imágenes por textura y a partir de dichos resultados postular un modelo de un clasificador de texturas LS-SVM. Metodología: Ante un problema de clasificación binaria representado por la segmentación de 32 imágenes, organizadas en 4 grupos y formadas por pares de texturas típicas (granito/corteza, ladrillo/tapicería, madera/mármol, tejido/pelaje), se mide y compara el desempeño y el costo computacional de dos tipos de núcleo (Radial / Polinomial), dos funciones de optimización (mínimo local / búsqueda exhaustiva) y dos funciones de costo (validación cruzada aleatoria / Validación cruzada dejando al menos uno) en una LS-SVM que toma como entrada los pixeles que conforman la vecindad cruz del pixel a evaluar (no se hace extracción de características). Resultados: LS-SVM como clasificador de texturas,presenta mejor desempeño y exige menor costo computacional cuando utiliza un kernel de base radial y una función de optimización basada en un algoritmo de búsqueda de mínimos locales acompañado de una función de costo que use validación cruzada aleatoria.

Palabras clave: máquinas de vectores de soporte, núcleo, mínimos cuadrados, segmentación, optimización, texturas.

ABSTRACT

To Evaluate the performance and the computational cost of different Least Square Support Vector Machine (LS-SVM) architectures and methodologies to image segmentation by texture and and based on these results apply a texture classifier model LS-SVM methodology; facing a binary classification problem segmentation represented by 32 images, organized into 4 groups formed by pairs of typical textures (granite / crust, brick / upholstery, wood / marble, fabric / fur), the performance and the computational cost of two types of core(radial/Polynominal) , two optimization functions (local mínimum/exhaustive search) and and two cost functions (random cross validation / Cross Validation leaving at least one) are measured and compared in a LS-SVM that takes as input the pixels that make up the neighborhood pixel cross-evaluate (there is no feature extraction). LS-SVM texture classifier presents better performance and requires less computational cost when a radial basis kernel and an optimization function based on a search algorithm to local minima accompanied by a cost function that uses random cross-validation are used.

Key words: kernel, least square, optimization, textures, segmentation, support vector machine.

1. INTRODUCCIÓN

Support Vector Machine (SVM) en un método de clasificación y regresión proveniente de la teoría de aprendizaje estadístico postulada por Vapnik y Chervonenkis [1][2]. La metodología base de SVM se puede resumir de la siguiente forma: Si se requiere clasificar un conjunto de datos (representados en un plano n-dimensional) no separables linealmente, se toma dicho conjunto de datos y se mapea a un espacio de mayor dimensión donde si sea posible la separación lineal (esto se realiza mediante funciones llamadas Kernel). En este nuevo plano se busca un hiperplano que sea capaz de separar en 2 clases los datos de entrada; el plano debe tener la mayor distancia posible a los puntos de ambas clases (los puntos más cercanos a este hiperplano de separación son los vectores de soporte). Si lo que se requiere es hacer una regresión, se toma el conjunto de datos y se transforma a un espacio de mayor dimensión (donde sí se pueda hacer una regresión lineal) y en este nuevo espacio se realiza la regresión lineal pero sin penalizar errores pequeños.

La forma como se soluciona el problema de encontrar un hiperplano maximizando las márgenes entre éste y los puntos de ambas clases (del conjunto de datos de entrada), define si la SVM es tradicional o es LS-SVM. SVM soluciona dicho problema mediante el principio de structural risk minimization mientras que LS-SVM lo soluciona mediante un conjunto de ecuaciones lineales [3]. Mientras que en SVM tradicional muchos valores de soporte son cero (valores diferentes a cero corresponden a los vectores de soporte), en LS-SVM los valores de soporte son proporcionales a los errores.

LS-SVM ha sido propuesto y usado en el procesamiento de imágenes en diferentes campos. A continuación se nombran algunos ejemplos: Análisis de imágenes médicas diagnósticas, tales como, magnectic resonance imaging y magnetic resonance spectroscopy, [4][5]; Interpretación de imágenes provenientes de datos genéticos, tales como los microarray [6]; Tratamiento de imágenes en el ámbito de la seguridad, como la detección de objetos en imágenes infrarojas [7], la detección de rostros [8] y el reconocimiento de matrículas de vehículos [9]; Tratamiento de imágenes espaciales, como Remote sensing Image [10].

En este artículo se mide el desempeño de LS-SVM, teniendo como variable: la función kernel, la funcion de optimización y la función de costo, ante un proceso muy útil en el tratamiento de imágenes, como lo es la clasificación de texturas. Con ésta evaluación se busca obtener criterios de diseño de LS-SVM para desarrollar clasificadores de texturas óptimos que se pueden aplicar a cualquiera de los campos mencionados anteriormente. Este artículo está organizado de la siguiente forma: En la sección 2 se presentan los fundamentos teóricos de LS-SVM, en la sección 3 se describe la metodología desarrollada, en la sección 4 se exponen los resultados obtenidos y por último en la sección 5 se analizan los resultados y se obtienen conclusiones.

2. FUNDAMENTOS DE LS-SVM [3],[11]

Dado un conjunto de entrenamiento (ecuación (1)).

SVM tiene como objetivo construir un clasificador de la forma de la ecuación (2)) .

Donde σ y b son constantes y Ψ representa el kernel y puede ser cualquiera de las funciones descritas mediante la ecuación (3) , ecuación (4) y ecuación (5).

El clasificador se construye mediante la ecuación (6)

Que se puede expresar de forma compacta como lo muestra la ecuación (7).

Donde ϕ es la función que mapea los datos de entrada a un nuevo espacio de mayor dimensión donde exista el hiperplano separador. Si no se consigue obtener el hiperplano en el espacio de mayor dimensión se introduce un tipo de bias (ecuación (8)).

SVM tradicional soluciona el problema de encontrar el mejor hiperplano clasificador utilizando el principio structural risk minimization (ecuación (9)).

LS-SVM plantea una modificación a la ecuación (9) para ser resuelta mediante un conjunto de ecuaciones lineales. La ecuación (10) es propuesta por LS-SVM.

De acuerdo a la ecuación (8) se construye el lagrangiano descrito por la ecuación (11).

Donde αk son los multiplicadores de Lagrange. Se optimiza a partir de la ecuación (12) .

Las condiciones para optimizar se escriben como la solución a un conjunto de ecuaciones lineales (ecuación (13)).

La solución se expresa también mediante la ecuación (14) .

Y aplicando la condición de Mercer (ecuación (15)).

Por último el clasificador descrito en la ecuación (2) es encontrado solucionando el conjunto de ecuaciones lineales ecuación (14) y ecuación (15). Los valores de soporte αx son proporcionales a los errores en la ecuación (12).

3. METODOLOGÍA

3.1 El problema

El problema utilizado para evaluar el desempeño de LS-SVM es un problema de clasificación binaria: clasificar cada uno de los píxeles de una imagen entre dos categorías correspondientes a dos tipos de textura. La clasificación se hace sin extracción de características, los datos de entrada al clasificador son el píxel a clasificar y sus 4 vecinos.

3.2. Data set

Se seleccionaron 8 categorías de texturas de una base de datos [12] de 1000 imágenes (25 categorías de texturas y 40 ejemplos por textura) construida mediante un trabajo en conjunto con: the National Science Foundation, European project LAVA, the UIUC-CNRS Research Collaboration Agreement, the UIUC Campus Research Board, and the Beckman Institute.

Se tomaron 8 ejemplos de cada una de las 8 categorías seleccionadas y se agruparon por pares (granito/corteza, ladrillo/tapicería, madera/mármol y tejido/pelaje) conformando 32 imágenes de 40x40 pixels agrupadas en 4 clases de acuerdo a la combinación de texturas. En la figura (1) se muestra un ejemplo de cada una de las clases de imágenes.

3.3 Modelos

Kernel: Es una función que transforma los datos de entrada a un espacio de mayor dimensión donde sea posible su separación lineal. En este artículo se evalúan dos funciones Kernel: Polynomial, que utiliza una ecuación polynomial no homogénea (4) y RBF (Radial Base Funtion) que es una ecuación cuyos valores dependen solo de la distancia a un punto tomado como referencia central. En este caso se utiliza una RBF gausiana (5).

Función de optimización: Función utilizada para hallar de forma óptima los parámetros tuning (gam y sig2) de la LS-SVM. Ésta función toma unos valores tuning iniciales obtenidos mediante CSA (Coupled Simulated Annealing) y hace una búsqueda, que para este articulo puede ser Simplex (optimización multidimensional no lineal sin restricciones que encuentra mínimos locales mediante el algoritmo de Nelder-Mead [13]) o Gridsearch (optimización no lineal que utiliza búsqueda exhaustiva) con el objetivo de encontrar los parámetros tuning mejores posibles de acuerdo a la medida dada por una función de costo.

Función de costo: Es la función que da un estimado del desempeño del modelo ante un conjunto de entrenamiento determinado. Esta función utiliza una validación cruzada, que para efectos de la presente evaluación se ha empleado la random crossvalidation (validación donde se divide aleatoriamente los datos que van a servir de entrenamiento y los que van a servir de prueba) y la leaveoneout (validación que separa los datos de forma que para cada iteración se tenga una sola muestra para los datos de prueba y todo el resto conformando los datos de entrenamiento).

En la tabla 1 se encuentran los modelos a evaluar.

3.4. Métricas

Para evaluar una clasificación binaría, que en este caso es separar una textura B (textura del lado derecho de cada una de las imágenes del data set) de una textura A (textura del lado izquierdo de cada una de las imágenes del data set), se han utilizado 3 métricas:

Sensibilidad: Indica la capacidad del clasificador de identificar los píxeles que realmente pertenecen a la textura B. Se determina a partir de la ecuación (16) .

VP: Verdadero positivo.

VN: Verdadero negativo.

Especificidad: Indica la capacidad del clasificador de identificar los píxeles que realmente pertenecen a la textura A. Se determina a partir de la ecuación (17).

FP: Falso positivo.

VN: Verdadero negativo.

Precisión: indica la capacidad del clasificador de dar el mismo resultado en mediciones diferentes realizadas en las mismas condiciones. Se determina a partir de la ecuación (18).

FP: Falso positivo.

VN: Verdadero negativo.

Costo computacional: tiempo de entrenamiento bajo las mismas condiciones computacionales.

4. RESULTADOS

A continuación en la tabla (2) se presentan los valores de sensibilidad, especificidad, precisión y tiempo de cómputo para los 6 modelos evaluados ante las 4 clases de imágenes.

Ademas se presenta el promedio de cada métrica por modelo. En esta tabla los modelos se identifican por números (ver tabla (1) para equivalencia) y las imágenes por abreviaciones (ver figura (1) para equivalencia).

En la figura (2) se ilustra el patrón de salida deseado para todas las imágenes el proceso de clasificación, cero (negro) para la textura A y uno (blanco) para la textura B. En las figura (3), figura (4), figura (5) y figura (6) se ilustran las imágenes resultantes para cada uno de los 6 modelos y cada una de las 4 imágenes.

5. ANÁLISIS DE RESULTADOS

5.1 Kernel

El kernel Polynomial se evaluó con la función de optimización simplex (la gridsearch no aplica para este tipo de kernel) utilizando 2 funciones de costo (leaveoneout y random). Se obtuvo un desempeño levemente superior, con un leve menor costo computacional cuando se utilizó la función de costo random validate.

El kernel RBF se evaluó con 2 funciones de optimización (simplex y gridsearch) utilizando 2 funciones de costo (leaveoneout y random). Se obtuvo un mejor desempeño con menor costo computacional utilizando una función de optimización simplex y una función de costo random.

Al comparar los dos Kerrnel utilizando la misma función de optimización y de costo (simplex y random) se observó un mejor desempeño por parte del kernel RBF. En cuanto a costo computacional no se marcó una diferencia. En la figura (7) se muestra la comparación de kernels.

5.1. Función de optimización

La función de optimización simplex se evaluó con ambos kernel y ambas funciones de costo. Se obtuvo un mejor desempeño y un menor costo computacional para el kernel RBF con una función de costo random.

La función de optimización gridsearch se evaluó para el kernel RBF usando ambas funciones de costo. Se obtuvo mejor desempeño para la función de costo random aunque con un leve mayor costo computacional.

Al comparar las 2 funciones de optimización con el mismo kernel y la misma función de costo (RBF y random) se observó un mayor desempeño y un menor costo computacional para la función de optimización gridsearch. En la figura 8 se muestra la comparación de las funciones de optimización.

5.3. Función de costo

La función de costo leaveoneout se evaluó con ambos kernel y ambas funciones de costo (la gridsearch únicamente para el kernel RBF). Se obtuvo un mejor desempeño y un menor costo computacional para el kernel RBF con una función de optimización gridsearch.

La función de costo random se evaluó con ambos kernel y ambas funciones de costo (la gridsearch únicamente para el kernel RBF). Se obtuvo un mejor desempeño y un menor costo computacional para el kernel RBF con una función de optimización simplex.

Al comparar las 2 funciones de costo utilizando el mismo kernel y la misma función de optimización (RBF y simplex), se observó un mejor desempeño y un menor costo computacional para la función de costo random. En la figura 9 se muestra la comparación de las funciones de costo.

6. CONCLUSIONES

Todos los modelos de LS-SVM evaluados presentaron una sensibilidad superior al 86%, una especificidad superior al 83% y una precisión superior al 84%, lo que valida a LS-SVM como una eficiente herramienta de clasificación de texturas.

Un clasificador de texturas basado en LS-SVM presenta mejor desempeño y menos costo computacional cuando utiliza un kernel RBF junto con una función de optimización simplex (basada en la búsqueda de mínimos locales mediante el algoritmo de Nelder-Mead ) y una función de costo basada en validación cruzada aleatoria.

Referencias Bibliográficas

[1] V. Vapnik and A. Chervonenkis; On the uniform convergence of relative frequencies of events to their probabilities, Theory of Probability and its Applications, 16(2):264–280, 1971.

[2] V. Vapnik; Statistical Learning Theory, Wiley, 1998.

[3] Suykens J.A.K., Vandewalle J; Least squares support vector machine classifiers, Neural Processing Letters, vol. 9, no. 3, Jun. 1999, pp. 293-300.

[4] Luts J; Classification of brain tumors based on magnetic resonance spectroscopy, PhD thesis, Faculty of Engineering, K.U.Leuven (Leuven, Belgium), Jan. 2010, 256 p.

[5] Luts J., Laudadio T., Martinez-Bisbal M.C., Van Cauter S., Molla E., Piquer J., Suykens J.A.K., Himmelreich U., Celda B., Van Huffel S; Differentiation between brain metastases and glioblastoma multiforme based on MRI, MRS and MRSI, in Proc. of the 22nd IEEE International Symposium on Computer-Based Medical Systems (CBMS), Albuquerque, New Mexico, Aug. 2009, pp. 1-8.

[6] Ojeda F; Kernel based Methods for Microarray and Mass Spectrometry Data Analysis, PhD thesis, Faculty of Engineering, K.U.Leuven (Leuven, Belgium), May 2011, 150 p.

[7] Danyan Yin, Yiquan Wu; Detection of Small Target in Infrared Image Based on KFCM and LS-SVM, Intelligent Human-Machine Systems and Cybernetics (IHMSC), 2010 2nd International Conference on Volume:1. Publication Year: 2010 , Page(s): 309 - 312.

[8] Guangying Ge, Xinzong Bao, Jing Ge; Study on automatic detection and recognition algorithms for vehicles and license plates using LS-SVM, Intelligent Control and Automation, 2008, WCICA 2008, Publication Year: 2008, Page(s): 3760 - 3765.

[9] Xinming Zhang, Jian Zou; Face Recognition Based on Sub-image Feature Extraction and LS-SVM. Computer Science and Software Engineering, 2008 International Conference on Volume: 1, Publication Year: 2008 , Page(s): 772 - 775.

[10] Sheng Zheng, Wen-zhong Shi, Jian Liu, and Jinwen Tian; Remote Sensing Image Fusion Using Multiscale Mapped LS-SVM. IEEE Transactions on geoscience and remote sensing, VOL. 46, NO. 5, MAY 2008.

[11] Nello Cristianini, John Shawe-Taylor; An Introduction to Support Vector Machines and Other Kernel-Based Learning Methods, Cambridge University Press, 2003.

[12] Svetlana Lazebnik, Cordelia Schmid, and Jean Ponce; A Sparse Texture Representation Using Local Affine Regions, IEEE Transactions on Pattern Analysis and Machine Intelligence, vol. 27, no. 8, pp. 1265-1278, August 2005.

[13] Nelder J. A. and Meayd R; A simplex method for function minimization, Computer. Journal, 7, 308-313, 1965.

Artículos más leídos del mismo autor/a

Loading...