Posición sobre los componentes del sistema de evaluación, a propósito del área de lenguaje

Autores/as

  • Patricia Duarte A. Snp ICFES
  • Carlos Ordoñez P. Snp ICFES
  • Miralba Correa R. Universidad del Valle
  • Gloria Rincón B. Escuela República de Paraguay
  • Neyla Pardo A. Universidad Nacional de Colombia
  • Fabio Jurado V. Universidad Nacional de Colombia
  • Guillermo Bustamante Z. Universidad Pedagógica Nacional
  • Daniel Hernández R. Instituto Pedagógico Arturo Ramírez Montufar

Cómo citar

APA

Duarte A., P., Ordoñez P., C., Correa R., M., Rincón B., G., Pardo A., N., Jurado V., F., … Hernández R., D. (1996). Posición sobre los componentes del sistema de evaluación, a propósito del área de lenguaje. Enunciación, 1(1), 43–50. https://doi.org/10.14483/22486798.1714

ACM

[1]
Duarte A., P. et al. 1996. Posición sobre los componentes del sistema de evaluación, a propósito del área de lenguaje. Enunciación. 1, 1 (ene. 1996), 43–50. DOI:https://doi.org/10.14483/22486798.1714.

ACS

(1)
Duarte A., P.; Ordoñez P., C.; Correa R., M.; Rincón B., G.; Pardo A., N.; Jurado V., F.; Bustamante Z., G.; Hernández R., D. Posición sobre los componentes del sistema de evaluación, a propósito del área de lenguaje. Enunciación 1996, 1, 43-50.

ABNT

DUARTE A., Patricia; ORDOÑEZ P., Carlos; CORREA R., Miralba; RINCÓN B., Gloria; PARDO A., Neyla; JURADO V., Fabio; BUSTAMANTE Z., Guillermo; HERNÁNDEZ R., Daniel. Posición sobre los componentes del sistema de evaluación, a propósito del área de lenguaje. Enunciación, [S. l.], v. 1, n. 1, p. 43–50, 1996. DOI: 10.14483/22486798.1714. Disponível em: https://revistas.udistrital.edu.co/index.php/enunc/article/view/1714. Acesso em: 19 abr. 2024.

Chicago

Duarte A., Patricia, Carlos Ordoñez P., Miralba Correa R., Gloria Rincón B., Neyla Pardo A., Fabio Jurado V., Guillermo Bustamante Z., y Daniel Hernández R. 1996. «Posición sobre los componentes del sistema de evaluación, a propósito del área de lenguaje». Enunciación 1 (1):43-50. https://doi.org/10.14483/22486798.1714.

Harvard

Duarte A., P. (1996) «Posición sobre los componentes del sistema de evaluación, a propósito del área de lenguaje», Enunciación, 1(1), pp. 43–50. doi: 10.14483/22486798.1714.

IEEE

[1]
P. Duarte A., «Posición sobre los componentes del sistema de evaluación, a propósito del área de lenguaje», Enunciación, vol. 1, n.º 1, pp. 43–50, ene. 1996.

MLA

Duarte A., Patricia, et al. «Posición sobre los componentes del sistema de evaluación, a propósito del área de lenguaje». Enunciación, vol. 1, n.º 1, enero de 1996, pp. 43-50, doi:10.14483/22486798.1714.

Turabian

Duarte A., Patricia, Carlos Ordoñez P., Miralba Correa R., Gloria Rincón B., Neyla Pardo A., Fabio Jurado V., Guillermo Bustamante Z., y Daniel Hernández R. «Posición sobre los componentes del sistema de evaluación, a propósito del área de lenguaje». Enunciación 1, no. 1 (enero 1, 1996): 43–50. Accedido abril 19, 2024. https://revistas.udistrital.edu.co/index.php/enunc/article/view/1714.

Vancouver

1.
Duarte A. P, Ordoñez P. C, Correa R. M, Rincón B. G, Pardo A. N, Jurado V. F, et al. Posición sobre los componentes del sistema de evaluación, a propósito del área de lenguaje. Enunciación [Internet]. 1 de enero de 1996 [citado 19 de abril de 2024];1(1):43-50. Disponible en: https://revistas.udistrital.edu.co/index.php/enunc/article/view/1714

Descargar cita

Visitas

403

Dimensions


PlumX


Descargas

Los datos de descargas todavía no están disponibles.

Avances de investigación

Enunciación, 1996-07-00 vol:1 nro:1 pág:43-50

Posición sobre los componentes del Sistema de Evaluación, a propósito del área de lenguaje

Patricia Duarte A.

(snp-icfes)

Carlos Ordoñez P.

(snp-icfes)

Miralba Correa R.

(Universidad del Valle)

Gloria Rincon B.

(Escuela Pública del Paraguay)

Neyla Pardo A.

(Universidad Nacional de Colombia)

Fabio Jurado V.

(Universidad Nacional de Colombia)

Guillermo Bustamante Z

(Universidad Pedagógica Nacional)

Daniel Hernández R.

(Instituto pedagógico Arturo Ramírez Montúfar)


UNO
INTRODUCCIÓN

El plan de apertura educativa (Planeación nacional,1991) habla de la necesidad de evaluar la calidad de la educación Colombiana y de las implicaciones que tal acción tendría en términos, por ejemplo, de capacitación a docentes y de dotación a planteles oficiales. En el contrato 3010-CO (1989) entre el Banco Mundial y el Miniterio de Educación Nacional (MEN), mediante el cual se concedió un préstamo para tal fin -entre otros-, también se recomendaba evaluar el arovechamiento estudiantíl, para lo cual se recomendaban las pruebas sitemáticas.

Con el Banco Mundial se acordó un plazo de tres años para elaborar las pruebas. La división de Evaluación del MEN se dedicó, entonces, a trabajar en ellos durante el primer semestre de 1990, una vez creado el Sistema Nacional de Evaluación de la Calidad de la Educación [SINECE], se comenzaron a probar instrumentos en la región del Viejo Caldas. Próximo el término acordado, se presentaron los trabajos de los equipos respectivos. Sin embargo, hubo una serie de incovenientes; en particular sobre el instrumento elaborado para el área de lenguaje, hubo dos objeciones fundamentales (1):

-Primera: no se comprometía con niveles de logro cognitivo claramete delimitados: no definía los niveles de exigencia desde donde el niño debe partir, ni aquellos hasta donde debe llegar, así como tampoco logros mínimos por nivel. Es decir, el instrumento no cumplía algunas condiciones de las pruebas con arreglo a criterio (2).

-Segunda: no permitía una codificación en grandes volúmenes, dado que la mayoría de su preguntas eran «abiertas»,«no estructuradas»; es decir, ejercicios qu no se contestan en una hoja de respuestas -para lectura electrónica- ni cuya «verdad» se establece de antemano, sino que el niño los redacta con alguna libertad. Dada la carencia deprogramas computarizados para leer manuscritos, la lectura de estas respuestas en una prueba masiva requiere una enorme cantidad de tiempo, e implica un problema de confiabilidad, al tener que recurrir a un número amplio de personas para la lectura y calificación. Por otra parte, para justificar un componente abierto en la prueba (y más en este caso, donde era dominante), se necesita especificar clarmente los criterios con los que se calificará esa parte, cosa que parecía faltar en la sustentación de la prueba en meción.

Entonces, en 1991, unos pocos meses antes de vncerme el plazo, el MEN estableció una serie de equipos de trabajo para intentarlo de nuevo: de la prueba de lenguaje de 3o. de primaria se encargó el Instituto SER de investigación; 5o. de primaria se responsabilizó al ICFES, a través de su Servicio Nacional de Pruebas. Esta entidad, pese a tener pruebas construídas en el área y en grado a evaluar, resolvió elaborar instrumentos diferentes, pues no se tratba de una prueba con arreglo a la Norma como lasque hace regularmente- (3). sino con arreglo a criterío, ya que se indagaría calidad. Para ello, integró un quipo con especialistas suyos, con personas del MEN que trabajan las áreas curriculares correspondientes y con maestros en ejercicios y/o investigadores de distintos niveles educativos (4).

En 1991, se terminaron los instrumentos y fueron aceptados. Después de aplicarlos ese mismo año, y una vez articulado el trabajo con el de los otros equipos (procesamiento de la información, análisis de los resultados, etc.), el MEN decidió preparar nuevos instrumentos para aplicar en 7o. y 9o. grados, a finales de 1992; en esta ocasión, todas las fases corrieron por cuenta del ICFES. Enton- ces, se comenzó la evaluación masiva de la calidad de nuestra educación.

Cabe aclarar que, aunque los organismos internacionales que promueven dichas medidas tienen políticas mundiales para educación, es necesario asumir la autonomía que tiene el país para implementar las medidas que considere necesadas, en pos del mejoramiento de su educación. Esta posibilidad de autonomía debería producir --a partir de la investigación-- modelos alternativos de evaluación y cualificación de nuestra educación, que realmente aporten al país justificandala inversión en este campo.

DOS
LOS COMPONENTES DEL SISTEMA

Los documentos y los eventos con los que el MEN promovió el Plan de Apertura Educativa (5), así como los documentos que el SINECE produjo posteriormente(6), establecen los componentes de la evaluación en referencia, los cuales se podrían clasificar de la siguiente manera:

  • diseño de pruebas,
  • aplicación masiva,
  • divulgación de resultados,
  • investigación y
  • medidas de mejoramiento de la calidad.

Ante este conjunto de elementos, y con base en nuestra participación durante el proceso de evaluación, no consideramos que estos componentes se den de manera secuencia', ni que la investigación sea un dbmponente más al lado de los otross cuatro.

Durante la etapa de diseño, fue necesario reconocer, por una, parte, que los instrumentos existentes (con arreglo a la Norma) no eran apropiados para interrogar por la calidad de la educación; y, por otra, que la experiencia más importante en el país frente a pruebas es fundamentalmente cuantitativa. Por razones de este tipo, el instrumento para tercero de primaria ya ha sido elaborado tres veces, con enfoques y diseñadores distintos, lo que ha obligado a análisis distintos.

En otras palabras, el diseño de las pruebas se ha convertido, por exigencia de las circunstancias, en un momento de investigación, pues no están predeterminados la pertinencia de la pretensión de evaluar la calidad de la educación, el objeto de esa evaluación, ni los modelos psicornétricos que más se ajusten a dicho objetivo, con cierta confiabilidad y validez. Si a propósito de la etapa de diseño se han consolidado pocos proyectos de investigación, es porque el SINECE. apenas ahora comienza a propiciarlo: es el caso de la actual preocupación por dar estabilidad a los grupos que trabajan en el diseño (pues su participación ha sido intermitente), así como por apoyar y promover investigaciones, como la de Bojacá y Pinilla(7),que se espera tenga efectos sobre el diseño de la parte abierta de las pruebas.

2.2 Aplicación masiva

Las aplicaciones «piloto» (pruebas de experimentación antes de tener una prueba «definitiva») no se hacen solamente como indicadores de ajuste de los instrumentos a los modelos psicométricos, sino también como mecanismos de investigación. Es decir, no solamente sirven para saber si las preguntas «funcionan», si se puede decir que hay una prueba y no una sumatoria de preguntas, sino también para averiguar aspectos pragmáticos del uso del lenguaje en contexto de evaluación.

Luego viene la aplicación masiva, que parecería una etapa de naturaleza meramente mecánica, en tanto ya los instrumentos se han «validado» en las pruebas piloto; sin embargo, durante esta aplicación se ha tratado de averiguar aspectos fundamentales para evaluar el área de lenguaje a estudiantes desde tercero de primaria: ¿Todos los estudiantes saben seguir instrucciones escritas? ¿A paitir de qué momento podemos suponer que no es necesaria una interacción oral para que contesten la prueba? ¿A partir de cuándo son capaces de hacer la abstracción necesaria que implica responder en una hoja de respuestas yno directamente en un cuadernillo? ¿Qué implicaciones tiene para el instrumento la generación de, espaciós de interacción verbal entre los estudiantes durante la prueba? ¿Qué tanto tiempo pueden estar concentrados en una prueba? Este lapso, ¿es igual para todas las regiones del país?, ¿en qué medida depende de la prueba misma? ¿Qué impresión tienen los estudiantes acerca del instrumento una vez terminan de trabajar en él?, etc.

Todas estas preguntas, que en otra área parecerían apuntar a aspectos de la mecánica de la prueba, en el caso de lenguaje es claro que forman parte de la especificidad misma del área: la interacción comunicativa, sobre todo cuando el propósito de las pruebas es indagar competencia comunicativa y no contenidos curriculares. Los intentos por resolverlas, en consecuencia, deben pasar por investigaciones que apunten a establecer lo que se pone en juego respecto a la especificidad del lenguaje en las pruebas. Aquí es fundamental lo que los aplicadores reportan de su trabajo, aunque en las respuestas también se pueden investigar los rastros de dicha interacción.

En este contexto, es necesario analizar el compromiso del maestro, y las circunstancias en las que se hace la pruebá; por ejemplo, ¿qué tanta validez tiene una prueba para niños de tercer grado aplicada en condiciones de agotamiento al finalizar una jornada? No obstante buscarse que la aplicación sea homogénea, casos como éste han ocurrido en algunas partes del país y no deben. considerarse atípicos, ya que cada interacción establece condiciones irrepetibles: no es posible encontrar dos condiciones comunicativas iguales. Recordamos en este punto el caso de la «investigación» sociolingüística durante una época: determinados instrumentos encontraban que las comunidades negras eran lingüísticamente deficitarias; no obstante, cuando ellas elaboraban los instrumentos, quienes aparecían como carentes eran los blancos...

2.3 Divulgación de resultados

Para divulgar sus acciones, hasta ahora el SINECE ha publicado un libro sobre los resultados (presentado en la Biblioteca «Luis Angel Arango», ante el Ministro de Educación, en Octubre 20 de 1992), tres fascículos Avances de Saber, varios afiches y un video. Estos materiales tienen una excelerite presentación y tirajes bastante considerables; sin embargo, falta en ellos el planteamiento cabal de los objetivos y del enfoque conceptual de las pruebas de lenguaje, así como un terreno de diálogo con los maestros, en relación con los criterios de la evaluación.

Estas carencias se dan por haber concebido de manera separada los componentes de Investigación y de Divulgación. Pensamos que, para divulgar, también la investigación resulta ser fundamental: si con ella se diseñan los instrumentos, hay que contar con ella para decir cómo interpretar los resultados y, por lo tanto, ella debe sugerir las formas de divulgación, los contenidos y las estrategias para que dicho trabajo pueda aspirar a tener efectos positivos en la calidad de la educación. Si esto es factible, la divulgación debe ser capaz de interpelar --entre otros, pero principalmente-- al maestro; no en el sentido de asumir una posición autoritaria, que habla desde el saber y desde la instancia que determina las medidas a tomar. Por el contrario, la divulgación debe problematizar las prácticas del maestro, generar la discusión, socializarla y persuadir hacia actitudes de investigación; y esto se logrará con una comunicación sincera, que dé cuenta de todo el proceso (no sólo de los «resultados», entendidos como cifras), que manifieste los vacíos que se tienen al evaluar, que sea capaz de contextualizar y criticar lo que el mismo Sistema de Evaluación hace.

No basta con que una publicación llegue a las manos del maestro; si no se genera alrededor de ella una interacción comunicativa, crítica, se perderá el esfuerzo divulgativo, ya que éste es un elemento más de un conjunto; conjunto de actividades cuya posibilidad de incidir sobre la calidad de la educación estriba en actuar integradamente. Los componentes aislados no serán capaces de implementar transformaciones importantes. Aquí será de gran importancia la realización de eventos regionales y nacionales en los que los maestros socialicen sus propios análisis.

Por otra parte, la divulgación mediante charlas informativas y videos posiblemente ha sido muy importante, por haber dado a conocer los objetivos de esta evaluación y el Sistema mismo. Sin embargo, se espera que la cualificación de la educación pase por la escritura; es decir, que sus agentes tengan capacidad de tomar posición frente a los textos que se le presentan (por ejemplo, los informes de resultados), así como de escribir con sentido y con identidad, o sea, como herramienta de transformación.

2.4 Investigación

El SINECE asume, al menos, dos posiciones frente a la investigación.

- La primera posición está en el libro Saber (p.26); allí se le asignan al componente de investigación la función de explicar la interacción de variables --«no completamente conceptualizadas», según el mismo texto--, en especial, de «factores asociados» al logro cognitivo.

Pensamos que, en efecto, cualquier situación del lenguaje que sea objeto de una mirada evaluativa requiere una investigación. No obstante, si no están claros los modelos conceptuales y prácticos presentes en la búsqueda de aquellos factores que influyen sobre el rendimiento académico, y si estos modelos no tienen consistencia con aquellos que están presentes en la indagación de dicho rendimiento, claro que se producirá una «incertidumbre» o, más bien, una incapacidad de previsión. Pero eso no es investigación.

La incertidumbre investigativa no consiste en relacionar los resultados de «logro cognitivo» con los de «factores asociados», sin haber vinculado conceptualmente ambos aspectos durante el diseño de los instrumentos. Por ejemplo, en el cuestionario de factores asociados, se le pregunta al niño si está de acuerdo con la frase «Las matemáticas son más para los hombres que para las mujeres»; y luego, se dice que necesita investigarse el hecho de que «En las escuelas públicas se destaca el sexo del estudiante, que actúa positivamente para las niñas en lenguaje, y negativamente en matemáticas» · (Saber, p.89-91). La pregunta --que ya presupone la correlación buscada-- se opone al sentido con el que se elaboró la prueba de lenguaje que contestaban los mismos niños. Si los que diseñaron los instrumentos hubieran discutido este caso, o bien las pruebas de logro de quinto de primaria habrían tenido otros objetivos, caso en el que la correlación sexo/asignatura se habría encontrado con base en otros resultados de logro (o sea, sería otra cosa); o bien los cuestionarios de factores asociados habrían preguntado algo distinto, caso en el que esa correlación podría no haberse buscado como algo, importante.

En consecuencia, la investigación debe ser la que le asigne un sentido integral a aspectos como «logro cognitivo» y «factores asociados», no la que busque ese sentido después. Esto no quiere decir que se deba tener certeza total antes de investigar (no se necesitaría la investigación); pero tampoco es cierto que el investigador no tenga nada al comienzo y que las preguntas le vengan después de actuar al desgaire.

-La segunda posición está también en el libro Saber (p.26- 27), donde se dice que la investigación también tiene la función de enriquecer el diseño de nuevos instrumentos; y en el No. 1 de los Avances de Saber (p.9), donde las funciones de la investigación se reducen a la revisión general de todos los instrumentos.

No obstante, pensamos que, en lugar de servir para enriquecerlos o revisarlos, la investigación más bien debe ser la que determine la naturaleza, pertinencia y momentos de aplicación de los instrumentos, lo que implica no convertirlos en fines ni en herramientas permanentes.

Quien intenta caracterizar estados de lenguaje se encuentra ante dos opciones: un modelo preelaborado o uno por construir, según sean las circunstancias. En el primer caso, dominante en la evaluación escolar, el maestro simplemente aplica y sanciona, según sus indicadores «intuitivos» o los que traen el libro de texto o los programas; lo que se evalúa está centrado en la gramática normativa, en una «comprensión de lectura», entendida como recuerdo literal, en una disección estéril del texto, etc. La segunda opción corresponde a una actividad investigativa; activación que tendrá su propia historia, pues se hace posible desde una experiencia acumulada, pero no individual sino colectiva, en tanto es desde la confrontación con los pares que se van ganando puntos consensuales. Esa experiencia acumulada por los grupos de investigación en una disciplina permite visualizar paradigmas u horizontes hipotéticos de trabajo. Aquí pesan mucho las circunstancias: el para qué de la evaluación y, por supuesto, la concepción que se tenga sobre lenguaje.

Así, entonces, frente á un asunto tan complejo como lo es la evaluación en lenguaje, será siempre necesario recuperar las experiencias de investigación, como referentes desde los cuales discutir en torno al tipo de evaluación más pertinente, según sean sus fines. La investigación, pues, no estaría más allá de los resultados obtenidos luego de aplicados los instrumentos, sino, al contrario, más acá de su diseño. El diseño será el resultado de la discusión de ese colectivo de pares, en cuyo interior se negociarán o acogerán propuestas dentro de un paradigma que los une(8). La investigación en lenguaje, ya realizada o en curso, es relevante antes del componente de diseño y habrá de explicitarse y de permanecer, como detonante de cambio, a lo largo de todo el proceso.

Lo dicho hasta ahora sobre la investigación no implica que ésta deba entenderse sólo en el marco de los análisis y de las propuestas teórico-conceptuales de los «especialistas», sino también en relación con un trabajo directo con colectivos de maestros, quienes podrían iniciarse en investigación a partir de la experiencia misma de la evaluación, retomando los instrumentos y preguntando por los principios conceptuales que les subyacen(9). Sólo así podríamos iniciar un camino de cualificación progresiva de una pedagogía para la comunicación y el lenguaje en la escuela, y, particularmente, para desarrollar un terreno de reflexión sobre la evaluación escolar. (En este momento, por ejemplo, hay una cantidad inmensa de respuestas abiertas de los niños que esperan las investigaciones de las regiones, con sus propios criterios, con sus propios objetivos).

5. Medidas de mejoramiento de la calidad

Algunas medidas oficiales para el mejoramiento de la «calidad» de la educación han tenido la particularidad de no requerir ni de investigación ni de evaluación. La dotación a las escuelas(10) y la capacitación de maestros, por ejemplo, existen desde antes del SINECE y poco se ha hecho para superar sus reconocidas fallas. Además, si las políticas para dotación y capacitación no han tenido una dinámica de transformación, ¿por qué tendrían que cambiar ahora, simplemente con los resultados de una evaluación externa a los procesos educativos?

A propósito de la capacitación, siempre que el MEN implementa reformas (Renovación Curricular, Promoción Automática, Integración, Escuela Nueva, Evaluación de la Calidad), considera la necesidad de capacitar a los maestros. No obstante, pasados unos años de promulgación de la medida, reconoce que no se hizo todo lo posible para llevarla a cabo con efectividad, entre otras causas porque la capacitación fue insuficiente, de baja cobertura o de poca calidad(11). La forma invariable de implementar tal «capacitación» ha, consistido en hacerle recibir cursos a algunos maestros y/o distribuirles unos textos alusivos a la gran medida tomada. Independientemente de la muy variada calidad y orientación de los cursos y de los textos informativos, su efecto en la práctica cotidiana de los maestros, como es sabido, es exigua.

Tenemos que reconocer, entonces, que no se ha recogido la experiencia derivada del fracaso de los modelos de «capacitación» implementados, particularmente, para llevar a cabo la Renovación Curricular y la Promoción Automática. Todas las veces que ha sido necesario tomar grandes medidas, hablar de grandes cifras, pasar a la historia y decidir sobre el gasto de mucho dinero, se ha implementado el mismo modelo. En lugar de esto, la investigación que aquí se plantea a propósito de la evaluación de la educación sugiere una «autoforma,ción» permanente del maestro. La cualificación de la labor de los docentes pasa necesariamente por el cambio de actitud frente al conocimiento, a la cultura y a las comunidades. Este cambio sólo puede ser generado y mantenido por la investigación; no entendida como el mito de lo científico al que, supuestamente, sólo accedería una élite formada para tal fin, sino como disposición hacia la innovación, teniendo en cuenta las condiciones reales del aula y de la comunidad, en la perspectiva de sistematizar las experiencias a través de los registros, los recuentos y la escritura del maestro, en el marco de los Proyectos Educativos Institucionales (herramienta propuesta por la nueva Ley General de Educación).

Otra estrategia ha sido la de informar sobre los resultados, como es el caso de la «evaluación de la calidad»; no obstante, este tipo de acción excluye a los agentes educativos del proceso evaluativo, ya que serían meros «receptores» de los resultados que «el sistema» les envía cada año. Y, de esta forma, tampoco contribuye a la capacitación de los maestros, lo cual, paradójicamente, es una condición para mejorar la calidad de la educación, según el documento Saber (p.99-100).

Pensando en el mejoramiento de la calidad educativa, el grupo que trabajó en la primera versión de la prueba de quinto de primaria, solicitó que los resultados de la evaluación de la calidad no se manejaran de la misma forma que se manejan los resultados de los Exámenes de Estado, buscando que no se produjeran los mismos efectos; sabido es que tal manejo no sólo no ha contribuído a mejorar la calidad educativa, sino que puede ser un factor que la afecte negativamente(12). Sin embargo, hasta ahora la divulgación, del SINECE se ha hecho de tal forma que ya muestra vicios semejantes.

Ante una información como: «Estos bajos niveles de calidad de la educación son especialmente graves en algunos departamentos. Tal es el caso de Boyacá, Bolívar y Córdoba» (Saber, p.97), algunas autoridades educativas regionales han amenazado a los maestros por considerarlos responsables de la posición que sus departamentos «obtuvieron». Esta forma de presentar los resultados --que no evalúa al sistema educativo-- puede ser uno de los factores determinantes de casos como el siguiente: en calendario A, durante la aplicación de 1993, en quinto de primaria, al menos 1431 pruebas de matemáticas y1227 de lenguaje revelan que ha habido copia (cf. Informe técnico ICFES, Agosto de 1994). La única posibilidad para que esto ocura, dadas las condiciones de aplicación, es que el profesor dicte las respuestas a los niños, durante la rotación del aplicador. Lo curioso es que esto se descubre al detectarse un porcentaje considerable de las mismas respuestas equivocadas, en lo estudiantes de un salón de clase. Pero esta actitud no es novedosa en la escuela: ante una evaluación que no genera de manera ostensible la posibilidad de mejoramiento, sino la de sanción, los estudiantes han encontrado una falsa salida mediante la trampa.

No se ve claro el perfil de la evaluación, en una afirmación como la siguiente: «Los estudiantes no utilizan los aspectos formales de la lengua y en comprensión de lectura estan en un nivel bastante elemental» (Avances de Saber No. 2, p.11). En conclusión, no creemos que las pruebas llamadas «de calidad» deban prestarse para ampliar el temor, asociado a los Exámenes de Estado, a otros grados de escolaridad, o para generar un sistema educativo en el que «se estudia para ganar pruebas».

PROPUESTA

De acuerdo con la nueva Ley General de Educación, es responsabilidad del MEN evaluar la prestación del servicio educativo y velar por la calidad de la educación. En tal sentido, tendrá que hacer propuestas nacionales sobre evaluación (enfoques, instrumentos, estrategias, etc.) y sobre medidas de mejoramiento del servicio; pero, al mismo tiempo, debe divulgar las experiencias de innovación, propiciar y apoyar la investigación y la toma de decisiones a nivel regional (frente a los mismos tópicos). Así, el planteamiento de nuevas propuestas debe integrar el estado del debate, de la innovación y de la investigación en las regiones.

NOTAS

  1. El lector puede hacer su propio juicio: Cf. Charria, María Elvira (coordinadora). «Estudio sobre la evaluación del aprendizaje del lenguaje» (documento de trabajo). Bogotá: MEN, Noviembre de 1990.
  2. Es decir, pruebas que establecen previamente los objetivos básicos que el individuo debe cumplir, y definen un criterio mínimo aceptable para dicho logro. Así, los resultados incliviciuoles se comparan con el criterio establecido; en estas pruebas, a diferencia de los pruebas con arreglo a la Norma, los resultados de un individuo no dependen de los obtenidos por el resto de la población; en consecuencia, no tratan de clasificar en «buenos», «regulares» y «malos».
  3. Es decir, pruebas que establecen lo posición de cada individuo dentro del conjunto de la población: qué porcentaje de ella está por encima y qué porcentaje está por debajo de él. Por esta característica, sirven como término de comparación.
  4. Para el caso de So. de primaria: Carlos Augusto Hernández (Universidad Nacional); Margarita de Angarito (mEN); Jaime Riveros (NENA); Elizabeth Forero (Escuela Nue- va Delhi - Bogotá); Carlos . Ordóñez (entonces, 1CFES-SNP); Patricia Duarte (IcFEs-sNP); y Guillermo Bustamante Z. (entonces, Universidad Pedagógica y Tecnológica de Colombia). En los informes del SINECE -Saber y lo colección de Avances de Saber- casi todas estas personas aparecen asignadas al SNP, pasando por alto la fundamental composición interinstitucional e inteniveles de los grupos de trabajo. ·
  5. Por ejemplo: «Ciclo de foros sobre el plan de apertura educativa. Temo: la evaluación de la calidad de lo educación». Bogotá: MEN, 1991, s/p.
  6. Dos ediciones del libro Saber: Primeros resultodos: matemáticas y lenguaje en lo básico primario. Colección documentos del saber No. 1. MEN, 1992; tres entregas de Avances de Sober, (Marzo, Abril y Mayo de 1993).
  7. «Análisis de textos escritos por niños de quinto grado, en el contexto de evaluación masiva realizada por el SINECE». Proyecto de investigación presentado a COLCIENCIAS, durante el presente año.
  8. Contrástese esta propuesta con lo reseñado en el documento Saber dos de las pruebas del SlNECE fueron elaborados individualmente.
  9. En tal sentido, se ha pensado en publicar, paulatinamente, los instrumentos aplicados.
  10. En relación con lo dotación, ver: «lineamientos de una política para textos».
  11. Puede verse, al respecto,1. la opinión que hay en el Plan de Apertura Educativo, a propósito de la Reformo Curricular; 2. los conclusiones que los diversos investigadores han sacado del seguimiento a la Promoción Automática; y 3. la posición que asume el siNEcE en Avances de Saber No. 3.
  12. Es notable cómo lo secundaria se está convirtiendo en un pre-icfes; con lo que los fines de la educación quedan subordinados a los Fines de esa evaluación: hacer la selección de aspirantes a lo universidad.

Creation date:
Loading...