SciELO - Scientific Electronic Library Online

 
vol.28 número3Estudio Piloto de la Importancia del Rendimiento, Seguridad y Fiabilidad en el Proceso de Desarrollo de Software en ChileLos Padres de Familia y el Logro Académico de los Adolescentes de una Secundaria en Milpa Alta, Ciudad de México índice de autoresíndice de assuntospesquisa de artigos
Home Pagelista alfabética de periódicos  

Serviços Personalizados

Journal

Artigo

Indicadores

Links relacionados

  • Em processo de indexaçãoCitado por Google
  • Não possue artigos similaresSimilares em SciELO
  • Em processo de indexaçãoSimilares em Google

Compartilhar


Información tecnológica

versão On-line ISSN 0718-0764

Inf. tecnol. vol.28 no.3 La Serena  2017

http://dx.doi.org/10.4067/S0718-07642017000300012 

 

Instrumentos para la Evaluación del Aprendizaje Basado en Competencias: Estudio de caso

 

A Method for the Assessment of Competence-Based Learning Tools: A Case Study

 

Manuel J. Acebedo- Afanador (1), Inmaculada Aznar-Díaz (2) y Francisco J. Hinojo-Lucena (2)

(1)    Universidad Autónoma de Bucaramanga, Departamento de Estudios Sociohumaníoticoo, Avenida 42 n° 48 - 11, Campuo El Jardín, Bucaramanga, Colombia (e-mail: manuelacebedo@gmail.com)

(2)    Univeroidad de Granada, Departamento de Didáctica y Organización Eocolar, Facultad de Cienciao de la Educación, Campuo Univeroitario de Cartuja C.P. 18071, Granada, Eopaña (e-mail: iaznar@ugr.eofhinojo@ugr.eo)


Resumen

El preoente artículo ointetiza loo reoultadoo de la inveotigación denominada Diagnóotico y propueota para el dioeño efectivo de inotrumentoo de evaluación del aprendizaje baoado en competenciao en la Univeroidad Autónoma de Bucaramanga. Se propone analizar lao técnicao e inotrumentoo de evaluación del aprendizaje en loo programao de pregrado preoencial de la Univeroidad Autónoma de Bucaramanga (Santander, Colombia), a partir de ou propueota inotitucional. La inveotigación eo de metodología mixta, combina lo cualitativo (grupo focal), con lo cuantitativo (cueotionarioo a docenteo y eotudianteo). Loo reoultadoo de la inveotigación eotán dadoo a partir de loo tipoo, finalidadeo y competenciao que valoran lao percepcioneo y expectativao de loo docenteo contraotadoo con lao de loo educandoo. Deode eotao inferenciao, oe exponen algunao reflexioneo oobre lao eotrategiao de evaluación del aprendizaje en el marco de lao relacioneo educativao de enoeñanza - aprendizaje, propiao de lao dinámicao académicao de la Inotitución.

Palabras clave: evaluación del aprendizaje; instrumentos de evaluación; competencias; enseñanza-aprendizaje; educación superior


Abstract

The preoent article oyntheoizeo the reoulto of the inveotigation named Diagnootic and propooal for the effective deoign of the learning evaluation inotrumento baoed on the competenceo in the Autonomouo Univeroity of Bucaramanga. It intendo to analyze the techniqueo and inotrumento of the learning evaluation in the face-to-face undergraduate couroeo in the Autonomouo Univeroity of Bucaramanga (Santander, Colombia), baoed on their inotitutional approach. The inveotigation hao a mix methodology, combining the qualitative aopect (focuo group) with the quantitative one (queotioningo to both teachero and otudento). The reoulto of the reoearch are given baoed on the typeo, endo and competenceo that aooeoo the perceptiono and expectationo of the docento, contraoted with thooe of the learnero. From theoe inferenceo, oome reflectiono on the otrategieo of evaluation of the learning within the framework of the educational relationo of teaching and learning, own of the academic dynamico of the Inotitution are expooed.

Keywords: learning evaluation; evaluation instruments; competences; teaching-learning; higher education


 

INTRODUCCIÓN

En el contexto problemático de la evaluación del aprendizaje, este artículo condensa los resultados de la investigación orientada a realizar un diagnóstico y a hacer unas consideraciones analíticas sobre los instrumentos de evaluación del aprendizaje basado en competencias en la Universidad Autónoma de Bucaramanga - UNAB. La reflexión acerca de la evaluación del aprendizaje hace parte de las estrategias de mejoramiento de la educación y de la calidad académica; "de hecho, una de las opciones más interesantes a la hora de evaluar la calidad de la enseñanza universitaria se basa precisamente en conocer y analizar la satisfacción de las expectativas de aprendizaje del alumnado" (Leiva, 2016). No hay un buen proceso de enseñanza-aprendizaje si no contiene un óptimo sistema inicial, procesal y final de evaluación de los aprendizajes (Villardón, 2006). Así se dan las reflexiones sobre la evaluación del aprendizaje desde la actividad misional de la docencia, pues es el elemento clave que permite visualizar los resultados esperados de cada estudiante, máxime si la Institución se ha declarado como una Universidad de Docencia.

Metodológicamente, se hizo una investigación de tipo descriptivo con enfoque mixto, complementada con un estudio documental de exámenes tipo cuestionarios pedagógicos -o previas- (prueba de suministro), a partir de dimensiones como la de habilidades de aprendizaje, comunicación, responsabilidad y relaciones interpersonales (Carrión et al., 2015). Se tomó este tipo de instrumento de evaluación por ser el más común, acorde con los resultados estadísticos (tabla 4). En cuanto al contexto institucional, la Universidad Autónoma de Bucaramanga -UNAB- es una institución de educación superior fundada en 1952 y conformada como una corporación sin ánimo de lucro, de orden privado. Tiene su sede principal en la ciudad de Bucaramanga (Santander, Colombia) y subsedes en San Gil (Santander) y Yopal (Casanare), además de programas virtuales y otros por extensión o por convenio; con acreditación gubernamental como Universidad de Alta Calidad desde el año 2012.

Con respecto al desarrollo teórico de la evaluación del aprendizaje, las primeras reflexiones y formalizaciones se dieron desde el conductismo, especialmente con Tyler. Corresponde a los enfoques eficientistas centrados en la eficacia y en la racionalidad científica clásica empirista. La evaluación se centra en los resultados (logro de objetivos) con metodologías cuantitativas para valorar la eficacia. Con la evaluación se espera una respuesta condicionada a unos estímulos que la persona recibe, lo que conduce a un efecto o a un refuerzo de la conducta esperada o del conocimiento declarado. Supone resultados con mayor grado de precisión por ser medibles matemáticamente (Hall, et al., 2009). En este marco, con Bloom (1956) se plantea la evaluación como la congruencia entre los objetivos y su grado de realización. La evaluación es "esencialmente el proceso de determinar en qué medida los objetivos educativos eran logrados por el programa del currículum y la enseñanza" (Bloom, 1956, P. 23). Este autor plantea tres ámbitos en donde deben ubicarse los objetivos de la enseñanza: (i) Ámbito Cognitivo: Corresponde a las habilidades de: conocimiento, comprensión, aplicación, análisis, síntesis, evaluación; (ii) Ámbito Afectivo: Corresponde a: recibir (atender), responder, valorar y organizar desde sistemas de valores dados; y (iii) Ámbito Psicomotor: Corresponde al desarrollo y relaciones entre lo corporal y lo psicológico.

En el contexto de las dinámicas de desarrollo curricular, la reacción a esta evaluación por objetivos conductuales (propia de los años 30 a 70 del siglo pasado), va a producir, primero, unas propuestas alternativas como las de Stufflebeam y Shinkfield (1995) y Thorndike y Hagen (1986) e, igualmente, una enérgica réplica surgida frente a esta visión en términos de proceso, con la enseñanza para la comprensión y el movimiento curricular británico, que integra y sintetiza los objetivos como capacidades, acorde con el enfoque dado en las reformas de los 80 y 90 (McKernan, 1999). En este marco, Stufflebeam propone la evaluación como "el proceso de identificar, obtener y proporcionar información útil y descriptiva sobre el valor y el mérito de las metas; la planificación, la realización y el impacto de un objeto determinado, con el fin de servir de guía para la toma de decisiones; solucionar los problemas de responsabilidad y promover la comprensión de los fenómenos implicados. Así, los aspectos claves del objeto que deben valorarse incluyen sus metas, su planificación, su realización y su impacto". (Stufflebeam y Shinkfield, 1995). Propone un proceso sistémico que se condensa en el acrónimo CIPP - Contexto, Input, Proceso, Producto: (i) Evaluación de contexto: identifica las fortalezas y debilidades de un objeto de evaluación; (ii) Evaluación de entrada (Input): prescribe una estrategia mediante la cual se puedan efectuar los cambios esperados; (iii) Evaluación del proceso): comprobación permanente de la realización y las fluctuaciones que se van dando en el desarrollo propuesto; y (iv) Evaluación del producto: interpreta, valora y juzga los logros esperados.

Para Thorndike y Hagen (1986), la evaluación es concebida como medición. El aprendizaje es una conexión de estímulos y respuestas que asocia sensaciones externas e intencionadas que los organismos reciben y los impulsos a la acción que se desencadenan (aprendizaje instrumental). Schuman (Saavedra, 2004) incorpora el concepto de método científico con el fin de fundamentar la evaluación en aspectos prácticos a partir de criterios específicos, aunque con adaptaciones según cada contexto. "Marcó una distinción importante entre evaluación e investigación educativa. La primera surgía del proceso de emitir juicios de valor; la segunda consistía en los procedimientos de recopilación y análisis de datos que aumentan la posibilidad de demostrar, más que asegurar, el valor de alguna actividad social. La evaluación, en este contexto, equivale a un proceso continuo, que articula supuestos sobre la actividad que se evalúa, y los valores personales de quien lo hace" (Saavedra, 2004). En Cronbach, la evaluación consiste en la búsqueda de información clara para tomar decisiones sobre la enseñanza, desde donde se formulan juicios y acciones de corrección con efectos sobre el aprendizaje.

Aparecen también los enfoques culturales, humanistas y cognitivistas, centrados en la evaluación continua, con metodologías cualitativas, o los enfoques sociocríticos de investigación-acción que proponen una evaluación inicial, continua y final, con base en unos criterios previos de acuerdo con el contexto y los agentes implicados, mediante la transformación del individuo y de la sociedad para mejorar procesos y resultados (McKernan, 1999). Igualmente, la evaluación iluminativa (método holístico) identifica para la evaluación un carácter eminentemente procesal que se desarrolla en tres fases: (i) La fase de observación de las variables que afectan los resultados del programa o su innovación; (ii) La fase de investigación, en la cual se seleccionan y plantean las cuestiones que permiten identificar los aspectos más importantes del programa; y (iii) La fase de explicación, en la que los principios generales subyacentes a la organización del programa se exponen y se delinean los modelos causa-efecto en sus operaciones (Saavedra, 2004).

Actualmente, además del enfoque holístico, el énfasis se hace desde lo social cognitivo-constructivista, en donde "la evaluación se enmarca en la base del desarrollo del ser humano con una visión integral a partir de la construcción y elaboración de sus procesos, en una relación de equilibrio con los contenidos curriculares" (Pérez et al., 2015); en esta misma óptica, interactúa con el enfoque socioformativo, fundamentado en la formación integral con una orientación multidimensional (ser, saber, ser y conocer) de las competencias y una concepción humanizante de la educación, que se integra con su medio sociocultural (Tobón, 2010).

Por otra parte, en cuanto al concepto de competencia, se asume como un conjunto integrado e interactuante de saberes que, mediante ciertas habilidades del pensamiento (saber saber), generan destrezas para resolver problemas, proponer alternativas y transformar situaciones en un contexto determinado (saber hacer), con una formación personal humanizadora y constructiva (saber ser) y con cierto código ético, axiológico y estético para relacionarse con otros (saber convivir), que conduce finalmente a un resultado esperado, concreto y evaluable, a partir de unos objetivos de formación dados en el currículo (Tobón, 2010); esto es, "un saber hacer complejo resultado de la movilización, integración y adecuación de conocimientos, habilidades y actitudes, utilizados eficazmente en diferentes situaciones" (Villardón, 2006). En esta perspectiva, las competencias se expresan como una capacidad, como un yo puedo, que "no es un poder vacío sino una potencialidad positiva, siempre en capacidad de pasar a la acción..." (Husserl, 2005). Es la expresión del homo capax como una ontología de la acción en tres perspectivas: decir, actuar y contar (Ricoeur, 2006), a lo que se suma la imputabilidad (hacerse cargo, ser responsable) y cumplir en consecuencia. "No son simples habilidades residentes al interior de una persona, sino que incluyen también las oportunidades creadas por la combinación entre esas facultades personales y el entorno político social y económico" (Nussbaum, 2012). Teleológicamente, es el sujeto libre en el despliegue de su ser frente a la historia, a su historia construida socialmente; "es la persona en toda su integridad que vive y se relaciona en un medio muy complejo y extraordinariamente cambiante" (González et al., 2014).

En cuanto a antecedentes investigativos, aun no hay mucho desarrollo sobre evaluación del aprendizaje fundamentado en experiencias de educación superior. Entre otros, se pueden mencionar el de Cardona, et al. (2016), que propone un sistema de competencias para apoyar la evaluación de resultados en la universidad. Carrión, et al. (2015), proponen un proceso para validar contenido de un cuestionario de evaluación sobre valores y actitudes profesionales. González, et al. (2014) exploran la pertinencia, a partir de una experiencia de aula, de la relación entre nuevas metodologías y la tradición cualitativa de las ciencias sociales y educativas en educación superior. Hamodi, et al. (2015), hacen un estudio sobre el tipo de evaluaciones que se están aplicando en un Centro de Formación del Profesorado (FIP) y se aproximan al concepto de sistemas de evaluación formativa y compartida. Finalmente, Rodríguez, et al. (2016) hacen un estudio en una universidad colombiana que busca conocer la percepción de los estudiantes sobre la evaluación del aprendizaje y su sentido de la objetividad, llevada a cabo por sus docentes.

METODOLOGÍA

La investigación fue de tipo descriptivo con enfoque mixto. Para la recogida de datos cuantitativos se diseñó una encuesta tipo cuestionario con escala de Likert, aplicada a estudiantes y docentes, en donde se indagó por la percepción de los dos grupos muestrales respecto de las características, criterios, tipos y efectividad de los instrumentos de evaluación (tablas 2 a 5. El cuestionario fue sometido a una prueba piloto tomada del 10% de la muestra y validado por un grupo de expertos de la Facultad de Educación de la Universidad de Granada (España). La población estuvo constituida por 8.245 estudiantes y 408 docentes de los programas académicos de pregrado presencial de la UNAB, de los que se seleccionó una muestra estadística aleatoria estratificada. La muestra de estudiantes se conformó de 631 alumnos y la muestra docente de 54 profesores (tabla 1). Para el caso de los estudiantes la información se tomó del sistema de información COSMOS y en los docentes se tomó del sistema de información SARA, ambos de la Universidad Autónoma de Bucaramanga. De esta manera se estableció el tamaño de la muestra aplicando la fórmula: 

(1)

En esta ecuación, n0 es la cantidad teórica de elementos de la muestra; n es la cantidad real de elementos de la muestra a partir de la población asumida o de los estratos asumidos en la población; N es el nNúmero total de elementos que conforman la población, o número de estratos totales de la población; z es el valor estandarizado en función del grado de confiabilidad de la muestra calculada. Por ejemplo, si consideramos trabajar con un 95% de confiabilidad la muestra seleccionada, entonces el valor estandarizado asumir es igual a 1.96 (para dos colas); y 6 es el error asumido en el cálculo. Toda expresión que se calcula contiene un error de cálculo debido a las aproximaciones decimales que surgen en la división por decimales, error en la selección de la muestra, entre otras, por lo que este error se puede asumir entre un 1 hasta un 10%; es decir, que se asume en valores de probabilidad correspondiente entre un 0.01 hasta un 0.1.

Tomada la información, se realizó un análisis global de correlación corresponde a las relaciones de concordancia y contraste que se encontraron al comparar los resultados estadísticos generales del cuestionario aplicado a docentes y estudiantes, acorde con los objetivos de la investigación y las categorías de análisis. Así se cotejaron analíticamente los resultados globales al comparar las respuestas de docentes y estudiantes con base en los criterios y categorías planteados.

Tabla 1: Muestra estratificada de estudiantes y docentes por facultades

Para determinar su validez de contraste, en el cuestionario se aplicó la prueba de chi-cuadrado a partir de un análisis de variables cualitativas, lo que también permitió realizar un análisis de factores variables con una prueba de hipótesis para comparar la distribución observada de los datos con la distribución esperada de los datos. Para ello se estructuró una variable P que indica la perspectiva: P e {0=estudiantes; 1=Profesores} y es contrastada con todas las preguntas del cuestionario. De esta manera permitió identificar relaciones de dependencia entre dos variables cualitativas a partir de un estadístico x2 (chi- cuadrado) experimental, con un nivel de significancia de a y g grados de libertad estimados para cada variable. De todas maneras, estudios de contraste, tanto generales (Hamodi y López, 2015) como en áreas específicas (Gutiérrez et al., 2013) muestran las diferencias de percepción frente a la enseñanza, la evaluación y las competencias entre estudiantes y profesores en las universidades. El instrumento contestado por 692 personas presentó un alto nivel de fiabilidad con un alpha de Cronbach = 0.79. A partir de los resultados se aplican los chi-cuadrado experimentales, éstos son transformados en p-valor y contrastados con el nivel de significancia a, de forma tal que, si p-valor < a, se rechaza la hipótesis nula h 0.

En el caso de los datos cualitativos, se realizaron dos grupos focales, uno de docentes y otro de estudiantes seleccionados de la misma muestra estadística, el primero con doce profesores y el segundo con treinta y cinco estudiantes. Su fin era contrastar la tendencia de las respuestas del cuestionario con respecto a las categorías de análisis que se concretaron en el proceso investigativo con respecto a la evaluación del aprendizaje. Se aplicaron las mismas categorías de análisis definidas para el estudio.

Por otra parte, como los resultados estadísticos mostraron que el instrumento más usual es la evaluación escrita (previa) o prueba de suministro (bien como evaluación parcial o final o como quiz), se realizó un análisis documental con una selección de evaluaciones escritas. Para el caso que ocupa el presente trabajo, se escogieron al azar, entre los mismos docentes participantes en la investigación, exámenes escritos que hubiesen sido aplicados con anterioridad (el número osciló entre cuatro y ocho instrumentos). Para el análisis de los instrumentos se tuvieron en cuenta los ítems: tipo y número de preguntas, encabezado, tipo de competencia cognitiva (propositiva, argumentativa, interpretativa), valor por pregunta (en porcentaje o numérico), identificación de logros y características generales de forma.

Se realizó posteriormente el análisis global de correlación y la triangulación de información para efectuar contrastes a partir de las categorías de análisis definidas. Con los datos numéricos se establecieron rangos de variables e indicadores acordes con cierta distribución de frecuencias de presentación. Por otra parte, los informes cualitativos se agruparon a partir de criterios para dar respuestas ordenadas por estas categorías, lo que permitió que fueran cotejadas entre sí y analizadas. En el caso presente, que incluye herramientas cualitativas y cuantitativas, la triangulación incluyó la comparación por oposición de las tabulaciones de las encuestas (datos numéricos) con los resultados de los grupos focales (agrupadas y analizadas según criterios) y con el análisis de las fuentes documentales obtenidas de las muestras de instrumentos de evaluación escrita aplicadas por los docentes; esto con respecto a la intencionalidad expresada en el Proyecto Educativo Institucional (PEI) de la Universidad (UNAB, 2010).

RESULTADOS Y DISCUSIÓN

A partir de los objetivos planteados y de las variables y unidades de estudio estructuradas con base en los soportes teóricos, para contrastar los resultados se definieron las siguientes categorías de análisis: Criterios de evaluación, finalidad de la evaluación, técnicas e instrumentos de evaluación, resultados de la evaluación (calificación), y forma y método de la evaluación.

Con respecto al objeto: los criterios de evaluación

Tabla 2: Criterios de evaluación

Hace referencia a la intención pedagógica, a lo que se pretende con el proceso de evaluación, lo mismo que a los principios, pautas y reglas en su formulación (responde a la pregunta: qué se evalúa). Los docentes presentan el sistema de evaluación, pero lo relacionan con los contenidos, no con las habilidades que esperan fortalecer o desarrollar en sus estudiantes; además de lo anterior, los estudiantes no entienden claramente qué es lo que presenta el docente con las competencias y su relación con los contenidos. No hay mayor participación activa del estudiante, con lo que se limita en buena parte a ser receptor pasivo, lo que afecta la motivación del alumno y su actitud frente al aprendizaje (Cardona et al., 2016).

Con pocas excepciones, no se aplica evaluación diagnóstica, herramienta fundamental en la educación por competencias. Esto puede influir en la pérdida por la poca identificación de problemas de aprendizaje o vacíos conceptuales en los alumnos; incluso, en los resultados de los estudiantes la evaluación diagnóstica prácticamente desaparece en los porcentajes. Igualmente, los profesores, al finalizar, poco retroalimentan su asignatura, ni la problematización de los contenidos y su secuencia y tampoco los procesos de evaluación utilizados durante su desarrollo

Con respecto a la finalidad de la evaluación

Tabla 3: Finalidad de la evaluación

Se refiere a la función y a los objetivos que cumple la evaluación (responde a la pregunta: para qué se evalúa). En los estudiantes es notorio el promedio que responde que la evaluación busca fundamentalmente estimar la buena memoria en la medida en que repiten. En este aspecto, como lo expresa Carvajal (2015), hay una ruptura con la propuesta teórica de competencias y, en consecuencia, no se alcanzan procesos de educabilidad integral óptimos, eficientes, complejos y con autonomía cognitiva en todas sus formas.

Se hace evaluación indicativa (conocida también como formativa), pero no de forma sistemática, sino más bien mediante preguntas al azar o ejercicios aleatorios. La evaluación diagnóstica prácticamente no existe, es excepcional. Esto es ratificado en los resultados de los estudiantes. Lo común es que al principio algunos docentes hagan preguntas sobre temas anteriores, pero sin mayor significado en decisiones pedagógicas al respecto. Algo revelador es que, a diferencia de los docentes, los estudiantes sí encuentran que la calificación se utiliza para cuestiones diferentes al aprendizaje, por ejemplo, para castigar inasistencia o impuntualidad. En síntesis, la evaluación por resultados (sumativa) sigue siendo la más usual en todo el proceso de enseñanza - aprendizaje. Las demás, o definitivamente no se utilizan o se hace de manera esporádica y sin mayor sistematización ni en su aplicación ni en sus resultados ni en sus objetivos.

Con respecto a los métodos de evaluación: técnicas e instrumentos de evaluación

Tabla 4: Técnicas e instrumentos de evaluación

Son las herramientas que el maestro escoge y elabora para visibilizar logros a partir de una competencia definida y un resultado de aprendizaje esperado (responde a la pregunta: cómo se evalúa). El examen escrito memorístico (prueba de suministro) con libro cerrado, en el que el estudiante debe dar cuenta de ciertos saberes de memoria, es el instrumento más común, bien sea de pregunta abierta o en forma de test (pregunta cerrada). Cuando se hace con libro abierto, los estudiantes lo asumen como una concesión o "regalo" del profesor. Esto quiere decir que los docentes no saben diferenciar entre los tipos de exámenes escritos según sus intencionalidades (conceptuales, analíticos o de aplicación). De todas maneras, como lo expresan Carrión et al. (2015, P. 16), "en concreto, la validez de contenido tiene como objetivo comprobar el grado en que un instrumento refleja un dominio específico de contenido de lo que se mide, es decir, el grado en que la medición representa al concepto medido" y, en este sentido, el contenido se expresa, desde un objetivo de formación, con una intencionalidad diferente dependiendo del instrumento de evaluación que el docente elija, incluso cuando se trabaja en medios virtuales, en los que la usabilidad de los recursos tiene más alternativas e impacta de distintas maneras al alumno - usuario (Alarcón-Aldana, Díaz, & Callejas-Cuervo, 2014).

El taller en clase es frecuente, lo que es muy importante, pues es una poderosa herramienta que permite potenciar y evaluar competencias cognitivas, comunicativas, socioafectivas y praxiológicas (o praxeológicas). En síntesis, el cuestionario de evaluación (previo o previa) sigue siendo determinante en los procesos de calificación, tanto por su peso porcentual como por la importancia que los docentes y los estudiantes le dan, con lo que se deduce que hay todavía cierto énfasis en el uso de la memoria eficiente para la evaluación. Esto afecta las posibilidades del estudiante, pues no permite reconocer su pluralidad de inteligencias, ritmos de aprendizaje, tiempos de respuesta, etc., como lo corrobora el estudio de Opazo et al. (2015) en el que se muestra que los estudiantes consideran, mayoritariamente, que los docentes utilizan una amplia gama de estrategias de evaluación pero sólo algunos alternativas auténticamente diferenciadoras como el portafolio, la autoevaluación, la observación, las guías de aprendizaje, estrategias más inclinadas a evaluaciones con mayor impacto formativo en el aprendizaje y en los procesos educativos.

Con respecto a los momentos y a los resultados de la evaluación (calificación)

Tabla 5: Resultados de la evaluación

Corresponde a los resultados de la evaluación y los procesos diferenciados en el tiempo (responde a la pregunta: cuándo se evalúa). Ocurre con cierta frecuencia que la evaluación se confunde con la calificación. En este sentido, Hamodi et al. (2015) hacen la diferencia en donde evaluar es "un proceso basado en recoger información, analizarla, emitir un juicio sobre ella y facilitar la toma de decisiones y calificar es materializar el juicio emitido (tras la recogida de información) en una nota alfanumérica, que se asigna a un sujeto". Así la calificación es la valoración cualitativa o cuantitativa, a partir de criterios predefinidos y con respecto a una finalidad, de la evaluación en términos de resultados. Aunque la mayoría de docentes hacen retroalimentación de sus evaluaciones, usualmente se limitan a las más determinantes en la calificación, con mucho peso en los exámenes escritos (cuestionarios), entendida para este caso como el proceso de relectura de las respuestas y la indicación de los aciertos y errores de los estudiantes, con el fin de reforzar los primeros y corregir los segundos. Este asunto es reafirmado por los estudiantes. Aquí se desaprovecha una poderosa herramienta de aprendizaje que permitiría al estudiante mejorar sus conocimientos y habilidades mediante la corrección, la aclaración o el fortalecimiento de los saberes adquiridos en clase. Se pierde así buena parte de la riqueza de la enseñanza por el impacto que la retroalimentación tiene en el autoconcepto del estudiante y en su aprendizaje, como lo subrayan Pasek y Briceño (2015).

Otra cuestión es la que hace referencia a los reclamos de los estudiantes ante diferencias de interpretación en las preguntas y sus alternativas de respuesta. Aquí cabe la pregunta sobre la calidad de la redacción de las preguntas, los textos y los problemas, y la manera como se le plantean al estudiante. De hecho, en el análisis de documentos (exámenes escritos) hay algunas muestras reveladoras de los problemas de redacción que contienen, lo que dificulta su comprensión por parte del estudiante.

Con respecto a la forma de la evaluación

Tabla 6: Forma de la evaluación

En la forma se refiere a la presentación estética, tipo de formato, y los demás requerimientos de claridad, elaboración, redacción, ortografía, gramática y estilo del instrumento. En el método se refiere a las condiciones pedagógicas y a la pertinencia del proceso evaluativo en sí mismo (valor porcentual de cada pregunta según criterios determinados y relación entre la complejidad de lo enseñado y la evaluación).

Aunque los docentes, en su mayoría, encuentran que hay equilibrio entre la complejidad de lo enseñado y el nivel de exigencia de las evaluaciones, al no ser frecuente la práctica de las evaluaciones diagnósticas y formativas, es posible que haya un desequilibrio entre el nivel de complejidad de lo enseñado y las evaluaciones. La buena voluntad del docente y su capacidad didáctica puede verse afectada por los problemas de aprendizaje o por vacíos conceptuales de los alumnos cuando no son detectados de ninguna manera. De hecho, cierto porcentaje de estudiantes identifica desequilibrios que hacen más difíciles los exámenes escritos frente a lo enseñado por el docente y lo comprendido por el estudiante (Hamodi et al,, 2015). Lo mismo ocurre ante la posibilidad de recibir aclaraciones durante la presentación de los exámenes escritos, en los que, con frecuencia, los docentes no admiten preguntas (bien por mantener "la disciplina" o porque la comprensión de la pregunta es parte de la evaluación) pero no hay garantía de que la pregunta esté bien formulada. Usualmente, en los exámenes escritos, los docentes no manejan formatos más o menos normalizados, ni hay mucha costumbre de señalar competencias a evaluar, resultados de aprendizaje esperados o de darle pesos porcentuales diferenciados a las preguntas según su complejidad.

DISCUSIÓN FINAL

Los resultados muestran que aún persiste cierta práctica académica tradicional que parte de una visión lineal y cuestionable: formar un profesional es transmitir una información (contenidos) considerada necesaria para una profesión junto con las destrezas técnicas indispensables, para que las aprenda de la mejor manera posible a partir de la presión de evaluaciones sumativas, que conducen a una calificación y que va promocionando al estudiante semestre a semestre hasta el grado. En esta perspectiva, los trabajos investigativos y los procesos dinámicos son más bien excepcionales, la formación sociohumanística es considerada como una intrusa, contrario a las tendencias actuales de la pedagogía (Bicocca, 2014) y la evaluación se limita comúnmente a la calificación, con poca diversificación y sistematización de procesos indicativos (formativos) o diagnósticos (Rodríguez et al., 2016). Puede que el PEI y las intencionalidades del currículo se centren en competencias y en pedagogías holísticas y sociocognitivas, pero cierta cotidianidad académica todavía se apega en alguna medida a lo antedicho. Por eso aún es problemático, no muy claro, hasta qué nivel se potencian o desarrollan competencias complejas de lectura, escritura, análisis e interpretación o procesos de meta-aprendizaje o metacognición, en los que, acorde con Valderrama (2015) "la enseñanza y el cultivo (de las letras y las ciencias) se entienden claramente como una actividad integrada, en que la docencia está impregnada de investigación y creación, y donde los nuevos descubrimientos y creaciones se ponen al servicio de la docencia y la comunidad". No son claros los procesos educativos de alta complejidad para el logro de metacompetencias, esto es, para lo superior, "hacia un magis, un más, una educación en lo superior, para lo superior, y hacia lo superior" (Borrero, 2006).

Por este énfasis en una supuesta objetividad, con influencia de enfoques de la psicometría o la sociometría, se llega entonces a algo parecido a un "sistema decimal evaluativo" que hace que todo el decurso educativo concluya en un número, como si fuera suficiente para expresar toda la complejidad del proceso formativo y las intensas relaciones entre el educando, el educador y el conocimiento, soslayando, en alguna medida, la diversidad de la evaluación en sus distintas fases y posibilidades, para limitarla a la evaluación sumativa (de resultados) y cargada hacia un solo instrumento: el cuestionario pedagógico (examen escrito o pruebas de suministro). Esto, contrario a los actuales desarrollos pedagógicos, pues "los enfoques modernos de evaluación del aprendizaje van más allá de la medición de la capacidad del estudiantado de reproducir el conocimiento; están orientados al desarrollo de capacidades para aplicar los conocimientos a la interpretación de distintas situaciones" (Rodríguez et al., 2016). Incluso aún se dan situaciones absurdas y cuestionables como el uso de la evaluación para sancionar y hacer disciplina o para forzar al alumno a "estudiar" excediendo la rigurosidad de la calificación o elaborando exámenes con mayor complejidad y exigencia con respecto a lo que se ha enseñado.

Otro aspecto problemático, a la vez que ambiguo, es el derecho del aprendiz a cometer errores. El que aprende, desde actividades sencillas hasta habilidades complejas, tiene derecho a equivocarse mientras se hace diestro y el que enseña tiene el deber de ayudar a detectar, comprender y corregir el error sin el uso del castigo. Esto adquiere toda su relevancia en la educación, en la que "el proceso de reconocimiento de lo que las personas aprenden y ponen en acción-actuación en un contexto social, asumiéndose el error como una oportunidad de mejora y de crecimiento personal" (Pérez et al., 2015). Acorde con los resultados, subsiste todavía alguna tendencia a minimizar este derecho cuando se eluden las evaluaciones diagnósticas (anteriores al proceso de enseñanza) y las indicativas (durante el proceso de aprendizaje), o se limitan a preguntas o ejercicios ocasionales sin mayor sistematización ni consecuencias en las técnicas y recursos para la enseñanza ni en el ritmo y las estrategias para el aprendizaje.

CONCLUSIONES

De los resultados mostrados, del análisis y su discusión, se pueden colegir las siguientes conclusiones sobre el proceso de evaluación del aprendizaje desde sus criterios, estrategias e instrumentos:

En cuanto a los criterios de evaluación, los docentes, en general, al comenzar cada curso presentan las competencias a sus estudiantes, aunque no hay una clara relación entre las competencias y los contenidos que las desarrollan. Si se compara con las pruebas escritas tomadas en la muestra documental, hay un porcentaje que, a pesar de afirmar lo contrario, termina evaluando fundamentalmente el uso de la memoria. Con respecto a la finalidad de la evaluación, no obstante que los docentes aseveran que forman a sus estudiantes para enfrentar problemas y ser innovadores, la evaluación no refleja lo afirmado por el peso que tiene en la evaluación la repetición de saberes y la memoria. La evaluación indicativa (formativa) es fragmentaria y aleatoria. La evaluación sumativa es la más frecuente. Las demás se utilizan de forma ocasional y sin mayor sistematización ni relación clara con la competencia esperada.

En relación con las técnicas e instrumentos de evaluación, las pruebas de suministro, en las que el estudiante da cuenta de ciertos saberes de memoria, son las más usuales. Se utilizan tareas cortas y los trabajos de fin de semestre. También hay manejo de aprendizaje basado en talleres, lo que constituye una eficaz herramienta para el desarrollo del aprendizaje autónomo. Referente a los resultados de la evaluación (calificación), una de las constataciones más evidentes es la confusión entre evaluación y calificación. Se hace retroalimentación, aunque no siempre y se limita a las evaluaciones con mayor peso en la calificación y sin efectos posteriores, desaprovechando una valiosa herramienta de aprendizaje comprensivo.

En la forma y método de la evaluación, los docentes afirmaron que sí hay el debido equilibrio entre la complejidad de lo enseñado y el nivel de exigencia de las evaluaciones, pero, al no ser frecuente la práctica de las evaluaciones diagnósticas y formativas, es posible que esta necesaria simetría pueda verse afectada por dificultades de aprendizaje o por ausencia de presaberes. Por eso los estudiantes, en contraste, sí identifican desequilibrios que hacen más difíciles los exámenes escritos y mayores las disonancias entre lo enseñado por el docente y lo entendido por el alumno. No es común el uso de formatos más o menos normalizados, tampoco que se identifiquen competencias al formular la evaluación o que se dé pesos porcentuales diferenciados a las preguntas según su complejidad.

De lo anterior se infiere la necesidad de resignificar el proceso evaluativo desde las dinámicas de enseñanza - aprendizaje para enriquecer sus finalidades: (i) Evaluar para valorar (dar sentido); (ii) Evaluar para diagnosticar (reconocer al otro, entender las circunstancias anteriores al aprendizaje); (iii) Evaluar para indicar (corregir errores, mejorar la comprensión y potenciar el aprendizaje); (iv) Evaluar para aprender (aprende a aprender, desaprender y reaprender: metaaprendizaje); (v)Evaluar para mejorar la enseñanza (autocrítica docente); (vi) Evaluar para promover (garantizar un resultado óptimo para el estudiante, la institución y la sociedad). Esto es, la evaluación del aprendizaje al servicio del desarrollo de competencias altamente complejas desde las que se formen personas inteligentes, solidarias y autónomas en todos los escenarios en que desarrollen sus proyectos personales y profesionales.

REFERENCIAS

Alarcón-Aldana, A. C., Díaz, E. L., y Callejas-Cuervo, M., Guía para la evaluación de la Usabilidad en los Entornos Virtuales de Aprendizaje. Información Tecnológica, 25(3) 135-144 (2014)        [ Links ]

Bicocca, M., El camino del conocimiento. Retos de la educación superior según Antonio Millán-Puelles. Estudios sobre Educación, 26, 219-234 (2014)        [ Links ]

Bloom, B., Taxonomy of educational objectives: Handbook I, The cognitive domain, David McKay & Co, New York, USA (1956)        [ Links ]

Borrero, C.A., Educación y política. La educación en lo superior y para lo superior. El Maestro (simposio permanente sobre la Universidad. Conferencia VI). Pontificia Universidad Javeriana, Bogotá D.C. (2006)        [ Links ]

Cardona, S. A., Jaramillo, S. y Y. Navarro, Evaluación de competencias con apoyo de un sistema de gestión de aprendizaje. Praxis & Saber, 7(14), 193-218 (2016)        [ Links ]

Carrión, C., Soler, M. y M. Aymerich, Análisis de la validez de contenido de un cuestionario de evaluación del aprendizje basado en problemas. Un enfoque cualitativo. Formación Universitaria, 8(1), 13-22 (2015)        [ Links ]

Carvajal, M., La evaluación, requisito necesario para el logro del aprendizaje. Margen, (77), 1-12 (2015)        [ Links ]

González, V., Ruiz, P. y T. Hornilla, La evaluación del aprendizaje por competencias mediante el método de proyectos. Un caso práctico. Rev. Internacional de Aprendizaje en la Educación Superior, 1(1), 33-48 (2014)        [ Links ]

Gutiérrez, C., Pérez, Á. y M. Pérez, Percepciones de profesores, alumnos y egresados sobre los sistemas de evaluación en estudios universitarios de formación del profesorado en Educación Física. Revista Ágora para la Educación Física y el Deporte, 15(2), 130-151 (2013)        [ Links ]

Hamodi, C., López, A. T. y V. M. López Pastor, Percepciones de alumnos, egresados y profesores sobre los sistemas de evaluación del aprendizaje. Revista d' innovació educativa, 14, 71-81 (2015)        [ Links ]

Hamodi, C., López, A. T. y V. M. López Pastor, Medios, técnicas e instrumentos de evaluación formativa y compartida del aprendizaje en educación superior. Perfiles Educativos, 37(147), 146-161 (2015)        [ Links ]

Hall, P.B., Sharman, L., y Irons, G. Encontrar al pequeño Albert: Un viaje al laboratorio del bebé. American Psycological Association. https://goo.gl/i174LX. Octubre (2009)        [ Links ]

Husserl, E., Ideas relativas a una fenomenología pura y una filosofía fenomenológica. 2a Ed., UNAM - FCE, México (2005)        [ Links ]

Leiva, J. J., La evaluación como clave de comprensión del aprendizaje y la calidad educativa: Una indagación cualitativa en el contexto universitario. Certiuni Journal, 2(2), 26-37 (2016)        [ Links ]

López, B., y E. Hinojosa, Evaluación del aprendizaje. Alternativas y nuevos desarrollos. MAD S. L, Sevilla (2005)        [ Links ]

McKernan, J. Investigación-acción y curriculum. 2a Ed., Mórata, Madrid (1999)        [ Links ]

Medin, M., y A. Verdejo-Carrión, Evaluación del aprendizaje estudiantil. 3a Ed., Isla Negra Editores, San Juan de Puerto Rico (2001)        [ Links ]

Mora, A., La evaluación educativa: concepto, períodos y modelos. Revista Electrónica "Actualidades Educativas en Educación", ISSN: 1409-4703, 4(2), 2-28 (2004)        [ Links ]

Nussbaum, M., Crear capacidades. Propuesta para el desarrollo humano. Paidós, Barcelona (2012)        [ Links ]

Opazo, M., Sepúlveda, A. y M. L. Pérez, Estrategias de evaluación del aprendizaje en la universidad y tareas auténticas: Percepción de los estudiantes. Diálogos Educativos, 15(29), 19-34 (2015)        [ Links ]

Pasek, E. y R. Briceño, Juicios valorativos: elementos y proceso de formulación en la evaluación del aprendizaje. Actualidades Investigativas en Educación, 15(2), 1-28 (2015)        [ Links ]

Pérez, O. L., Martínez, A., Triana, B. M. y E. J. Garza, Reflexiones conceptuales sobre la evaluación del aprendizaje. Didasc@lia: Didáctica y Educación, 6(4), 171-168 (2015)        [ Links ]

Ricoeur, P., Caminos del conocimiento. Tres estudios. Fondo de Cultura Económica, México (2006)        [ Links ]

Rodríguez, H., Restrepo, L. F. y G. C., Luna, Percepción del estudiantado sobre la evaluación del aprendizaje en la educación superior. Educare, 1(17), 1-17 (2016)        [ Links ]

Saavedra, R., M., Evaluación del aprendizaje: Conceptos y técnicas. Pax, México (2004)        [ Links ]

Stufflebeam, D. L. y A. Shinkfield, Evaluación sistemática. Guía teórica y práctica. Paidós, Barcelona (1995)        [ Links ]

Thorndike, R. y E. Hagen, Cognitive Abilities Test. 2a Ed., National Foundation for Educational Research in England & Wales, Ofxord (1986)        [ Links ]

Tobón T., S., Formación integral y competencias. Pensamiento complejo, currículo, didáctica y evaluación. Ecoe, Bogotá (2010)        [ Links ]

UNAB, Universidad Autónoma de Bucaramanga, Proyecto Educativo Institucional, Julio 2012. Actualización. https://goo.gl/nQp9nx. Acceso 21 de junio de 2016 (2014)        [ Links ]

Valderrama, J. O., Un Modelo para la Distribución Racional de la Actividad Académica en una Universidad. Información Tecnológica, 16(3), 3-14 (2005)        [ Links ]

Villardón, L., Evaluación del aprendizaje para promover el desarrollo de competencias. Educatio Siglo XXI, (24), 57-76 (2006)        [ Links ]

Recibido Nov. 30, 2016; Aceptado Ene. 27, 2017; Versión final Mar. 10, 2017, Publicado Jun. 2017

Creative Commons License Todo o conteúdo deste periódico, exceto onde está identificado, está licenciado sob uma Licença Creative Commons