Efecto Hawthorne y analítica del aprendizaje

En la última sesión en vivo del curso sobre analítica del aprendizaje, alguien mencionó el Efecto Hawthorne. Éste consiste, grosso modo, en que las personas, si nos sabemos observadas, inevitablemente modificamos nuestro comportamiento. Somos así de sociales, en cuanto aparece otro, reaccionamos.

El Efecto Hawthorne se llama así a raíz de un experimento de los años 30 del siglo pasado, en la fábrica Hawthorne Works, a las afueras de Chicago. Consistió en observar qué efecto tenía en la productividad de los trabajadores aumentar o reducir la iluminación. Resultó que ambas cosas tenían el mismo efecto, pero que éste no se debió a los cambios en la iluminación sino al hecho de que las personas se sabían observadas.

Hawthorne Works
Hawthorne Works

El Efecto Hawthorne ocurre, por tanto, ahora mismo que escribo este post, sabiendo que ustedes lo leerán.

Para la analítica del aprendizaje es relevante en cuanto que las mediciones que posibilitan los entornos digitales, mucho más amplias que las que son posibles en el mundo físico, inevitablemente modificarán el comportamiento de los estudiantes. De hecho, es uno de los beneficios de la analítica: proporcionar evidencias para la autoreflexión, como parte fundamental del proceso de aprendizaje. La modificación del comportamiento bajo el efecto Hawthorne es deseable porque va vinculado al aprendizaje.

Los problemas surgen cuando una falta de transparencia impide que ocurra el Efecto Hawthorne. Cuando las personas son observadas sin la posibilidad de saberse observadas. Me resulta difícil imaginarme cualquier situación en que esto pueda ser realmente deseable. Mucho menos en el ámbito educativo. Sin embargo, si es un tema en un curso sobre analítica del aprendizaje, podemos suponer que está ocurriendo o puede ocurrir. O las dos cosas.

La tienda online Target consideró que era deseable desarrollar, a base de las trazas que las personas dejaban con sus compras, un algoritmo predictivo de embarazo que les permitía empezar a enviar ofertas específicas a embarazadas en su segundo trimestre y, así, aumentar sus ventas.

Una analogía en el campo educativo podría ser una universidad que desarrolla un algoritmo para predecir la probabilidad de abandono de la carrera, para intervenir a tiempo y así evitar la pérdida de ingresos por matrícula. Para complicar las cosas aun más, en ambos casos podría haber interés en vender los derechos de uso del algoritmo.

Tanto para la tienda online como para esa hipotética universidad, el Efecto Hawthorne sería un estorbo. Estamos ya lejos de las relaciones de confianza que requiere el proceso de aprendizaje. Hemos entrado en el terreno del control y las violaciones de la privacidad y éste supone, en el ámbito educativo, peligros parecidos que en cualquier otro ámbito de la vida.

Obituario: gigapedia.info y library.nu

En servidores enormes, en edificios por todo el mundo, están todos los libros. Los tiene Archive.org. Los tiene Google. Los tiene Hathi. Y están añadiendo libros nuevos todos los días. Pero en lugar de poder tenerlos en tu dispositivo, usando la tecnología contemporánea, aún tienes que buscar como un tonto, dónde adquirir legalmente una versión digital, en el formato que tu lector de libro electrónico sea capaz de cargar, con derechos más reducidos que del libro físico, aunque por más o menos el mismo precio: poder marcarlo, prestarlo, regalarlo o venderlo. En otras palabras, tienes que esperar hasta que el barco se hunda de verdad y la literatura, las bibliotecas, la academia y la lectura desembarquen por fin en el siglo XXI.

Sean Johnson Andrews, vía Rinzewind

Analítica libre para el aprendizaje

Es de esperar que el uso de la analítica suponga, cada vez más, una ventaja competitiva en el ámbito del aprendizaje y de la innovación. Por un lado, permite que las personas tengan mejores bases (evidencias) para la autoreflexión. Por otro lado, permite que las organizaciones tomen mejores decisiones sobre la generación de conocimiento.

De la mano de las nuevas oportunidades que abre la analítica —oportunidades de aprender mejor, pero también oportunidades de generar rentas—, surgen los riesgos habituales asociados a la centralización de la información: plataformas cerradas que crean dependencias a usuarios u organizaciones enteras y, en el peor de los casos, dejan a la persona, de cuyo aprendizaje se trata, fuera del valioso bucle de retroalimentación. Digo valioso porque es ahí donde ocurre gran parte del aprendizaje.

La contradicción entre el hecho de que en el mundo red, lo deseable es que las personas tengan actitud de propietario respecto a su aprendizaje —asumiendo la mayor parte de la responsabilidad— y la creación de dependencias y bucles de retroalimentación que les dejan fuera, es evidente.

Podría darse el caso de que, con la excusa de una mejora, lo que se consiga sea un entorpecimiento del aprendizaje por dejar fuera a los protagonistas: las personas. Tanto más fácil cuanto más lejos estén los accionistas de los proveedores de plataformas y soluciones de analítica, de los usuarios. Y, para qué nos vamos a engañar, lo normal es que estén lejos.

Por eso, una solución coherente con cómo funciona el aprendizaje es, siguiendo la filosofía del software libre, una analítica libre que incluye a las personas en la toma de decisiones. Es la solución que defienden los primeros teóricos de una pedagogía con lógica de redes, a la que interesará seguir prestando atención.

Rol del profesor en el aprendizaje en red: ser ejemplo

¿Cuál es el rol del profesor en el aprendizaje en red? Es una de las preguntas a responder al enfocar el aprendizaje en el siglo XXI. La respuesta que dan desde el conectivismo es que la noción del profesor resulta extraño si concebimos el mundo como red. Lo que cabe es el ejemplo, nodos —temporalmente— más fuertes y mejor conectados que otros. El ejemplo es, en mi opinión personal, lo que mejor ha funcionado siempre como «método pedagógico». Permite centrarnos no tanto en que alguien enseña o que alguien otro aprende, sino en la construcción conjunta de saberes. Permite que más Aes contraten a Aes y que a los Bes no les queden tantos Ces.

Pedagogías de la formación a distancia

Pedagogías de la formación a distancia
Hoy conviven tres enfoques pedagógicos de la formación a distancia

La tabla es de este trabajo que analiza las tres generaciones de pedagogía o andragogía —no sólo de la formación a distancia pero mejor observable en ese campo por el uso intensivo de la tecnología— a través del marco del modelo CoI. Son paradigmas que conviven. Lo importante es fijarse cómo quedan codificadas en las herramientas.

Algunas tecnologías puedes codificar pedagogías, endureciéndolas de ese modo. Es en este punto que, por necesidad, se convierten en influyentes en el diseño del aprendizaje, marcando el ritmo al que otros bailan.

Knewton: el sueño de la educación personalizada

Knewton es una plataforma de aprendizaje que, mediante algoritmos, consigue un nivel de personalización antes sólo alcanzable para el profesor en grupos muy muy reducidos. Personaliza tanto el contenido como el contexto, lo segundo en el sentido de que identifica los pares con un mismo estilo de aprendizaje. Para entornos tradicionales de educación, como nos cuenta una profe, es un sueño.

Creo que cabe la pregunta si merece la pena mantener estos entornos tradicionales basadas en la lógica de la era industrial. Hay quienes defienden que cada cerebro humano está cableado de una manera tan individual que ni siquiera los estilos de aprendizaje y las inteligencias múltiples son capaces de mapearlo. Si tomamos en serio estos argumentos, probablemente no merece la pena mantener, por ejemplo, la segregación o los contenidos por edades.

Pero lo que cabe preguntarse con respecto a Knewton, que entre sus muchas ventajas también promete una relación de por vida entre las personas y las editoriales, es quién será el propietario de los datos que recoge. ¿Lo serán los shareholders o los stakeholders de Knewton?

Análisis de discurso para el aprendizaje

La analítica del aprendizaje me interesa desde la perspectiva de quien aprende, o mejor dicho quienes aprenden, puesto que aprendemos, sobre todo, a través de la interacción y la experiencia. La otra perspectiva es la de las organizaciones, en línea con la analítica académica, también útil, que ahora me interesa menos.

Hablando de casos y ejemplos concretos de medir el aprendizaje, me encuentro con el enfoque centrado en el análisis de discurso, basado en el supuesto de que un indicador clave del aprendizaje, de la generación de significado, es la calidad de contribución al discurso.

Este enfoque concreto de análisis del discurso en busca de claves e indicadores de aprendizaje se inspira, por un lado, en cómo los científicos construyen argumentos y defienden su postura en un debate.

Tenemos, por otro lado, la teoría de la argumentación y la retórica que data de los filósofos griegos, y cuya articulación reciente en esquemas de argumentación tuvo una adaptación enfocada en modelos computacionales.

Otras fuentes de inspiración son los sistemas de información basados en asuntos y su traducción a un modelo hipertextual de datos, que posibilita la visualización de conversaciones.

Como resultado, tenemos un método de análisis en el que los nodos son las personas, pero también lo son las ideas. Cada post en un blog sería, por ejemplo, un nodo. A partir de ahí, se trata de establecer enlaces de distinto valor argumentativo y retórico entre nodos-idea (trabajando con una tipología de ideas y de enlaces), asociados a nodos-persona.

Algunos de los tipos de información que se pueden obtener de ese modo son mapas de ideas y de conceptos, actitudes de las personas o la centralidad de los nodos. (Al margen de su utilidad para mejorar el aprendizaje, se me ocurre como posible método para analizar fenómenos como la polarización de grupo).

La analítica del aprendizaje enfocada al discurso en principio debe permitir reflexiones más profundas que el análisis cuantitativo de actividades de «más bajo nivel» (número de logs para descargar un recurso, duración de las sesiones, número de comentarios, etc). Esta mayor profundidad se debe al hecho de que se recogen datos explícitos sobre el contexto cognitivo de la persona (movimiento retórico que quiere realizar con un comentario, significado que atribuye a una relación, etc.).

Disponer de este tipo de datos implica que las personas los generen, como una capa de información adicional encima de lo que hacen en la web. Se trata, por tanto, de una analítica activa, con la colaboración de las personas que aprenden, frente a métodos pasivos de «tú vas aprendiendo y yo te analizo». Un método muy vinculado al autoconocimiento como base del aprendizaje continuo.

Una herramienta libre experimental inspirado en este método es Cohere. Es un espacio personal de trabajo que permite el registro de los datos cualitativos necesarios. Me gustará probarla para hacerme una idea de qué costes, en forma de tiempo y de cambio de comportamiento, implica en el día a día en la Red, a cambio de qué beneficios. De entrada, categorizar sistemáticamente las propias contribuciones y las relaciones entre contenidos parece un esfuerzo de reflexión adicional importante (parecido, por cierto, al de la curación de contenidos). Prestaré atención también a cuestiones de compatibilidad y del uso de RSS, claves para el diseño de cualquier herramienta libre que quiera encontrar aceptación.

Visualización de un mapa de conceptos en Cohere
Visualización de un mapa de ideas en Cohere. Cada nodo es una idea.

Segunda textualidad

El martes pasado escuché dos charlas breves sobre el libro digital. Fue en un evento dibujado en vivo.

Informe gráfico del evento de Fernando de Pablo «Dibujario»
Informe gráfico del evento de Fernando de Pablo «Dibujario»

Los que hablaron de libros fueron las dos personas del centro.

Autor

Primero, José Manuel Lucía desde la perspectiva del autor. Me gustó que insistiera en que lo importante del libro era el texto, no el objeto. La interacción entre autor y lector en la fase pre- y post-artefacto, la llamó «segunda textualidad». Una especie de vuelta a la oralidad, a la diversidad de versiones. Un mejor aprovechamiento de la lengua.

Curiosidades

No sabía que Leonardo da Vinci despreciaba el libro porque pensaba que haría que las personas fueran más imbéciles. Ahora ocurre lo mismo con la Red, algunos la culpan de un supuesto atontamiento de las nuevas generaciones.

Habrán oído, a estas alturas, también la queja de que «ahora cualquiera piensa que puede escribir». ¡Vamos, el mismo argumento interesado que empleaban los detractores de la imprenta industrial cuando ésta desplazaba a la artesanal.

Lector

Si lo importante del libro es el texto, el centro de gravedad de la lectura es el sujeto, el lector. Luis González, de la Fundación GSR, dio una definición del lector que incluye funciones de las que tanto se habla últimamente, pero como cosas separadas: el filtrar, curar y crear contenidos. Una celebración, precisamente, de que «cualquiera puede escribir».

Lector: persona que realiza un ejercicio de curiosidad, interpretación, comprensión, valoración, creación, asimilación y compartición.

«Cuando acabe la guerra de las plataformas»

Respecto a la industria del libro, todos los que hablaban transmitían que tenía que reinventarse según las nuevas reglas del juego y entender el negocio editorial como servicio en lugar de suministro. Mientras Amazon está camino de abarcar la mayor parte del mercado del libro electrónico, en este evento se hablaba del final del DRM y del mundo después de la «guerra de las plataformas cerradas».

Academic vs learning analytics and the point of trust

Second week in LAK12 was slightly less intense for me than the first. It might be because I didn’t attend neither of the live sessions which are, I think, emotionally the most significant activities of the course.

I was happy to receive clarifications about the difference between academic and learning analytics in comments. It helped me to further think about this domains. I kind of came to the conclusion that in a knowledge economy, with the individual having the main responsibility for developing skills and competences, while there perfectly might be learning analytics without academic analytics, the other way round would be problematic and serve only the survival of institutions.

I found it interesting to encounter the Penetrating the fog article among the course content, as I already read it some months ago. I bookmarked it then highlighting the sentence

Learning analytics can penetrate the fog of uncertainty around how to allocate resources, develop competitive advantages, and most important, improve the quality and value of the learning experience.

This time, I bookmarked it highlighting

Since we risk a return to behaviorism as a learning theory if we confine analytics to behavioral data, how can we account for more than behavioral data?

I also fully share Dr. Sharon Slades’ concern when she says

In trying to adapt and change our teaching and support models for the better, are we in danger of simply replacing one inappropriate design for another?

The other two course materials I have read this week were Bakers’ Data mining for education, and the SOLAR groups’ Open Learning Analytics: an integrated & modularized platform. The two showed useful applications of academic and learning analytics. The latter definitely clarifies the difference between the domains.

The SOLAR document outlines a very interesting approach to learning analytics based on interoperability, opennes and collaboration, in line with the free software movements’ philosophy. One thing I still miss —in this document and all the others— is the question about the ownership of the data. Again, because of the individual bearing the main responsability for the learning process, each person should have an owner attitude regarding their data and, whenever possible, the physical ownership of it. This would incentivate institutions to build the trust necessary to have individuals share their data. This kind of —disintermediated— trust is very different from the one that involves working with data from centralized web platforms, like Facebook, G+, Twitter or LMSs.