Wirbel um Hattie

Nachdem ich vor einer Weile im Literaturverzeichnis eines Sammelbandbeitrags bereits auf den Namen John Hattie aufmerksam geworden war, wurde er über einen Beitrag der ZEIT gestern auch in meine Twitter-Timeline gespült. Hattie hat 2009 ein Buch namens Visible Learning veröffentlicht, in dem er die Ergebnisse einer groß angelegten Meta-Meta-Analyse zu Erfolgsfaktoren des Lernens darstellt. Insbesondere präsentiert er anhand von Mittelwerten ein Ranking möglicher Einflussfaktoren und sortiert sie von „Was schadet“ bis hin zu „Was richtig hilft“.

Zu den Dingen, die für den Lernerfolg schädlich sind, zählt laut Hattie etwa das Sitzenbleiben in der Schule, nur geringe Wirkung hätte beispielsweise die finanzielle Ausstattung. Offener Unterricht oder webbasiertes Lehren und Lernen seien weder förderlich noch nachteilig. Unter den Dingen, die richtig helfen würden, befinden sich LehrerInnen-Feedback (nicht durch Zensuren), problemlösender Unterricht und vor allem ein vertrauensvolles Verhältnis zwischen Lehrkraft und SchülerInnen.

Erstes Abwägen

Einerseits könnte ich schnell geneigt sein, genau zu rufen. Vor einer Weile wurde ich nämlich um eine Stellungnahme zu einer Forderung nach stärkerer Bildungsfinanzierung gebeten und sagte, dass in meinen Augen die Beziehung zwischen Lernenden und Lehrenden bedeutsamer sei als die Struktur von Studiengängen oder die Höhe der verfügbaren Geldmittel. Andererseits habe ich das Buch von Hattie noch nicht gelesen und mache mir gerade nur auf Grundlage des ZEIT-Artikels Gedanken.

Vorsichtig bin ich zunächst, weil als Zielkriterium der Lernerfolg genannt wird und mir noch nicht klar ist, was damit konkret gemeint ist. Wenn lediglich anhand von Zensuren gemessen wurde, würde ich etwa einwenden, dass Bildung mehr ausmacht als gutes Abschneiden in Klausuren. Außerdem würde ich die Diskussion um so etwas wie Professionelle Intelligenz anführen.

Kritik von anderer Seite beschäftigt sich mit der Interpretation der Statistik. Hans Brügelmann mahnt etwa zur Vorsicht, lediglich die Mittelwerte zu vergleichen und den Kontext aus den Augen zu lassen. Der gemessene mittlere Effekt des Computereinsatz sei beispielsweise mäßig, er  kann aber unter bestimmten Umständen deutlich ansteigen – wenn die Lernenden ihr Vorgehen selbst steuern können und zusammen mit einem Partner oder einer Partnerin arbeiten.

Als Konsequenz hieße das, wenn ich mich als Lehrender verstärkt um die nach Hattie förderlichen Elemente bemühe, dann erhöhe ich lediglich die Lernerfolgswahrscheinlichkeit. Eine Garantie erhalte ich nicht und kann auch damit ein Umfeld schaffen, in dem viel schief geht. Dennoch bergen die Ergebnisse der Studie wohl auf jeden Fall Anhaltspunkte, was mit Blick auf den Lernerfolg zu berücksichtigen ist.

Was heißt das beispielsweise für LdL?

Auch wenn ich das Buch noch nicht gelesen habe, habe ich mir bereits erste Gedanken dazu gemacht, wie das Konzept LdL wohl abschneidet. Das erste zaghafte Ergebnis: doch ganz gut, auch wenn der Ansatz natürlich kein Allheilmittel ist und nicht zu jedem Lehrenden passt.

Bei Hattie findet sich beispielsweise lehrergeleiteter Unterricht bei den Faktoren, die ziemlich weit oben im Ranking stehen. Damit meint er nicht, dass Vorträge gehalten werden sollen, aber durchaus das Geschehen bewusst gesteuert werden muss. Bei LdL heißt das: „Regie führen“. Der Lehrende lässt dabei trotz Gewähren von Freiraum nicht alles offen, sondern muss sich darum bemühen, dass die Lernenden auch beim Einschlagen von Umwegen schließlich am Ziel ankommen.

Zu dem, was richtig hilft, gehören Lehrerfeedback, problemlösender Unterricht und das bereits hervorgehobene vertrauensvolle Verhältnis zwischen Lernenden und Lehrenden. Rückmeldungen erhalten Schüler bei LdL permanent. Problemlösend ist das Konzept nicht zwingend ausgerichtet, aber dieser Weg ist bei der Form des Aktiven Plenums ziemlich zentral. Eine gutes Verhältnis fördert der Einsatz von LdL nicht automatisch. Anderseits wird jemand ohne Interesse an einer Beziehung zu den Lernenden vermutlich LdL sowieso nicht einsetzen oder damit scheitern.

Mehr vielleicht demnächst, wenn ich das Buch in Händen halte.

xMOOC im Selbstversuch: rechnergestützte Datenanalyse

Da ich gerade ein bisschen mit einer kleinen statistischen Auswertunug zu tun habe, habe ich mir als Hilfsmittel PSPP und R auf meinem Rechner installiert. Für das, was ich vorhabe, reicht PSPP eigentlich vollkommen aus, andererseits befriedigt R meinen Spieltrieb eher.

Von Bastian Greshake habe ich auf Twitter den Tipp bekommen, dass gerade ein passender Kurs auf Coursera gestartet ist: Computing for Data Analysis. Der dreht sich um die rechnergestützte Datenanalyse speziell mit R. Da nutze ich doch die Gelegenheit, um etwas zu lernen und gleichzeitig mal einen xMOOC auszuprobieren, zu denen Plattformen gerade wie Pilze aus dem Boden sprießen: neben Coursera etwa edX vom MIT oder Udacity unter Federführung von Sebastian Thrun.

Mein erster Eindruck

Der Kurs läuft vier Wochen lang, veranschlagt werden als Aufwand laut Kursbeschreibung drei bis fünf Stunden pro Woche. Klingt durchaus machbar. Vom Kursleiter werden verschiedene Unterlagen bereitgestellt: Videos, Dokumente, Quizzes, die es zu absolvieren gilt, ein Forum zum Austauschen, usw.

Interessant für viele TeilnehmerInnen ist wohl zunächst der Lehrplan (syllabus). Dort ist aufgelistet, was das Ziel des Kurses ist und welche Leistungen erbracht werden müssen, um schließlich ein Zertifikat zu bekommen. Welche Vorkenntnisse erwartet werden, bleibt leider offen. Das könnte sich für einige TeilnehmerInnen rächen, wie sich gleich zeigen wird. Schauen wir doch mal…

Die Videos

Für die erste Woche werden rund zwei Stunden an Lernvideos bereitgestellt. Wenn man einkalkuliert, dass man Passagen mehrfach anschaut oder die Filme zwischendurch stoppt, um sich Notizen zu machen, dann geht von den eingeplanten drei bis fünf Stunden pro Woche schon einiges an Zeit drauf. Wo bleibt denn dann der Raum, um sich mit der Programmierumgebung vertraut zu machen – geschweige denn die Sprache R auszuprobieren? Das scheint mir doch sehr knapp kalkuliert zu sein. Wann dann noch in den Büchern geschmökert werden soll, die empfohlen wurden, ist mir ein Rätsel.

Die Videos an sich sind leider nicht der Rede Wert. Der Kursleiter präsentiert eigentlich nichts als vertonte hässliche Textwüsten-Folien, wie man sie oft aus Präsenzvorlesungen kennt. Das übliche Dilemma: Der Inhalt der Folien lenkt vom gesprochenen Wort und macht es schwierig, beidem zu folgen. Die Schaubilder allein enthalten aber zu wenig Informationen, um als Skript zum Selbststudium durchgehen zu können. Garr Reynolds nennt so etwas Folienumente bzw. slideuments. Das Potenzial von Videos wird in meinen Augen komplett verschenkt. Ich wäre jedenfalls mit einem erklärenden Text besser bedient gewesen.

Neben der für mich unbefriedigenden Gestaltung finde ich die Videos didaktisch überhaupt nicht durchdacht. Zielgruppe sind keine Informatiker, sondern Leute, die mit Unterstützung des Computers statistische Probleme lösen wollen. Sie bekommen gleich zu Beginn aber erst einmal das abstrakte Konzept von Datentypen um die Ohren gehauen. Nicht einmal ein paar veranschaulichende Grafiken findet der Zuschauer, obwohl mir da spontan das eine oder andere eingefallen wäre. An anderen Stellen hätte es sich einfach angeboten, an Statistikvorkenntnisse anzuknüpfen und Bezüge herzustellen. Leider nein. Weiter geht es holterdipolter, Funktionen werden querbeet benannt, angerissen und abgehakt. Auch das erinnert mich an so manche Präsenzvorlesung, die ich früher besucht (und schnell auch nicht mehr besucht) habe. Natürlich reicht so ein Vortrag allein nicht. Jeder muss selbst lernen und sich mit den Inhalten auseinandersetzen – nur erschließt sich mir der Nutzen der Videos dabei überhaupt nicht. Nicht-Programmierer dürften heillos überfordert sein, und wer schon programmieren kann, der ist mit den offiziellen Unterlagen zu R wohl besser bedient. Gleich vorarbeiten könnte so jemand übrigens nicht, da die Unterlagen nur Woche für Woche freigeschaltet werden. Gerade bei einer so heterogenen Zusammensetzung der KursteilnehmerInnen scheint es mir wichtig zu sein, die vorausgesetzten Kenntnisse klar zu benennen. Nur so weiß jeder, worauf er sich einlässt.

Vermutlich wäre es für Neueinsteiger in die Programmierung geschickter gewesen, kleine Probleme zu formulieren und dann zu zeigen, wie sie in R bewältigt werden können – und die Leute dann auf Entdeckungsreise zu schicken, um selbst andere etwas schwierigere Probleme zu lösen. Hinterher hätte man kurz aufzeigen können, wie von den Einzelfällen abstrahiert werden kann.

Das Forum

Hier passiert etwas. Hier werden Fragen gestellt, hier wird gemeinsam gerätselt, hier geben sich die Lernenden gegenseitig Hilfestellung. Was in Begleitforen zu Präsenzveranstaltungen oft schleppend funktioniert, klappt hier vermutlich schlicht aufgrund der großen Masse von TeilnehmerInnen bestens. Es findet sich doch irgendjemand, der Lust zum Antworten hat, was wieder andere anspornt und ihnen zeigt, dass die Plattform kein toter Briefkasten ist.

Im Forum werden auch Zusatzaufgaben von Kursbetreuern zur Verfügung gestellt – offenbar wollen die Leute also tatsächlich mehr praktisch tun. Auch schön: Es handelt sich wohl um echte meteorologische Daten. Ist doch nett, wenn man nicht mit fiktiven Beispielen hantieren muss. Bei manchen Fragen helfen die Kursbetreuer auch weiter.

Die Quizzes

Abgeschlossen wird die Einheit mit einem Multiple-Choice-Test. Der beginnt tatsächlich mit einer Faktenfrage nach der Universität, an der R entwickelt wurde… Es sind durchaus auch etwas kniffeligere Fragen dabei, aber sie gehen meiner Meinung nach vollkommen an der Zielstellung des Kurses vorbei. Alles dreht sich um Datentypen. Manche Dinge wurden zudem gar nicht behandelt, etwa die mögliche Typenumwandlung beim “:“-Operator. Unerfahrene dürften dazu ganz schön rätseln, warum ihre Antwort falsch ist. Etwas Erfahrenere finden die Funktion, mit der sich Variablen auf bestimmte Typen prüfen lassen, lernen aber kaum etwas über die praktische Auswertung von Daten mit dem Computer.

Es gibt zusätzlich noch so etwas wie eine Programmierhausaufgabe: Es wird eine Tabelle mit Daten zur Verfügung gestellt (im CSV-Format) und als Ausgangspunkt für einige Auswertungen herangezogen. Geprüft wird das ebenfalls über einen Multiple-Choice-Test. Die erste Frage lautet tatsächlich, welche Bezeichnungen in der Spaltenüberschrift stehen!? Zweite Frage: Was steht in den ersten beiden Zeilen!?!? Lösen kann man alle Fragen übrigens in Windeseile auch ganz ohne Programmierkenntnisse. Klar, man betrügt sich selbst, wenn man das nicht als Gelegenheit nutzt, um die Antworten mit R herauszutüfteln. Die Punkte bekommt man aber so oder so zugeschrieben. Was das für das Zertifikat heißt, das es am Ende des Kurses geben soll, darf sich jeder selbst ausrechnen. Auch ganz ohne R.

Fazit

Ich finde es toll, dass mit dem Format der xMOOCs experimentiert wird, dass ProfessorInnen die Mühe auf sich nehmen, dass vielen Menschen damit kostenfreie Lerngelegenheiten angeboten werden. Von der Umsetzung bin ich zumindest bei diesem Kurs jedoch bisher alles andere als angetan. Ich kann die Skepsis von Ellen Trude teilen und Rolf Schulmeister zustimmen, der als Undercover Student in MOOCs unterwegs war.

Irritiert bin ich besonders, weil der Kursleiter Professor an der Johns Hopkins Bloomberg School of Public Health lehrt, die in den USA wohl überaus renommiert ist. Dort wird in der Lehre wohl auch nur mit Wasser gekocht. Mal abwarten, was die nächsten Wochen bringen.

Ein wholinarischer Genuss

Zu den besten Fernsehserien, die sich ein Nerd wie ich vorstellen kann, gehört zweifelsfrei Doctor Who. Kennt ihr nicht? Bei Doctor Who geht es seit den 60er Jahren um einen mad man with a box, um einen zeit- und raumreisenden Forscher-Abenteurer – Moment, oder doch eher um die TARDIS? Ach, anschauen! Aber bitte bloß nicht in deutscher Synchronfassung und auf jeden Fall auch alte Sachen, nicht nur die neuen Episoden seit 2005!

Die inzwischen elfte Inkarnation des Doktors hat auf den ersten Blick seltsame kulinarische Vorlieben: Fish Fingers and Custard!

Hier klicken, um den Inhalt von YouTube anzuzeigen.
Erfahre mehr in der Datenschutzerklärung von YouTube.

Warum schreibe ich „auf den ersten Blick“? Na, weil ich die Vermutung überprüft habe! Zum Selbermachen habe ich euch den Versuch einmal beschrieben. Ich gehe davon aus, dass die gängigen Utensilien eines Lab…, einer Küche bei euch vorhanden sind. Das Material müsste für mindestens zwei Testpersonen genügen.

Versuchsaufbau

  • 20 handelsübliche Fischstäbchen
  • 4 Tassen (à 200ml) Milch
  • 1 Tasse (derselben Größe) Zucker
  • 4 Eigelb
  • 4 Esslöffel Mehl
  • 1 Vanilleschote
  • 0,5 Teelöffel Salz

Versuchsdurchführung

Die Fischstäbchen nach Gebrauchsanweisung im Ofen backen. Währenddessen die Vanilleschote auskratzen und den gewonnenen Inhalt zusammen mit den übrigen Materialien erhitzen, nicht kochen. Dabei ständig mit einem Schneebesen rühren, bis die gewünschte Cremigkeit erreicht ist – von sehr flüssig bis puddingartig (in dem Fall eventuell mit einem oder zwei Extra-Eigelb nachhelfen). Auf Wunsch abkühlen lassen, dann aber natürlich eher anfangen. Schließlich sollten die Fischstäbchen inzwischen fertig sein. Essen!

Fish Fingers and Custard

Fish Fingers and Custard

Versuchsbeoachtung und -deutung

Muss jeder selbst machen. Ich fand das erstaunlich lecker.

Ausblick
Der 3. April ist der offizielle Fish Fingers and Custard Day! Na, wenn das mal kein Ausblick ist!