Evaluation des Unterrichts Noten für den Lehrer

Guter Unterricht ist entscheidend für den Bildungserfolg. Um zu wissen, wer guten Unterricht macht, sind Daten hilfreich, Schülerbefragungen etwa und Kollegen-Feedback. Trotzdem machen das nur wenige Schulen. Warum?

Was ist guter Unterricht? Und wo bekommt man ihn? Viele Eltern und Schüler können auf die zweite Frage recht spontan Antworten geben: Schule X stellt höhere Ansprüche, Schule Y legt Wert auf neue Unterrichtsformen. Hier wird ein spezielles Profil gepflegt, dort ist die individuelle Förderung besonders gut. Und auch: Hier kommt man leichter zu guten Noten, dort sind die Lehrer öfter krank.

Qualität ist mehr als ein Wohlfühlfaktor. Guter Unterricht ist wichtiger für Bildungserfolg als Strukturen – wenn wir seit dem Pisa-Schock eins gelernt haben, dann das. Deshalb ist Geld nicht unwichtig, im Gegenteil. Aber wie ein Schulsystem aussieht, ist zweitrangig. Die Mammutstudie des Neuseeländers John Hattie identifizierte vor zehn Jahren 138 Faktoren für Bildungserfolg. Von den wichtigsten 20 beziehen sich 19 auf Unterrichtsstrategien, nicht auf Strukturen oder externe Faktoren.

Entscheidend ist also die Antwort die erste Frage: Was ist denn guter Unterricht? Oder allgemeiner: Wann ist eine Schule gut? Es ist die Frage nach der Empirie: nach Daten, die Anhaltspunkte liefern. Die öffentliche Meinung von Eltern und Schülern ist dabei sozusagen Empirie auf Anekdotenbasis – unsystematisch erhoben und verbreitet, nämlich meist durch Mundpropaganda, aber oft erstaunlich treffsicher.

Den Schulen selbst steht ein Wust professionelleren Materials zur Verfügung, von Jugendstudien über internationale Pisa-Vergleiche, landesweite Vergleichsarbeiten und wissenschaftliche Studien bis zu intern erhobenen Daten. „Die Frage ist aber, wie Schulen diese Ergebnisse nutzen, was also von Forschungsergebnissen tatsächlich ankommt“, sagt Isabell van Ackeren, Bildungsforscherin an der Universität Duisburg-Essen. Eine ihrer Studien gibt einen Hinweis: Resultate etwa der Schulinspektion oder von Lernstands­erhebungen werden weder besonders intensiv wahrgenommen noch genutzt. Bei Schülerfeedback etwa ist es umgekehrt: intensive Wahrnehmung, intensive Nutzung. Je konkreter, desto interessanter, fasst van Ackeren zusammen: Ein „hoher Standardisierungsgrad“ wie bei Vergleichsarbeiten schreckt eher ab.

Lieber Mikro als Makro also? Viola Martin-Nastos, Koordinatorin für Unterrichtsentwicklung am Dreikönigsgymnasium in Köln, bestätigt das. „Pisa und die Lernstandserhebungen geben uns zwar eine Orientierung, sind mir aber insgesamt zu schablonenhaft, weil sie mit ihren starren Kriterien nur wenige Bereiche des Lernens abbilden können“, sagt sie. Das gelte auch für die Qualitätsanalyse. Dafür schickt das Land Prüfer in die Schulen; vielen Lehrern ist das Verfahren ohnehin als Bürokratiemonster verhasst.

Das Dreikönigsgymnasium setzt auf eigene Daten, etwa aus Sprachstands- und Mathetests. So können Schüler auf Multiple-Choice-Bögen Lehrer beurteilen, und Kollegen bewerten einander in gegenseitigen Hospitationen. Ziel sei, sagt Martin-Nastos, „eine nachhaltige Qualitätssicherung, unabhängig von einzelnen Personen“. Konstruktive Entwicklung sei die Devise, nicht Kontrolle.

Unterricht auf besserer, kleinteiliger Datenbasis zu machen, ist also sinnvoll und gewünscht. Trotzdem haben es Empirie und Feedback schwer, aus mehreren Gründen. Der erste: Jeder Hospitationszyklus zweier Kollegen in Köln zum Beispiel kostet vier reguläre Unterrichtsstunden. Nutzten das alle, fiele Unterricht aus, die Qualität sänke – absurd. Daher mache nur eine Handvoll der 70 Kollegen mit, sagt Martin-Nastos.

Andere Systeme wie die „Evidenzbasierten Methoden der Unterrichtsdiagnostik und -entwicklung“ des Bildungsforschers Andreas Helmke (Kurz: Emu) gelten vielen Praktikern zwar durchaus als attraktiv. Emu setzt auf Unterrichtsbewertung durch Schüler, Kollegen und den Lehrer selbst. Das aber systematisch zu tun, bindet enorme Ressourcen, weshalb mancher Kollege schnell abwinkt.

Den zweiten Haken nennt Viola Martin-Nastos: „Wirklich drängende Bedürfnisse werden nicht erhoben: mehr Zeit, bessere Technik, technische Unterstützung, ein Vertretungspool...“ Anders gesagt: Daten haben sozusagen eine Definitionslücke, wenn sie nur das bewerten, was da ist, aber nicht ausreicht. Drittens, eine direkte Folge: „Es dürfte nur ein kleiner Teil der Schulen sein, die im Alltag konsequent auf evidenzbasierte Daten zurückgreifen“, sagt Forscherin van Ackeren. So aber kann die Methode nicht auf breiter Front greifen.

Das vierte Problem ist das grundlegendste: Unwille zur Empirie. So stieß die neue Erhebung des Unterrichtsausfalls in NRW, an der sich seit 2018 alle Schulen fortlaufend beteiligen, auch auf grundsätzliche Skepsis. „Vom Wiegen allein wird die Sau nicht fett“, kritisierte etwa der Verband Bildung und Erziehung. Zweifellos – aber wie soll ein Missstand abgestellt werden, wenn niemand exakte Vergleichsdaten hat?

Der Bruder des Unwillens zur Empirie ist der Unwille zur Transparenz. Lehrer und Ministerium sträuben sich, Listen mit Abiturschnitten einzelner Schulen zu veröffentlichen, wie es in Großbritannien üblich ist – „schlechtere“ Schulen könnten einen Nachteil haben, heißt es dann, und überhaupt vergleiche man Äpfel mit Birnen, weil die Voraussetzungen so verschieden seien. Gut möglich zwar, dass dann auch zielgenauere Förderung von Schulen möglich würde – aber öffentlich nachvollziehbarer Wettbewerb wird nun mal nicht gewünscht.

Immerhin: Ausfallquoten einzelner Schulen will das Ministerium ab nächstem Schuljahr offenlegen. Transparenz sei das, sagte Ministerin Yvonne Gebauer (FDP) im Sommer 2018, aber kein Ranking. Genau das nun werden Eltern und Schüler aus den Zahlen mit Leichtigkeit herauslesen können. Aber: „Was jeder daraus macht, ist ihm überlassen“, sagte Gebauer damals. Ein Satz, der wie ein Motto klingt für das Thema „Unterricht und Empirie“. Leider.

Meistgelesen
Neueste Artikel
Zum Thema
Aus dem Ressort