Der folgende Aufsatz befasst sich mit der Diagnose der Lesekompetenz von BerufsschülerInnen, wobei auch Aspekte der Lesesozialisation von BerufsschülerInnen in den Blick genommen werden. Diagnose wird hierbei als Mittel zum Zweck aufgefasst, das in Form einer Problemanalyse lediglich die Grundlagen für eine sich anschließende Leseförderung liefern soll. Um dies zu gewährleisten, ist eine individuelle und kontinuierlich durchgeführte Lesediagnose nötig. Hierin liegt ein großer Unterschied zu bisherigen Untersuchungen zur Lesediagnose bei BerufsschülerInnen (Einmal- oder Problemtypen-Tests), die kurz vorgestellt werden.
Als ein konkretes Diagnosemittel, das für solch eine individuelle und kontinuierliche Lesediagnose konzipiert wurde, wird der an der TU Darmstadt entwickelte „Baukasten Lesediagnose“ in Aufbau, Zielsetzung und Handhabung vorgestellt. Er kann von LehrerInnen als Steinbruch für die Erstellung verschiedenster Lesetests in Anlehnung an den Gemeinsamen Europäischen Referenzrahmen für Sprachen (GER) genutzt werden. Die allgemeinsprachliche wie fachsprachliche Lesekompetenz wird dabei, anhand von linearen wie nicht-linearen Texten, auf verschiedenen Niveaustufen und in ihren einzelnen Teilkompetenzen (Wortverstehen, globales, gezieltes, detailliertes Leseverstehen), abgetestet. Nach Durchführung eines Tests kann die Lehrperson das Lesekompetenz-Niveau eines Schülers/einer Schülerin anhand eines GER-Niveaus beziffern.
„[K]ein Unterrichtsfach an den berufsbildenden Schulen [ist] gegenwärtig so sehr herausgefordert [...] wie der Deutschunterricht.“ (GRUNDMANN 2007, 11) Der Grund hierfür liegt in der gestiegenen Bedeutung von Sprache und Kommunikation für den Beruf, und zwar nicht nur in Dienstleistungsberufen (vgl. BRÜNNER 2000, 15; EFING/ JANICH 2007, 2): Sprache ist die Grundlage für wichtige andere Kompetenzen, beispielsweise für Schlüsselqualifikationen wie Team- und Kooperationsfähigkeit oder auch für kundenorientiertes Handeln; die berufliche Handlungskompetenz wird hierdurch immer mehr durch die sprachliche Handlungskompetenz bestimmt (GRUNDMANN 2007, 10f.). Und auch bereits im schulischen Teil der Ausbildung spielt, nicht zuletzt im Rahmen der fortschreitenden Umstellung der Ausbildung auf Lernfelder mit der damit einhergehenden Vertextung von Unterricht wie vor allem auch von Prüfungen, die sprachliche Kompetenz eine immer größere Rolle. So klagt beispielsweise ein Lehrer: „Also, das ist das Grausamste, was langsam bei der Lernfelddiskussion rausgekommen ist, dass da mit Gewalt ein Fall konstruiert werden muss, und dann lesen die da eine halbe Seite, obwohl sie da rechts eine Trapezfläche ausrechnen sollen in Quadratmetern.“ (EFING 2006a, 56)
Doch parallel zu dieser steigenden Bedeutung sprachlich-kommunikativer Fähigkeiten wird allseits eine abnehmende Sprachkompetenz der BerufsschülerInnen beklagt. Die Diskrepanz „zwischen den Anforderungen der Ausbildungsbetriebe an die Schreib- und Lesefähigkeit der Auszubildenden einerseits und dem Niveau der kommunikativen, sprachlichrezeptiven und methodischen Fähigkeiten, über die die Schulabsolventen andererseits verfügen, [... war] noch nie so groß wie zum gegenwärtigen Zeitpunkt“ (GRUNDMANN 2007, 10). Im schulischen Kontext wirkt es vor diesem Hintergrund absurd, wenn als Medium der Wissensvermittlung und -prüfung verstärkt schriftliche Texte eingesetzt werden, während die Lehrerschaft gleichzeitig konstatiert, dass Schüler (zunehmend) sprachliche Probleme, insbesondere im Bereich der Lesekompetenz, haben.
Da die steigenden Anforderungen an die Sprachkompetenz im Beruf – zumindest außerhalb der Berufsschule – von der Sprachdidaktik nicht beeinflusst werden können, muss bei der Beseitigung dieses Diskrepanz-Problems an der anderen Seite angesetzt werden, also bei den SchülerInnen. Deren sprachlich-kommunikative Fähigkeiten gilt es zu fördern, und einer solchen Förderung muss die Erhebung und Diagnose der tatsächlich vorhandenen Fähigkeiten und Probleme vorangehen. Wie so eine Diagnose für den Bereich der Lesekompetenz angelegt sein und im Rahmen des Unterrichts (kontinuierlich) durchgeführt werden kann, möchte dieser Beitrag zeigen.
Die Diagnose der individuellen Sprach-, insbesondere Lesekompetenz von BerufsschülerInnen kann sich auf vorgängige Untersuchungen stützen, die nicht erst mit dem PISA-Schock einsetzen. In den letzten 15 Jahren wurden unter anderem das Leseverhalten (KATZ 1994), der allgemeine Sprachstand (JAHN 1998), das literarische Textverstehen (HUMMELSBERGER 2002) und auch speziell die Lesekompetenz (BECKER-MROTZEK/ KUSCH/ WEHNERT 2006; DROMMLER et al. 2006; EFING 2006a) von BerufsschülerInnen erforscht, und auch in Publikationen, die nicht speziell auf die Sprachkompetenz abzielten, wurden hierzu Daten erhoben (LEHMANN et al. 2005). In all diesen Untersuchungen ging es allerdings nie darum, die individuelle Sprach- oder Lesekompetenz eines Auszubildenden zu erheben, um diesen dann gezielt fördern zu können, sondern es wurden Aussagen zur Großgruppe der BerufsschülerInnen getroffen, die ein Bild der allgemeinen Situation und eine Art Mittelwert der Sprachkompetenz wiedergeben sollten.
Aus Teilen hiervon soll als Vorbemerkung ein kurzer Überblick über die Lesesozialisation und die Einstellung der BerufsschülerInnen zum Lesen gegeben werden, um so die Ausgangslage vor einer Diagnose zu dokumentieren, die sich in außersprachlichen Punkten wie Motivation (vgl. hierzu auch MÖLLER/ SCHIEFELE 2004) und Leistungsbereitschaft ursächlich auf Defizite in der Lesekompetenz auswirken kann. Hierdurch kann diese Ausgangslage gleichzeitig vorab Möglichkeiten und Grenzen einer sich an die Diagnose anschließenden sprachlichen Förderung aufzeigen – denn sprachliche Förderung ist nur da und dann sinnvoll, wo/wenn die Probleme in einer mangelhaft ausgebildeten sprachlichen Kompetenz begründet sind; sprachliche Förderprogramme führen ins Leere, wo sprachliche Defizite aus außersprachlichen Gründen, wie etwa Gründen der mangelnden Motivation, Leistungsbereitschaft und Konzentration, resultieren.
Die hier im Folgenden vorgestellten Ergebnisse basieren auf der Auswertung von Interviews des Autors mit knapp 100 BerufsschülerInnen sowie mit zahlreichen BerufsschullehrerInnen aus dem Jahre 2005 (vgl. EFING 2006a, 54-58). Demnach lässt sich keineswegs pauschal sagen, dass BerufsschülerInnen die Einsicht in die Notwendigkeit sprachlicher Bildung und insbesondere der Ausbildung von Lesekompetenz fehlt. Auch wissen die Schüler durchaus um die Bedeutung des Lesens zur Verbesserung dieser Fähigkeit; jedoch führt die Einsicht nicht immer und zwangsläufig zu einer gesteigerten Leseaktivität. Dieses Bild wird bestätigt durch die Ergebnisse einer Untersuchung zu den Lesegewohnheiten von Hauptschülern:
„Mit großer Eindeutigkeit zeigen die Daten, dass die HauptschulabsolventInnen zwar über ein Konzept des Lesens als bildungsbedeutsame Praxis verfügen, dieses für sich selbst aber nicht übernehmen. Lesen ist mehrheitlich nicht Element ihres Lebensstils, so unterschiedlich dieser im Einzelnen auch sein mag.“ (PIEPER u. a. 2004, Rückumschlag)
Lesen steht heutzutage, in leichtem Gegensatz zu den Ergebnissen einer Untersuchung von 1994 (KATZ 1994, 32; einschränkend jedoch bereits KATZ 1994, 107), in der Prioritätenliste der Freizeitaktivitäten an letzter Stelle bzw. wird oft gar nicht als Freizeitbeschäftigung empfunden. Die Gründe für das Desinteresse sind zahlreich:
Lesen erscheint den meisten BerufsschülerInnen langweilig, bietet ihnen kein Gratifikationspotenzial und ist daher Zeitverschwendung (vgl. KATZ 1994, 108).
Lesen ist zu anstrengend.
Lesen ist nicht alters- und zeitgemäß, für männliche Berufsschüler auch nicht ihrem Geschlecht gemäß, sondern „uncool“. Es passt in den Augen der Schüler nicht in die Lebensumbruchphase, in der sie sich gerade befinden. Sprache und Inhalt von fiktionalen Texten sind zu fern der eigenen Realität. Die peer group spielt hier eine sehr große Rolle, die Schüler bestärken sich gegenseitig in ihrer das Lesen ablehnenden Haltung (vgl. auch KATZ 1994, 125, der jedoch auch positive Einflüsse der peer group im Sinne einer Animierung zum Lesen erwähnt). Umso erstaunlicher ist es, dass die PISA-Studie der Rolle der peer group kaum Beachtung schenkt (vgl. HENN-MEMMESHEIMER 2004, 38).
Lesen entspricht nicht den Rezeptionsgewohnheiten der BerufsschülerInnen und steht damit in einem Verdrängungswettbewerb in Konkurrenz zu anderen Medienangeboten wie Fernsehen/Video/DVD und Computer ( vgl. hierzu auch PIEPER u. a. 2004; BOFINGER/ LUTZ/ SPANHEL 1999; FRANZ/ GATTERMAIER/ STIER 2002).
Da auch die vorhandene Einsicht in die Wichtigkeit des Lesens und selbst ein intaktes Leseumfeld in der Familie nicht zwangsläufig zu eigenem Lesen führen, muss Schule als wichtige Instanz der Lesesozialisation (vgl. hierzu etwa HURRELMANN 2004, 2006; OERTER 1999) Leseanreize schaffen – was ihr bislang nicht immer gelingt (vgl. KATZ 1994, 126).
Die rein sprachlichen Aspekte, die eine negative Einstellung der BerufsschülerInnen gegenüber dem Lesen bedingen, lassen sich auf wenige Punkte zurückführen: Zum einen schreckt bereits der Text umfang eines Buches, eines Lehrbuchtextes oder aber auch einer Aufgabe viele Schüler ab; wenn zudem noch die sprachliche Qualität der Texte unangemessen ist, führt dies zu Frust, verständnislosem Lesen (ohne auch nur den Versuch des Verstehens) oder sogar zu Leseabbrüchen. Die Auszubildenden klagen dabei vor allem über die zu große Anzahl an „unbekannten Wörtern“ in den schulischen Texten, wobei hiermit nicht zwangsläufig die Fachterminologie gemeint ist, sondern durchaus auch gehobener Bildungswortschatz.
Doch diese Selbsteinschätzung und Fokussierung auf die Lexik als einzigen Aspekt, der Texte für BerufsschülerInnen schwer verständlich macht, reduziert die Komplexität und Breite der sprachlichen Probleme. Von den SchülerInnen unbemerkte oder zumindest unreflektierte Verständlichkeitsprobleme liegen häufig in ganz anderen Bereichen, wie etwa der Syntax (Hypotaxe, Passiv-Konstruktionen etc.), der Undurchschaubarkeit von Begriffshierarchien und -zusammenhängen sowie von Wortbildungskonstruktionen u. a. m. Bei SchülerInnen mit Migrationshintergrund, die Deutsch häufig nur unsystematisch als Zweitsprache erlernt haben, kommt häufig erschwerend hinzu, dass sie auch in ihrer Muttersprache über keine ausgebildete Lesekompetenz und -praxis verfügen. Und an diesen Punkten kann und muss die Diagnose der individuellen sprachlichen Probleme der einzelnen BerufsschülerInnen ansetzen; hier kann nach einer Diagnose gezielte sprachliche Förderung zum Zuge kommen.
Seit PISA ist das Testen und Diagnostizieren von (sprachlichen) Fähigkeiten „in“, und in einigen Kreisen scheint sich die Vorstellung breit gemacht zu haben, bereits das Testen könne als „Allheilmittel“ zu einer Verbesserung der sprachlichen Fähigkeiten führen. Doch: „Vom Wiegen wird die Sau nicht fett!“. Das Testen vom Kompetenzen (nicht von zuvor durchgenommenen Unterrichtsinhalten im Sinne einer lehrzielorientierten Leistungskontrolle) ergibt nur dann einen Sinn, der über das Aufstellen von Statistiken à la PISA hinausführt, wenn es individuell geschieht und als Vorbereitung auf das gezielte, individuelle Fördern konzipiert ist, bei dem gezielt die festgestellten sprachlichen Probleme behoben werden können – wenn man also, um im Bild zu bleiben, im Anschluss an die Diagnose das richtige Futter (Fördermaterial) entwickelt. Nur so umgeht man auch den häufig geäußerten Vorwurf der Defizitorientierung und Nutzlosigkeit von Tests. Ideal ist ein Test dann eingesetzt, wenn er direkt mit verschiedenen Fördermodulen gekoppelt ist, die den Testteilnehmern je nach diagnostizierten Defiziten spezifisch zugewiesen werden können.
Ein einmaliger Test (wie in PISA, bei JAHN 1998, DROMMLER et al. 2006 oder EFING 2006a) ist dabei sicherlich nicht das einzig sinnvolle Diagnoseinstrument und auch nicht das beste. Aber andere Diagnoseverfahren, bspw. die teilnehmende Beobachtung eines Wissenschaftlers am Unterricht mit speziellem Blick auf einige SchülerInnen oder das kontinuierliche Protokollieren, Dokumentieren (bspw. anhand eines Korrekturbogens) und Systematisieren/Typologisieren von sprachlichen Problemen in schriftlichen und mündlichen Schüleräußerungen (Mitarbeit im Unterricht, Hausaufgaben, Arbeiten/Klausuren, ...) über einen längeren Zeitraum hinweg ist zu zeit- und kostenaufwändig, um systematisch und auf breiter Front durchgeführt zu werden. Zudem eignen sich diese Diagnoseinstrumente eher für die Diagnose der Schreib-, nicht aber der Lesekompetenz.
Aus den genannten Vor- und Nachteilen der verschiedenen Diagnosemöglichkeiten ergibt sich eine Kompromisslösung: die kontinuierliche und erst dadurch aussagekräftige Diagnose per Tests, die in regelmäßigen Abständen im Berufsschulunterricht (nicht zwangsläufig im Deutschunterricht!) durchgeführt werden, eventuell im Rahmen einer Portfolioarbeit (EFING (im Druck)). Dieses Vorgehen hat einen weiteren Vorteil: Bei den verschiedenen Diagnoseinstrumenten ist immer schwer zu beurteilen, welche Fehler auf reale sprachliche Probleme/Defizite der SchülerInnen (Inkompetenz ) zurückzuführen sind, und welche Fehler nur in Folge von fehlender Motivation, Aufmerksamkeit, Konzentration etc. entstehen. Bei einer kontinuierlichen Diagnose per Test werden zumindest solche punktuellen Faktoren (momentane Unlust/Demotivation, Frustration der SchülerInnen) stärker ausgeschaltet bzw. fallen weniger stark ins Gewicht. Zudem verliert der Fehlerfaktor „Prüfungsangst/Stress“ an Bedeutung, wenn es für die SchülerInnen zur Routine wird, in regelmäßigen Abständen Lesetests zu absolvieren, wenn also die Test- keine belastete Ausnahmesituation ist. Des Weiteren ermöglicht die kontinuierliche Diagnose, wesentlich mehr potentielle sprachliche Probleme abzutesten als ein zeitlich und damit auch diagnostisch zwangsläufig stark begrenzter Einmal-Test. Damit ist die kontinuierliche Diagnose erheblich differenzierter als ein Test, der bspw. in 90 Minuten bearbeitet werden muss – und Tests in der Berufsschule, die 90 Minuten überschreiten, drohen, eher die Konzentrationsfähigkeit als die sprachliche Kompetenz der SchülerInnen zu testen.
Ausgehend von diesen Überlegungen wurde am Institut für Sprach- und Literaturwissenschaft der TU Darmstadt ein Instrument für solch eine kontinuierliche Diagnose der Lesekompetenz von BerufsschülerInnen im Rahmen des Unterrichts entwickelt, der sog. „Baukasten Lesediagnose“ (EFING 2006b. Auszüge sind mittlerweile als Schülertests im Internet per Passwort verfügbar unter:
http://www.lift-web.de/ww3ee/101505.php?sid=50051223625135742420453935393040 ).
Da von politischer Seite in Hessen im Rahmen des sog. „strategischen Ziels IV“ der Königsteiner Vereinbarungen („ Verringerung des Anteils der Absolventen in 15 definierten Berufen des dualen Systems, die den theoretischen Teil der Berufsabschlussprüfungen nicht bestehen, um ein Drittel“ ) allerdings ein Spracheingangstest an Berufsschulen gewünscht wurde, werden Teile des Baukastens offensichtlich auch im Sinne eines einmaligen Sprachstandstests verwendet. Als (zudem standardisierter) Einmal-Test zur individuellen Lese-Diagnose eignet sich jedoch besser der als Spracheingangstests im Bereich Lesen konzipierte Test einer Kölner Forschergruppe um Michael BECKER-MROTZEK (vgl. DROMMLER et al. 2006).
Der „Baukasten Lesediagnose“ ist aus dem Modellversuch VOLI („Vocational Literacy – Methodische und sprachliche Kompetenzen in der beruflichen Bildung“, vgl. BIEDEBACH 2006) heraus entstanden, bei dem die TU Darmstadt die wissenschaftliche Begleitung stellte. In diesem Modellversuch lag der Schwerpunkt auf der Diagnostizierung und Förderung der Lesekompetenz von BerufsschülerInnen. Zunächst wurde in diesem Zusammenhang ein Problemtypentest entwickelt, mit dem bei einmaliger Durchführung anhand von 415 Testpersonen die sprachlichen Probleme von BerufsschülerInnen allgemein erhoben wurden (EFING 2006a); eine individuelle Diagnose war nicht das Ziel. Nach Durchführung dieses Problemtypentests wurden vertiefend qualitative Schüler- und Lehrerinterviews zu sprachlichen Anforderungen in der Berufsausbildung sowie zu sprachlichen Problemen und Schwierigkeiten von BerufsschülerInnen geführt. Die Test- und die Interview-Ergebnisse gingen ebenso in die Konzeption des „Baukastens Lesediagnose“ ein wie die Auswertung der wissenschaftlichen, didaktischen und testtheoretischen relevanten und aktuellen Literatur. Die Entwicklung von Fördermodulen und -materialien, die sich direkt an die Testdurchführung und die dortige Diagnose/Einschätzung anschließen, wäre wünschenswert, steht aber bisher noch aus.
Der „Baukasten Lesediagnose“ versammelt Testmaterial (Texte und Aufgaben), das als Grundlage zur Erhebung der individuellen Lesekompetenz von BerufsschülerInnen durch die Lehrer dient. Lesen wird dabei als eine Fähigkeit abgetestet, lineare und sog. nicht-lineare (Diagramme, Tabellen etc.) Texte zu verstehen und ihnen (gezielt) Informationen zu entnehmen. Die Zielgruppe für die Testmaterialien sind BerufsschülerInnen der Grundstufe aus unterschiedlichen Ausbildungsberufen.
Die im Baukasten präsentierten Texte und Aufgabenstellungen erlauben den Lehrpersonen Testentwürfe
mit verschiedenen Schwierigkeitsstufen, die in Anlehnung an den Gemeinsamen Europäischen Referenzrahmen für Sprachen (GER) definiert und bezeichnet sind (vgl. Europarat 2001 und GLABONIAT et al. 2002). (Der Modellversuch VOLI orientierte sich auch an anderer Stelle, z.B. in der Lehrerfortbildung, am GER als Referenz. Jedoch müssen dabei die Probleme bewusst sein, die der GER als Maßstab mit sich bringt, denn dieser bezieht sich nach eigenen Aussagen vornehmlich auf Sprachkompetenzen in einer Fremdsprache. Zudem ist der GER bezüglich der Bestimmung und damit auch der Diagnose von Lesekompetenz, die als nur eine geschlossene Einheit neben anderen Sprachkompetenzen beschrieben wird, undifferenzierter als zum Beispiel die PISA-Studien, die Lesekompetenz in die drei Teilkompetenzen a) Informationen ermitteln, b) Textbezogenes Interpretieren, c) Reflektieren und bewerten (vgl. ARTELT et al. 2001) unterteilt. Auch aufgrund dieser fehlenden Unterdifferenzierung in Teilkompetenzen ist bei der Niveau-Zuweisung nach GER nicht immer eine ganz eindeutige Bestimmung des Schwierigkeitsgrades einer Aufgabe möglich. Die generelle Schwierigkeit der exakten Zuordnung von Aufgaben zu Kompetenzniveaus wurde auch bereits im Rahmen der PISA-Studie deutlich: „Selbst Lehrplanexperten konnten in ihren Urteilen über PISA-Aufgaben kaum zwischen leichten und schweren Aufgaben unterscheiden“, KÖSTER 2005. )
Das anvisierte Niveau liegt schwerpunktmäßig zwischen A 2 und B 2, da B 2 in der Schweiz, in der der GER bereits für den muttersprachlichen Unterricht an der Berufsschule adaptiert wurde, als das Niveau gilt, das ein Schüler bis zum Ende seiner Lehre erreicht haben sollte (vgl. SCHIESSER/ NODARI ² 2004, 8).
mit unterschiedlicher Ausrichtung auf standardsprachliche oder fachsprachliche Lesekompetenz.
Um sich an SchülerInnen unterschiedlichster Ausbildungsberufe zu richten, konnte kein Test zu einer berufsspezifischen Fachsprache entwickelt werden. Stattdessen wurde auf die Fachsprache des Arbeitsrechts ausgewichen, mit der alle BerufsschülerInnen in ihrem Beruf konfrontiert sind. Der Baukasten gibt jedoch Tipps und Hilfen dazu, wie Lehrpersonen die Diagnoseinstrumente des Baukastens selber auf Texte ihres spezifischen Ausbildungsberufes anwenden und so einen berufsspezifischen Fachsprachen-Test entwickeln können.
mit linearen oder nicht-linearen Texten.
mit unterschiedlichen Schwerpunktsetzungen hinsichtlich der verschiedenen Teil-fertigkeiten des Leseverstehens. Mit den Aufgaben lassen sich folgende Teilfertigkeiten abtesten:
Leseverstehen auf der Wortebene,
Leseverstehen auf der Satz- und Abschnittsebene (gezieltes Leseverstehen/ selek-tives Lesen: Finden von Informationen, nach denen gezielt gefragt wird),
Leseverstehen auf der Textebene (globales Leseverstehen: einen Text im Großen und Ganzen verstehen),
detailliertes Leseverstehen (gründliches Lesen): einen Text bis ins Detail verstehen.
zu den drei in PISA erfassten Teilkompetenzen „Informationen ermitteln“, „Text-bezogenes Interpretieren“ und „Reflektieren und Bewerten“, die trotz der Ausrichtung auf den GER jeweils mit eigenen Aufgabentypen bedient werden.
Das Ziel des Baukastens ist die individuelle Diagnose der Lesekompetenz einzelner BerufsschülerInnen. Nach Durchführung und Auswertung möglichst mehrerer Tests aus dem Baukasten können Lehrpersonen die sprachlichen Fähigkeiten und Defizite ihrer SchülerInnen im Bereich Lesekompetenz – allgemein wie in den einzelnen Leseteilfertigkeiten – differenziert einschätzen und den Leistungsstand der SchülerInnen in Anlehnung an den GER – beispielsweise mit „B 1“ – benennen. Die Testergebnisse zeigen Lehrpersonen wie SchülernInnen damit den Förderbedarf in bestimmten Bereichen der Sprach- und Lesekompetenz an. Indirekt wird dabei auch die Fähigkeit der SchülerInnen zur Anwendung von Lesestrategien dokumentiert. Ansatzweise wird anhand von (zu erstellenden oder auszuwertenden) Schaubildern und Graphiken zudem die Methodenkompetenz der SchülerInnen abgeprüft.
Der Baukasten bietet hingegen keine Grundlage für einen lehrzielorientierten Test, in dem zuvor festgesetzte Standards oder Lernziele in einer Unterrichtsreihe abgetestet werden sollen. Ebenfalls ist es nicht möglich, mit Hilfe des Baukastens Behaltenserfolge oder Einstellungsänderungen der Schüler aufgrund von Lektüre (= lernendes Lesen) zu erheben.
Der „Baukasten Lesediagnose“ präsentiert keinen fertigen Lesetest, da es den einen Test, der jedem Zweck und jeder Lerngruppe gerecht wird, der jede Teilkompetenz des Leseverstehens auf jedem Niveau abprüft und der zudem in einem vernünftigen Zeitrahmen mit vernünftigem Korrekturaufwand durchführbar ist, nicht gibt und nicht geben kann.
Das Baukasten-Prinzip sieht vielmehr vor, dass sich eine Lehrperson in einer konkreten Situation aus den Baukasten-Materialien einen Test nach ihren Bedürfnissen zusammenstellt – angepasst an das Niveau der jeweiligen Lerngruppe, die zeitlichen Rahmenbedingungen sowie die jeweilige Zielsetzung, die hinter der Lesediagnose steht. So wird zum Beispiel ein Einmal-Test, den man als Eingangstest (Lernausgangstest, Sprachstandstest) für neue BerufsschülerInnen der Grundstufe konzipiert, anders aussehen müssen als ein Test im Rahmen einer kontinuierlichen Evaluation von Lernfortschritten im Laufe eines Schuljahres, der beispielsweise in die Arbeit mit einem Sprachenportfolio eingebettet ist; ein Test, der die allgemeinsprachlichen Fähigkeiten der SchülerInnen erheben will, muss anders konzipiert sein als ein Test, der den Fokus auf die für den Umgang mit Fachsprachen erforderliche spezifische Lesekompetenz legt.
Der Baukasten enthält fünf große Bausteine, die jeweils aus einem oder mehreren (nicht-) linearen Texten bestehen, zu denen mögliche Aufgaben auf unterschiedlichen Schwierigkeitsniveaus angeboten werden. Bei der Auswahl der Texte wurde darauf geachtet, dass es sich um authentische Texte handelt. Die Texte sind außerdem vielfach durch Tabellen und Schaubilder ergänzt.
Die Bausteine sind weitgehend nach dem Prinzip der Progression sprachlicher und fachlicher Anforderungen angeordnet:
Baustein I besteht aus mehreren kleineren Texteinheiten und legt den Schwerpunkt auf das Leseverstehen auf Satzebene (Satzlogik), auf das Verstehen von nicht-linearen Texten sowie auf das globale Textverstehen. In diesem Baustein bleiben fachsprachliche Elemente außen vor.
Baustein II hat einen längeren, sprachlich anspruchsvollen, aber ebenfalls noch standardsprachlichen Text zur Grundlage, zu dem Aufgaben zu allen Ebenen des Leseverstehens gestellt werden.
Baustein III beinhaltet einen kurzen fachsprachlichen Text aus dem Bereich der Biologie, dessen Schwierigkeiten vor allem auf der lexikalischen Ebene (Fachwortschatz) liegen. Neben dem Aspekt der Erschließung fremder Fachterminologie aus dem Kontext rücken die Aufgaben des Umgangs mit nicht-linearen Texten in den Vordergrund; dabei werden auch Aufgaben zum Abprüfen der Methodenkompetenz angeboten.
Baustein IV hat die Fachsprache des Arbeitsrechts zum Gegenstand. Die fachsprachlichen Merkmale kommen hier nicht nur auf der lexikalischen, sondern auch auf der syntaktischen Ebene (z.B. Passiv-Konstruktionen) zum Tragen. Jedoch beschränken sich die Aufgaben keinesfalls auf den fachsprachlichen Aspekt.
Baustein V besteht aus einem anspruchsvolleren Text aus dem Kontext des Arbeitsrechts. Hier wird von den SchülerInnen insbesondere analytisches und detailliertes Leseverstehen gefordert.
Im Anschluss an die Bausteine findet sich ein Lösungsteil mit den Lösungen oder Lösungsvorschlägen zu allen Aufgaben.
Die in jedem Baustein angebotenen Aufgaben testen die unterschiedlichen Teilfertigkeiten des Leseverstehens jeweils auf unterschiedlichen Niveaus ab. Als Hilfestellung für die Zusammenstellung eines Tests und vor allem für die Auswertung und Interpretation der Ergebnisse wurde jede Aufgabe a) mit der Angabe des jeweiligen Schwierigkeitsniveaus (nach dem GER) sowie b) mit einer Farbe zur Kennzeichnung der abgetesteten Leseteilfertigkeiten versehen. Die Anordnung der Aufgaben innerhalb eines Bausteins erfolgt weitgehend nach der abgetesteten Teilfertigkeit des Leseverstehens und nicht nach dem Schwierigkeitsgrad.
Der „Baukasten Lesediagnose“ hat, wie der Name es andeuten soll, Angebotscharakter; er ist als „Steinbruch“ zur Selbstbedienung gedacht, damit sich die Lehrpersonen ihre eigenen Tests nach ihren Zielen, Wünschen und Bedürfnissen und nach dem, was der jeweiligen Lerngruppe gerecht wird und was in der geplanten Zeit von den SchülerInnen bearbeitbar und leistbar ist, selber zusammenstellen können: Diese Konzeption bringt es mit sich, dass nichts aus dem Baukasten unverändert übernommen werden kann. (Daher liegt dem Baukasten eine CD mit der digitalen, veränderbaren Version aller Bausteine – jeweils einmal als pdf-Dokument und einmal als doc-Dokument – bei.) Beispielsweise gibt es Aufgaben, zu denen es alternative Aufgabenstellungen gibt, die dieselbe Kompetenz auf eine andere Art und Weise oder zumeist auf einem anderen Niveau abtesten. Solche zusammengehörigen Alternativaufgaben sollten nie gleichzeitig in einen konkreten Test übernommen werden. Dies gilt auch für unterschiedliche Aufgaben zu einem Baustein, die auf dieselbe Textinformation fokussieren und nach einer ähnlichen oder sogar derselben Lösung verlangen (so kann ein offenes Aufgabenformat nach einer Information fragen, die auch ein Teil einer Multiple-Choice-Frage ist). Auch werden bei manchen Aufgaben Alternativformulierungen vorgeschlagen, da sich durch die Änderung der Formulierung ein und derselben Aufgabe deren Schwierigkeitsgrad zum Teil variieren lässt (bspw. Vorgabe der Anzahl an korrekten Lösungen bei Multiple-Choice-Aufgaben). Die Lehrperson muss sich hier bei der Testzusammenstellung jeweils für eine Formulierung entscheiden. Hinzu kommen formale Änderungen, die bei der konkreten Testzusammenstellung notwendig werden, wie etwa die Änderung der Aufgaben-Nummerierung, das Löschen von Hilfskommentaren für die Lehrpersonen, das Löschen der nicht übernommenen Alternativformulierungen und Alternativaufgaben; es bietet sich auch an, die farbliche Kennzeichnung der anvisierten Leseteilfertigkeit in jeder Aufgabe zu entfernen, damit die SchülerInnen nicht darauf aufmerksam gemacht werden, welche Teilfertigkeit gerade von ihnen verlangt wird. Je nachdem, wie die kontinuierliche Diagnose in den Unterricht eingebettet ist, kann die Lehrperson entscheiden, ob sie die jeder Aufgabe zugewiesene Niveau-Auszeichnung nach dem GER löscht oder in Ausnahmefällen bestehen lässt, nämlich dann, wenn die SchülerInnen die GER-Niveaus bereits kennen, wenn sie mit der Arbeit mit einem auf den GER ausgerichteten Sprachenportfolio vertraut sind oder wenn der Test sogar im Rahmen der Portfolio-Arbeit durchgeführt wird.
Auch der dem jeweiligen Baustein zugrunde liegende Text sollte nicht unbearbeitet übernommen werden. So kann das Layout eines Textes variiert werden, um Aufgaben wie das Einteilen des Textes in Abschnitte unterschiedlich schwierig zu gestalten: Man kann die Abschnittsfindung durch das Setzen von Absätzen im Text-Layout erleichtern oder durch das Weglassen erschweren.
Die Lehrpersonen tragen damit bei der Zusammenstellung und Gestaltung der konkreten Testvorlagen die Hauptverantwortung dafür, dass der Test gelingt, dass seine späteren Ergebnisse also aussagekräftig sind und sinnvoll interpretiert werden können.
Die erste Entscheidung, die die Lehrperson treffen muss, betrifft die Wahl des Bausteins, aus dem ein Test zusammengestellt wird. Möchte man beispielsweise die standardsprachliche Lesekompetenz der SchülerInnen testen, bietet sich Baustein I und, für Schüler mit höherem Niveau, Baustein II an. Soll der Test eher auf die fachsprachliche Lesekompetenz abzielen, kann man, je nach Niveau der Klasse und den anvisierten Kompetenzen, zwischen den Bausteinen III bis V wählen: Für schwächere Schüler bietet sich eher der Text des Bausteins IV als des Bausteins V an; für das Abtesten der Fähigkeit, mit Fachlexik umzugehen, eignet sich eher Baustein III als Baustein IV. Aufgrund der Länge der Texte sollten die Bausteine in ein und demselben Test nicht miteinander kombiniert werden. Jedoch sollte man im Rahmen einer kontinuierlichen Diagnose die verschiedenen Bausteine nacheinander für Tests nutzen. Bei dieser Vorgehensweise lässt sich der Schwerpunkt pro Baustein jedes Mal auf eine andere Leseteilfertigkeit legen: Mit einem Baustein testet man beispielsweise in einer Woche schwerpunktmäßig das gezielte, mit einem anderen Baustein in der nächsten Woche das globale Leseverstehen ab usw.
Die Nummerierung der Aufgaben eines Bausteins ist kein Vorschlag für eine chronologische Übernahme der Aufgaben in identischer Reihenfolge in einem konkreten Test. So ist es beispielsweise nicht sinnvoll, für einen kurzen Test einfach die ersten zehn Aufgaben eines Bausteins zu übernehmen und den Rest wegzulassen. Die Anordnung der Aufgaben in der Zusammenstellung eines konkreten Tests kann verschiedenen Prinzipien folgen, die jeweils ihre Vor- und Nachteile haben. Das Ziel des Tests sollte entscheiden, wie man die Aufgaben anordnet: Ordnet die Lehrperson sie dem steigenden Schwierigkeitsgrad nach (Progression vom Einfachen (A 1/2) zum Anspruchsvollen (B 2/C 1)), lässt sich bei der Auswertung relativ leicht das Niveau ablesen, auf dem ein Schüler steht: nämlich vermutlich auf dem Niveau der letzten Frage, die der Schüler noch beantworten konnte. Möchte die Lehrperson jedoch keine allgemeine Einschätzung der Lesekompetenz, sondern interessiert sich für das Abschneiden der Schüler in den Teilkompetenzen, bietet sich etwa eine Anordnung der Aufgaben in Blöcken nach den Leseteilfertigkeiten an. So zeigt sich schnell, ob ein Schüler beispielsweise eher Probleme mit dem globalen oder dem gezielten Leseverstehen hat. Allgemein bietet es sich an, mit Aufgaben, die auf das globale Leseverstehen abzielen, zu beginnen, „um für die folgenden auf verschiedene Einzelaspekte bezogenen Fragen einen allgemeinen Verständnisrahmen vorzugeben, in den die Lernenden die Detailbeobachtungen einordnen können“ ( WINKLER 2005, 41 ). Stellt man zu einem Text hingegen ausschließlich Fragen, die das gezielte Leseverstehen abtesten, sollten diese auf dem Testblatt vor den Text selbst gestellt werden, da die Schüler den Text ansonsten automatisch im Hinblick auf globales Textverständnis lesen.
Die Auswahl des Schwierigkeitsniveaus des Tests hängt vom angenommenen Niveau der Lerngruppe ab, auf dem dann auch das Gros der Aufgaben liegen sollte: Es sollten vor allem Aufgaben eines mittleren Schwierigkeitsgrades, nicht zu viele sehr schwierige oder sehr leichte Aufgaben ausgewählt werden. Liegt das vermutete Durchschnittsniveau beispielsweise auf A 2, dann sollten die meisten Aufgaben auf das Niveau A 2 (und B 1) und nur wenige Aufgaben auf B 2 abzielen.
Bei der Auswahl der Aufgaben-Art und -Anzahl sollte man darauf achten, dass der Test nicht zu lang wird. Je länger ein Test ist, umso höher wird die Wahrscheinlichkeit, dass SchülerInnen Aufgaben falsch oder gar nicht beantworten, weil sie nicht mehr konzentriert oder motiviert sind. Die Testergebnisse verlieren dann an Aussagekraft bezüglich der Lesekompetenz.
Zur Korrektur eines Tests auf Basis des Baukastens kann die Lehrperson auf die Lösungsvorschläge im Lösungsteil der Baukasten-Broschüre zurückgreifen. Zudem sollte sie für die Auswertung und Interpretation der Ergebnisse auf die in dieser Vorlage gebotenen Niveau-Angaben nach GER sowie die farblichen Markierungen als Kennzeichnung der jeweils abgetesteten Leseteilfertigkeit zurückgreifen.
Nach der Korrektur erhält die Lehrperson als erstes Ergebnis eine Gesamteinschätzung der Lesekompetenz eines Schülers. Hierfür muss man die Niveaustufen der vom Schüler korrekt gelösten Aufgaben sichten. Ein GER-Niveau kann dann als von einem Schüler erreicht gelten, wenn der Schüler mehr als 50% der Testaufgaben, deren Schwierigkeitsgrad diesem Niveau zugeordnet war, korrekt gelöst hat (so auch bei PISA, vgl. ARTELT et al. 2001, 95; die Zahl von 80%, die in der Portfolio-Arbeit als Maßstab für das Erreichen eines GER-Niveaus gilt, bezieht sich nicht auf gelöste Aufgaben, sondern auf die einem Niveau zugeordneten Kann-Beschreibungen, also auf das Beherrschen von Teilkompetenzen in der Selbsteinschätzung der SchülerInnen.). Hat ein Schüler ein bestimmtes Niveau erreicht, hat er damit auch alle darunter liegenden Niveaus erreicht. Wenn ein Schüler beispielsweise 80% der B 1-Aufgaben löst, aber nur 40% der B 2-Aufgaben, steht er auf Niveau B 1. Bereits der GER schränkt allerdings ein: „Jeder Versuch, ´Niveaustufen` der Sprachkompetenz festzusetzen, ist daher [wegen der individuellen Kompetenzunterschiede der Sprecher] bis zu einem gewissen Grade willkürlich“ (EUROPARAT 2001, 28).
Nach der allgemeinen Niveaubestimmung kann die Lehrperson jede Leseteilfertigkeit einzeln nach diesem Muster auswerten. Sie wird dann leichter erkennen, in welcher Teilkompetenz ein Schüler den größten Förderbedarf hat. Es ist also durchaus möglich und wahrscheinlich, dass ein Schüler nicht in allen Teilkompetenzen auf demselben Niveau liegt, sondern dass er zum Beispiel im gezielten und globalen Leseverstehen das Niveau B 2, im detaillierten Leseverstehen aber nur das Niveau B 1 erreicht.
Wenn ein Schüler Defizite in der Teilfertigkeit Wortverstehen hat, bedeutet dies, dass er nicht in der Lage ist, die Bedeutung bestimmter Wörter ohne Kontexthilfen, nur aus ihrer morphologischen Struktur heraus, zu erschließen. Er benötigt vor allem Förderung im Bereich der Kenntnis der Wortbildungsregeln des Deutschen, um die Möglichkeiten des semantischen Verhältnisses der Teilglieder von Komposita oder die Bedeutung von Wortbildungsaffixen zu erlernen bzw. selbständig erkennen zu lernen. Zudem verfügt er nur über einen geringen passiven Wortschatz im Bereich der gehobenen Standardsprache, der dringend erweitert werden muss. Übungen zur Wortbildung sowie das systematische Führen von Vokabellisten (in Heft- oder Kastenform) könnten hier erste Schritte in der Förderung sein.
Ein Schüler mit Defiziten in der Teilfertigkeit des gezielten Leseverstehens hat große Probleme damit, einem Text auf konkrete Anweisung hin (zum Großteil explizit formulierte) Informationen auf Wort-, Satz- oder Abschnittsebene zu entnehmen. Die Förderung muss hier dabei ansetzen, mit dem Schüler die bewusste Anwendung von ganz basalen Lesestrategien einzuüben und zu automatisieren, die gezieltes Leseverstehen fördern: z.B. mehrmaliges systematisches Lesen eines Textes im Hinblick auf eine Fragestellung, gezielte Suche nach Wörtern, die in der Frage und im Text vorkommen (Musterabgleich), Schulung der Konzentrationsfähigkeit.
Defizite in der Teilfertigkeit des globalen Leseverstehens bedeuten, dass ein Schüler einen Text im Großen und Ganzen nicht versteht, dass er in seinem Kopf kein mentales Modell des Textes aufbauen kann. Zur Förderung dieser Teilkompetenz müssen mit ihm so basale Lesetechniken eingeübt werden wie das Überfliegen eines Textes, das Nutzen von herausgehobenen Textteilen (Überschrift, Zwischenüberschrift, Bild, Bildunterschrift etc.) oder das Unterstreichen von Wörtern und (Teil-)Sätzen und das Herausschreiben von Wörtern an den Textrand während der Lektüre. Zudem muss der Schüler lernen, die Textstruktur, den Aufbau (die einzelnen Sinnabschnitte) eines Textes zu identifizieren, um dann nach und nach über das (mündliche) Zusammenfassen einzelner kleinerer, dann größerer Abschnitte die (mündliche) Zusammenfassung eines Ganztextes zu bewältigen, den Textinhalt also in eigenen Formulierungen zu rekapitulieren und hierdurch zu verstehen. Dies kann schrittweise durch immer stärkere Abstraktion geschehen: Zunächst fasst der Schüler die Abschnitte eines Textes in ein bis zwei Sätzen zusammen. Diese Sätze reduziert er zu Überschriften, ehe er mit Hilfe dieser Überschriften die Zusammenfassung des gesamten Textes leistet. Bei guter Methodenkenntnis können die (Teil-)Zusammenfassungen auch (ausschließlich) graphisch visualisiert werden (Cluster, Mindmap). Auch durch die Förderung der Textsortenkenntnis kann das globale Leseverstehen gefördert werden: Bei größerer Vertrautheit mit einer Textsorte wird beim Schüler auch die Vorerwartung an den Text erhöht, so dass seine Aufnahme- und Verarbeitungsfähigkeit steigt, da ihm die Inhalte und Positionierung der Informationen im Text nicht mehr so unbekannt erscheinen.
Defizite in der Teilfertigkeit des detaillierten Leseverstehens bedeuten, dass ein Schüler nicht jede Einzelheit eines Textes erfasst. Hier kann Förderung ebenfalls gut auf der Ebene der Vertiefung der Textsortenkenntnis (typischer Textaufbau) wie der graphischen Visualisierung (Cluster, Mindmap etc.) des Textes und seiner Argumentationsstruktur ansetzen, damit sich der Schüler die Bezüge zwischen den Textteilen vor Augen führt. Zudem muss ihm beigebracht werden, gezielt nach Verständnishilfen in seinem Vorwissen (inhaltlich wie bezüglich der Textsorte) zu suchen und die Textinformationen hiermit zu verknüpfen. Hierzu muss der Schüler lernen, sich seiner Herangehensweise an den Text in Form der Anwendungen von Texterschließungsstrategien bewusster zu werden (Metastrategien/ Metawissen). Beispielsweise kann er seine inhaltlichen Erwartungen oder Fragestellungen an das Textthema formulieren, um zu überprüfen, ob die Erwartungen im Text erfüllt, also die erwarteten Informationen gegeben werden.
Nicht in jedem Baustein sind alle sinnvoll möglichen Aufgabentypen zur Diagnose der Lesekompetenz von BerufsschülerInnen verwendet worden, so dass die Lehrkräfte die nur in bestimmten Bausteinen vorhandenen Aufgabetypen in Analogie auf die anderen Bausteine übertragen können und sollen, d.h., dass sie bei der Testzusammenstellung nicht nur aus den vorgegebenen Aufgaben einige aussuchen, sondern auch selber eigene Aufgaben formulieren sollen. Als Hilfe für diesen Transfer von Aufgabentypen von einem Baustein in den nächsten, für das Zusammenstellen von Tests auf Grundlage des Baukastens und auch für das Erarbeiten ganz eigener Tests zu anderen Ausgangstexten, beispielsweise Fachtexten aus einem konkreten Berufsfeld, sollen hier noch einige allgemeine Hinweise zur Testerstellung gegeben werden.
Ein Test sollte
valide, d.h. gültig sein: Er muss auch wirklich die Kompetenz messen, die er messen soll. (Es muss bspw. sicher gestellt sein, dass die Lesekompetenz und nicht die Schreibkompetenz oder die Motivation und Leistungsbereitschaft getestet wird.)
reliabel, d.h. zuverlässig und genau sein: Es dürfen keine Messfehler entstehen und der Test muss bei einer Wiederholung zu den gleichen Ergebnissen führen.
objektiv sein: Seine Durchführung und Auswertung muss unabhängig von der Lehrperson gelingen.
Wichtig für einen reinen Lesetest ist die Begrenzung der Rolle des außersprachlichen Weltwissens bei der Auswahl des zugrunde liegenden Textes: Je mehr Vorwissen für das Verständnis eines Textes vorausgesetzt werden muss, umso weniger ist er geeignet die Lesekompetenz abzuprüfen, da Aufgaben ansonsten auf Grundlage des Weltwissens, nicht des gerade erlesenen Wissens beantwortet werden (können).
Um die Validität zu gewährleisten, verzichtet der „Baukasten Lesediagnose“ auf durchaus sinnvolle Aufgaben, die von den SchülerInnen eine umfangreichere Textproduktion verlangen würden (bspw. Inhaltsangaben zu Texten): Diese würden nämlich stärker die Schreib-, nicht (nur) die (globale) Lesekompetenz testen. In einigen Aufgaben, in denen Inhalte in Form von Tabellen und Graphiken dargestellt werden müssen, wird neben der Lesekompetenz lediglich ansatzweise auch die Methodenkompetenz der SchülerInnen abgetestet. Diese Aufgaben sind allerdings nicht valide für das Abtesten der Lesekompetenz. Es besteht aber natürlich die Möglichkeit, einen Test auf Basis des Baukastens je nach Zielrichtung um Aufgaben zu erweitern, die verstärkt die Schreib- oder Methodenkompetenz abtesten (z.B. Inhaltsangabe/Abschnittszusammenfassung schreiben, Mindmap erstellen etc.).
Eine hohe Validität bezüglich der Lesekompetenzdiagnose wird durch Multiple-Choice-Aufgaben, die die SchülerInnen durch die Vorgabe von Lösungen von der sprachlichen Eigenproduktion entlasten, gewährleistet. (Bei PISA 2000 gab es beispielsweise 45% frei zu beantwortende Aufgaben (offene Formate) und 55% Multiple-Choice-Aufgaben, vgl. ARTELT et al. 2001, 81.) Die Qualität dieses Aufgabentyps hängt wesentlich ab
von der Anzahl der Antwortmöglichkeiten: Je mehr davon zur Auswahl gestellt werden, umso unwahrscheinlicher wird ein Zufallstreffer;
von der Qualität (= Ähnlichkeit) der Antwortmöglichkeiten; sie sollten derselben Kategorie angehören;
davon, dass die Position der korrekten Antwort in verschiedenen Aufgaben ständig wechselt.
Für weitere Aspekte und Informationen sei auf die einschlägige Literatur verwiesen, insbesondere zur Testkonstruktion auf WINKLER 2005 und BOLTON 1996; zur Typologie von Testaufgaben und von deren jeweils abgetestetem Leseverstehen auf DOYÉ 1988, die „Bildungsstandards für den Mittleren Schulabschluss“ für das Fach Deutsch (16-18) und BOLTON 1996, 26-45; zu zentralen Schwierigkeitsfaktoren von Verstehensaufgaben auf GROTJAHN 2000.
Der Artikel hat die Besonderheiten und Verwendungsmöglichkeiten des „Baukastens Lesediagnose“ für die individuelle und kontinuierliche Diagnose der Lesekompetenz von BerufsschülerInnen aufgezeigt und dabei die Unterschiede in Konzeption, Erkenntnisinteresse und Anschlussmöglichkeiten zu solchen Einmal-Tests, wie sie etwa im Rahmen von PISA durchgeführt wurden, aufgezeigt. Die kontinuierliche individuelle Diagnose der Lesekompetenz, die nur sinnvoll ist, wenn sie eng mit einer gezielten, individuellen Förderung verbunden ist, wird dabei als sinnvoller und realistisch gangbarer Kompromiss-Weg zwischen pauschaler Diagnose per Einmal-Tests und zeit- und kostenaufwändiger Diagnose per teilnehmender Beobachtung gesehen.
Leider fehlt bislang noch eine Evaluation,
wie der „Baukastens Lesediagnose“ bisher an Berufsschulen eingesetzt wird (bspw. Durchführung der Tests an wie viel Schulen, in welchen Berufsgruppen und Fächern; Häufigkeit der Durchführung etc.),
wie er sich im Einsatz bewährt hat (Zeitaufwand bei Testerstellung und -korrektur, Schwierigkeitsgrad/Angemessenheit für die Zielgruppe, Handhabbarkeit der Niveauzuweisungen nach GER zu den einzelnen Aufgaben, differenzierte Aussagekraft bzgl. der Schüler-Kompetenz in den einzelnen Leseteilfertigkeiten, Validität bzgl. des Messens der Lesekompetenz etc.),
ob die Diagnose – was das letztliche Ziel ist – so konkret und handhabbar, d.h. eindeutig in ihrer Interpretierbarkeit ist, dass sich daran gut eine individuelle Förderung anschließen kann.
Erst nach einer solchen Evaluation kann das Konzept des „Baukastens Lesediagnose“ abschließend beurteilt werden.
ARTELT, C. et al. (2001): Lesekompetenz: Testkonzeption und Ergebnisse. In: Deutsches PISA-Konsortium (Hrsg.): PISA 2000. Basiskompetenzen von Schülerinnen und Schülern im internationalen Vergleich. Opladen, 69-137.
BECKER-MROTZEK, M./ KUSCH, E./ WEHNERT, B. (2006): Leseförderung in der Berufsbildung. Duisburg.
BIEDEBACH, W. (2006): Der Modellversuch „Vocational Literacy (VOLI) – Methodische und sprachliche Kompetenzen in der beruflichen Bildung“. Konzeption – Erfahrungen – bisherige Ergebnisse. In: EFING, C./JANICH, N. (Hrsg.): Förderung der berufsbezogenen Sprachkompetenz. Befunde und Perspektiven. Paderborn, 15-31.
BOFINGER, J./ LUTZ, B./ SPANHEL, D. (1999): Das Freizeit- und Medienverhalten von Hauptschülern. Eine explorative Studie über Hintergründe und Zusammenhänge. München.
BOLTON, S. (1996): Probleme der Leistungsmessung: Lernfortschrittstests in der Grundstufe. Berlin.
BRÜNNER, G. (2000): Wirtschaftskommunikation. Linguistische Analyse ihrer mündlichen Formen. (= Reihe Germanistische Linguistik 213) Tübingen.
DOYÉ, P. (1988): Typologie der Testaufgaben für den Unterricht Deutsch als Fremdsprache. München, 43-69.
DROMMLER, R. et al. (2006): Lesetest für Berufsschüler/innen. LTB -3 . Handbuch. (= Koebes 3) Duisburg.
EFING, C. (2006a): „Viele sind nicht in der Lage, diese schwarzen Symbole da lebendig zu machen.“ – Befunde empirischer Erhebungen zur Sprachkompetenz hessischer Berufsschüler. In: EFING, C./ JANICH, N. (Hrsg.): Förderung der berufsbezogenen Sprachkompetenz. Befunde und Perspektiven. Paderborn, 33-68.
EFING, C. (2006b): Baukasten Lesediagnose, hrsg. vom Institut für Qualitätsentwicklung. Wiesbaden.
EFING, C. (in Druck): Berufsbezogene Schreib- und Lesekompetenz – ein Sprachenportfolio als Mittel der Wissensdokumentation in der Berufsschule. In: ANTOS, G./ WEBER, T. (Hrsg.): Typen von Wissen. (Transferwissenschaften 6). Frankfurt a. M.
EFING, C./ JANICH, N.(2007): Kommunikative Kompetenz im Beruf. Einführung in das Themenheft. In: EFING, C./ JANICH, N. (Hrsg.): Der Deutschunterricht. Sprache und Kommunikation im Beruf. H. 1, 2-9.
EUROPARAT/ Rat für kulturelle Zusammenarbeit (Hrsg.) (2001): Gemeinsamer Europäischer Referenzrahmen für Sprachen: Lernen, lehren und beurteilen. Berlin, München.
FRANZ, K./ GATTERMAIER, K./ STIER, H. (2002): Schullektüre, Freizeitlektüre und private Medienpraxis von Jugendlichen. Zwischenergebnisse einer empirischen Untersuchung. In: HUG, M./ RICHTER, S. (Hrsg.): Ergebnisse aus soziologischer und psychologischer Forschung: Impulse für den Deutschunterricht. Baltmannsweiler, 12-27.
GLABONIAT, M. et al. (2002): Profile Deutsch: Gemeinsamer europäischer Referenzrahmen: Lernzielbestimmungen: Kannbeschreibungen, kommunikative Mittel: Niveau A1, A2, B1, B2 des „Gemeinsamen europäischen Referenzrahmens für Sprachen“. Berlin.
GROTJAHN, R. (2000): Determinanten der Schwierigkeit von Leseverstehensaufgaben: Theoretische Grundlagen und Konsequenzen für die Entwicklung des TESTDAF. In: BOLTON, S.: TESTDAF: Grundlagen für die Entwicklung eines neuen Sprachtests. Beiträge aus einem Expertenseminar. München, 7-55.
GRUNDMANN, H. (2007): Bildungsergebnis vor Bildungserlebnis. Der Deutschunterricht an berufsbildenden Schulen zwischen PISA und der Forderung der Arbeitswelt nach kommunikativen Höchstleistungen: In: EFING, C./ JANICH, N. (Hrsg.): Der Deutschunterricht. Sprache und Kommunikation im Beruf. H.1, 10-18.
HENN-MEMMESHEIMER, B. (2004): Handlungsspielräume im sprachlichen Variationsfeld. In: Der Deutschunterricht 56, H. 1, 26-40.
HUMMELSBERGER, S. (2002): Literaturunterricht und literarisches Verstehen bei Berufsschülern. „Ich lese was, was du nicht liest…!“ Frankfurt a.M.
HURRELMANN, B. (2004): Sozialisation der Lesekompetenz. In: SCHIEFELE, U. u. a. (Hrsg.): Struktur, Entwicklung und Förderung von Lesekompetenz. Vertiefende Analysen im Rahmen von PISA 2000. Wiesbaden, 37-60.
HURRELMANN, B. (2006): Instanzen und Prozesse der Lesesozialisation. Bedingungen des Erwerbs von Lesekompetenz. In: EFING, C./ JANICH, N. (Hrsg.): Förderung der berufsbezogenen Sprachkompetenz. Befunde und Perspektiven. Paderborn, 71-105.
JAHN, K.-H. (1998): Multimediale interaktive Lernsysteme für Auszubildende. Eine Untersuchung zur Erschließung von Fachtexten. Frankfurt/Main u. a.
KATZ, D. (1994): Leseverhalten von Berufsschülern. Frankfurt/Main.
KÖSTER, J. (2005): Wodurch wird ein Text schwierig? Ein Test für die Fachkonferenz. In: Deutschunterricht 5/2005, 34-39.
LEHMANN, R. H. et al. (2005): ULME I. Untersuchung der Leistungen, Motivation und Einstellungen zu Beginn der beruflichen Ausbildung. [Hamburg]. Online: http://www.hamburger-bildungsserver.de/baw/ba/ULME1_Bericht.pdf (21.03.2006).
MÖLLER, J./ SCHIEFELE, U. (2004): Motivationale Grundlagen der Lesekompetenz. In: SCHIEFELE, U. u. a. (Hrsg.): Struktur, Entwicklung und Förderung von Lesekompetenz. Vertiefende Analysen im Rahmen von PISA 2000. Wiesbaden, 101-124.
OERTER, R. (1999): Theorien der Lesesozialisation – Zur Ontogenese des Lesens. In: GROEBEN, N. (Hrsg.): Lesesozialisation in der Mediengesellschaft. Tübingen, 27-55.
PIEPER, I. u. a. (2004): Lesesozialisation in schriftfernen Lebenswelten. Lektüre und Me-diengebrauch von HauptschülerInnen. Weinheim, München.
SCHIESSER, D./ NODARI, C. (²2004): Lesen und verstehen – kein Problem! Eine Wegleitung für Berufsschüler und Berufsschülerinnen. Bern.
WINKLER, I. (2005): Testwerkstatt: Alternative Aufgabentypen entwickeln. In: Deutschunterricht 5/2005, 40-45.
Internetquellen:
Baukasten Lesediagnose:
http://www.lift-web.de/ww3ee/101505.php?sid=50051223625135742420453935393040 .
„Bildungsstandards für den Mittleren Schulabschluss“ für das Fach Deutsch:
Königsteiner Vereinbarungen:
http://www.schulamt-giessen.bildung.hessen.de/projekte/sziele/vereinbarung.pdf .
Gemeinsamer Europäischer Referenzrahmen für Sprachen:
www.goethe.de/referenzrahmen .
------------------------
bwp@ 2001 - 2008
Hrsg. von Karin Büchter, Franz Gramlinger, Martin Kipp, H.-Hugo Kremer und Tade Tramm
Postalische Adresse:
bwp@
Universität Hamburg, Sedanstraße 19, 20146 Hamburg
Im Internet: http://www.bwpat.de
bwp@ erscheint 2xjährlich ausschließlich online
Development: HoHo OG, DK-AT
(C) 2008 bwpat.de