Menü Überspringen
Kontakt
Presse
Deutsch
English
Not track
Datenverarbeitung
Suche
Anmelden
DIPF aktuell
Forschung
Infrastrukturen
Institut
Zurück
Kontakt
Presse
Deutsch
English
Not track
Datenverarbeitung
Suche
Startseite
>
Forschung
>
Publikationen
>
Publikationendatenbank
Ergebnis der Suche in der DIPF Publikationendatenbank
Ihre Abfrage:
(Schlagwörter: "Interpretation")
zur erweiterten Suche
Suchbegriff
Nur Open Access
Suchen
Markierungen aufheben
Alle Treffer markieren
Export
39
Inhalte gefunden
Alle Details anzeigen
Kompetenzdiagnostik
Frey, Andreas; Hartig, Johannes
Sammelbandbeitrag
| Aus: Harring, Marius; Rohlfs, Carsten; Gläser-Zikuda, Michaela (Hrsg.): Handbuch Schulpädagogik | Münster: Waxmann | 2022
42714 Endnote
Autor*innen:
Frey, Andreas; Hartig, Johannes
Titel:
Kompetenzdiagnostik
Aus:
Harring, Marius; Rohlfs, Carsten; Gläser-Zikuda, Michaela (Hrsg.): Handbuch Schulpädagogik, Münster: Waxmann, 2022 , S. 928-937
Dokumenttyp:
4. Beiträge in Sammelbänden; Lexika/Enzyklopädie o.ä.
Sprache:
Deutsch
Schlagwörter:
Empirische Forschung; Kompetenz; Diagnostik; Schüler; Schullaufbahn; Schülerleistung; Leistungsmessung; Testkonstruktion; Testtheorie; Testauswertung; Psychometrie; Qualität; Testdurchführung; Planung; Datenanalyse; Interpretation
Abstract:
Mit dem vorliegenden Beitrag wird das Feld der Kompetenzdiagnostik zusammenfassend dargestellt. Konkret wird dabei beschrieben, (a) was unter Kompetenzdiagnostik zu verstehen ist und welche Ziele mit ihr verfolgt werden, (b) wie Kompetenztests entwickelt und (c) wie sie angewendet werden. Das Kapitel schließt mit einem zusammenfassenden Fazit und einem Ausblick auf künftige Entwicklungsmöglichkeiten im Bereich Kompetenzdiagnostik. (DIPF/Orig.)
DIPF-Abteilung:
Lehr und Lernqualität in Bildungseinrichtungen
From byproduct to design factor. On validating the interpretation of process indicators based on […]
Goldhammer, Frank; Hahnel, Carolin; Kroehne, Ulf; Zehner, Fabian
Zeitschriftenbeitrag
| In: Large-scale Assessments in Education | 2021
41612 Endnote
Autor*innen:
Goldhammer, Frank; Hahnel, Carolin; Kroehne, Ulf; Zehner, Fabian
Titel:
From byproduct to design factor. On validating the interpretation of process indicators based on log data
In:
Large-scale Assessments in Education, 9 (2021) , S. 20
DOI:
10.1186/s40536-021-00113-5
URN:
urn:nbn:de:0111-pedocs-250050
URL:
https://nbn-resolving.org/urn:nbn:de:0111-pedocs-250050
Dokumenttyp:
3a. Beiträge in begutachteten Zeitschriften; Aufsatz (keine besondere Kategorie)
Sprache:
Englisch
Schlagwörter:
Leistungstest; Logdatei; PISA <Programme for International Student Assessment>; PIAAC <Programme for the International Assessment of Adult Competencies>; Datenanalyse; Interpretation; Leistungsmessung; Messverfahren; Indikator; Typologie; Testkonstruktion; Testtheorie
Abstract (english):
International large-scale assessments such as PISA or PIAAC have started to provide public or scientific use files for log data; that is, events, event-related attributes and timestamps of test-takers' interactions with the assessment system. Log data and the process indicators derived from it can be used for many purposes. However, the intended uses and interpretations of process indicators require validation, which here means a theoretical and/or empirical justification that inferences about (latent) attributes of the test-taker's work process are valid. This article reviews and synthesizes measurement concepts from various areas, including the standard assessment paradigm, the continuous assessment approach, the evidence-centered design (ECD) framework, and test validation. Based on this synthesis, we address the questions of how to ensure the valid interpretation of process indicators by means of an evidence-centered design of the task situation, and how to empirically challenge the intended interpretation of process indicators by developing and implementing correlational and/or experimental validation strategies. For this purpose, we explicate the process of reasoning from log data to low-level features and process indicators as the outcome of evidence identification. In this process, contextualizing information from log data is essential in order to reduce interpretative ambiguities regarding the derived process indicators. Finally, we show that empirical validation strategies can be adapted from classical approaches investigating the nomothetic span and construct representation. Two worked examples illustrate possible validation strategies for the design phase of measurements and their empirical evaluation. (DIPF/Orig.)
DIPF-Abteilung:
Lehr und Lernqualität in Bildungseinrichtungen
Interpretieren im Kontext virtueller Forschungsumgebungen - zu den Potentialen und Grenzen einer […]
Kminek, Helge; Meier, Michael; Schindler, Christoph; Hocker, Julian; Veja, Cornelia
Zeitschriftenbeitrag
| In: Zeitschrift für qualitative Forschung | 2020
40949 Endnote
Autor*innen:
Kminek, Helge; Meier, Michael; Schindler, Christoph; Hocker, Julian; Veja, Cornelia
Titel:
Interpretieren im Kontext virtueller Forschungsumgebungen - zu den Potentialen und Grenzen einer virtuellen Forschungsumgebung und ihres Einsatzes in der akademischen Lehre
In:
Zeitschrift für qualitative Forschung, 21 (2020) 2, S. 185-198
DOI:
10.3224/zqf.v21i2.03
URL:
https://www.budrich-journals.de/index.php/zqf/article/view/36570
Dokumenttyp:
3a. Beiträge in begutachteten Zeitschriften; Beitrag in Sonderheft
Sprache:
Deutsch
Schlagwörter:
Hermeneutik; Objektivität; Methode; Forschungsprozess; Digitalisierung; Computerunterstütztes Verfahren; Datenanalyse; Interpretation; Tool; Softwaretechnologie; Erziehungswissenschaft; Hochschullehre; Methodologie; Kasuistik
Abstract:
In dem Beitrag wird eine für die Methode der Objektiven Hermeneutik entwickelte virtuelle Forschungsumgebung vorgestellt. Mit Blick auf die Forschungsbefunde zum Einsatz von Objektiver Hermeneutik in der akademischen Lehre werden Voraussetzungen und Potentiale für die Einsatzmöglichkeiten einer virtuellen Forschungsumgebung diskutiert. Dies erfolgt unter anderem am Beispiel eines Lehrforschungsseminars, dessen erste Ergebnisse die These stützen, dass die hier vorgestellte virtuelle Forschungsumgebung eine sinnvolle Ergänzung der universitären Methodenlehre darstellen kann. (DIPF/Orig.)
Abstract (english):
The article presents the virtual research environment developed for the method of Objective Hermeneutics. With regard to the research findings on the use of objective hermeneutics in academic teaching, the requirements and potential for the possible uses of a virtual research environment are discussed. The discussion is based, among other things, on the example of a teaching research seminar, the initial results of which support the thesis that the virtual research environment presented here can be a useful supplement to university methodology, especially for Objective Hermeneutics. (DIPF/Orig.)
DIPF-Abteilung:
Informationszentrum Bildung
Angebots-Nutzungs-Modelle der Wirkweise des Unterrichts. Ein kritischer Vergleich verschiedener […]
Vieluf, Svenja; Praetorius, Anna-Katharina; Rakoczy, Katrin; Kleinknecht, Marc; Pietsch, Marcus
Zeitschriftenbeitrag
| In: Zeitschrift für Pädagogik. Beiheft | 2020
40691 Endnote
Autor*innen:
Vieluf, Svenja; Praetorius, Anna-Katharina; Rakoczy, Katrin; Kleinknecht, Marc; Pietsch, Marcus
Titel:
Angebots-Nutzungs-Modelle der Wirkweise des Unterrichts. Ein kritischer Vergleich verschiedener Modellvarianten
In:
Zeitschrift für Pädagogik. Beiheft, 66 (2020) , S. 63-80
DOI:
10.3262/ZPB2001063
URL:
https://www.beltz.de/fachmedien/erziehungs_und_sozialwissenschaften/zeitschriften/zeitschrift_fuer_paedagogik/article/Journal.html?tx_beltz_journal%5Barticle%5D=43497&cHash=a4c815ddd8137b94dab8bd09e7fe2897
Dokumenttyp:
3a. Beiträge in begutachteten Zeitschriften; Beitrag in Sonderheft
Sprache:
Deutsch
Schlagwörter:
Empirische Forschung; Unterricht; Qualität; Modell; Bildungsangebot; Nutzung; Wirkung; Effektivität; Schüler; Konzeption; Theorie; Begriff; Definition; Unterrichtsprozess; Motivation; Emotion; Kognition; Wahrnehmung; Interpretation; Vergleich; Theoriebildung
Abstract:
Dieser Beitrag widmet sich Angebots-Nutzungs-Modellen der Wirkweise des Unterrichts. Konkreter hat er zum Ziel, verschiedene Angebots-Nutzungs-Modelle zu vergleichen und durch diesen Vergleich konzeptuelle Unschärfe innerhalb des Ansatzes aufzudecken. Kritisch diskutiert werden sollen Unterschiede hinsichtlich a) dem zugrundeliegenden Verständnis von Unterricht, Angebot und Nutzung, b) Zusammenhängen zwischen Angebot und Nutzung, c) der Bedeutung von Wahrnehmung und Interpretation, d) der Verortung von Angebot und Nutzung im Mehrebenensystem, e) der Bedeutung von Kontexten und f) der aufgeführten Kriterien unterrichtlicher Wirksamkeit. Der Beitrag schließt mit einem Fazit, in dessen Rahmen ein integriertes Angebots-Nutzungs-Modell vorgestellt wird.
Testwertinterpretation, Testnormen und Testeichung
Goldhammer, Frank; Hartig, Johannes
Sammelbandbeitrag
| Aus: Moosbrugger, Helfried; Kelava, Augustin (Hrsg.): Testtheorie und Fragebogenkonstruktion | Berlin: Springer | 2020
40528 Endnote
Autor*innen:
Goldhammer, Frank; Hartig, Johannes
Titel:
Testwertinterpretation, Testnormen und Testeichung
Aus:
Moosbrugger, Helfried; Kelava, Augustin (Hrsg.): Testtheorie und Fragebogenkonstruktion, Berlin: Springer, 2020 , S. 171-195
DOI:
10.1007/978-3-662-61532-4_9
URL:
https://link.springer.com/chapter/10.1007/978-3-662-61532-4_9
Dokumenttyp:
4. Beiträge in Sammelwerken; Sammelband (keine besondere Kategorie)
Sprache:
Deutsch
Schlagwörter:
Test; Wert; Interpretation; Testkonstruktion; Konzeption; Datenanalyse; Testauswertung; Testtheorie; Normung
Abstract:
In diesem Kapitel werden verschiedene Möglichkeiten beschrieben, wie ein Testergebnis bzw. Testwert deskriptivstatistisch interpretiert werden kann. Bei der normorientierten Interpretation wird der Testwert in einen Normwert transformiert, der einen Vergleich mit den Testwerten anderer Personen einer Bezugsgruppe (den Testnormen) erlaubt. Die Testnormen werden im Wege der Testeichung an einer repräsentativen Eichstichprobe gewonnen. Sofern genauere theoretische Vorstellungen bestehen, kann das Testergebnis auch mit einem inhaltlich definierten Kriterium in Bezug gesetzt werden. Dieser Vorgang wird als kriteriumsorientierte Interpretation bezeichnet. Beide Interpretationsarten können auch miteinander verbunden werden. (DIPF/Orig.)
Abstract:
In diesem Kapitel werden verschiedene Möglichkeiten beschrieben, wie ein Testergebnis bzw. Testwert deskriptivstatistisch interpretiert werden kann. Bei der normorientierten Interpretation wird der Testwert in einen Normwert transformiert, der einen Vergleich mit den Testwerten anderer Personen einer Bezugsgruppe (den Testnormen) erlaubt. Die Testnormen werden im Wege der Testeichung an einer repräsentativen Eichstichprobe gewonnen. Sofern genauere theoretische Vorstellungen bestehen, kann das Testergebnis auch mit einem inhaltlich definierten Kriterium in Bezug gesetzt werden. Dieser Vorgang wird als kriteriumsorientierte Interpretation bezeichnet. Beide Interpretationsarten können auch miteinander verbunden werden. (DIPF/Orig.)
DIPF-Abteilung:
Bildungsqualität und Evaluation
Validität von Testwertinterpretationen
Hartig, Johannes; Frey, Andreas; Jude, Nina
Sammelbandbeitrag
| Aus: Moosbrugger, Helfried; Kelava, Augustin (Hrsg.): Testtheorie und Fragebogenkonstruktion | Berlin: Springer | 2020
40526 Endnote
Autor*innen:
Hartig, Johannes; Frey, Andreas; Jude, Nina
Titel:
Validität von Testwertinterpretationen
Aus:
Moosbrugger, Helfried; Kelava, Augustin (Hrsg.): Testtheorie und Fragebogenkonstruktion, Berlin: Springer, 2020 , S. 529-545
DOI:
10.1007/978-3-662-61532-4_21
URL:
https://link.springer.com/chapter/10.1007%2F978-3-662-61532-4_21
Dokumenttyp:
4. Beiträge in Sammelwerken; Sammelband (keine besondere Kategorie)
Sprache:
Deutsch
Schlagwörter:
Test; Wert; Testauswertung; Interpretation; Validität; Qualität; Datenanalyse; Testkonstruktion; Testtheorie; Argumentation; Methode
Abstract:
Das Gütekriterium der Validität ist ein zentrales Qualitätskriterium. Es ist den Gütekriterien Objektivität und Reliabilität übergeordnet. Validität bezieht sich darauf, inwieweit Interpretationen von Testwerten und beabsichtigte Verwendungen von Tests gerechtfertigt sind. Das Verständnis von Validität hat sich in den letzten Jahrzehnten deutlich weiterentwickelt. Während sich im vergangenen Jahrhundert zunächst eine wenig praktikable Vielzahl "verschiedener Validitäten" herausgebildet hatte, wird Validität inzwischen als einheitliches Qualitätskriterium betrachtet, das Informationen aus verschiedenen Quellen integriert. Zudem wurde Validität früher als Eigenschaft eines Tests betrachtet, heute bezieht sie sich auf die Interpretation von Testwerten. Ein Test kann demnach nicht als solcher valide sein, vielmehr erfordert jede intendierte Testwertinterpretation eine separate Validierung. Im Kontext aktueller internationaler Forschung wird die Validierung von Testwertinterpretationen im Rahmen des sog. "argumentationsbasierten Ansatzes" beschrieben. Dabei muss zunächst die zu validierende Testwertinterpretation präzise formuliert werden. Dann werden empirische überprüfbare Grundannahmen der Testwertinterpretationen identifiziert. Hierauf wird empirische Evidenz gesammelt, anhand derer die Grundannahmen widerlegt oder vorläufig gestützt werden können. Wichtige Evidenzquellen sind die Testinhalte, die bei der Testbeantwortung ablaufenden kognitiven Prozesse, die interne Struktur der Testdaten und die Beziehungen der Testwerte zu anderen Variablen. Bei der abschließenden zusammenfassenden Bewertung wird eine Testwertinterpretation dann als valide betrachtet, wenn keine der zugrunde liegenden Annahmen widerlegt werden konnte. Die argumentationsbasierte Validierung gleicht theoriegeleiteter und hypothesenbasierter Forschung und erfolgt spezifisch für jede intendierte Testwertinterpretation. Der Abschluss eines Validierungsprozesses hat einen vorläufigen Charakter, da zukünftige Befunde eine Testwertinterpretation hinsichtlich einer oder mehrerer Grundannahmen widerlegen und damit infrage stellen können. (DIPF/Orig.)
DIPF-Abteilung:
Bildungsqualität und Evaluation
Interpretation von Testwerten in der Item-Response-Theorie (IRT)
Rauch, Dominique; Hartig, Johannes
Sammelbandbeitrag
| Aus: Moosbrugger, Helfried; Kelava, Augustin (Hrsg.): Testtheorie und Fragebogenkonstruktion | Berlin: Springer | 2020
40527 Endnote
Autor*innen:
Rauch, Dominique; Hartig, Johannes
Titel:
Interpretation von Testwerten in der Item-Response-Theorie (IRT)
Aus:
Moosbrugger, Helfried; Kelava, Augustin (Hrsg.): Testtheorie und Fragebogenkonstruktion, Berlin: Springer, 2020 , S. 411-424
DOI:
10.1007/978-3-662-61532-4_17
URL:
https://link.springer.com/chapter/10.1007%2F978-3-662-61532-4_17
Dokumenttyp:
4. Beiträge in Sammelwerken; Sammelband (keine besondere Kategorie)
Sprache:
Deutsch
Schlagwörter:
Test; Wert; Testauswertung; Interpretation; Item-Response-Theory; Modell; Bildungsforschung; Empirische Forschung; Kompetenz; Definition; Rasch-Modell; Datenanalyse
Abstract:
Im vorliegenden Kapitel geht es um die Anwendung von IRT-Modellen im Rahmen der empirischen Bildungsforschung. Bei großen Schulleistungsstudien werden spezifische Vorteile der IRT genutzt, um beispielsweise das Matrix-Sampling von Testaufgaben, die Erstellung paralleler Testformen und die Entwicklung computerisierter adaptiver Tests zu ermöglichen. Ein weiterer wesentlicher Vorteil von IRT-Modellen ist die Möglichkeit der kriteriumsorientierten Interpretation IRT-basierter Testwerte. Diese wird durch die gemeinsame Verortung von Itemschwierigkeiten und Personenfähigkeiten auf einer Joint Scale durchführbar. Bei Gültigkeit des Rasch-Modells können individuelle Testwerte durch ihre Abstände zu Itemschwierigkeiten interpretiert werden. Auf dieser zentralen Eigenschaft von Rasch-Modellen bauen auch sog. "Kompetenzniveaus" auf. Zur leichteren Interpretation wird die kontinuierliche Skala in Abschnitte (Kompetenzniveaus) unterteilt, die dann als Ganzes kriteriumsorientiert beschrieben werden. In diesem Kapitel werden an einem gemeinsamen Beispiel die Definition und Beschreibung von Kompetenzniveaus anhand eines Vorgehens mit Post-hoc-Analysen der Items und die Verwendung von A-priori-Aufgabenmerkmalen veranschaulicht. (DIPF/Orig.)
DIPF-Abteilung:
Bildungsqualität und Evaluation
Visual history of education - audiovisuelle Unterrichtsaufzeichnungen aus der DDR
Reh, Sabine; Jehle, May
Sammelbandbeitrag
| Aus: Corsten, Michael; Pierburg, Melanie; Wolff, Dennis; Hauenschild, Katrin; Schmidt-Thieme, Barbara; Schütte, Ulrike; Zourelidis, Sabrina (Hrsg.): Qualitative Videoanalyse in Schule und Unterricht | Weinheim: Beltz Juventa | 2020
40017 Endnote
Autor*innen:
Reh, Sabine; Jehle, May
Titel:
Visual history of education - audiovisuelle Unterrichtsaufzeichnungen aus der DDR
Aus:
Corsten, Michael; Pierburg, Melanie; Wolff, Dennis; Hauenschild, Katrin; Schmidt-Thieme, Barbara; Schütte, Ulrike; Zourelidis, Sabrina (Hrsg.): Qualitative Videoanalyse in Schule und Unterricht, Weinheim: Beltz Juventa, 2020 , S. 348-370
Dokumenttyp:
4. Beiträge in Sammelwerken; Tagungsband/Konferenzbeitrag/Proceedings
Sprache:
Deutsch
Schlagwörter:
Deutschland-DDR; Videoaufzeichnung; Bildungsgeschichte; Bildungsforschung; Unterrichtsanalyse; Quellensammlung; Bestandsaufnahme; Deutschunterricht; Staatsbürgerkunde; Sozialistische Erziehung; Unterrichtsbeobachtung; Interpretation; Inhaltsanalyse
Abstract:
Im folgenden Beitrag soll gezeigt werden, wie audiovisuelle Unterrichtsaufzeichnungen aus der DDR zunächst als Quelle systematisch beschrieben, kontextualisiert und vor diesem Hintergrund schließlich in verschiedenen Hinsichten bildungshistorisch interpretiert werden können. (DIPF/Orig.)
DIPF-Abteilung:
Bibliothek für Bildungsgeschichtliche Forschung
Instruktionssensitivität von Tests und Items
Naumann, Alexander; Musow, Stephanie; Aichele, Christine; Hochweber, Jan; Hartig, Johannes
Zeitschriftenbeitrag
| In: Zeitschrift für Erziehungswissenschaft | 2019
38407 Endnote
Autor*innen:
Naumann, Alexander; Musow, Stephanie; Aichele, Christine; Hochweber, Jan; Hartig, Johannes
Titel:
Instruktionssensitivität von Tests und Items
In:
Zeitschrift für Erziehungswissenschaft, 22 (2019) 1, S. 181-202
DOI:
10.1007/s11618-018-0832-0
URL:
https://link.springer.com/article/10.1007%2Fs11618-018-0832-0
Dokumenttyp:
3a. Beiträge in begutachteten Zeitschriften; Aufsatz (keine besondere Kategorie)
Sprache:
Deutsch
Schlagwörter:
Unterricht; Effektivität; Schülerleistung; Leistungsmessung; Test; Messverfahren; Empirische Forschung; Konzeption; Validität; Daten; Interpretation; Psychometrie; Item-Response-Theory; Modell
Abstract:
Testergebnisse von Schülerinnen und Schülern dienen regelmäßig als ein zentrales Kriterium für die Beurteilung der Effektivität von Schule und Unterricht. Gültige Rückschlüsse über Schule und Unterricht setzen voraus, dass die eingesetzten Testinstrumente mögliche Effekte des Unterrichts auffangen können, also instruktionssensitiv sind. Jedoch wird diese Voraussetzung nur selten empirisch überprüft. Somit bleibt mitunter unklar, ob ein Test nicht instruktionssensitiv oder ein Unterricht nicht effektiv war. Die Klärung dieser Frage erfordert die empirische Untersuchung der Instruktionssensitivität der eingesetzten Tests und Items. Während die Instruktionssensitivität in den USA bereits seit Langem diskutiert wird, findet das Konzept im deutschsprachigen Diskurs bislang nur wenig Beachtung. Unsere Arbeit zielt daher darauf ab, das Konzept Instruktionssensitivität in den deutschsprachigen Diskurs über schulische Leistungsmessung einzubetten. Dazu werden drei Themenfelder behandelt, (a) der theoretische Hintergrund des Konzepts Instruktionssensitivität, (b) die Messung von Instruktionssensitivität sowie (c) die Identifikation von weiteren Forschungsbedarfen. (DIPF/Orig.)
Abstract (english):
Students' performance in assessments is regularly attributed to more or less effective teaching. Valid interpretation requires that outcomes are affected by instruction to a significant degree. Hence, instruments need to be capable of detecting effects of instruction, that is, instruments need to be instructionally sensitive. However, empirical investigation of the instructional sensitivity of tests and items is seldom in practice. In consequence, in many cases, it remains unclear whether teaching was ineffective or the instrument was insensitive. While there is a living discussion on the instructional sensitivity of tests and items in the USA, the concept of instructional sensitivity is rather unknown in German-speaking countries. Thus, the present study aims at (a) introducing the concept of instructional sensitivity, (b) providing an overview on current approaches of measuring instructional sensitivity, and (c) identifying further research directions. (DIPF/Orig.)
DIPF-Abteilung:
Bildungsqualität und Evaluation
Sensitivity of test items to teaching quality
Naumann, Alexander; Rieser, Svenja; Musow, Stephanie; Hochweber, Jan; Hartig, Johannes
Zeitschriftenbeitrag
| In: Learning and Instruction | 2019
38989 Endnote
Autor*innen:
Naumann, Alexander; Rieser, Svenja; Musow, Stephanie; Hochweber, Jan; Hartig, Johannes
Titel:
Sensitivity of test items to teaching quality
In:
Learning and Instruction, 60 (2019) , S. 41-53
DOI:
10.1016/j.learninstruc.2018.11.002
URL:
https://www.sciencedirect.com/science/article/pii/S0959475217307065?via%3Dihub
Dokumenttyp:
3a. Beiträge in begutachteten Zeitschriften; Aufsatz (keine besondere Kategorie)
Sprache:
Englisch
Schlagwörter:
Leistungstest; Testkonstruktion; Unterricht; Qualität; Einflussfaktor; Testauswertung; Grundschule; Naturwissenschaftlicher Unterricht; Aktives Lernen; Entdeckendes Lernen; Unterrichtsmethode; Wirkung; Messverfahren; Testaufgabe; Problemlösen; Grundschüler; Dauer; Antwort; Schwierigkeit; Datenanalyse; Interpretation; Quasi-Experiment; Deutschland
Abstract:
Instructional sensitivity is the psychometric capacity of tests or single items of capturing effects of classroom instruction. Yet, current item sensitivity measures' relationship to (a) actual instruction and (b) overall test sensitivity is rather unclear. The present study aims at closing these gaps by investigating test and item sensitivity to teaching quality, reanalyzing data from a quasi-experimental intervention study in primary school science education (1026 students, 53 classes, Mage = 8.79 years, SDage = 0.49, 50% female). We examine (a) the correlation of item sensitivity measures and the potential for cognitive activation in class and (b) consequences for test score interpretation when assembling tests from items varying in their degree of sensitivity to cognitive activation. Our study (a) provides validity evidence that item sensitivity measures may be related to actual classroom instruction and (b) points out that inferences on teaching drawn from test scores may vary due to test composition. (DIPF/Orig.)
DIPF-Abteilung:
Bildungsqualität und Evaluation
Markierungen aufheben
Alle Treffer markieren
Export
1
(aktuell)
2
3
4
>
Alle anzeigen
(39)