Menü Überspringen
Contact
Deutsch
English
Not track
Data Protection
Search
Log in
DIPF News
Research
Infrastructures
Institute
Zurück
Contact
Deutsch
English
Not track
Data Protection
Search
Home
>
Research
>
Publications
>
Publications Data Base
Search results in the DIPF database of publications
Your query:
(Schlagwörter: "Antwort")
Advanced Search
Search term
Only Open Access
Search
Unselect matches
Select all matches
Export
100
items matching your search terms.
Show all details
Mathematikunterricht im Vergleich zwischen den Schularten
Bayer, Sonja
Monograph
| Münster: Waxmann | 2020
40658 Endnote
Author(s):
Bayer, Sonja
Title:
Mathematikunterricht im Vergleich zwischen den Schularten
Published:
Münster: Waxmann, 2020 (Empirische Erziehungswissenschaft, 76)
DOI:
10.31244/9783830992479
URN:
urn:nbn:de:0111-pedocs-210703
URL:
https://www.pedocs.de/frontdoor.php?source_opus=21070
Publication Type:
1. Monographien (Autorenschaft); Monographie
Language:
Deutsch
Keywords:
Antwortverhalten; Curriculum; Deutschland; Empirische Forschung; Entwicklungsprozess; Erwartungshaltung; Fragebogenerhebung; Kognitive Entwicklung; Lehrer; Lehrplan; Leistungsentwicklung; Leistungsmessung; Lernprozess; Mathematikunterricht; Mathematische Bildung; Mathematische Kompetenz; Messinstrument; Schüler; Schülergruppe; Schülerleistung; Schulform; Schulforschung; Schuljahr 09; Schulsystem; Sekundarbereich; Sekundarstufe I; Test; Überzeugung; Unterricht; Unterrichtsforschung; Unterrichtsprozess; Vergleich
Abstract:
Eine einheitliche schulische Bildung schulpflichtiger Kinder ist in Deutschland bis heute nicht realisiert. Stattdessen trennen sich nach der gemeinsamen Grundschule die Bildungswege. Dabei entscheidet die Schulart, die die Lernenden besuchen, maßgeblich über den weiteren Bildungsverlauf. Damit ergeben sich für die Lernenden unter anderem unterschiedliche kognitive und affektive Entwicklungsmöglichkeiten. Die größten Unterschiede in der Leistungsentwicklung zeigen sich bei den mathematischen Fähigkeiten, welche besonders stark durch das schulische Lernen geprägt sind. Wenig erforscht sind bislang die Prozesse, welche die unterschiedlichen Entwicklungsmöglichkeiten bedingen. Ziel dieser Studie ist es daher, den Mathematikunterricht vergleichend zwischen den Schularten zu betrachten und für Unterschiede in den Unterrichtsprozessen potentielle Vermittlungsmechanismen zu untersuchen. Dabei wird die Systemebene mit theoretischen Modellen und Befunden aus der empirischen Unterrichtsforschung verknüpft.
DIPF-Departments:
Bildungsqualität und Evaluation
A bias corrected RMSD item fit statistic. An evaluation and comparison to alternatives
Köhler, Carmen; Robitzsch, Alexander; Hartig, Johannes
Journal Article
| In: Journal of Educational and Behavioral Statistics | 2020
40510 Endnote
Author(s):
Köhler, Carmen; Robitzsch, Alexander; Hartig, Johannes
Title:
A bias corrected RMSD item fit statistic. An evaluation and comparison to alternatives
In:
Journal of Educational and Behavioral Statistics, 45 (2020) 3, S. 251-273
DOI:
10.3102/1076998619890566
URL:
https://journals.sagepub.com/doi/10.3102/1076998619890566
Publication Type:
3a. Beiträge in begutachteten Zeitschriften; Aufsatz (keine besondere Kategorie)
Language:
Englisch
Keywords:
Item-Response-Theory; Testkonstruktion; Modell; Frage; Antwort; Messverfahren; Statistische Methode; Evaluation; Vergleich; Bildungsforschung; Empirische Forschung
Abstract:
Testing whether items fit the assumptions of an item response theory model is an important step in evaluating a test. In the literature, numerous item fit statistics exist, many of which show severe limitations. The current study investigates the root mean squared deviation (RMSD) item fit statistic, which is used for evaluating item fit in various large-scale assessment studies. The three research questions of this study are (1) whether the empirical RMSD is an unbiased estimator of the population RMSD; (2) if this is not the case, whether this bias can be corrected; and (3) whether the test statistic provides an adequate significance test to detect misfitting items. Using simulation studies, it was found that the empirical RMSD is not an unbiased estimator of the population RMSD, and nonparametric bootstrapping falls short of entirely eliminating this bias. Using parametric bootstrapping, however, the RMSD can be used as a test statistic that outperforms the other approaches - infit and outfit, S1 X2 with respect to both Type I error rate and power. The empirical application showed that parametric bootstrapping of the RMSD results in rather conservative item fit decisions, which suggests more lenient cut-off criteria. (DIPF/Orig.)
DIPF-Departments:
Bildungsqualität und Evaluation
PISA reading. Mode effects unveiled in short text responses
Zehner, Fabian; Kroehne, Ulf; Hahnel, Carolin; Goldhammer, Frank
Journal Article
| In: Psychological Test and Assessment Modeling | 2020
39911 Endnote
Author(s):
Zehner, Fabian; Kroehne, Ulf; Hahnel, Carolin; Goldhammer, Frank
Title:
PISA reading. Mode effects unveiled in short text responses
In:
Psychological Test and Assessment Modeling, 62 (2020) 1, S. 85-105
URN:
urn:nbn:de:0111-pedocs-203542
URL:
https://www.psychologie-aktuell.com/fileadmin/Redaktion/Journale/ptam-2020-1/05_Zehner.pdf
Publication Type:
3a. Beiträge in begutachteten Zeitschriften; Beitrag in Sonderheft
Language:
Englisch
Keywords:
PISA <Programme for International Student Assessment>; Deutschland; Schülerleistung; Leistungstest; Computerunterstütztes Verfahren; Papier; Bleistift; Antwort; Text; Inhalt; Information; Quantität; Methodenwechsel; Effekt; Wirkungsforschung; Datenanalyse; Sekundäranalyse
Abstract (english):
Educational largescale assessments risk their temporal comparability when shifting from paperto computerbased assessment. A recent study showed how text responses have altered alongside PISA's mode change, indicating mode effects. Uncertainty remained, however, because it compared students from 2012 and 2015. We aimed at reproducing the findings in an experimental setting, in which n = 836 students answered PISA reading questions on computer, paper, or both. Text response features for information quantity and relevance were extracted automatically. Results show a comprehensive recovery of findings. Students incorporated more information into their text responses on computer than on paper, with some items being more affected than others. Regarding information relevance, we found less mode effect variance across items than the original study. Hints for a relationship between mode effect and gender across items could be reproduced. The study demonstrates the stability of linguistic feature extraction from text responses. (DIPF/Orig.)
DIPF-Departments:
Bildungsqualität und Evaluation
Guter Unterricht unter den Bedingungen der Pandemie. Lehrkräfte haben weiterhin die Verantwortung […]
Klieme, Eckhard
Journal Article
| In: SchulVerwaltung. Ausgabe Nordrhein-Westfalen | 2020
40902 Endnote
Author(s):
Klieme, Eckhard
Title:
Guter Unterricht unter den Bedingungen der Pandemie. Lehrkräfte haben weiterhin die Verantwortung für das Lernen
In:
SchulVerwaltung. Ausgabe Nordrhein-Westfalen, 31 (2020) 11, S. 292-295
DOI:
10.25656/01:23919
URN:
urn:nbn:de:0111-pedocs-239192
URL:
https://nbn-resolving.org/urn:nbn:de:0111-pedocs-239192
Publication Type:
3b. Beiträge in weiteren Zeitschriften; praxisorientiert
Language:
Deutsch
Keywords:
Pandemie; Unterricht; Qualität; Lernbedingungen; Lehrerrolle; Verantwortung; Schulorganisation; Krise; Unterrichtsgespräch; Kommunikation; Aufgabenstellung; Digitale Medien; Selbstgesteuertes Lernen; Kognitives Lernen; Aktives Lernen; Kompetenz; Förderung; Deutschland
Abstract:
Im vorliegenden Beitrag geht es darum, festzuhalten, was guten Unterricht im Kern ausmacht. Diese Faktoren sollten auch in der jetzigen Krisensituation beachtet werden. So attraktiv es erscheinen mag, in Zeiten der Pandemie Unterricht ganz neu zu denken - fächerübergreifend, situationsorientiert oder von "Schlüsselthemen" im Sinne Klafkis her -, so wenig vorbereitet sind Lehrende und Lernende auf einen radikalen Umbruch - von wenigen Reformschulen abgesehen, die z.B. nach Jenaplan-Prinzipien arbeiten. Und so wichtig es ist, Kinder und Jugendliche gerade in diesen Zeiten sozial und emotional zu stützen, so unverantwortlich wäre es, den systematischen Aufbau fachlicher und damit verbundener fachübergreifender Kompetenzen zu vernachlässigen. (DIPF/Orig.)
DIPF-Departments:
Bildungsqualität und Evaluation
ReCo: Textantworten automatisch auswerten. Methodenworkshop
Zehner, Fabian; Andersen, Nico
Journal Article
| In: Zeitschrift für Soziologie der Erziehung und Sozialisation | 2020
40196 Endnote
Author(s):
Zehner, Fabian; Andersen, Nico
Title:
ReCo: Textantworten automatisch auswerten. Methodenworkshop
In:
Zeitschrift für Soziologie der Erziehung und Sozialisation, 40 (2020) 3, S. 334-340
DOI:
10.25656/01:22115
URN:
urn:nbn:de:0111-pedocs-221153
URL:
https://nbn-resolving.org/urn:nbn:de:0111-pedocs-221153
Publication Type:
3b. Beiträge in weiteren Zeitschriften; praxisorientiert
Language:
Deutsch
Keywords:
Software; Technologiebasiertes Testen; Antwort; Text; Testauswertung; Automatisierung; Datenanalyse; Konzeption; Methodik
Abstract:
Mit dem vorliegenden Beitrag wird erstmalig der Prototyp einer R- sowie Java-basierten und frei verfügbaren Software veröffentlicht, die für die Verwendung mit deutschen Textantworten evaluiert wurde und aktuell für weitere Sprachen weiter entwickelt wird: ReCo (Automatic Text Response Coder; Zehner, Sälzer & Goldhammer, 2016). ReCo ist auf Kurztextantworten spezialisiert und adressiert Semantik, weshalb auch von Inhaltsscoring die Rede ist. Die hier vorgestellte Software enthält einen Demodatensatz, bei dem es wichtig ist, vorab anzumerken, dass dieser und die hier zitierten Beispielantworten lediglich eine sehr geringe Sprachvielfalt enthalten. Das liegt daran, dass dieser Datensatz auf empirischen Daten basiert und wegen deren Vertraulichkeit umfangreich manuell manipuliert wurde, was mit sprachlich komplexeren Items nicht möglich gewesen wäre. Die ReCo-Methodik selbst funktioniert hingegen auch bei komplexeren Antworten [...]. Dieser Beitrag skizziert kurz die ReCo-Methodik und stellt erstmals die Shiny-App vor, die automatisches Kodieren für eigene Daten flexibel anwendbar macht. Dafür wird skizziert, wie der aktuell verfügbare Prototyp installiert und auf einen Demodatensatz angewendet wird. Zuletzt gibt der Beitrag einen Ausblick, welche Funktionalitäten die App nach Verlassen der aktuellen Prototypenphase sowie in der langfristigen Entwicklung haben wird. Aktuelle Entwicklungen können auf der ReCo-Webseite verfolgt werden: www.reco.science (DIPF/Orig.)
DIPF-Departments:
Bildungsqualität und Evaluation
Computerbasiertes Assessment
Goldhammer, Frank; Kröhne, Ulf
Book Chapter
| Aus: Moosbrugger, Helfried; Kelava, Augustin (Hrsg.): Testtheorie und Fragebogenkonstruktion | Berlin: Springer | 2020
40530 Endnote
Author(s):
Goldhammer, Frank; Kröhne, Ulf
Title:
Computerbasiertes Assessment
In:
Moosbrugger, Helfried; Kelava, Augustin (Hrsg.): Testtheorie und Fragebogenkonstruktion, Berlin: Springer, 2020 , S. 119-141
DOI:
10.1007/978-3-662-61532-4_6
URL:
https://link.springer.com/chapter/10.1007/978-3-662-61532-4_6
Publication Type:
4. Beiträge in Sammelwerken; Sammelband (keine besondere Kategorie)
Language:
Deutsch
Keywords:
Datenanalyse; Technologiebasiertes Testen; Computerunterstütztes Verfahren; Testverfahren; Psychologische Forschung; Sozialwissenschaften; Definition; Beispiel; Konzeption; Antwort; Datenerfassung; Interaktion; Bewertung; Testkonstruktion; Evidenz; Software; Fragebogen; Messverfahren
Abstract:
Das Kapitel gibt einen Überblick, wie mit Hilfe von Computern im weiteren Sinne Tests und Fragebogen realisiert und dabei die Möglichkeiten von klassischen Papier-und-Bleistift-Verfahren erweitert bzw. deutlich überschritten werden können. Dies betrifft beispielsweise die Entwicklung computerbasierter Items mit innovativen Antwortformaten und multimedialen Stimuli sowie die automatische Bewertung des gezeigten Antwortverhaltens. Des Weiteren ermöglicht der Computer eine flexiblere Testzusammenstellung, d. h., Items können automatisch unter Berücksichtigung inhaltlicher und statistischer Kriterien sequenziert werden. Das Kapitel behandelt außerdem die Frage, wie durch Logfiledaten das Analysepotential gesteigert und durch die automatische und zeitnahe Rückmeldung von Testdaten beispielsweise das Lernen unterstützt werden kann. Das Kapitel schließt mit Hinweisen auf einschlägige und frei zugängliche Softwarelösungen für Assessmentzwecke. (DIPF/Orig.)
DIPF-Departments:
Bildungsqualität und Evaluation
PISA 2018: Grundbildung im internationalen Vergleich
Reiss, Kristina; Weis, Mirjam; Klieme, Eckhard; Köller, Olaf (Hrsg.)
Compilation Book
| Münster: Waxmann | 2019
39839 Endnote
Editor(s)
Reiss, Kristina; Weis, Mirjam; Klieme, Eckhard; Köller, Olaf
Title:
PISA 2018: Grundbildung im internationalen Vergleich
Published:
Münster: Waxmann, 2019
DOI:
10.31244/9783830991007
URN:
urn:nbn:de:0111-pedocs-183155
URL:
http://nbn-resolving.org/urn:nbn:de:0111-pedocs-183155
Publication Type:
2. Herausgeberschaft; Sammelband (keine besondere Kategorie)
Language:
Deutsch
Keywords:
Leseförderung; Textverständnis; Schüler; Migrationshintergrund; Muttersprache; Außerunterrichtliche Aktivität; Soziale Herkunft; Einflussfaktor; Mathematische Kompetenz; Geschlechtsspezifischer Unterschied; Naturwissenschaftliche Kompetenz; Schulform; Methodologie; PISA <Programme for International Student Assessment>; Schülerleistung; Leistungsmessung; Lesekompetenz; Schülerleistungstest; Digitale Medien; Mediennutzung; Veränderung; Leseverhalten; Testaufgabe; Antwort; Lesen; Strategie; Selbstkonzept; Motivation; Sprachförderung; Technologiebasiertes Testen; Testkonstruktion; Konzeption; Internationaler Vergleich; OECD-LÄnder; Deutschland
Abstract:
Der nationale Berichtsband stellt die Ergebnisse der Schülerinnen und Schüler in Deutschland aus der PISA-Studie 2018 vor und setzt sie in Relation zu den Ergebnissen in anderen Staaten. Der Schwerpunkt der Erhebungen und Auswertungen liegt dabei auf der Lesekompetenz. Die Rahmenkonzeption der Lesekompetenz wurde für die PISA-Studie 2018 im Vergleich zu den vorigen Runden einer Revision unterzogen und berücksichtigt nun die sich verändernde Lesepraxis, die mit der Nutzung digitaler Medien einhergeht. Es werden leistungsbezogene Variablen genauso wie motivationale Orientierungen, Einstellungen und Verhalten erfasst, die für die Lesekompetenz wichtig sein können. Daneben wird der Beitrag der sozialen Herkunft und des Zuwanderungshintergrunds für die Lesekompetenzen untersucht. Darüber hinaus werden die Kompetenzen der Jugendlichen in der Mathematik und den Naturwissenschaften vorgestellt und diskutiert. (DIPF/Verlag).
DIPF-Departments:
Bildungsqualität und Evaluation
Validating test score interpretations using time information
Engelhardt, Lena; Goldhammer, Frank
Journal Article
| In: Frontiers in Psychology | 2019
39162 Endnote
Author(s):
Engelhardt, Lena; Goldhammer, Frank
Title:
Validating test score interpretations using time information
In:
Frontiers in Psychology, (2019) , S. 10:1131
DOI:
10.3389/fpsyg.2019.01131
URN:
urn:nbn:de:0111-dipfdocs-174371
URL:
http://www.dipfdocs.de/volltexte/2020/17437/pdf/fpsyg-2019_may_Engelhardt_Goldhammer_Validating_test_score_interpretations_using_time_information_A.pdf
Publication Type:
3a. Beiträge in begutachteten Zeitschriften; Beitrag in Sonderheft
Language:
Englisch
Keywords:
Strukturgleichungsmodell; Empirische Untersuchung; Deutschland; Test; Validität; Computerunterstütztes Verfahren; Aufgabe; Antwort; Zeit; Fertigkeit; Kognitive Prozesse; Kognitive Kompetenz; Lesekompetenz; Denken; Leistungstest; PIAAC <Programme for the International Assessment of Adult Competencies>; Datenanalyse
Abstract (english):
A validity approach is proposed that uses processing times to collect validity evidence for the construct interpretation of test scores. The rationale of the approach is based on current research of processing times and on classical validity approaches, providing validity evidence based on relationships with other variables. Within the new approach, convergent validity evidence is obtained if a component skill, that is expected to underlie the task solution process in the target construct, positively moderates the relationship between effective speed and effective ability in the corresponding target construct. Discriminant validity evidence is provided if a component skill, that is not expected to underlie the task solution process in the target construct, does indeed not moderate the speed-ability relation in this target construct. Using data from a study that follows up the German PIAAC sample, this approach was applied to reading competence, assessed with PIAAC literacy items, and to quantitative reasoning, assessed with Number Series. As expected from theory, the effect of speed on ability in the target construct was only moderated by the respective underlying component skill, that is, word meaning activation skill as an underlying component skill of reading competence, and perceptual speed as an underlying component skill of reasoning. Accordingly, no positive interactions were found for the component skill that should not underlie the task solution process, that is, word meaning activation for reasoning and perceptual speed for reading. Furthermore, the study shows the suitability of the proposed validation approach. The use of time information in association with task results brings construct validation closer to the actual response process than widely used correlations of test scores. (DIPF/Orig.)
DIPF-Departments:
Bildungsqualität und Evaluation
The impact of linguistic similarity on cross-cultural comparability of students' perceptions of […]
Fischer, Jessica; Praetorius, Anna-Katharina; Klieme, Eckhard
Journal Article
| In: Educational Assessment, Evaluation and Accountability | 2019
39120 Endnote
Author(s):
Fischer, Jessica; Praetorius, Anna-Katharina; Klieme, Eckhard
Title:
The impact of linguistic similarity on cross-cultural comparability of students' perceptions of teaching quality
In:
Educational Assessment, Evaluation and Accountability, 31 (2019) 2, S. 201-220
DOI:
10.1007/s11092-019-09295-7
URN:
urn:nbn:de:0111-pedocs-190654
URL:
http://nbn-resolving.org/urn:nbn:de:0111-pedocs-190654
Publication Type:
3a. Beiträge in begutachteten Zeitschriften; Aufsatz (keine besondere Kategorie)
Language:
Englisch
Keywords:
PISA <Programme for International Student Assessment>; Unterricht; Qualität; Messung; Schüler; Wahrnehmung; Daten; Interkultureller Vergleich; Klassenführung; Kognitives Lernen; Sprache; Einflussfaktor; Messverfahren; Kulturdifferenz; Sprachproblem; Frage; Antwort; Testauswertung; Validität; Reliabilität; Vergleichende Bildungsforschung; Macau; Schanghai; Taipei; England; Schottland; Irland; Frankreich; Belgien; Schweiz; Österreich; Deutschland; Mexiko; Kolumbien
Abstract (english):
Valid cross-country comparisons of student learning and pivotal factors contributing to it, such as teaching quality, offer the possibility to learn from outstandingly effective educational systems across the world and to improve learning in classrooms by providing policy relevant information. Yet, it often remains unclear whether the instruments used in international large-scale assessments work similarly across different cultural and linguistic groups, and thus can be used for comparing them. Using PISA 2012 data, we investigated data comparability of three teaching quality dimensions, namely student support, classroom management, and cognitive activation using a newly developed psychometric approach, namely alignment. Focusing on 15 countries, grouped into five linguistic clusters, we secondly assessed the impact of linguistic similarity on data comparability. Main findings include that (1) comparability of teaching quality measures is limited when comparing linguistically diverse countries; (2) the level of comparability varies across dimensions; (3) linguistic similarity considerably enhances the degree of comparability, except across the Chinese-speaking countries. Our study illustrates new and more flexible possibilities to test for data comparability and outlines the importance to consider cultural and linguistic differences when comparing teaching-related measures across groups. We discuss possible sources of lacking data comparability and implications for comparative educational research. (DIPF/Orig.)
DIPF-Departments:
Bildungsqualität und Evaluation
Construct equivalence of PISA reading comprehension measured with paper‐based and computer‐based […]
Kroehne, Ulf; Buerger, Sarah; Hahnel, Carolin; Goldhammer, Frank
Journal Article
| In: Educational Measurement | 2019
39814 Endnote
Author(s):
Kroehne, Ulf; Buerger, Sarah; Hahnel, Carolin; Goldhammer, Frank
Title:
Construct equivalence of PISA reading comprehension measured with paper‐based and computer‐based assessments
In:
Educational Measurement, 38 (2019) 3, S. 97-111
DOI:
10.1111/emip.12280
URL:
https://onlinelibrary.wiley.com/doi/abs/10.1111/emip.12280
Publication Type:
3a. Beiträge in begutachteten Zeitschriften; Aufsatz (keine besondere Kategorie)
Language:
Englisch
Keywords:
Einflussfaktor; Schülerleistung; Frage; Antwort; Interaktion; Unterschied; Vergleich; Item-Response-Theory; Deutschland; PISA <Programme for International Student Assessment>; Leseverstehen; Messverfahren; Testkonstruktion; Korrelation; Äquivalenz; Papier-Bleistift-Test; Computerunterstütztes Verfahren; Technologiebasiertes Testen; Leistungsmessung; Testverfahren; Testdurchführung
Abstract:
For many years, reading comprehension in the Programme for International Student Assessment (PISA) was measured via paper‐based assessment (PBA). In the 2015 cycle, computer‐based assessment (CBA) was introduced, raising the question of whether central equivalence criteria required for a valid interpretation of the results are fulfilled. As an extension of the PISA 2012 main study in Germany, a random subsample of two intact PISA reading clusters, either computerized or paper‐based, was assessed using a random group design with an additional within‐subject variation. The results are in line with the hypothesis of construct equivalence. That is, the latent cross‐mode correlation of PISA reading comprehension was not significantly different from the expected correlation between the two clusters. Significant mode effects on item difficulties were observed for a small number of items only. Interindividual differences found in mode effects were negatively correlated with reading comprehension, but were not predicted by basic computer skills or gender. Further differences between modes were found with respect to the number of missing values.
Abstract (english):
For many years, reading comprehension in the Programme for International Student Assessment (PISA) was measured via paper‐based assessment (PBA). In the 2015 cycle, computer‐based assessment (CBA) was introduced, raising the question of whether central equivalence criteria required for a valid interpretation of the results are fulfilled. As an extension of the PISA 2012 main study in Germany, a random subsample of two intact PISA reading clusters, either computerized or paper‐based, was assessed using a random group design with an additional within‐subject variation. The results are in line with the hypothesis of construct equivalence. That is, the latent cross‐mode correlation of PISA reading comprehension was not significantly different from the expected correlation between the two clusters. Significant mode effects on item difficulties were observed for a small number of items only. Interindividual differences found in mode effects were negatively correlated with reading comprehension, but were not predicted by basic computer skills or gender. Further differences between modes were found with respect to the number of missing values.
DIPF-Departments:
Bildungsqualität und Evaluation
Unselect matches
Select all matches
Export
<
1
2
3
...
10
>
Show all
(100)