Menü Überspringen
Search
de
|
en
Contact
Not track
Data Protection
Log in
DIPF News
Research
Knowledge Resources
Networks
Institute
Zurück
de
|
en
Contact
Search
Home
>
Research
>
Publications
>
Publications Data Base
Search results in the DIPF database of publications
Your query:
(Schlagwörter: "Testkonstruktion")
Advanced Search
Search term
Only Open Access
Search
Unselect matches
Select all matches
Export
73
items matching your search terms.
Show all details
PIAAC Germany 2012. Technical report
Zabal, Anouk; Martin, Silke; Massing, Natascha; Ackermann, Daniela; Helmschrott, Susanne; […]
Monograph
| Münster: Waxmann | 2014
34754 Endnote
Author(s):
Zabal, Anouk; Martin, Silke; Massing, Natascha; Ackermann, Daniela; Helmschrott, Susanne; Barkow, Ingo; Rammstedt, Beatrice
Title:
PIAAC Germany 2012. Technical report
Published:
Münster: Waxmann, 2014
URL:
http://www.gesis.org/fileadmin/piaac/Downloadbereich/TechnicalReport-ebook.pdf
Publication Type:
1. Monographien (Autorenschaft); Monographie
Language:
Englisch
Keywords:
Bericht; Daten; Deutschland; Erhebungsinstrument; Erwachsener; Forschungsdesign; Fragebogen; Interview; Kognitive Kompetenz; Leistungsmessung; Leistungstest; Lesekompetenz; Mathematische Kompetenz; PIAAC <Programme for the International Assessment of Adult Competencies>; Problemlösen; Qualität; Technologiebasiertes Testen; Testdurchführung; Testkonstruktion
Abstract:
The Programme for the International Assessment of Adult Competencies (PIAAC) is a large-scale initiative of the Organization for Economic Cooperation and Development (OECD) that aims at assessing key adult competencies considered important for individual and societal success. This technical report describes how the PIAAC survey was conducted in Germany. It provides information on the PIAAC instruments: the background questionnaire and the cognitive assessment. Furthermore, it describes sampling, fieldwork, weighting, and nonresponse bias analyses. The report concludes with an overview of the data management processes and data products as well as a brief evaluation of the overall data quality. (DIPF/Verlag)
DIPF-Departments:
Informationszentrum Bildung
Lernverlaufsdiagnostik
Hasselhorn, Marcus; Schneider, Wolfgang; Trautwein, Ulrich (Hrsg.)
Compilation Book
| Göttingen: Hogrefe | 2014
34387 Endnote
Editor(s)
Hasselhorn, Marcus; Schneider, Wolfgang; Trautwein, Ulrich
Title:
Lernverlaufsdiagnostik
Published:
Göttingen: Hogrefe, 2014 (Tests und Trends. N.F., 12)
Publication Type:
2. Herausgeberschaft; Sammelband (keine besondere Kategorie)
Language:
Deutsch
Keywords:
Bildungsmonitoring; Computerunterstütztes Verfahren; Deutschland; Empirische Untersuchung; Englischunterricht; Erhebungsinstrument; Evaluation; Fähigkeit; Feedback; Grundschule; Indikator; Inklusion; Kind; Kindergarten; Leistungsbeurteilung; Lerndiagnostik; Lernstandserhebung; Lernstörung; Lesekompetenz; Lesen; Mathematikunterricht; Mathematische Kompetenz; Messverfahren; Migrationshintergrund; Modell; Pädagogische Diagnostik; Pädagogische Psychologie; Prävention; Qualität; Reliabilität; Schülerleistung; Schuljahr 01; Schuljahr 02; Schuljahr 04; Sekundarbereich; Testauswertung; Testkonstruktion; Validität; Wirkung
Abstract:
Der vorliegende Band gibt einen Überblick über die Geschichte, Herausforderungen und neueren Entwicklungen der Lernverlaufsdiagnostik und illustriert damit das Potenzial dieses Ansatzes für unterschiedliche schulische Inhaltsbereiche und unterschiedliche Altersgruppen. Zudem stellt er in bewährter Manier eine Auswahl der besten vorliegenden oder sich in Vorbereitung befindlichen Testverfahren vor. Der Band schließt damit eine Lücke in einem für Wissenschaft und Praxis hoch relevanten Arbeitsbereich.
DIPF-Departments:
Bildung und Entwicklung
Student, school, and country differences in sustained test-taking effort in the 2009 PISA reading […]
Debeer, Dries; Buchholz, Janine; Hartig, Johannes; Janssen, Rianne
Journal Article
| In: Journal of Educational and Behavioral Statistics | 2014
35151 Endnote
Author(s):
Debeer, Dries; Buchholz, Janine; Hartig, Johannes; Janssen, Rianne
Title:
Student, school, and country differences in sustained test-taking effort in the 2009 PISA reading assessment
In:
Journal of Educational and Behavioral Statistics, 39 (2014) 6, S. 502-523
URN:
urn:nbn:de:0111-pedocs-123507
URL:
http://nbn-resolving.org/urn:nbn:de:0111-pedocs-123507
Publication Type:
3a. Beiträge in begutachteten Zeitschriften; Aufsatz (keine besondere Kategorie)
Language:
Englisch
Keywords:
Einflussfaktor; Internationaler Vergleich; Item-Response-Theory; Leistungsmessung; Leistungsmotivation; Leistungsversagen; Lesekompetenz; OECD-Länder; PISA <Programme for International Student Assessment>; Schule; Schüler; Schülerleistung; Schülerleistungstest; Selbsteinschätzung; Testaufgabe; Testkonstruktion; Validität
Abstract:
In this article, the change in examinee effort during an assessment, which we will refer to as persistence, is modeled as an effect of item position. A multilevel extension is proposed to analyze hierarchically structured data and decompose the individual differences in persistence. Data from the 2009 Program of International Student Achievement (PISA) reading assessment from N = 467,819 students from 65 countries are analyzed with the proposed model, and the results are compared across countries. A decrease in examinee effort during the PISA reading assessment was found consistently across countries, with individual differences within and between schools. Both the decrease and the individual differences are more pronounced in lower performing countries. Within schools, persistence is slightly negatively correlated with reading ability; but at the school level, this correlation is positive in most countries. The results of our analyses indicate that it is important to model and control examinee effort in low-stakes assessments. (DIPF/Orig.)
DIPF-Departments:
Bildungsqualität und Evaluation
Assessing students' understandings of biological models and their use in science to evaluate a […]
Grünkorn, Juliane; Upmeier zu Belzen, Annette; Krüger, Dirk
Journal Article
| In: International Journal of Science Education | 2014
34215 Endnote
Author(s):
Grünkorn, Juliane; Upmeier zu Belzen, Annette; Krüger, Dirk
Title:
Assessing students' understandings of biological models and their use in science to evaluate a theoretical framework
In:
International Journal of Science Education, 36 (2014) 10, S. 1651-1684
DOI:
10.1080/09500693.2013.873155
URN:
urn:nbn:de:0111-pedocs-189963
URL:
http://nbn-resolving.org/urn:nbn:de:0111-pedocs-189963
Publication Type:
3a. Beiträge in begutachteten Zeitschriften; Aufsatz (keine besondere Kategorie)
Language:
Englisch
Keywords:
Biologieunterricht; Deutschland; Empirische Untersuchung; Evaluation; Gymnasium; Inhaltsanalyse; Leistungsmessung; Modell; Naturwissenschaftliche Kompetenz; Naturwissenschaftlicher Unterricht; Schüler; Schülerleistung; Schülerleistungstest; Sekundarbereich; Testauswertung; Testkonstruktion; Testtheorie; Verstehen
Abstract:
Research in the field of students' understandings of models and their use in science describes different frameworks concerning these understandings. Currently, there is no conjoint framework that combines these structures and so far, no investigation has focused on whether it reflects students' understandings sufficiently (empirical evaluation). Therefore, the purpose of this article is to present the results of an empirical evaluation of a conjoint theoretical framework. The theoretical framework integrates relevant research findings and comprises five aspects which are subdivided into three levels each: nature of models, multiple models, purpose of models, testing, and changing models. The study was conducted with a sample of 1,177 seventh to tenth graders (aged 11-19 years) using open-ended items. The data were analysed by identifying students' understandings of models (nature of models and multiple models) and their use in science (purpose of models, testing, and changing models), and comparing as well as assigning them to the content of the theoretical framework. A comprehensive category system of students' understandings was thus developed. Regarding the empirical evaluation, the students' understandings of the nature and the purpose of models were sufficiently described by the theoretical framework. Concerning the understandings of multiple, testing, and changing models, additional initial understandings (only one model possible, no testing of models, and no change of models) need to be considered. This conjoint and now empirically tested framework for students' understandings can provide a common basis for future science education research. Furthermore, evidence-based indications can be provided for teachers and their instructional practice.
DIPF-Departments:
Bildungsqualität und Evaluation
Modeling instructional sensitivity using a longitudinal multilevel differential item functioning […]
Naumann, Alexander; Hochweber, Jan; Hartig, Johannes
Journal Article
| In: Journal of Educational Measurement | 2014
35094 Endnote
Author(s):
Naumann, Alexander; Hochweber, Jan; Hartig, Johannes
Title:
Modeling instructional sensitivity using a longitudinal multilevel differential item functioning approach
In:
Journal of Educational Measurement, 51 (2014) 4, S. 381-399
DOI:
10.1111/jedm.12051
URN:
urn:nbn:de:0111-dipfdocs-189977
URL:
http://www.dipfdocs.de/volltexte/2020/18997/pdf/Naumann_et_al_2014_Modeling_instructional_sensitivity_using_LML-DIF_A.pdf
Publication Type:
3a. Beiträge in begutachteten Zeitschriften; Aufsatz (keine besondere Kategorie)
Language:
Englisch
Keywords:
Curriculum; DESI <Deutsch-Englisch-Schülerleistungen-International>; Grundschule; Itemanalyse; Längsschnittuntersuchung; Leistungsmessung; Leistungstest; Modell; Qualität; Schülerleistung; Sekundarbereich; Testkonstruktion; Unterricht; Validität; Wirkung
Abstract (english):
Students' performance in assessments is commonly attributed to more or less effective teaching. This implies that students' responses are significantly affected by instruction. However, the assumption that outcome measures indeed are instructionally sensitive is scarcely investigated empirically. In the present study, we propose a longitudinal multilevel-differential item functioning (DIF) model to combine two existing yet independent approaches to evaluate items' instructional sensitivity. The model permits for a more informative judgment of instructional sensitivity, allowing the distinction of global and differential sensitivity. Exemplarily, the model is applied to two empirical data sets, with classical indices (Pretest-Posttest Difference Index and posttest multilevel-DIF) computed for comparison. Results suggest that the approach works well in the application to empirical data, and may provide important information to test developers. (DIPF/Autor)
DIPF-Departments:
Bildungsqualität und Evaluation
Das Konstrukt der computer- und informationsbezogenen Kompetenzen in ICILS 2013
Senkbeil, Martin; Goldhammer, Frank; Bos, Wilfried; Eickelmann, Birgit; Schwippert, Knut; […]
Book Chapter
| Aus: Bos, Wilfried;Eickelmann, Birgit;Gerick, Julia;Goldhammer, Frank;Schaumburg, Heike;Schwippert, Knut;Senkbeil, Martin;Schulz-Zander, Renate;Wendt, Heike (Hrsg.): ICILS 2013: Computer- und informationsbezogene Kompetenzen von Schülerinnen und Schülern in der 8. Jahrgangsstufe im internationalen Vergleich | Münster: Waxmann | 2014
35044 Endnote
Author(s):
Senkbeil, Martin; Goldhammer, Frank; Bos, Wilfried; Eickelmann, Birgit; Schwippert, Knut; Gerick, Julia
Title:
Das Konstrukt der computer- und informationsbezogenen Kompetenzen in ICILS 2013
In:
Bos, Wilfried;Eickelmann, Birgit;Gerick, Julia;Goldhammer, Frank;Schaumburg, Heike;Schwippert, Knut;Senkbeil, Martin;Schulz-Zander, Renate;Wendt, Heike (Hrsg.): ICILS 2013: Computer- und informationsbezogene Kompetenzen von Schülerinnen und Schülern in der 8. Jahrgangsstufe im internationalen Vergleich, Münster: Waxmann, 2014 , S. 83-112
Publication Type:
4. Beiträge in Sammelwerken; Sammelband (keine besondere Kategorie)
Language:
Deutsch
Keywords:
Computer; Deutschland; Forschungsstand; Informationskompetenz; Informations- und Kommunikationstechnologie; Internet; Kompetenz; Konzeption; Leistungsmessung; Medienkompetenz; Mediennutzung; Modell; Panel; PISA <Programme for International Student Assessment>; Schüler; Schülerleistung; Schülerleistungstest; Schuljahr 08; Technologiebasiertes Testen; Testaufgabe; Testkonstruktion; Vergleich
Abstract:
Im Folgenden wird zunächst auf das Konstrukt der computer- und informationsbezogenen Kompetenzen, wie es im Rahmen von ICILS 2013 angelegt ist, eingegangen. Dazu werden die theoretischen Grundlagen dargelegt und nachfolgend die Erfassung des Konstrukts beschrieben (Abschnitt 2). Anschließend wird das im Rahmen von ICILS 2013 empirisch geprüfte Kompetenzstufenmodell erläutert. Die fünf Kompetenzstufen computer- und informationsbezogener Kompetenzen werden durch Beispielitems aus dem in ICILS 2013 eingesetzten Schülertest veranschaulicht (Abschnitt 3.2). Um das Konstrukt der computer- und informationsbezogenen Kompetenzen im Kontext aktueller Forschung zu Konzepten der ICT-Literacy zu verorten und um Gemeinsamkeiten und Unterschiede herauszuarbeiten, wird im letzten Teil [...] auf affine Konstrukte eingegangen, die aktuell in internationalen und nationalen Studien entwickelt und eingesetzt werden (Abschnitt 4). (DIPF/Orig.)
PISA 2015 Draft Questionnaire Framework
Klieme, Eckhard; Kuger, Susanne
Working Papers
| 2014
34334 Endnote
Author(s):
Klieme, Eckhard; Kuger, Susanne
Title:
PISA 2015 Draft Questionnaire Framework
Published:
Paris: OECD, 2014
URL:
http://www.oecd.org/pisa/pisaproducts/PISA-2015-draft-questionnaire-framework.pdf
Publication Type:
5. Arbeits- und Diskussionspapiere; Arbeits- und Diskussionspapier (keine besondere Kategorie)
Language:
Englisch
Keywords:
Bildungslebenslauf; Einstellung <Psy>; Fachwissen; Forschungsdesign; Lehrerausbildung; Leistungsmessung; Lernen; Lernverhalten; Migrationshintergrund; Motivation; Naturwissenschaftliche Kompetenz; PISA <Programme for International Student Assessment>; Problemlösen; Qualität; Schüler; Schülerleistung; Schülerleistungstest; Schulpolitik; Steuerung; Testkonstruktion; Unterricht
Abstract:
The present framework intends to explain the goals and the rationale for choosing appropriate questionnaire content, guiding both the questionnaire development and the forthcoming reports. The document is organized into two main parts: (1) defining the core content of the PISA questionnaires, and (2) elaborating a modular structure for broader coverage of policy issues. The first part of this document links the current Framework to the overarching (cross-cycle) structure of PISA context assessment set out in the PISA 2012 Framework (OECD 2013, p. 168 ff.). The constructs that need to be covered for monitoring trends in education are revisited, with reference to the general background of Educational Effectiveness Research. Measures which have been used previously for initial reporting, for international indicators (published in "Education at a Glance"), and for secondary analyses are reviewed, culminating in an outline of core content that should be assessed in all cycles, for all participants. The second and larger part of this document explores the full breadth of policy issues to be covered, structured by 19 modules, and explains how the most important modules - i.e. those judged as high priority modules by the PISA Governing Board - have been implemented in the Field Trial for PISA 2015. Here, detailed references to current research are provided.
DIPF-Departments:
Bildungsqualität und Evaluation
Diagnostik mathematischer Kompetenzen
Hasselhorn, Marcus; Heinze, Aiso; Schneider, Wolfgang; Trautwein, Ulrich (Hrsg.)
Compilation Book
| Göttingen: Hogrefe | 2013
33479 Endnote
Editor(s)
Hasselhorn, Marcus; Heinze, Aiso; Schneider, Wolfgang; Trautwein, Ulrich
Title:
Diagnostik mathematischer Kompetenzen
Published:
Göttingen: Hogrefe, 2013 (Tests und Trends. N.F., 11)
Publication Type:
2. Herausgeberschaft; Sammelband (keine besondere Kategorie)
Language:
Deutsch
Keywords:
Arithmetik; Computerunterstütztes Verfahren; Deutschland; Diagnose; Diagnostik; Didaktik; Empirische Forschung; Erzieher; Evaluation; Förderungsmaßnahme; Größe; Grundschulalter; Grundschule; Interview; Kind; Kindergarten; Kompetenzerwerb; Leistungstest; Mathematiklehrer; Mathematische Kompetenz; Mathematisches Denken; Modellierung; Papier-Bleistift-Test; Prognose; Raumvorstellung; Rechenschwierigkeit; Rechentest; Rechenunterricht; Screening-Verfahren; Sekundarstufe I; Testdurchführung; Testkonstruktion; Testtheorie; Testverfahren; Vorschulalter; Zahlbegriff
Abstract:
Die diagnostische Erfassung von mathematischen Kompetenzen ist in der Praxis und der Forschung von zentralem Interesse und Bestandteil vieler empirischer Untersuchungen. Letztere behandeln neben Fragestellungen der Grundlagenforschung aus der Psychologie, den Erziehungswissenschaften oder der Mathematikdidaktik auch die Auswahl geeigneter Maßnahmen für das Bildungsmonitoring oder die individuelle Förderung von Lernenden in Bildungseinrichtungen. Die vorliegenden Testverfahren bedienen sich je nach Ziel spezifischer Methoden und Vorgehensweisen. So werden neben dem klassischen Papier und Bleistift-Test etwa auch computergestützte Verfahren eingesetzt, IRT-skalierte Itempools für Längsschnittstudien entwickelt oder Interviewverfahren mit qualitativen und quantitativen Auswertungsmöglichkeiten bereitgestellt. Der vorliegende Band greift diesen Forschungsbereich in seiner gesamten Breite auf und ergänzt den ersten Mathematikband dieser Reihe von 2005 um aktuelle Tests und Trends. Somit erhält der Leser einerseits Informationen über die aktuellen Ergebnisse der pädagogisch-psychologischen und mathematikdidaktischen Forschung zu Mathematikleistungen, -kompetenzen und -schwächen. Andererseits informiert der Band in bewährter Manier über die aktuell verfügbaren und sich in Vorbereitung befindlichen Testverfahren zur Diagnose mathematischer Kompetenzen und Schwierigkeiten.
DIPF-Departments:
Bildung und Entwicklung
Computer-based assessment of complex problem solving. Concept, implementation, and application
Greiff, Samuel; Wüstenberg, Sascha; Holt, Daniel; Goldhammer, Frank; Funke, Joachim
Journal Article
| In: Educational Technology Research and Development | 2013
33459 Endnote
Author(s):
Greiff, Samuel; Wüstenberg, Sascha; Holt, Daniel; Goldhammer, Frank; Funke, Joachim
Title:
Computer-based assessment of complex problem solving. Concept, implementation, and application
In:
Educational Technology Research and Development, 61 (2013) 3, S. 407-421
DOI:
10.1007/s11423-013-9301-x
URL:
https://link.springer.com/article/10.1007%2Fs11423-013-9301-x
Publication Type:
3a. Beiträge in begutachteten Zeitschriften; Aufsatz (keine besondere Kategorie)
Language:
Englisch
Keywords:
Bewertung; Bildung; Computerunterstütztes Verfahren; Deutschland; Fertigkeit; Intervention; Itembank; Problemlösen; Student; Test; Testkonstruktion; Wissen
Abstract (english):
Complex Problem Solving (CPS) skills are essential to successfully deal with environments that change dynamically and involve a large number of interconnected and partially unknown causal influences. The increasing importance of such skills in the 21st century requires appropriate assessment and intervention methods, which in turn rely on adequate item construction, delivery, and scoring. The lack of assessment tools, however, has slowed down research on and understanding of CPS. This paper first presents the MicroDYN framework for assessing CPS, which is based on linear structural equation systems with input and output variables and opaque relations among them. Second, a versatile assessment platform, the CBA Item Builder, which allows the authoring, delivery, and scoring of CPS tasks for scientific and educational purposes is introduced. Third, we demonstrate the potential of such a tool for research by reporting an experimental study illustrating the effect of domain specific content knowledge on performance in CPS tasks both on an overall performance and on a process level. The importance of accessible and versatile technical platforms not only for assessment and research but also for intervention and learning are discussed with a particular focus on educational contexts.
DIPF-Departments:
Bildungsqualität und Evaluation
Definition und Messung von Lesekompetenz. PISA und die Bildungsstandards
Jude, Nina; Hartig, Johannes; Schipolowski, Stefan; Böhme, Katrin; Stanat, Petra
Journal Article
| In: Zeitschrift für Pädagogik. Beih. | 2013
33490 Endnote
Author(s):
Jude, Nina; Hartig, Johannes; Schipolowski, Stefan; Böhme, Katrin; Stanat, Petra
Title:
Definition und Messung von Lesekompetenz. PISA und die Bildungsstandards
In:
Zeitschrift für Pädagogik. Beih., 59 (2013) , S. 200-228
URN:
urn:nbn:de:0111-opus-78285
URL:
http://www.pedocs.de/volltexte/2013/7828/pdf/Jude_et_al_Definition_und_Messung_von_Lesekompetenz.pdf
Publication Type:
3a. Beiträge in begutachteten Zeitschriften; Beitrag in Sonderheft
Language:
Deutsch
Keywords:
Bildungsstandards; Bundesland; Definition; Deutschland; Internationaler Vergleich; Konzeption; Leistungsmessung; Leistungstest; Lesekompetenz; Lesetest; PISA <Programme for International Student Assessment>; Rasch-Modell; Schulform; Schuljahr 09; Stufenmodell; Testaufgabe; Testkonstruktion; Vergleich
Abstract:
Im Rahmen von PISA wird die Lesekompetenz von Fünfzehnjährigen in Deutschland seit dem Jahr 2000 im dreijährigen Rhythmus getestet und im internationalen Vergleich berichtet. Auch in den Ländervergleichen auf Basis der Bildungsstandards der KMK im Fach Deutsch für den Mittleren Schulabschluss wird die Lesekompetenz von Schülerinnen und Schülern erfasst. Die Studien verwendeten für ihre Testung allerdings jeweils einen eigenen Lesetest und testen unterschiedliche Populationen von Schülerinnen und Schülern. Der vorliegende Artikel geht der Frage nach, welche Beziehung zwischen den in beiden Studien gemessenen Lesekompetenzkonstrukten besteht und inwieweit die auf den Testergebnissen der Studien basierenden Kompetenzverteilungen der Schülerinnen und Schüler in Deutschland empirisch vergleichbar sind.
DIPF-Departments:
Bildungsqualität und Evaluation
Unselect matches
Select all matches
Export
<
1
...
4
5
6
...
8
>
Show all
(73)