Menü Überspringen
Contact
Deutsch
English
Not track
Data Protection
Search
Log in
DIPF News
Research
Infrastructures
Institute
Zurück
Contact
Deutsch
English
Not track
Data Protection
Search
Home
>
Research
>
Publications
>
Publications Data Base
Search results in the DIPF database of publications
Your query:
(Personen: "Hartig," und "Johannes")
Advanced Search
Search term
Only Open Access
Search
Unselect matches
Select all matches
Export
159
items matching your search terms.
Show all details
[Dokumentarische Aufbereitung von: List, M. K.; Leininger, S.; Schönenberger, S.; Hartig, J.; […]
Gerecht, Marius; Schuster, Alexander; List, Marit Kristine; Hartig, Johannes
Research Data, Diagnostic Instruments
| DIPF | Leibniz-Institut für Bildungsforschung und Bildungsinformation / Forschungsdatenzentrum Bildung | 2023
44649 Endnote
Author(s):
Gerecht, Marius; Schuster, Alexander; List, Marit Kristine; Hartig, Johannes
Title:
[Dokumentarische Aufbereitung von: List, M. K.; Leininger, S.; Schönenberger, S.; Hartig, J.; Hochweber, J.; Naumann, A. (2023). COINS Mathematiktest ]
Published:
Frankfurt am Main: DIPF | Leibniz-Institut für Bildungsforschung und Bildungsinformation / Forschungsdatenzentrum Bildung, 2023
DOI:
10.7477/1119:391:61
URL:
https://www.fdz-bildung.de/test.php?id=61
Publication Type:
6. Forschungsdaten; Instrumente; Dokumentarische Aufbereitung (inkl. Skalenhandb.)
Language:
Deutsch
Abstract:
Im Rahmen des COINS-Projekts (Constructing Instructionally sensitive test items) wurde ein Mathematiktest für die Sekundarstufe I entwickelt, in dem für die Instruktionssensitivität relevante Itemmerkmale experimentell variiert wurden (zur Zuordnung der Items zu Itemmerkmalen s. Tabelle "Itemkennwerte"). Die im Projekt betrachteten Itemmerkmale sind Antwortformat, Wissensart, Darstellungswechsel und Grundvorstellungen (vgl. Anderson et al., 2001; Jordan et al., 2006; Leuders & Prediger, 2005; Malle, 1993; Rittle-Johnson & Schneider, 2015; Watson, 2009). Die Testinhalte sind so gewählt, dass sie gleichermaßen zu den Curricula beider Länder passen. Zielgruppe sind Schüler*innen der 8. Klasse an Gymnasien in Hessen und Sekundarschulen im Kanton St. Gallen. Der Test bezieht sich inhaltlich auf die Lerngebiete zu linearen Gleichungen und linearen Funktionen, wie sie Bestandteil des Curriculums in der 8. Klasse sind.
DIPF-Departments:
Informationszentrum Bildung; Lehr und Lernqualität in Bildungseinrichtungen
CavE-ICT-Skills Test
Horz, Holger; Frey, Andreas; Goldhammer, Frank; Naumann, Johannes; Engelhardt, Lena; Hartig, Katja; […]
Research Data, Diagnostic Instruments
| FDZ Bildung | 2023
44638 Endnote
Author(s):
Horz, Holger; Frey, Andreas; Goldhammer, Frank; Naumann, Johannes; Engelhardt, Lena; Hartig, Katja; Wenzel, S. Franziska C.
Title:
CavE-ICT-Skills Test
Published:
Frankfurt am Main: FDZ Bildung, 2023
DOI:
10.7477/883:383:59
URL:
https://www.fdz-bildung.de/test.php?id=59
Publication Type:
6. Forschungsdaten; Instrumente; Diagnostische Instrumente (inkl. Testverfahren)
Language:
Deutsch
Abstract:
Der CavE-ICT-Skills-Test soll Fertigkeiten im Umgang mit Informations- und Kommunikationstechnologien erfassen, wie sie im alltäglichen Leben im Umgang mit ICT benötigt werden. Hierbei bearbeiten die Testteilnehmer Aufgaben in einer Simulationsumgebung, in der auch die Antwortabgabe verhaltensbasiert stattfindet (z.B. durch Senden einer E-Mail). Die Items wurden mit dem CBA ItemBuilder erstellt. Jedes der 64 Items - erfordert eine von fünf kognitiven Operationen: den Zugriff (1) auf, das Managen (2), Integrieren (3), Bewerten (4) oder Erzeugen (5) von Informationen, - findet mit oder ohne soziale Interaktion statt: individuell (1) vs. kollektiv (2), - findet im persönlichen (1), bildungsbezogenen (2), oder beruflichen (3) Kontext statt. Darüber hinaus werden zur Bearbeitung der Aufgaben verschiedene Applikationen benötigt wie z.B. Browser, E-Mail-Postfach, Tabellenkalkulation, etc…
DIPF-Departments:
Lehr und Lernqualität in Bildungseinrichtungen
COINS-Mathematiktest
List, Marit Kristine; Leininger, Stephanie; Schönenberger, Stephan; Hartig, Johannes; […]
Research Data, Diagnostic Instruments
| Forschungsdatenzentrum Bildung am DIPF (FDZ Bildung) | 2023
44642 Endnote
Author(s):
List, Marit Kristine; Leininger, Stephanie; Schönenberger, Stephan; Hartig, Johannes; Hochweber, Jan; Naumann, Alexander
Title:
COINS-Mathematiktest
Published:
Frankfurt am Main: Forschungsdatenzentrum Bildung am DIPF (FDZ Bildung), 2023
DOI:
10.7477/1119:391:61
URL:
https://www.fdz-bildung.de/test.php?id=61
Publication Type:
6. Forschungsdaten; Instrumente; Diagnostische Instrumente (inkl. Testverfahren)
Language:
Deutsch
DIPF-Departments:
Lehr und Lernqualität in Bildungseinrichtungen
Evaluation of the HAND in HAND programme - documentation of the questionnaire scales
Roczen, Nina; Rožman, Mojca; Wetzel, Pauline; Hartig, Johannes; Gasteiger-Klicpera, Barbara; […]
Research Data, Diagnostic Instruments
| Pedagoški inštitut | 2023
44655 Endnote
Author(s):
Roczen, Nina; Rožman, Mojca; Wetzel, Pauline; Hartig, Johannes; Gasteiger-Klicpera, Barbara; Gøtzsche, Katinka; Kozina, Ana; Matić Bojić, Jelena; Oskarsson, Magnus; Tomé, Gina
Title:
Evaluation of the HAND in HAND programme - documentation of the questionnaire scales
Published:
Ljubljana: Pedagoški inštitut, 2023
URL:
https://handinhand.si/en/
Publication Type:
6. Forschungsdaten; Instrumente; Diagnostische Instrumente (inkl. Testverfahren)
Language:
Englisch
DIPF-Departments:
Lehr und Lernqualität in Bildungseinrichtungen
HAND:ET international dataset
Rožman, Mojca; Roczen, Nina; Hartig, Johannes; Paleczek, Lisa; Gøtzsche, Katinka; Kozina, Ana; […]
Research Data, Diagnostic Instruments
| Pedagoški inštitut | 2023
44656 Endnote
Author(s):
Rožman, Mojca; Roczen, Nina; Hartig, Johannes; Paleczek, Lisa; Gøtzsche, Katinka; Kozina, Ana; Matić Bojić, Jelena; Oskarsson, Magnus; Tomé, Gina
Title:
HAND:ET international dataset
Published:
Ljubljana: Pedagoški inštitut, 2023
URL:
https://handinhand.si/en/
Publication Type:
6. Forschungsdaten; Instrumente; Datenkollektion/Dataset
Language:
Englisch
DIPF-Departments:
Lehr und Lernqualität in Bildungseinrichtungen
Practical significance of item misfit and its manifestations in constructs assessed in large‑scale […]
Fährmann, Katharina; Köhler, Carmen; Hartig, Johannes; Heine, Jörg‑Henrik
Journal Article
| In: Large-scale Assessments in Education | 2022
42893 Endnote
Author(s):
Fährmann, Katharina; Köhler, Carmen; Hartig, Johannes; Heine, Jörg‑Henrik
Title:
Practical significance of item misfit and its manifestations in constructs assessed in large‑scale studies
In:
Large-scale Assessments in Education, 10 (2022) , S. 7
DOI:
10.1186/s40536‑022‑00124‑w
URL:
https://largescaleassessmentsineducation.springeropen.com/articles/10.1186/s40536-022-00124-w
Publication Type:
3a. Beiträge in begutachteten Zeitschriften; Aufsatz (keine besondere Kategorie)
Language:
Englisch
Abstract (english):
When scaling psychological tests with methods of item response theory it is necessary to investigate to what extent the responses correspond to the model predictions. In addition to the statistical evaluation of item misfit, the question arises as to its practical significance. Although item removal is undesirable for several reasons, its practical consequences are rarely investigated and focus mostly on main survey data with pre-selected items. In this paper, we identify criteria to evaluate practical significance and discuss them with respect to various types of assessments and their particular purposes. We then demonstrate the practical consequences of item misfit using two data examples from the German PISA 2018 field trial study: one with cognitive data and one with non-cognitive/metacognitive data. For the former, we scale the data under the GPCM with and without the inclusion of misfitting items, and investigate how this influences the trait distribution and the allocation to reading competency levels. For non-cognitive/metacognitive data, we explore the effect of excluding misfitting items on estimated gender differences. Our results indicate minor practical consequences for person allocation and no changes in the estimated gender-difference effects. (DIPF/Orig.)
DIPF-Departments:
Lehr und Lernqualität in Bildungseinrichtungen
Performance of infit and outfit confidence intervals calculated via parametric bootstrapping
Silva Diaz, John Alexander; Köhler, Carmen; Hartig, Johannes
Journal Article
| In: Applied Measurement in Education | 2022
42707 Endnote
Author(s):
Silva Diaz, John Alexander; Köhler, Carmen; Hartig, Johannes
Title:
Performance of infit and outfit confidence intervals calculated via parametric bootstrapping
In:
Applied Measurement in Education, 35 (2022) 2, S. 116-132
DOI:
10.1080/08957347.2022.2067540
URL:
https://www.tandfonline.com/doi/full/10.1080/08957347.2022.2067540
Publication Type:
3a. Beiträge in begutachteten Zeitschriften; Aufsatz (keine besondere Kategorie)
Language:
Englisch
Keywords:
Item-Response-Theory; Rasch-Modell; Statistik; Methode; Verfahren; Stichprobe; Test; Analyse; Simulation
Abstract:
Testing item fit is central in item response theory (IRT) modeling, since a good fit is necessary to draw valid inferences from estimated model parameters. Infit and outfit fit statistics, widespread indices for detecting deviations from the Rasch model, are affected by data factors, such as sample size. Consequently, the traditional use of fixed infit and outfit cutoff points is an ineffective practice. This article evaluates if confidence intervals estimated via parametric bootstrapping provide more suitable cutoff points than the conventionally applied range of 0.8-1.2, and outfit critical ranges adjusted by sample size. The performance is evaluated under different sizes of misfit, sample sizes, and number of items. Results show that the confidence intervals performed better in terms of power, but had inflated type-I error rates, which resulted from mean square values pushed below unity in the large size of misfit conditions. However, when performing a one-side test with the upper range of the confidence intervals, the forementioned inflation was fixed. (DIPF/Orig.)
DIPF-Departments:
Lehr und Lernqualität in Bildungseinrichtungen
Kompetenzdiagnostik
Frey, Andreas; Hartig, Johannes
Book Chapter
| Aus: Harring, Marius; Rohlfs, Carsten; Gläser-Zikuda, Michaela (Hrsg.): Handbuch Schulpädagogik | Münster: Waxmann | 2022
42714 Endnote
Author(s):
Frey, Andreas; Hartig, Johannes
Title:
Kompetenzdiagnostik
In:
Harring, Marius; Rohlfs, Carsten; Gläser-Zikuda, Michaela (Hrsg.): Handbuch Schulpädagogik, Münster: Waxmann, 2022 , S. 928-937
Publication Type:
4. Beiträge in Sammelbänden; Lexika/Enzyklopädie o.ä.
Language:
Deutsch
Keywords:
Empirische Forschung; Kompetenz; Diagnostik; Schüler; Schullaufbahn; Schülerleistung; Leistungsmessung; Testkonstruktion; Testtheorie; Testauswertung; Psychometrie; Qualität; Testdurchführung; Planung; Datenanalyse; Interpretation
Abstract:
Mit dem vorliegenden Beitrag wird das Feld der Kompetenzdiagnostik zusammenfassend dargestellt. Konkret wird dabei beschrieben, (a) was unter Kompetenzdiagnostik zu verstehen ist und welche Ziele mit ihr verfolgt werden, (b) wie Kompetenztests entwickelt und (c) wie sie angewendet werden. Das Kapitel schließt mit einem zusammenfassenden Fazit und einem Ausblick auf künftige Entwicklungsmöglichkeiten im Bereich Kompetenzdiagnostik. (DIPF/Orig.)
DIPF-Departments:
Lehr und Lernqualität in Bildungseinrichtungen
Assessing learning progress. Validating a test score interpretation in the domain of sustainability […]
Aichele, Christine; Hartig, Johannes; Michaelis, Christian
Journal Article
| In: Studies in Higher Education | 2021
41440 Endnote
Author(s):
Aichele, Christine; Hartig, Johannes; Michaelis, Christian
Title:
Assessing learning progress. Validating a test score interpretation in the domain of sustainability management
In:
Studies in Higher Education, 46 (2021) 10, S. 2047-2062
DOI:
10.1080/03075079.2021.1953329
URL:
https://www.tandfonline.com/doi/full/10.1080/03075079.2021.1953329
Publication Type:
3a. Beiträge in begutachteten Zeitschriften; Beitrag in Sonderheft
Language:
Englisch
Abstract (english):
This paper aims to provide evidence regarding the interpretation that test scores of a newly developed test instrument reflect learning progress in competence in sustainability management. As competence in sustainability management is conceptualised as mainly acquired through academic opportunities to learn (OTLs), students in courses with relevant academic OTLs (focus group) should display greater learning progress than those without (control group). Non-academic OTLs should not predict learning progress. 499 students were tested between winter term 2017/2018 and summer term 2018. We specify SEM with fixed effects for the courses and calculate linear contrasts between the focus and control group. In addition, we predict learning progress by self-rated academic and non-academic OTLs. Results show that for two of the tests, academic OTLs indeed predict learning progress on course level and non-academic OTLs do not. In sum, evidence suggests that scores for two of the tests reflect learning progress in competence in sustainability management. (DIPF/Orig.)
DIPF-Departments:
Lehr und Lernqualität in Bildungseinrichtungen
Development and evaluation of a framework for the performance-based testing of ICT skills
Engelhardt, Lena; Naumann, Johannes; Goldhammer, Frank; Frey, Andreas; Horz, Holger; Hartig, Katja; […]
Journal Article
| In: Frontiers in Education | 2021
41203 Endnote
Author(s):
Engelhardt, Lena; Naumann, Johannes; Goldhammer, Frank; Frey, Andreas; Horz, Holger; Hartig, Katja; Wenzel, S. Franziska C.
Title:
Development and evaluation of a framework for the performance-based testing of ICT skills
In:
Frontiers in Education, 6 (2021) , S. 668860
DOI:
10.3389/feduc.2021.668860
URL:
https://www.frontiersin.org/articles/10.3389/feduc.2021.668860/full
Publication Type:
3a. Beiträge in begutachteten Zeitschriften; Aufsatz (keine besondere Kategorie)
Language:
Englisch
Keywords:
Informations- und Kommunikationstechnologie; Praktische Fertigkeit; Wissen; Problemlösen; Textverständnis; Bildverstehen; Bewertung; Modell; Item; Entwicklung; Testvalidität; Itemanalyse; Rasch-Modell; Implementation; Evaluation; Test; Testverhalten; Schüler; Sekundarstufe I; Baden-Württemberg; Rheinland-Pfalz; Deutschland
Abstract (english):
This paper addresses the development of performance-based assessment items for ICT skills, skills in dealing with information and communication technologies, a construct which is rather broadly and only operationally defined. Item development followed a construct-driven approach to ensure that test scores could be interpreted as intended. Specifically, ICT-specific knowledge as well as problem-solving and the comprehension of text and graphics were defined as components of ICT skills and cognitive ICT tasks (i.e., accessing, managing, integrating, evaluating, creating). In order to capture the construct in a valid way, design principles for constructing the simulation environment and response format were formulated. To empirically evaluate the very heterogeneous items and detect malfunctioning items, item difficulties were analyzed and behavior-related indicators with item-specific thresholds were developed and applied. The 69 item's difficulty scores from the Rasch model fell within a comparable range for each cognitive task. Process indicators addressing time use and test-taker interactions were used to analyze whether most test-takers executed the intended processes, exhibited disengagement, or got lost among the items. Most items were capable of eliciting the intended behavior; for the few exceptions, conclusions for item revisions were drawn. The results affirm the utility of the proposed framework for developing and implementing performance-based items to assess ICT skills. (DIPF/Orig.)
DIPF-Departments:
Lehr und Lernqualität in Bildungseinrichtungen
Unselect matches
Select all matches
Export
<
1
2
3
...
16
>
Show all
(159)