Menü Überspringen
Kontakt
Presse
Deutsch
English
Not track
Datenverarbeitung
Suche
Anmelden
DIPF aktuell
Forschung
Infrastrukturen
Institut
Zurück
Kontakt
Presse
Deutsch
English
Not track
Datenverarbeitung
Suche
Startseite
>
Forschung
>
Publikationen
>
Publikationendatenbank
Ergebnis der Suche in der DIPF Publikationendatenbank
Ihre Abfrage:
(Personen: "Hartig," und "Johannes")
zur erweiterten Suche
Suchbegriff
Nur Open Access
Suchen
Markierungen aufheben
Alle Treffer markieren
Export
159
Inhalte gefunden
Alle Details anzeigen
[Dokumentarische Aufbereitung von: List, M. K.; Leininger, S.; Schönenberger, S.; Hartig, J.; […]
Gerecht, Marius; Schuster, Alexander; List, Marit Kristine; Hartig, Johannes
Forschungsdaten/Instrumente
| DIPF | Leibniz-Institut für Bildungsforschung und Bildungsinformation / Forschungsdatenzentrum Bildung | 2023
44649 Endnote
Autor*innen:
Gerecht, Marius; Schuster, Alexander; List, Marit Kristine; Hartig, Johannes
Titel:
[Dokumentarische Aufbereitung von: List, M. K.; Leininger, S.; Schönenberger, S.; Hartig, J.; Hochweber, J.; Naumann, A. (2023). COINS Mathematiktest ]
Erscheinungsvermerk:
Frankfurt am Main: DIPF | Leibniz-Institut für Bildungsforschung und Bildungsinformation / Forschungsdatenzentrum Bildung, 2023
DOI:
10.7477/1119:391:61
URL:
https://www.fdz-bildung.de/test.php?id=61
Dokumenttyp:
6. Forschungsdaten; Instrumente; Dokumentarische Aufbereitung (inkl. Skalenhandb.)
Sprache:
Deutsch
Abstract:
Im Rahmen des COINS-Projekts (Constructing Instructionally sensitive test items) wurde ein Mathematiktest für die Sekundarstufe I entwickelt, in dem für die Instruktionssensitivität relevante Itemmerkmale experimentell variiert wurden (zur Zuordnung der Items zu Itemmerkmalen s. Tabelle "Itemkennwerte"). Die im Projekt betrachteten Itemmerkmale sind Antwortformat, Wissensart, Darstellungswechsel und Grundvorstellungen (vgl. Anderson et al., 2001; Jordan et al., 2006; Leuders & Prediger, 2005; Malle, 1993; Rittle-Johnson & Schneider, 2015; Watson, 2009). Die Testinhalte sind so gewählt, dass sie gleichermaßen zu den Curricula beider Länder passen. Zielgruppe sind Schüler*innen der 8. Klasse an Gymnasien in Hessen und Sekundarschulen im Kanton St. Gallen. Der Test bezieht sich inhaltlich auf die Lerngebiete zu linearen Gleichungen und linearen Funktionen, wie sie Bestandteil des Curriculums in der 8. Klasse sind.
DIPF-Abteilung:
Informationszentrum Bildung; Lehr und Lernqualität in Bildungseinrichtungen
CavE-ICT-Skills Test
Horz, Holger; Frey, Andreas; Goldhammer, Frank; Naumann, Johannes; Engelhardt, Lena; Hartig, Katja; […]
Forschungsdaten/Instrumente
| FDZ Bildung | 2023
44638 Endnote
Autor*innen:
Horz, Holger; Frey, Andreas; Goldhammer, Frank; Naumann, Johannes; Engelhardt, Lena; Hartig, Katja; Wenzel, S. Franziska C.
Titel:
CavE-ICT-Skills Test
Erscheinungsvermerk:
Frankfurt am Main: FDZ Bildung, 2023
DOI:
10.7477/883:383:59
URL:
https://www.fdz-bildung.de/test.php?id=59
Dokumenttyp:
6. Forschungsdaten; Instrumente; Diagnostische Instrumente (inkl. Testverfahren)
Sprache:
Deutsch
Abstract:
Der CavE-ICT-Skills-Test soll Fertigkeiten im Umgang mit Informations- und Kommunikationstechnologien erfassen, wie sie im alltäglichen Leben im Umgang mit ICT benötigt werden. Hierbei bearbeiten die Testteilnehmer Aufgaben in einer Simulationsumgebung, in der auch die Antwortabgabe verhaltensbasiert stattfindet (z.B. durch Senden einer E-Mail). Die Items wurden mit dem CBA ItemBuilder erstellt. Jedes der 64 Items - erfordert eine von fünf kognitiven Operationen: den Zugriff (1) auf, das Managen (2), Integrieren (3), Bewerten (4) oder Erzeugen (5) von Informationen, - findet mit oder ohne soziale Interaktion statt: individuell (1) vs. kollektiv (2), - findet im persönlichen (1), bildungsbezogenen (2), oder beruflichen (3) Kontext statt. Darüber hinaus werden zur Bearbeitung der Aufgaben verschiedene Applikationen benötigt wie z.B. Browser, E-Mail-Postfach, Tabellenkalkulation, etc…
DIPF-Abteilung:
Lehr und Lernqualität in Bildungseinrichtungen
COINS-Mathematiktest
List, Marit Kristine; Leininger, Stephanie; Schönenberger, Stephan; Hartig, Johannes; […]
Forschungsdaten/Instrumente
| Forschungsdatenzentrum Bildung am DIPF (FDZ Bildung) | 2023
44642 Endnote
Autor*innen:
List, Marit Kristine; Leininger, Stephanie; Schönenberger, Stephan; Hartig, Johannes; Hochweber, Jan; Naumann, Alexander
Titel:
COINS-Mathematiktest
Erscheinungsvermerk:
Frankfurt am Main: Forschungsdatenzentrum Bildung am DIPF (FDZ Bildung), 2023
DOI:
10.7477/1119:391:61
URL:
https://www.fdz-bildung.de/test.php?id=61
Dokumenttyp:
6. Forschungsdaten; Instrumente; Diagnostische Instrumente (inkl. Testverfahren)
Sprache:
Deutsch
DIPF-Abteilung:
Lehr und Lernqualität in Bildungseinrichtungen
Evaluation of the HAND in HAND programme - documentation of the questionnaire scales
Roczen, Nina; Rožman, Mojca; Wetzel, Pauline; Hartig, Johannes; Gasteiger-Klicpera, Barbara; […]
Forschungsdaten/Instrumente
| Pedagoški inštitut | 2023
44655 Endnote
Autor*innen:
Roczen, Nina; Rožman, Mojca; Wetzel, Pauline; Hartig, Johannes; Gasteiger-Klicpera, Barbara; Gøtzsche, Katinka; Kozina, Ana; Matić Bojić, Jelena; Oskarsson, Magnus; Tomé, Gina
Titel:
Evaluation of the HAND in HAND programme - documentation of the questionnaire scales
Erscheinungsvermerk:
Ljubljana: Pedagoški inštitut, 2023
URL:
https://handinhand.si/en/
Dokumenttyp:
6. Forschungsdaten; Instrumente; Diagnostische Instrumente (inkl. Testverfahren)
Sprache:
Englisch
DIPF-Abteilung:
Lehr und Lernqualität in Bildungseinrichtungen
HAND:ET international dataset
Rožman, Mojca; Roczen, Nina; Hartig, Johannes; Paleczek, Lisa; Gøtzsche, Katinka; Kozina, Ana; […]
Forschungsdaten/Instrumente
| Pedagoški inštitut | 2023
44656 Endnote
Autor*innen:
Rožman, Mojca; Roczen, Nina; Hartig, Johannes; Paleczek, Lisa; Gøtzsche, Katinka; Kozina, Ana; Matić Bojić, Jelena; Oskarsson, Magnus; Tomé, Gina
Titel:
HAND:ET international dataset
Erscheinungsvermerk:
Ljubljana: Pedagoški inštitut, 2023
URL:
https://handinhand.si/en/
Dokumenttyp:
6. Forschungsdaten; Instrumente; Datenkollektion/Dataset
Sprache:
Englisch
DIPF-Abteilung:
Lehr und Lernqualität in Bildungseinrichtungen
Practical significance of item misfit and its manifestations in constructs assessed in large‑scale […]
Fährmann, Katharina; Köhler, Carmen; Hartig, Johannes; Heine, Jörg‑Henrik
Zeitschriftenbeitrag
| In: Large-scale Assessments in Education | 2022
42893 Endnote
Autor*innen:
Fährmann, Katharina; Köhler, Carmen; Hartig, Johannes; Heine, Jörg‑Henrik
Titel:
Practical significance of item misfit and its manifestations in constructs assessed in large‑scale studies
In:
Large-scale Assessments in Education, 10 (2022) , S. 7
DOI:
10.1186/s40536‑022‑00124‑w
URL:
https://largescaleassessmentsineducation.springeropen.com/articles/10.1186/s40536-022-00124-w
Dokumenttyp:
3a. Beiträge in begutachteten Zeitschriften; Aufsatz (keine besondere Kategorie)
Sprache:
Englisch
Abstract (english):
When scaling psychological tests with methods of item response theory it is necessary to investigate to what extent the responses correspond to the model predictions. In addition to the statistical evaluation of item misfit, the question arises as to its practical significance. Although item removal is undesirable for several reasons, its practical consequences are rarely investigated and focus mostly on main survey data with pre-selected items. In this paper, we identify criteria to evaluate practical significance and discuss them with respect to various types of assessments and their particular purposes. We then demonstrate the practical consequences of item misfit using two data examples from the German PISA 2018 field trial study: one with cognitive data and one with non-cognitive/metacognitive data. For the former, we scale the data under the GPCM with and without the inclusion of misfitting items, and investigate how this influences the trait distribution and the allocation to reading competency levels. For non-cognitive/metacognitive data, we explore the effect of excluding misfitting items on estimated gender differences. Our results indicate minor practical consequences for person allocation and no changes in the estimated gender-difference effects. (DIPF/Orig.)
DIPF-Abteilung:
Lehr und Lernqualität in Bildungseinrichtungen
Performance of infit and outfit confidence intervals calculated via parametric bootstrapping
Silva Diaz, John Alexander; Köhler, Carmen; Hartig, Johannes
Zeitschriftenbeitrag
| In: Applied Measurement in Education | 2022
42707 Endnote
Autor*innen:
Silva Diaz, John Alexander; Köhler, Carmen; Hartig, Johannes
Titel:
Performance of infit and outfit confidence intervals calculated via parametric bootstrapping
In:
Applied Measurement in Education, 35 (2022) 2, S. 116-132
DOI:
10.1080/08957347.2022.2067540
URL:
https://www.tandfonline.com/doi/full/10.1080/08957347.2022.2067540
Dokumenttyp:
3a. Beiträge in begutachteten Zeitschriften; Aufsatz (keine besondere Kategorie)
Sprache:
Englisch
Schlagwörter:
Item-Response-Theory; Rasch-Modell; Statistik; Methode; Verfahren; Stichprobe; Test; Analyse; Simulation
Abstract:
Testing item fit is central in item response theory (IRT) modeling, since a good fit is necessary to draw valid inferences from estimated model parameters. Infit and outfit fit statistics, widespread indices for detecting deviations from the Rasch model, are affected by data factors, such as sample size. Consequently, the traditional use of fixed infit and outfit cutoff points is an ineffective practice. This article evaluates if confidence intervals estimated via parametric bootstrapping provide more suitable cutoff points than the conventionally applied range of 0.8-1.2, and outfit critical ranges adjusted by sample size. The performance is evaluated under different sizes of misfit, sample sizes, and number of items. Results show that the confidence intervals performed better in terms of power, but had inflated type-I error rates, which resulted from mean square values pushed below unity in the large size of misfit conditions. However, when performing a one-side test with the upper range of the confidence intervals, the forementioned inflation was fixed. (DIPF/Orig.)
DIPF-Abteilung:
Lehr und Lernqualität in Bildungseinrichtungen
Kompetenzdiagnostik
Frey, Andreas; Hartig, Johannes
Sammelbandbeitrag
| Aus: Harring, Marius; Rohlfs, Carsten; Gläser-Zikuda, Michaela (Hrsg.): Handbuch Schulpädagogik | Münster: Waxmann | 2022
42714 Endnote
Autor*innen:
Frey, Andreas; Hartig, Johannes
Titel:
Kompetenzdiagnostik
Aus:
Harring, Marius; Rohlfs, Carsten; Gläser-Zikuda, Michaela (Hrsg.): Handbuch Schulpädagogik, Münster: Waxmann, 2022 , S. 928-937
Dokumenttyp:
4. Beiträge in Sammelbänden; Lexika/Enzyklopädie o.ä.
Sprache:
Deutsch
Schlagwörter:
Empirische Forschung; Kompetenz; Diagnostik; Schüler; Schullaufbahn; Schülerleistung; Leistungsmessung; Testkonstruktion; Testtheorie; Testauswertung; Psychometrie; Qualität; Testdurchführung; Planung; Datenanalyse; Interpretation
Abstract:
Mit dem vorliegenden Beitrag wird das Feld der Kompetenzdiagnostik zusammenfassend dargestellt. Konkret wird dabei beschrieben, (a) was unter Kompetenzdiagnostik zu verstehen ist und welche Ziele mit ihr verfolgt werden, (b) wie Kompetenztests entwickelt und (c) wie sie angewendet werden. Das Kapitel schließt mit einem zusammenfassenden Fazit und einem Ausblick auf künftige Entwicklungsmöglichkeiten im Bereich Kompetenzdiagnostik. (DIPF/Orig.)
DIPF-Abteilung:
Lehr und Lernqualität in Bildungseinrichtungen
Assessing learning progress. Validating a test score interpretation in the domain of sustainability […]
Aichele, Christine; Hartig, Johannes; Michaelis, Christian
Zeitschriftenbeitrag
| In: Studies in Higher Education | 2021
41440 Endnote
Autor*innen:
Aichele, Christine; Hartig, Johannes; Michaelis, Christian
Titel:
Assessing learning progress. Validating a test score interpretation in the domain of sustainability management
In:
Studies in Higher Education, 46 (2021) 10, S. 2047-2062
DOI:
10.1080/03075079.2021.1953329
URL:
https://www.tandfonline.com/doi/full/10.1080/03075079.2021.1953329
Dokumenttyp:
3a. Beiträge in begutachteten Zeitschriften; Beitrag in Sonderheft
Sprache:
Englisch
Abstract (english):
This paper aims to provide evidence regarding the interpretation that test scores of a newly developed test instrument reflect learning progress in competence in sustainability management. As competence in sustainability management is conceptualised as mainly acquired through academic opportunities to learn (OTLs), students in courses with relevant academic OTLs (focus group) should display greater learning progress than those without (control group). Non-academic OTLs should not predict learning progress. 499 students were tested between winter term 2017/2018 and summer term 2018. We specify SEM with fixed effects for the courses and calculate linear contrasts between the focus and control group. In addition, we predict learning progress by self-rated academic and non-academic OTLs. Results show that for two of the tests, academic OTLs indeed predict learning progress on course level and non-academic OTLs do not. In sum, evidence suggests that scores for two of the tests reflect learning progress in competence in sustainability management. (DIPF/Orig.)
DIPF-Abteilung:
Lehr und Lernqualität in Bildungseinrichtungen
Development and evaluation of a framework for the performance-based testing of ICT skills
Engelhardt, Lena; Naumann, Johannes; Goldhammer, Frank; Frey, Andreas; Horz, Holger; Hartig, Katja; […]
Zeitschriftenbeitrag
| In: Frontiers in Education | 2021
41203 Endnote
Autor*innen:
Engelhardt, Lena; Naumann, Johannes; Goldhammer, Frank; Frey, Andreas; Horz, Holger; Hartig, Katja; Wenzel, S. Franziska C.
Titel:
Development and evaluation of a framework for the performance-based testing of ICT skills
In:
Frontiers in Education, 6 (2021) , S. 668860
DOI:
10.3389/feduc.2021.668860
URL:
https://www.frontiersin.org/articles/10.3389/feduc.2021.668860/full
Dokumenttyp:
3a. Beiträge in begutachteten Zeitschriften; Aufsatz (keine besondere Kategorie)
Sprache:
Englisch
Schlagwörter:
Informations- und Kommunikationstechnologie; Praktische Fertigkeit; Wissen; Problemlösen; Textverständnis; Bildverstehen; Bewertung; Modell; Item; Entwicklung; Testvalidität; Itemanalyse; Rasch-Modell; Implementation; Evaluation; Test; Testverhalten; Schüler; Sekundarstufe I; Baden-Württemberg; Rheinland-Pfalz; Deutschland
Abstract (english):
This paper addresses the development of performance-based assessment items for ICT skills, skills in dealing with information and communication technologies, a construct which is rather broadly and only operationally defined. Item development followed a construct-driven approach to ensure that test scores could be interpreted as intended. Specifically, ICT-specific knowledge as well as problem-solving and the comprehension of text and graphics were defined as components of ICT skills and cognitive ICT tasks (i.e., accessing, managing, integrating, evaluating, creating). In order to capture the construct in a valid way, design principles for constructing the simulation environment and response format were formulated. To empirically evaluate the very heterogeneous items and detect malfunctioning items, item difficulties were analyzed and behavior-related indicators with item-specific thresholds were developed and applied. The 69 item's difficulty scores from the Rasch model fell within a comparable range for each cognitive task. Process indicators addressing time use and test-taker interactions were used to analyze whether most test-takers executed the intended processes, exhibited disengagement, or got lost among the items. Most items were capable of eliciting the intended behavior; for the few exceptions, conclusions for item revisions were drawn. The results affirm the utility of the proposed framework for developing and implementing performance-based items to assess ICT skills. (DIPF/Orig.)
DIPF-Abteilung:
Lehr und Lernqualität in Bildungseinrichtungen
Markierungen aufheben
Alle Treffer markieren
Export
<
1
2
(aktuell)
3
...
16
>
Alle anzeigen
(159)