Menü Überspringen
Contact
Deutsch
English
Not track
Data Protection
Search
Log in
DIPF News
Research
Infrastructures
Institute
Zurück
Contact
Deutsch
English
Not track
Data Protection
Search
Home
>
Research
>
Publications
>
Publications Data Base
Search results in the DIPF database of publications
Your query:
(Personen: "Goldhammer," und "Frank")
Advanced Search
Search term
Only Open Access
Search
Unselect matches
Select all matches
Export
134
items matching your search terms.
Show all details
IGLU 2021. Zentrale Befunde im Überblick
McElvany, Nele; Lorenz, Ramona; Frey, Andreas; Goldhammer, Frank; Schilcher, Anita; […]
Book Chapter
| Aus: McElvany, Nele; Lorenz, Ramona; Frey, Andreas; Goldhammer, Frank; Schilcher, Anita; Stubbe, Tobias C. (Hrsg.): IGLU 2021: Lesekompetenz von Grundschulkindern im internationalen Vergleich und im Trend über 20 Jahre | Münster: Waxmann | 2023
43957 Endnote
Author(s):
McElvany, Nele; Lorenz, Ramona; Frey, Andreas; Goldhammer, Frank; Schilcher, Anita; Stubbe, Tobias C.
Title:
IGLU 2021. Zentrale Befunde im Überblick
In:
McElvany, Nele; Lorenz, Ramona; Frey, Andreas; Goldhammer, Frank; Schilcher, Anita; Stubbe, Tobias C. (Hrsg.): IGLU 2021: Lesekompetenz von Grundschulkindern im internationalen Vergleich und im Trend über 20 Jahre, Münster: Waxmann, 2023 , S. 13-25
URL:
https://www.waxmann.com/index.php?eID=download&buchnr=4700
Publication Type:
4. Beiträge in Sammelbänden; Sammelband (keine besondere Kategorie)
Language:
Deutsch
Keywords:
Deutschland; Digitale Medien; Geschlechtsspezifischer Unterschied; Grundschüler; IGLU <Internationale Grundschul-Lese-Untersuchung>; Leistungsmessung; Lesekompetenz; Lesetest; Migrationshintergrund; Schülerleistung; Schuljahr 04; Soziale Herkunft; Übergang; Übersicht; Weiterführende Schule
Abstract:
Der [...] Beitrag umfasst die Ergebnisse von IGLU 2021, die in den Kapiteln 3 bis 11 in diesem Band detailliert dargelegt werden. Die zentralen Befunde werden [...] zusammenfassend dargestellt. (DIPF/Orig.)
DIPF-Departments:
Lehr und Lernqualität in Bildungseinrichtungen
A01: Generic Critical Online Reasoning (GEN-COR) skills - measurement, development and comparative […]
Hartig, Johannes; Goldhammer, Frank; Köhler, Carmen; Hahnel, Carolin; Drake, Philine; […]
Working Papers
| 2023
44479 Endnote
Author(s):
Hartig, Johannes; Goldhammer, Frank; Köhler, Carmen; Hahnel, Carolin; Drake, Philine; Illmann, Jannick; Schrickel, Marcus
Title:
A01: Generic Critical Online Reasoning (GEN-COR) skills - measurement, development and comparative analyses across academic domains
Published:
Mainz: Johannes Gutenberg Univ., 2023 (Zlatkin-Troitschanskaia, Olga; Fischer, Jennifer; Molerov, Dimitri (Hrsg.): Critical Online Reasoning in Higher Education (CORE) - overview of the research unit: Objectives, framework, structure, and research projects)
URL:
https://core.uni-mainz.de/files/2023/11/CORE_Working_Paper_No.1_final.pdf#page=15
Publication Type:
5. Arbeits- und Diskussionspapiere; weitere Arbeits- und Diskussionspapiere
Language:
Englisch
DIPF-Departments:
Lehr und Lernqualität in Bildungseinrichtungen
[Dokumentarische Aufbereitung von: Horz, H.; Frey, A.; Goldhammer, F.; Naumann, J.; Engelhardt, L.; […]
Gerecht, Marius; Schuster, Alexander; Engelhardt, Lena; Goldhammer, Frank
Research Data, Diagnostic Instruments
| DIPF | Leibniz-Institut für Bildungsforschung und Bildungsinformation / Forschungsdatenzentrum Bildung | 2023
44648 Endnote
Author(s):
Gerecht, Marius; Schuster, Alexander; Engelhardt, Lena; Goldhammer, Frank
Title:
[Dokumentarische Aufbereitung von: Horz, H.; Frey, A.; Goldhammer, F.; Naumann, J.; Engelhardt, L.; Hartig, K.; Wenzel, S. F. C.: CavE-ICT-Skills-Test]
Published:
Frankfurt am Main: DIPF | Leibniz-Institut für Bildungsforschung und Bildungsinformation / Forschungsdatenzentrum Bildung, 2023
DOI:
10.7477/883:383:59
URL:
https://www.fdz-bildung.de/test.php?id=59
Publication Type:
6. Forschungsdaten; Instrumente; Dokumentarische Aufbereitung (inkl. Skalenhandb.)
Language:
Deutsch
Abstract:
Der CavE-ICT-Skills-Test soll Fertigkeiten im Umgang mit Informations- und Kommunikationstechnologien erfassen, wie sie im alltäglichen Leben im Umgang mit ICT benötigt werden. Hierbei bearbeiten die Testteilnehmer Aufgaben in einer Simulationsumgebung, in der auch die Antwortabgabe verhaltensbasiert stattfindet (z.B. durch Senden einer E-Mail). Die Items wurden mit dem CBA ItemBuilder erstellt. Jedes der 64 Items - erfordert eine von fünf kognitiven Operationen: den Zugriff (1) auf, das Managen (2), Integrieren (3), Bewerten (4) oder Erzeugen (5) von Informationen, - findet mit oder ohne soziale Interaktion statt: individuell (1) vs. kollektiv (2), - findet im persönlichen (1), bildungsbezogenen (2), oder beruflichen (3) Kontext statt. Darüber hinaus werden zur Bearbeitung der Aufgaben verschiedene Applikationen benötigt wie z.B. Browser, E-Mail-Postfach, Tabellenkalkulation, etc…
DIPF-Departments:
Informationszentrum Bildung; Lehr und Lernqualität in Bildungseinrichtungen
[Dokumentarische Aufbereitung von: Schoor, C.; Hahnel, C.; Artelt, C.; Goldhammer, F.; Kröhne, U. […]
Gerecht, Marius; Schuster, Alexander; Hahnel, Carolin; Goldhammer, Frank; Kroehne, Ulf
Research Data, Diagnostic Instruments
| DIPF | Leibniz-Institut für Bildungsforschung und Bildungsinformation / Forschungsdatenzentrum Bildung | 2023
44659 Endnote
Author(s):
Gerecht, Marius; Schuster, Alexander; Hahnel, Carolin; Goldhammer, Frank; Kroehne, Ulf
Title:
[Dokumentarische Aufbereitung von: Schoor, C.; Hahnel, C.; Artelt, C.; Goldhammer, F.; Kröhne, U. :Multiple Document Comprehension-Test (MDC-Test)]
Published:
Frankfurt am Main: DIPF | Leibniz-Institut für Bildungsforschung und Bildungsinformation / Forschungsdatenzentrum Bildung, 2023
DOI:
10.7477/506:316:57
URL:
https://www.fdz-bildung.de/test.php?id=57
Publication Type:
6. Forschungsdaten; Instrumente; Dokumentarische Aufbereitung (inkl. Skalenhandb.)
Language:
Deutsch
Abstract:
Der MDC-Test erfasst die fächerübergreifende Fähigkeit von Studierenden, aus mehreren Textdokumenten eine umfassende mentale Repräsentation eines beschriebenen Themas zu konstruieren. Der Test gibt dabei weitgehend glaubwürdige Dokumente und Informationsquellen vor, die miteinander verglichen, integriert und verknüpft werden müssen. Das bedeutet auch, dass er nicht Fähigkeiten zur Suche und Auswahl von Dokumenten erfasst. Der MDC-Test ist in sogenannte Units gegliedert, die aus 2 bis 3 Dokumenten und Items bestehen. Insgesamt sind 5 Units mit 67 Items verfügbar. Die Inhalte der Units befassen sich mit Themen aus verschiedenen Bereichen (z. B. Naturwissenschaft, Literaturwissenschaft) und variieren in der Anzahl der vorliegenden Dokumente und der Gesamtdokumentlänge. Zwei Units erfordern zudem das Verfassen eines kurzen Aufsatzes (Essay), dessen Inhalt jedoch nicht in die Testauswertung eingeht. Die Dokumentinhalte sind zudem größtenteils erfunden (Ausnahme: Unit "Universum"), um MDC möglichst unabhängig von den Vorkenntnissen der Studierenden zu messen. Die Items weisen ein Single-Choice Antwortformat auf (31 Items mit zwei Antwortalternativen; 36 Items mit vier Antwortalternativen). Für eine korrekte Itemantwort müssen Informationen aus mindestens zwei Dokumenten einer Unit berücksichtigt werden. Die Itemantworten werden dichotom kodiert (0 = falsch gelöst, 1 = richtig gelöst). Jede Unit beginnt damit, dass die Testteilnehmer:innen über die Anzahl der Dokumente und Items informieren werden und ein Leseziel vorgegeben wird (z. B. die Texte so zu lesen, als ob eine Präsentation für ein Seminar gehalten werden soll). Die Teilnehmer:innen können frei zwischen den Texten und Items navigieren. In Units, die einen Aufsatz enthalten, muss zunächst der Aufsatz geschrieben werden, bevor die Items bearbeitet werden können. Jedes Textdokument umfasst eine Schaltfläche, die ein zusätzliches Popup-Dialogfeld mit Informationen über die Quelle des Dokuments öffnet. Die Teilnehmer:innen können Textpassagen im Dokument hervorheben und Kommentare neben den Text setzen. Darüber hinaus erhalten Teilnehmer:innen eine visuelle Rückmeldung über ihre Bearbeitungszeit und den Aufgabenfortschritt. Jede Unit weist ein spezifisches Zeitlimit auf (zwischen 27 - 38 Minuten), das auf der Startseite angekündigt wird. Zehn Minuten vor Ablauf des Zeitlimits erhalten die Teilnehmer:innen einen Reminder, dass das Zeitlimit ausläuft. Nach Ablauf des Zeitlimits beendet sich die Unit automatisch.
DIPF-Departments:
Informationszentrum Bildung; Lehr und Lernqualität in Bildungseinrichtungen
CavE-ICT-Skills Test
Horz, Holger; Frey, Andreas; Goldhammer, Frank; Naumann, Johannes; Engelhardt, Lena; Hartig, Katja; […]
Research Data, Diagnostic Instruments
| FDZ Bildung | 2023
44638 Endnote
Author(s):
Horz, Holger; Frey, Andreas; Goldhammer, Frank; Naumann, Johannes; Engelhardt, Lena; Hartig, Katja; Wenzel, S. Franziska C.
Title:
CavE-ICT-Skills Test
Published:
Frankfurt am Main: FDZ Bildung, 2023
DOI:
10.7477/883:383:59
URL:
https://www.fdz-bildung.de/test.php?id=59
Publication Type:
6. Forschungsdaten; Instrumente; Diagnostische Instrumente (inkl. Testverfahren)
Language:
Deutsch
Abstract:
Der CavE-ICT-Skills-Test soll Fertigkeiten im Umgang mit Informations- und Kommunikationstechnologien erfassen, wie sie im alltäglichen Leben im Umgang mit ICT benötigt werden. Hierbei bearbeiten die Testteilnehmer Aufgaben in einer Simulationsumgebung, in der auch die Antwortabgabe verhaltensbasiert stattfindet (z.B. durch Senden einer E-Mail). Die Items wurden mit dem CBA ItemBuilder erstellt. Jedes der 64 Items - erfordert eine von fünf kognitiven Operationen: den Zugriff (1) auf, das Managen (2), Integrieren (3), Bewerten (4) oder Erzeugen (5) von Informationen, - findet mit oder ohne soziale Interaktion statt: individuell (1) vs. kollektiv (2), - findet im persönlichen (1), bildungsbezogenen (2), oder beruflichen (3) Kontext statt. Darüber hinaus werden zur Bearbeitung der Aufgaben verschiedene Applikationen benötigt wie z.B. Browser, E-Mail-Postfach, Tabellenkalkulation, etc…
DIPF-Departments:
Lehr und Lernqualität in Bildungseinrichtungen
The role of domain-related epistemic beliefs for mastering cognitive requirements in multiple […]
Mahlow, Nina; Hahnel, Carolin; Kroehne, Ulf; Artelt, Cordula; Goldhammer, Frank; Schoor, Cornelia
Journal Article
| In: Learning and Individual Differences | 2022
42468 Endnote
Author(s):
Mahlow, Nina; Hahnel, Carolin; Kroehne, Ulf; Artelt, Cordula; Goldhammer, Frank; Schoor, Cornelia
Title:
The role of domain-related epistemic beliefs for mastering cognitive requirements in multiple document comprehension
In:
Learning and Individual Differences, 94 (2022) , S. 102116
DOI:
10.1016/j.lindif.2022.102116
URL:
https://www.sciencedirect.com/science/article/abs/pii/S1041608022000036?via%3Dihub
Publication Type:
3a. Beiträge in begutachteten Zeitschriften; Aufsatz (keine besondere Kategorie)
Language:
Englisch
Abstract:
Multiple document comprehension (MDC) refers to the ability to integrate information from multiple sources into a coherent representation, which requires specific cognitive processes. Assuming that epistemic beliefs are domain-related, this study investigates exploratively how epistemic beliefs in the domains of science and history affect the mastery of cognitive requirements in domain-general MDC (e.g. the comparison of source information). 156 university students reported their epistemic beliefs in physics or history and completed a computer-based test measuring their MDC. The results showed that MDC was significantly predicted by the epistemic beliefs dimension of personal justification in physics. A conservative approach revealed no interaction effects between epistemic beliefs and the mastery of specific cognitive requirements but results of a liberal approach hinted at associations with epistemic beliefs in physics rather than history. The results are discussed with respect to the nature of epistemic beliefs and theoretical assumptions regarding their relations to MDC requirements. (DIPF/Orig.)
DIPF-Departments:
Lehr und Lernqualität in Bildungseinrichtungen
Disengaged response behavior when the response button is blocked. Evaluation of a micro-intervention
Persic-Beck, Lothar; Goldhammer, Frank; Kroehne, Ulf
Journal Article
| In: Frontiers in Psychology. Section Quantitative Psychology and Measurement | 2022
43065 Endnote
Author(s):
Persic-Beck, Lothar; Goldhammer, Frank; Kroehne, Ulf
Title:
Disengaged response behavior when the response button is blocked. Evaluation of a micro-intervention
In:
Frontiers in Psychology. Section Quantitative Psychology and Measurement, 13 (2022) , S. 954532
DOI:
10.3389/fpsyg.2022.954532
URL:
https://www.frontiersin.org/articles/10.3389/fpsyg.2022.954532/full
Publication Type:
3a. Beiträge in begutachteten Zeitschriften; Aufsatz (keine besondere Kategorie)
Language:
Englisch
Keywords:
Antwort; Datenanalyse; Dauer; Effektivität; Einflussfaktor; Erwachsener; Evaluation; Frage; Intervention; Kompetenz; Leistungstest; Logdatei; Messung; Motivation; Technologiebasiertes Testen; Testkonstruktion; Validität; Verhalten; Verhaltensänderung
Abstract (english):
In large-scale assessments, disengaged participants might rapidly guess on items or skip items, which can affect the score interpretation's validity. This study analyzes data from a linear computer-based assessment to evaluate a micro-intervention that blocked the possibility to respond for 2 s. The blocked response was implemented to prevent participants from accidental navigation and as a naive attempt to prevent rapid guesses and rapid omissions. The response process was analyzed by interpreting log event sequences within a finite-state machine approach. Responses were assigned to different response classes based on the event sequence. Additionally, post hoc methods for detecting rapid responses based on response time thresholds were applied to validate the classification. Rapid guesses and rapid omissions could be distinguished from accidental clicks by the log events following the micro-intervention. Results showed that the blocked response interfered with rapid responses but hardly led to behavioral changes. However, the blocked response could improve the post hoc detection of rapid responding by identifying responses that narrowly exceed time-bound thresholds. In an assessment context, it is desirable to prevent participants from accidentally skipping items, which in itself may lead to an increasing popularity of initially blocking responses. If, however, data from those assessments is analyzed for rapid responses, additional log data information should be considered.
DIPF-Departments:
Lehr und Lernqualität in Bildungseinrichtungen
Das Textverstehen von Studierenden beim Lesen multipler Dokumente und dessen Förderung
Schoor, Cornelia; Zink, Theresa; Mahlow, Nina; Hahnel, Carolin; Deribo, Tobias; Kröhne, Ulf; […]
Book Chapter
| Aus: Alker-Windbichler, Stefan; Kuhn, Axel; Lodes, Benedikt; Stocker, Günther (Hrsg.): Akademisches Lesen: Medien, Praktiken, Bibliotheken | Göttingen: V&R unipress | 2022
43079 Endnote
Author(s):
Schoor, Cornelia; Zink, Theresa; Mahlow, Nina; Hahnel, Carolin; Deribo, Tobias; Kröhne, Ulf; Goldhammer, Frank; Artelt, Cordula
Title:
Das Textverstehen von Studierenden beim Lesen multipler Dokumente und dessen Förderung
In:
Alker-Windbichler, Stefan; Kuhn, Axel; Lodes, Benedikt; Stocker, Günther (Hrsg.): Akademisches Lesen: Medien, Praktiken, Bibliotheken, Göttingen: V&R unipress, 2022 (Bibliothek im Kontext, 5), S. 57-85
DOI:
10.14220/9783737013970.57
URL:
https://www.vr-elibrary.de/doi/10.14220/9783737013970.57
Publication Type:
4. Beiträge in Sammelbänden; Sammelband (keine besondere Kategorie)
Language:
Deutsch
Abstract:
Akademisches Lesen erfordert von Studierenden häufig, mehrere Dokumente zu einem Thema zu verstehen und miteinander in Beziehung zu setzen. Viele Studierende beherrschen ein solches Lesen jedoch zumindest zu Beginn ihres Studiums nicht in ausreichendem Maße. Klassische Lesekompetenz kann sie bei der Bewältigung anstehender Anforderungen unterstützen, reicht aber oft allein nicht aus. Im vorliegenden Beitrag werden die Fähigkeit des Verstehens multipler Dokumente sowie Befunde zum Zusammenhang mit anderen Variablen dargestellt und Fördermöglichkeiten skizziert. Dabei wird insbesondere auf einen Ansatz eingegangen, in dem Studierenden eine Möglichkeit zur eigenständigen Leistungsüberprüfung (Self-Assessment) mit anschließendem Feedback und darauf abgestimmtem Fördermaterial angeboten wird. (DIPF/Orig.)
Abstract (english):
Academic reading often requires students to understand and relate multiple documents on a topic. However, many students have not mastered such academic reading to a sufficient degree, at least at the beginning of their studies. Classical reading skills can support them in coping with the demands at hand but are often not sufficient on their own. In this article, the ability to comprehend multiple documents as well as findings on its relationship to other variables are presented. Support options are outlined. In particular, an approach is discussed in which students are offered a self-assessment program with subsequent feedback and support material tailored to their needs. (DIPF/Orig.)
DIPF-Departments:
Lehr und Lernqualität in Bildungseinrichtungen
Test zur Evaluation von Online-Informationen (EVON)
Hahnel, Carolin; Eichmann, Beate; Goldhammer, Frank
Research Data, Diagnostic Instruments
| DIPF | Leibniz-Institut für Bildungsforschung und Bildungsinformation / Forschungsdatenzentrum Bildung | 2022
42547 Endnote
Author(s):
Hahnel, Carolin; Eichmann, Beate; Goldhammer, Frank
Title:
Test zur Evaluation von Online-Informationen (EVON)
Published:
Frankfurt am Main: DIPF | Leibniz-Institut für Bildungsforschung und Bildungsinformation / Forschungsdatenzentrum Bildung, 2022
DOI:
10.7477/680:337:58
URL:
https://doi.org/10.7477/680:337:58
Publication Type:
6. Forschungsdaten; Instrumente; Diagnostische Instrumente (inkl. Testverfahren)
Language:
Sonstiges
DIPF-Departments:
Lehr und Lernqualität in Bildungseinrichtungen
On the speed sensitivity parameter in the lognormal model for response times. Implications for test […]
Becker, Benjamin; Debeer, Dries; Weirich, Sebastian; Goldhammer, Frank
Journal Article
| In: Applied Psychological Measurement | 2021
42009 Endnote
Author(s):
Becker, Benjamin; Debeer, Dries; Weirich, Sebastian; Goldhammer, Frank
Title:
On the speed sensitivity parameter in the lognormal model for response times. Implications for test assembly
In:
Applied Psychological Measurement, 45 (2021) 6, S. 407-422
DOI:
10.1177/01466216211008530
URL:
https://journals.sagepub.com/doi/abs/10.1177/01466216211008530
Publication Type:
3a. Beiträge in begutachteten Zeitschriften; Aufsatz (keine besondere Kategorie)
Language:
Englisch
Keywords:
Software; Technologiebasiertes Testen; Messverfahren; Item-Response-Theory; Leistungstest; Frage; Antwort; Dauer; Einflussfaktor; Testkonstruktion; Modell; Vergleich; Testtheorie; Simulation
Abstract:
In high-stakes testing, often multiple test forms are used and a common time limit is enforced. Test fairness requires that ability estimates must not depend on the administration of a specific test form. Such a requirement may be violated if speededness differs between test forms. The impact of not taking speed sensitivity into account on the comparability of test forms regarding speededness and ability estimation was investigated. The lognormal measurement model for response times by van der Linden was compared with its extension by Klein Entink, van der Linden, and Fox, which includes a speed sensitivity parameter. An empirical data example was used to show that the extended model can fit the data better than the model without speed sensitivity parameters. A simulation was conducted, which showed that test forms with different average speed sensitivity yielded substantial different ability estimates for slow test takers, especially for test takers with high ability. Therefore, the use of the extended lognormal model for response times is recommended for the calibration of item pools in high-stakes testing situations. Limitations to the proposed approach and further research questions are discussed. (DIPF/Orig.)
Abstract (english):
In high-stakes testing, often multiple test forms are used and a common time limit is enforced. Test fairness requires that ability estimates must not depend on the administration of a specific test form. Such a requirement may be violated if speededness differs between test forms. The impact of not taking speed sensitivity into account on the comparability of test forms regarding speededness and ability estimation was investigated. The lognormal measurement model for response times by van der Linden was compared with its extension by Klein Entink, van der Linden, and Fox, which includes a speed sensitivity parameter. An empirical data example was used to show that the extended model can fit the data better than the model without speed sensitivity parameters. A simulation was conducted, which showed that test forms with different average speed sensitivity yielded substantial different ability estimates for slow test takers, especially for test takers with high ability. Therefore, the use of the extended lognormal model for response times is recommended for the calibration of item pools in high-stakes testing situations. Limitations to the proposed approach and further research questions are discussed. (DIPF/Orig.)
DIPF-Departments:
Lehr und Lernqualität in Bildungseinrichtungen
Unselect matches
Select all matches
Export
<
1
2
3
4
...
14
>
Show all
(134)