Menü Überspringen
Kontakt
Presse
Deutsch
English
Not track
Datenverarbeitung
Suche
Anmelden
DIPF aktuell
Forschung
Infrastrukturen
Institut
Zurück
Kontakt
Presse
Deutsch
English
Not track
Datenverarbeitung
Suche
Startseite
>
Forschung
>
Publikationen
>
Publikationendatenbank
Ergebnis der Suche in der DIPF Publikationendatenbank
Ihre Abfrage:
(Personen: "Goldhammer," und "Frank")
zur erweiterten Suche
Suchbegriff
Nur Open Access
Suchen
Markierungen aufheben
Alle Treffer markieren
Export
134
Inhalte gefunden
Alle Details anzeigen
Interpretation von Testresultaten und Testeichung
Goldhammer, Frank; Hartig, Johannes
Sammelbandbeitrag
| Aus: Moosbrugger, Helfried; Kelava, Augustin (Hrsg.): Testtheorie und Fragebogenkonstruktion | Berlin: Springer | 2012
32144 Endnote
Autor*innen:
Goldhammer, Frank; Hartig, Johannes
Titel:
Interpretation von Testresultaten und Testeichung
Aus:
Moosbrugger, Helfried; Kelava, Augustin (Hrsg.): Testtheorie und Fragebogenkonstruktion, Berlin: Springer, 2012 , S. 165-192
Dokumenttyp:
4. Beiträge in Sammelwerken; Sammelband (keine besondere Kategorie)
Sprache:
Deutsch
Schlagwörter:
Datenanalyse; Interpretation; Normung; Test; Testauswertung; Testkonstruktion; Testtheorie
Abstract:
Wendet man einen psychologischen Test an, so erhält man in der Regel ein numerisches Testrsultat, das Auskunft über die Merkmalsausprägung der Testperson geben soll. Fragt man sich, was dieser Testwert hinsichtlich der Merkmalsausprägung aussagt, dann lässt sich diese Frage in zweierlei Weise sinnvoll beantworten: einerseits dadurch, dass der Testwert durch den Vergleich mit den Testwerten einer Bezugsgruppe interpretiert wird (normorientierte Interpretation) und andererseits, dass eine genaue theoretische Vorstellung darüber besteht, wie der erzielte Testwert mit einem inhaltlich-pschologisch definierten Kriterium in Beziehung steht (kriteriumsorientierte Interpretation (DIPF/Orig.)
DIPF-Abteilung:
Bildungsqualität und Evaluation
Investigating test-taking behavior in simulation-based assessments. Visual data exploration
Tóth, Krisztina; Rölke, Heiko; Goldhammer, Frank
Sammelbandbeitrag
| Aus: International Association of Technology, Education and Development (IATED) (Hrsg.): Proceedings of the 4th annual International Conference on Education and New Learning Technologies | Barcelona: International Association of Technology, Education and Development | 2012
32789 Endnote
Autor*innen:
Tóth, Krisztina; Rölke, Heiko; Goldhammer, Frank
Titel:
Investigating test-taking behavior in simulation-based assessments. Visual data exploration
Aus:
International Association of Technology, Education and Development (IATED) (Hrsg.): Proceedings of the 4th annual International Conference on Education and New Learning Technologies, Barcelona: International Association of Technology, Education and Development, 2012 , S. 2065-2072
Dokumenttyp:
4. Beiträge in Sammelwerken; Tagungsband/Konferenzbeitrag/Proceedings
Sprache:
Englisch
Schlagwörter:
Datenanalyse; Evaluation; Interaktion; Leistungsmessung; Logdatei; Mensch-Maschine-Kommunikation; Schüler; Schülerleistung; Simulation; Technologiebasiertes Testen; Verhalten
Abstract (english):
Modern assessments are increasingly based on complex lest materials, which are often implemented äs simulations. These Interactive assessment Instruments enable students to use the system in various ways. For this reason, students' interactions with a lest delivery platform are stored in automatically generated log files but during the assessment process a large amount of log data is accumulated with various characteristics (clicking, typed answers, and timing-related data). For an efficient analysis of these human-computer interactions' data, it is necessary to gain information about the actual test-taking processes. One very promising way of examining test-taking behaviour is visual data exploration, which is focused in our study. The main objective of this paper is to illustrate how Information visualization can help the educational measurement with exploring students' activities in computer-based assessment. It gives insights into visual representations that are useful in depicting test-taking behaviour, identifying trends in students' activities in simulation-based assessment, and examining individual differences on the grounds of test-taking processes. We therefore applied tools and visualization layouts, which Support educational practitioners in making use of the data assembled in computerized lest delivery.
DIPF-Abteilung:
Informationszentrum Bildung
Speed of reasoning and its relation to reasoning ability
Goldhammer, Frank; Klein Entink, Rinke H.
Zeitschriftenbeitrag
| In: Intelligence | 2011
31725 Endnote
Autor*innen:
Goldhammer, Frank; Klein Entink, Rinke H.
Titel:
Speed of reasoning and its relation to reasoning ability
In:
Intelligence, 39 (2011) 2-3, S. 108-119
Dokumenttyp:
3a. Beiträge in begutachteten Zeitschriften; Aufsatz (keine besondere Kategorie)
Sprache:
Englisch
Schlagwörter:
Aufmerksamkeit; Denken; Denkfähigkeit; Empirische Untersuchung; Geschwindigkeit; Kognitive Kompetenz; Test
Abstract (english):
The study investigates empirical properties of reasoning speed which is conceived as the fluency of solving reasoning problems. Responses and response times in reasoning tasks are modeled jointly to clarify the covariance structure of reasoning speed and reasoning ability. To determine underlying abilities, the predictive validities of two cognitive covariates, namely perceptual and executive attention, are investigated. A sample of N=230 test takers completed a reasoning test, Advanced Progressive Matrices (APM), and attention tests indicating perceptual and executive attention. For modeling responses the two-parameter normal ogive model, and for modeling response times the two-parameter lognormal model was applied. Results suggest that reasoning speed is a unidimensional construct representing significant individual differences, and that reasoning speed and ability are negatively correlated but clearly distinguishable constructs. Perceptual and executive attention showed differential effects on reasoning speed and reasoning ability, i.e., reasoning speed is explained by executive attention only, while reasoning ability is explained by both covariates. Implications for the assessment of reasoning are discussed. (DIPF/Orig.)
DIPF-Abteilung:
Bildungsqualität und Evaluation
Localisation in international large-scale assessments of competencies. Challenges and solutions
Upsing, Britta; Gissler, Gabriele; Goldhammer, Frank; Rölke, Heiko; Ferrari, Andrea
Zeitschriftenbeitrag
| In: Localisation Focus | 2011
32296 Endnote
Autor*innen:
Upsing, Britta; Gissler, Gabriele; Goldhammer, Frank; Rölke, Heiko; Ferrari, Andrea
Titel:
Localisation in international large-scale assessments of competencies. Challenges and solutions
In:
Localisation Focus, 10 (2011) 1, S. 44-57
URL:
http://www.localisation.ie/resources/locfocus/LocalisationFocusVol10Issue1_online.pdf
Dokumenttyp:
3a. Beiträge in begutachteten Zeitschriften; Aufsatz (keine besondere Kategorie)
Sprache:
Englisch
Schlagwörter:
Benutzerfreundlichkeit; Item; Leistungstest; Technologiebasiertes Testen; Testkonstruktion; Testverfahren
Abstract (english):
International comparative studies like the Programme for International Student Assessment (PISA) pose special challenges to the localisation of the test content. To allow for comparison between countries, the assessments have to be comparable with respect to measurement properties. Therefore, internationalisation and localisation are crucial steps to guarantee test equivalence across countries. The localisation of test items is different from the localisation of web-based contents or software as the test content has to be authentic within a country while the test's measurement properties have to be comparable across countries. Using the PIAAC study (Programme for the Assessment of Adult Competencies) as an example, this paper describes all stages of the localisation process for an international large-scale assessment. The process ranges from the development of source items to translation, adaptation of layout issues and meta-data adaptations. The paper concludes with a discussion of lessons learned and open questions.
DIPF-Abteilung:
Bildungsqualität und Evaluation
Differential effects of intelligence, perceptual speed and age on growth in attentional speed and […]
Goldhammer, Frank; Rauch, Wolfgang; Schweizer, Karl; Moosbrugger, Helfried
Zeitschriftenbeitrag
| In: Intelligence | 2010
30068 Endnote
Autor*innen:
Goldhammer, Frank; Rauch, Wolfgang; Schweizer, Karl; Moosbrugger, Helfried
Titel:
Differential effects of intelligence, perceptual speed and age on growth in attentional speed and accuracy
In:
Intelligence, 38 (2010) 1, S. 83-92
Dokumenttyp:
3a. Beiträge in begutachteten Zeitschriften; Aufsatz (keine besondere Kategorie)
Sprache:
Deutsch
Schlagwörter:
Alter; Aufmerksamkeit; Genauigkeit; Geschwindigkeit; Intelligenz; kognitive Prozesse; Leistung; Lernprozess; Test; Unterschied; Wahrnehmung
Abstract (english):
The study investigates the effects of intelligence, perceptual speed and age on intraindividualgrowth in attentional speed and attentional accuracy over the course of a 6-minute testing session. A sample of 193 subjects completed the Advanced Progressive Matrices and the Vienna Matrices Test representing intelligence, the tests Alertness and GoNogo representing simple perceptualprocessing, and the Frankfurt Adaptive Concentration- Performance Test, a measure of executiveattention. Growth curve modeling demonstrated an increase of attentional speed and accuracyperformance following linear and logarithmic trajectories, respectively. For attentional speed,intelligence significantly predicted baseline performance, but not performance growth, while forperceptual speed the reverse pattern of results held. For attentional accuracy, intelligence did nothave an effect, neither on baseline performance nor on performance growth, whereas perceptualspeed influenced both baseline performance and performance growth. Thus, intelligence was notassociated with the ability to learn to perform the attention task quickly and accurately. Agedifferences were mainly related to baseline performance. Results indicate that the concurrent performance aspects, speed and accuracy, are distinct in the shape of growth and in the predictionof growth curve parameters by intelligence, perceptual speed, and age.(DIPF/Orig.)
DIPF-Abteilung:
Bildungsqualität und Evaluation
Modeling the multidimensional structure of students' foreign language competence within and between […]
Höhler, Jana; Hartig, Johannes; Goldhammer, Frank
Zeitschriftenbeitrag
| In: Psychological Test and Assessment Modeling | 2010
30405 Endnote
Autor*innen:
Höhler, Jana; Hartig, Johannes; Goldhammer, Frank
Titel:
Modeling the multidimensional structure of students' foreign language competence within and between classrooms
In:
Psychological Test and Assessment Modeling, 52 (2010) 3, S. 323-340
URL:
http://www.psychologie-aktuell.com/fileadmin/download/ptam/3-2010_20100928/07_Hoehler.pdf
Dokumenttyp:
3a. Beiträge in begutachteten Zeitschriften; Aufsatz (keine besondere Kategorie)
Sprache:
Englisch
Schlagwörter:
DESI-Studie; Deutschland; Englisch als Fremdsprache; Hörverständnis; Item-Response-Theory; Kompetenz; Leistungsmessung; Leseverstehen; Mehrebenenanalyse; Modellierung; Schüler; Schulklasse; Sekundarstufe I; Sprachkompetenz; Testkonstruktion
Abstract (english):
Combining multilevel (ML) analysis and multidimensional item response theory (MIRT) provides a valuable method for analyzing data of educational assessments, where clustered data (e.g., students in classes) and multidimensional constructs frequently occur. It allows to model multiple ability dimensions while simultaneously taking the hierarchical structure into account. The dimensional structure of students foreign language competence within and between classrooms was investigated by applying a ML-MIRT measurement model to data of N = 9,410 students in 427 classes who had answered three different subtests of English as a foreign language. Results were compared to a MIRT model not taking into account the multilevel structure. A markedly more differentiated correlation structure is found within classrooms compared with the between-classroom level and compared with the model without multilevel structure. Results show that by modeling the latent multilevel structure, estimation and interpretation of ability profiles can bepossible even with highly correlated ability dimensions. (DIPF/Orig.)
DIPF-Abteilung:
Bildungsqualität und Evaluation
Modelle der Item-Response-Theorie
Hartig, Johannes; Goldhammer, Frank
Sammelbandbeitrag
| Aus: Maschke, Sabine; Stecher, Ludwig (Hrsg.): Methoden der empirischen erziehungswissenschaftlichen Forschung. Enzyklopädie Erziehungswissenschaft Online (EEO) | Weinheim: Juventa | 2010
30150 Endnote
Autor*innen:
Hartig, Johannes; Goldhammer, Frank
Titel:
Modelle der Item-Response-Theorie
Aus:
Maschke, Sabine; Stecher, Ludwig (Hrsg.): Methoden der empirischen erziehungswissenschaftlichen Forschung. Enzyklopädie Erziehungswissenschaft Online (EEO), Weinheim: Juventa, 2010 , S. 1-36
DOI:
10.3262/EEO07100111
URL:
http://www.erzwissonline.de
Dokumenttyp:
4. Beiträge in Sammelwerken; Lexika/Enzyklopädie o.ä.
Sprache:
Deutsch
Schlagwörter:
Item-Response-Theory; Methode; Modell; Psychometrie; Skalierung
Abstract:
Die Item-Response-Theorie (IRT) stellt Methoden zur Auswertung von Tests zur Verfügung, die gegenüber älteren Methoden wie der klassischen Testtheorie verschiedene konzeptuelle und forschungspraktische Vorteile haben. In diesem Kapitel sind zentrale Grundideen von IRT-Modellen sowie mögliche Anwendungsbereiche dargestellt. Darauffolgend wird eine Auswahl unterschiedlicher IRT-Modelle sowohl für zweistufige als auch für mehrstufige Antwortformate beschrieben: das Raschmodell, das zwei- und dreiparametrige logistische Modell, das Partial Credit Model und das Graded Response Model. Weiterhin werden Methoden der Schätzung der Modellparameter beschrieben und die Konzepte der Item- und Testinformation eingeführt. Abschließend werden Kriterien zur Wahl eines spezifischen Modells und die IRT-basierte kriterienorientierte Skaleninterpretation behandelt.
DIPF-Abteilung:
Bildungsqualität und Evaluation
Modelle der Item-Response-Theorie
Hartig, Johannes; Goldhammer, Frank
Sammelbandbeitrag
| Aus: Maschke, Sabine; Stecher, Ludwig (Hrsg.) Methoden der empirischen erziehungswissenschaftlichen Forschung | Weinheim: Juventa | 2010
8402 Endnote
Autor*innen:
Hartig, Johannes; Goldhammer, Frank
Titel:
Modelle der Item-Response-Theorie
Aus:
Maschke, Sabine; Stecher, Ludwig (Hrsg.) Methoden der empirischen erziehungswissenschaftlichen Forschung, Weinheim: Juventa, 2010 , S. 36
DOI:
10.3262/EEO07100111
URL:
http://dx.doi.org/10.3262/EEO07100111
Dokumenttyp:
4. Beiträge in Sammelwerken; Sammelband (keine besondere Kategorie)
Sprache:
Deutsch
Schlagwörter:
Test; Testtheorie; Item-Response-Theory; Psychometrie; Modell; Skalierung; Empirische Forschung; Quantitative Forschung; Deutschland
Abstract:
Die Item-Response-Theorie (IRT) stellt Methoden zur Auswertung von Tests zur Verfügung, die gegenüber älteren Methoden wie der klassischen Testtheorie verschiedene konzeptuelle und forschungspraktische Vorteile haben. In diesem Kapitel sind zentrale Grundideen von IRT-Modellen sowie mögliche Anwendungsbereiche dargestellt. Darauffolgend wird eine Auswahl unterschiedlicher IRT-Modelle sowohl für zweistufige als auch für mehrstufige Antwortformate beschrieben: das Raschmodell, das zwei- und dreiparametrige logistische Modell, das Partial Credit Model und das Graded Response Model. Weiterhin werden Methoden der Schätzung der Modellparameter beschrieben und die Konzepte der Item- und T estinformation eingeführt. Abschließend werden Kriterien zur Wahl eines spezifischen Modells und die IRT-basierte kriterienorientierte Skaleninterpretation behandelt.(DIPF/Orig.)
DIPF-Abteilung:
Bildungsqualität und Evaluation
FACT-2 - The Frankfurt Adaptive Concentration Test. Convergent validity with self-reported […]
Goldhammer, Frank; Moosbrugger, Helfried; Krawietz, Sabine
Zeitschriftenbeitrag
| In: European Journal of Psychological Assessment | 2009
7949 Endnote
Autor*innen:
Goldhammer, Frank; Moosbrugger, Helfried; Krawietz, Sabine
Titel:
FACT-2 - The Frankfurt Adaptive Concentration Test. Convergent validity with self-reported cognitive failures
In:
European Journal of Psychological Assessment, 25 (2009) 2, S. 73-82
Dokumenttyp:
3a. Beiträge in begutachteten Zeitschriften; Aufsatz (keine besondere Kategorie)
Sprache:
Englisch
Schlagwörter:
Psychometrie; Aufmerksamkeit; Konzentration; Konzentrationsfähigkeit; Messung; Modell; Anpassung; Technologiebasiertes Testen; Testauswertung; Validität; Reliabilität; Testmethodik; Kognitive Prozesse; Empirische Untersuchung; Vereinigte Staaten
Abstract (english):
The Frankfurt Adaptive Concentration Test (FACT-2) requires discrimination between geometric target and nontarget items as quickly and accurately as possible. Three forms of the FACT-2 were constructed, namely FACT-I, FACT-S, and FACT-SR. The aim of the present study was to investigate the convergent validity of the FACT-SR with self-reported cognitive failures. The FACT-SR and the Cognitive Failures Questionnaire ( CFQ) were completed by 191 participants. The measurement models confirmed the concentration performance, concentration accuracy, and concentration homogeneity dimensions of FACT-SR. The four dimensions of the CFQ (i.e., memory, distractibility, blunders, and names) were not confirmed. The results showed moderate convergent validity of concentration performance, concentration accuracy, and concentration homogeneity with two CFQ dimensions, namely memory and distractibility/ blunders. (DIPF/Autor)
DIPF-Abteilung:
Bildungsqualität und Evaluation
Technology Based Assessment - ein Gemeinschaftsprojekt der Arbeitseinheiten "Informationszentrum […]
Martens, Thomas; Goldhammer, Frank; Rölke, Heiko; Scharaf, Alexander; Upsing, Britta
Zeitschriftenbeitrag
| In: DIPF informiert | 2008
7748 Endnote
Autor*innen:
Martens, Thomas; Goldhammer, Frank; Rölke, Heiko; Scharaf, Alexander; Upsing, Britta
Titel:
Technology Based Assessment - ein Gemeinschaftsprojekt der Arbeitseinheiten "Informationszentrum Bildung" und "Bildungsqualiät und Evaluation"
In:
DIPF informiert, (2008) 12, S. 2-6
URL:
http://www.dipf.de/pdf-dokumente/publikationen/dipf-informiert/dipf-informiert-nr.-12
Dokumenttyp:
3b. Beiträge in weiteren Zeitschriften; Journale - Verbandsmitteilungen - Bulletins – Interviews
Sprache:
Deutsch
Schlagwörter:
Computerunterstütztes Verfahren; Test; Kompetenz; Diagnostik; Messung; Datenerhebungstechniken; Messverfahren; Deutschland; Frankfurt a.M.
Abstract:
Computerbasierte Testverfahren bieten für die Kompetenzdiagnostik gute Voraussetzungen, da sie valide Messungen und effiziente Datenerhebungen ermöglichen. Deshalb wurde die vom Bundesministerium Bildung und Forschung (BMBF) geförderte Forschungs- und Servicestruktur "Technology Based Assessment - TBA" am DIPF eingerichtet. Die Weiterentwicklung der Erhebungsplattform "TAO", einem Gemeinschaftsprojekt mit der Universität Luxemburg und dem Forschungsinstitut "Henri Tudor" in Luxemburg, stellt eine wichtige Voraussetzung für erfolgreiche nationale und internationale Kooperationen dar. Insbesondere der vom DIPF entwickelte "Hypertextbuilder" ermöglicht die schnelle und einfache Erstellung von Testaufgaben und ist damit die Grundlage für die produktive Verknüpfung von Forschung und Anwendung des technologiebasierten Assessments.(DIPF/Autor)
DIPF-Abteilung:
Bildungsqualität und Evaluation
Markierungen aufheben
Alle Treffer markieren
Export
<
1
...
12
13
(aktuell)
14
>
Alle anzeigen
(134)