Menü Überspringen
Kontakt
Presse
Deutsch
English
Not track
Datenverarbeitung
Suche
Anmelden
DIPF aktuell
Forschung
Infrastrukturen
Institut
Zurück
Kontakt
Presse
Deutsch
English
Not track
Datenverarbeitung
Suche
Startseite
>
Forschung
>
Publikationen
>
Publikationendatenbank
Ergebnis der Suche in der DIPF Publikationendatenbank
Ihre Abfrage:
(Schlagwörter: "Auswertung")
zur erweiterten Suche
Suchbegriff
Nur Open Access
Suchen
Markierungen aufheben
Alle Treffer markieren
Export
60
Inhalte gefunden
Alle Details anzeigen
Kompetenzdiagnostik
Frey, Andreas; Hartig, Johannes
Sammelbandbeitrag
| Aus: Harring, Marius; Rohlfs, Carsten; Gläser-Zikuda, Michaela (Hrsg.): Handbuch Schulpädagogik | Münster: Waxmann | 2022
42714 Endnote
Autor*innen:
Frey, Andreas; Hartig, Johannes
Titel:
Kompetenzdiagnostik
Aus:
Harring, Marius; Rohlfs, Carsten; Gläser-Zikuda, Michaela (Hrsg.): Handbuch Schulpädagogik, Münster: Waxmann, 2022 , S. 928-937
Dokumenttyp:
4. Beiträge in Sammelbänden; Lexika/Enzyklopädie o.ä.
Sprache:
Deutsch
Schlagwörter:
Empirische Forschung; Kompetenz; Diagnostik; Schüler; Schullaufbahn; Schülerleistung; Leistungsmessung; Testkonstruktion; Testtheorie; Testauswertung; Psychometrie; Qualität; Testdurchführung; Planung; Datenanalyse; Interpretation
Abstract:
Mit dem vorliegenden Beitrag wird das Feld der Kompetenzdiagnostik zusammenfassend dargestellt. Konkret wird dabei beschrieben, (a) was unter Kompetenzdiagnostik zu verstehen ist und welche Ziele mit ihr verfolgt werden, (b) wie Kompetenztests entwickelt und (c) wie sie angewendet werden. Das Kapitel schließt mit einem zusammenfassenden Fazit und einem Ausblick auf künftige Entwicklungsmöglichkeiten im Bereich Kompetenzdiagnostik. (DIPF/Orig.)
DIPF-Abteilung:
Lehr und Lernqualität in Bildungseinrichtungen
Bildung im digitalen Wandel. Organisationsentwicklung in Bildungseinrichtungen
Wilmers, Annika; Achenbach, Michaela; Keller, Carolin (Hrsg.)
Sammelband
| Münster: Waxmann | 2021
42031 Endnote
Herausgeber*innen:
Wilmers, Annika; Achenbach, Michaela; Keller, Carolin
Titel:
Bildung im digitalen Wandel. Organisationsentwicklung in Bildungseinrichtungen
Erscheinungsvermerk:
Münster: Waxmann, 2021 (Digitalisierung in der Bildung. Forschungsstand und -perspektiven, 20/3)
DOI:
10.25656/01:23602
URN:
urn:nbn:de:0111-pedocs-236024
Dokumenttyp:
2. Herausgeberschaft; Sammelband (keine besondere Kategorie)
Sprache:
Deutsch
Schlagwörter:
Ausbildung; Berufsbildung; Bildung; Bildungseinrichtung; Bildungsforschung; Bildungsorganisation; COVID-19; Digitale Medien; Digitalisierung; Erwachsenenbildung; Forschungsstand; Fortbildung; Fortbildungsstätte; Hochschule; Hochschulentwicklung; Infrastruktur; Kinder- und Jugendhilfe; Kompetenz; Kompetenzentwicklung; Lehrerausbildung; Lehrerfortbildung; Literaturauswertung; Literaturrecherche; Literaturübersicht; Mediendidaktik; Medieneinsatz; Methode; Organisationsentwicklung; Qualität; Schule; Schulentwicklung; Schulleitung; Soziale Einrichtung; Studie; Systematic Review; Technik; Technische Medien; Technologische Entwicklung; Weiterbildung; Wissenschaftliche Literatur
Abstract:
Für die Umsetzung von Konzepten zur digitalen Bildung spielt der Prozess der Organisationsentwicklung eine entscheidende Rolle. Organisationsentwicklung setzt in Bildungseinrichtungen an mehreren Ebenen an und zielt auf Veränderungen in den Bereichen technische Infrastruktur, strategische Planung, Management, Kompetenzförderung und Ausgestaltung neuer Lernumgebungen. Entsprechend stellt der Gesamtprozess der Organisationsentwicklung große Anforderungen an die Leitungen von Bildungseinrichtungen, die die Digitalisierung idealerweise als ihre Kernaufgabe betrachten, Strategieprozesse anstoßen, als Gemeinschaftsprojekt in der Einrichtung verankern und die Umsetzung einzelner Maßnahmen begleiten. Die verschiedenen Beiträge betrachten diese Veränderungsprozesse in den Sektoren Bildung in Kindheit, Jugend und Familie, allgemeinbildende Schule, Lehrkräfteausbildung, in der Berufsbildung sowie der Erwachsenen- und Weiterbildung und stellen - bei unterschiedlicher Schwerpunktsetzung - aktuelle Entwicklungen der Forschung in Form von Critical Reviews zusammen. Dieser Sammelband mit fünf Reviews zur Organisationsentwicklung und Digitalisierung sowie einer Darstellung und Diskussion der methodischen Vorgehensweise ist der zweite Teil einer mehrteiligen Reihe mit Reviews zur Digitalisierung in der Bildung, deren Anliegen es ist, aktuelles Forschungswissen zu synthetisieren und zu strukturieren. (DIPF/Orig.)
Abstract (english):
https://www.pedocs.de/frontdoor.php?source_opus=23602
DIPF-Abteilung:
Informationszentrum Bildung
Erfassung des Potenzials zur kognitiven Aktivierung über Unterrichtsmaterialien im […]
Herbert, Benjamin; Schweig, Jonathan
Zeitschriftenbeitrag
| In: Zeitschrift für Erziehungswissenschaft | 2021
41454 Endnote
Autor*innen:
Herbert, Benjamin; Schweig, Jonathan
Titel:
Erfassung des Potenzials zur kognitiven Aktivierung über Unterrichtsmaterialien im Mathematikunterricht
In:
Zeitschrift für Erziehungswissenschaft, 24 (2021) 4, S. 955-983
DOI:
10.1007/s11618-021-01020-9
URL:
https://link.springer.com/article/10.1007%2Fs11618-021-01020-9
Dokumenttyp:
3a. Beiträge in begutachteten Zeitschriften; Aufsatz (keine besondere Kategorie)
Sprache:
Deutsch
Schlagwörter:
Unterrichtsforschung; Unterricht; Qualität; Erhebungsinstrument; Mathematikunterricht; Unterrichtsmaterial; Auswertung; Analyse; Videoaufzeichnung; Messung; Vergleich; Schuljahr 08; Schuljahr 09; Faktorenanalyse; Korrelationsanalyse; Empirische Untersuchung; Deutschland
Abstract:
Eine zentrale Voraussetzung der Unterrichtsforschung besteht darin, Unterrichtsmerkmale angemessen zu erfassen. Die Einschätzung des (gefilmten) Unterrichts durch geschulte Rater*innen gilt dabei als Königsweg, ist jedoch mit einem hohen organisatorischen und zeitlichen Aufwand verbunden. Im Rahmen dieses Artikels wird ein neu entwickeltes Erhebungsinstrument für das Unterrichtsqualitätsmerkmal des Potenzials zur kognitiven Aktivierung (PKA) vorgestellt. Das Instrument wurde für Mathematikunterricht zum Thema Quadratische Gleichungen entwickelt, basiert auf der gemeinsamen Auswertung aller Unterrichtsmaterialien einer Stunde durch geschulte Rater*innen und erfasst die von der Lehrperson schriftlich in den Unterricht getragenen Potenziale für kognitive Aktivierung. Die Validität der intendierten Interpretation als Indikator für das schriftlich in den Unterricht eingebrachte PKA einer Unterrichtstunde wird über einen argumentationsbasierten Ansatz untersucht und kann über verschiedene Evidenzen gestützt werden: Beispielsweise zeigt eine D Studie, dass das Instrument bereits von einer einzigen Rater*in zuverlässig erfasst werden kann. Zudem korreliert es substanziell mit einer auf Videoratings basierenden Messung des PKA. (DIPF/Orig.)
Abstract (english):
A central challenge of instructional research is to measure teaching characteristics appropriately. The assessment of (filmed) instruction by trained raters is regarded as the best way to achieve this, but is associated with high organizational and time costs. In this paper, we present a newly developed instrument for assessing the teaching quality characteristic potential for cognitive activation (PCA). The instrument was developed for mathematics lessons on the topic of quadratic equations. It is based on the joint evaluation of all instructional artifacts of a lesson (lesson plans, student assignments, assessments, etc.) by trained raters and measures the potential for cognitive activation brought into the classroom by the teacher in writing. The validity of the intended interpretation as an indicator for the written PCA of a lesson is examined by an argument-based approach and can be supported by various pieces of evidence: For example, a decision study shows that the instrument can already be reliably assessed by a single rater. Furthermore, it correlates substantially with a measurement of the PCA based on video ratings. (DIPF/Orig.)
DIPF-Abteilung:
Lehr und Lernqualität in Bildungseinrichtungen
Reviews zur Organisationsentwicklung in Bildungseinrichtungen. Zur Methodik und Diskussion von Bias […]
Wilmers, Annika; Keller, Carolin; Anda, Carolin
Sammelbandbeitrag
| Aus: Wilmers, Annika; Achenbach, Michaela; Keller, Carolin (Hrsg.): Bildung im digitalen Wandel: Organisationsentwicklung in Bildungseinrichtungen | Münster: Waxmann | 2021
42032 Endnote
Autor*innen:
Wilmers, Annika; Keller, Carolin; Anda, Carolin
Titel:
Reviews zur Organisationsentwicklung in Bildungseinrichtungen. Zur Methodik und Diskussion von Bias in Reviewverfahren der Bildungsforschung
Aus:
Wilmers, Annika; Achenbach, Michaela; Keller, Carolin (Hrsg.): Bildung im digitalen Wandel: Organisationsentwicklung in Bildungseinrichtungen, Münster: Waxmann, 2021 (Digitalisierung in der Bildung, 2), S. 7-32
DOI:
10.25656/01:23603
URN:
urn:nbn:de:0111-pedocs-236037
URL:
https://www.pedocs.de/frontdoor.php?source_opus=23603
Dokumenttyp:
4. Beiträge in Sammelbänden; Sammelband (keine besondere Kategorie)
Sprache:
Deutsch
Schlagwörter:
Allgemein bildende Schule; Berufsbildung; Bildungseinrichtung; Bildungsorganisation; Bildungspolitik; COVID-19; Deutschland; Digitale Medien; Digitalisierung; Erwachsenenbildung; Forschungsstand; Infrastruktur; Lehrerbildung; Literaturauswertung; Literaturrecherche; Literaturübersicht; Organisationsentwicklung; Qualität; Suchstrategie; Systematic Review; Technik; Weiterbildung; Wissenschaftliche Literatur
Abstract:
Für die Umsetzung von Konzepten zur digitalen Bildung spielt der Prozess der Organisationsentwicklung eine entscheidende Rolle. Der folgende Beitrag führt unter Berücksichtigung aktueller Entwicklungen im Zuge der Covid-19-Pandemie in das Thema Digitalisierung und Organisationsentwicklung von Bildungsinstitutionen ein und stellt einige der bildungspolitischen Konzepte und Strategien in diesem Umfeld vor. Anschließend werden die Methodik und der Arbeitsprozess der Reviewerstellung erläutert, die diesem Band zu Grunde liegen. Um eine umfassende Menge an aktuellen Studien zu identifizieren, wurde eine systematische Literaturrecherche mit deutschen und englischen Suchwörtern für den Suchzeitraum 2010, bzw. 2016 bis 2020 durchgeführt. Für die verschiedenen Bildungssektoren wurden jeweils eigene Datenbanksuchen und erweiterte Suchstrategien angewandt. Abschließend wird in diesem Kapitel diskutiert, welche Formen von Bias in Reviewverfahren auftreten können. Dabei lässt sich aufzeigen, dass Bias zwar nie ganz ausgeschlossen werden kann, aber auch kürzer angelegte Reviewverfahren von bestimmten Arbeitsschritten im Reviewprozess wie Transparenz, Dokumentation und Data-Sharing profitieren können. (DIPF/Orig.)
Abstract (english):
An implementation of concepts for digital education crucially depends on an organisational development process. Drawing on current developments regarding the Covid-19 pandemic, the following contribution introduces the topic of digitising in the context of organisational development of educational institutions. Some educational political concepts and strategies in the area are explained. Subsequently, the method and processes underlying this volume's reviews are outlined. In order to identify an appropriate number of studies, a systematic search for literature was run with German and English search terms, for the period between 2010, respectively 2016 and 2020. Separate searches were carried out for the different educational sectors, subject to database queries and expanded search strategies. This chapter closes with a discussion of types of bias that might emerge in review processes. While it is never possible to exclude bias completely, the contribution shows that even shorter review processes can benefit from certain steps in the review process, e. g., transparency, documentation and data sharing. (DIPF/Orig.)
DIPF-Abteilung:
Informationszentrum Bildung
Advancements in technology-based assessment. Emerging item formats, test designs, and data sources
Goldhammer, Frank; Scherer, Ronny; Greiff, Samuel (Hrsg.)
Sammelband
| Lausanne: Frontiers Media | 2020
39802 Endnote
Herausgeber*innen:
Goldhammer, Frank; Scherer, Ronny; Greiff, Samuel
Titel:
Advancements in technology-based assessment. Emerging item formats, test designs, and data sources
Erscheinungsvermerk:
Lausanne: Frontiers Media, 2020 (Frontiers in Psychology. Sonderheft)
DOI:
10.3389/fpsyg.2019.03047
URL:
https://www.frontiersin.org/research-topics/7841/advancements-in-technology-based-assessment-emerging-item-formats-test-designs-and-data-sources
Dokumenttyp:
2. Herausgeberschaft; Zeitschriftensonderheft
Sprache:
Englisch
Schlagwörter:
Technologiebasiertes Testen; Item; Test; Design; Auswertung; Automatisierung; Prozessdatenverarbeitung; Lernen; Bewertung
Abstract (english):
Technology has become an indispensable tool for educational and psychological assessment in today's world. Researchers and large-scale assessment programs alike are increasingly using digital technology (e.g., laptops, tablets, and smartphones) to collect behavioral data beyond the mere idea of responses as correct. Along these lines, technology innovates and enhances assessments in terms of item and test design, methods of test delivery, data collection and analysis, as well as the reporting of test results. The aim of this Research Topic is to present recent advancements in technology-based assessment. Our focus is on cognitive assessments, including the measurement of abilities, competencies, knowledge, and skills but may also include non-cognitive aspects of the assessment. In the area of (cognitive) assessments the innovations driven by technology are manifold: Digital assessments facilitate the creation of new types of stimuli and response formats that were out of reach for assessments using paper; for instance, interactive simulations including multimedia elements, as well as virtual or augmented realities which serve as the task environment. Moreover, technology allows the automated generation of items based on specific item models. Such items can be assembled into tests in a more flexible way than that offered by paper-and-pencil tests and could even be created on the fly; for instance, tailoring item difficulty to individual ability (adaptive testing), while assuring that multiple content constraints are met. As a requirement for adaptive testing or to lower the burden of raters coding item responses manually, computers enable the automatic scoring of constructed responses; for instance, text responses can be scored automatically by using natural language processing and text mining. Technology-based assessments provide not only response data (e.g., correct vs. incorrect responses) but also process data (e.g., frequencies and sequences of test-taking strategies, including navigation behavior) which reflects the course of solving a test item. Process data has been used successfully, among others, to evaluate the data quality, to define process-oriented constructs, to improve measurement precision, and to address substantial research questions. We expect the contributions of this Research Topic to build on this research by considering how technology can further improve, and enhance, educational and psychological assessment. Regarding educational testing, both research papers on the assessment of learning (e.g., summative assessment of learning outcomes) and on the assessment for learning (e.g., formative assessment to support the learning process) are welcome. We expect submissions of empirical papers that present and evaluate innovative technology-based assessment approaches, as well as new applications or illustrations of already existing approaches. We are also interested in papers addressing the validity of test scores and other indicators obtained from innovative assessment procedures.
DIPF-Abteilung:
Bildungsqualität und Evaluation
Forschungsinstrumente im Kontext institutioneller (schrift-)sprachlicher Bildung
Mackowiak, Katja; Beckerle, Christine; Gentrup, Sarah; Titz, Cora (Hrsg.)
Sammelband
| Bad Heilbrunn: Klinkhardt | 2020
40628 Endnote
Herausgeber*innen:
Mackowiak, Katja; Beckerle, Christine; Gentrup, Sarah; Titz, Cora
Titel:
Forschungsinstrumente im Kontext institutioneller (schrift-)sprachlicher Bildung
Erscheinungsvermerk:
Bad Heilbrunn: Klinkhardt, 2020
DOI:
doi.org/1035468/5801
URN:
urn:nbn:de:0111-pedocs-201399
URL:
https://www.pedocs.de/frontdoor.php?source_opus=20139
Dokumenttyp:
2. Herausgeberschaft; Sammelband (keine besondere Kategorie)
Sprache:
Deutsch
Schlagwörter:
Aktivierung; Anwendung; Auswertung; Baden-Württemberg; Bayern; Beobachtung; Beobachtungsmethode; Berufliche Kompetenz; Bewertung; Bildungsforschung; Bildungspraxis; Datenerfassung; Deutschland; Deutschunterricht; Diagnostik; Dokumentation; Empirische Forschung; Erhebungsinstrument; Erzieher; Erzieherin; Fachdidaktik; Fachsprache; Fachunterricht; Fachwissen; Feed-back; Förderdiagnostik; Förderung; Forschung; Forschungsmethode; Fragebogen; Grundschule; Handlungskompetenz; Instrument; Interview; Kind; Kindergarten; Kindergartenalltag; Kindergartenpädagogik; Kindertagesstätte; Kompetenz; Kompetenzmessung; Korrektur; Längsschnittuntersuchung; Lehramtsstudent; Lehrer; Lehrer-Schüler-Interaktion; Leitfadeninterview; Leseförderung; Lesekompetenz; Mathematikunterricht; Messinstrument; Methode; Nordrhein-Westfalen; Pädagogische Fachkraft; Pädagogisches Handeln; Primarbereich; Profession; Professionalisierung; Protokoll; Psychometrie; Qualitative Forschung; Quantitative Forschung; Reflexion <Phil>; Sachsen-Anhalt; Schriftsprache; Schule; Schüler; Schülermitarbeit; Sekundarstufe I; Software; Sprachbildung; Sprachdiagnostik; Spracherwerb; Sprachförderung; Sprachgebrauch; Sprachkompetenz; Sprachpraktische Übung; Sprachstandsforschung; Test; Testkonstruktion; Testvalidität; Testverfahren; Transfer; Unterricht; Videoanalyse; Videoaufzeichnung; Vignette <Methode>; Wissen; Wissenstest
Abstract:
Das Buch stellt sieben Verfahren vor, die unterschiedliche Facetten (schrift-)sprachlicher Bildung erfassen. Die Verfahren fokussieren unterschiedlcihe Aspekte der Sprachbildung sowie Sprach- und Leseförderung in Kindertageseinrichtungen und Schulen und adressieren unterschiedliche Zielgruppen (pädagogische Fachkräfte, Lehrkräfte, Kinder). Die Instrumente wurden im Rahmen der Initiative "Bildung durch Sprache und Schrift" (BiSS) entwickelt und primär für Forschungszwecke, jedoch auch in der Aus- und Weiterbildung von pädagogischen Fach- und Lehrkräften einsetzbar. Ein online-Anhang stellt die Instrumente sowie alle notwendigen Materialien zur Verfügung.
DIPF-Abteilung:
Bildung und Entwicklung
Bildung im digitalen Wandel. Die Bedeutung für das pädagogische Personal und für die Aus- und […]
Wilmers, Annika; Anda, Carolin; Keller, Carolin; Rittberger, Marc (Hrsg.)
Sammelband
| Münster: Waxmann | 2020
40603 Endnote
Herausgeber*innen:
Wilmers, Annika; Anda, Carolin; Keller, Carolin; Rittberger, Marc
Titel:
Bildung im digitalen Wandel. Die Bedeutung für das pädagogische Personal und für die Aus- und Fortbildung
Erscheinungsvermerk:
Münster: Waxmann, 2020 (Digitalisierung im Bildungsbereich, 1)
DOI:
10.31244/9783830991991
URN:
urn:nbn:de:0111-pedocs-207627
URL:
https://www.pedocs.de/frontdoor.php?source_opus=20762
Dokumenttyp:
2. Herausgeberschaft; Sammelband (keine besondere Kategorie)
Sprache:
Deutsch
Schlagwörter:
Ausbildung; Berufsbildung; Deutschland; Digitale Medien; Digitalisierung; Einstellung <Psy>; Elementarbereich; Erwachsenenbildung; Forschungsstand; Fortbildung; Frühpädagogik; Kompetenz; Kompetenzentwicklung; Lehrerausbildung; Lehrerbildner; Lehrerfortbildung; Literaturauswertung; Literaturrecherche; Literaturübersicht; Medieneinsatz; Methode; Qualität; Schule; Studie; Technologische Entwicklung; Weiterbildung; Wissenschaftliche Literatur
DIPF-Abteilung:
Informationszentrum Bildung
ReCo: Textantworten automatisch auswerten. Methodenworkshop
Zehner, Fabian; Andersen, Nico
Zeitschriftenbeitrag
| In: Zeitschrift für Soziologie der Erziehung und Sozialisation | 2020
40196 Endnote
Autor*innen:
Zehner, Fabian; Andersen, Nico
Titel:
ReCo: Textantworten automatisch auswerten. Methodenworkshop
In:
Zeitschrift für Soziologie der Erziehung und Sozialisation, 40 (2020) 3, S. 334-340
DOI:
10.25656/01:22115
URN:
urn:nbn:de:0111-pedocs-221153
URL:
https://nbn-resolving.org/urn:nbn:de:0111-pedocs-221153
Dokumenttyp:
3b. Beiträge in weiteren Zeitschriften; praxisorientiert
Sprache:
Deutsch
Schlagwörter:
Software; Technologiebasiertes Testen; Antwort; Text; Testauswertung; Automatisierung; Datenanalyse; Konzeption; Methodik
Abstract:
Mit dem vorliegenden Beitrag wird erstmalig der Prototyp einer R- sowie Java-basierten und frei verfügbaren Software veröffentlicht, die für die Verwendung mit deutschen Textantworten evaluiert wurde und aktuell für weitere Sprachen weiter entwickelt wird: ReCo (Automatic Text Response Coder; Zehner, Sälzer & Goldhammer, 2016). ReCo ist auf Kurztextantworten spezialisiert und adressiert Semantik, weshalb auch von Inhaltsscoring die Rede ist. Die hier vorgestellte Software enthält einen Demodatensatz, bei dem es wichtig ist, vorab anzumerken, dass dieser und die hier zitierten Beispielantworten lediglich eine sehr geringe Sprachvielfalt enthalten. Das liegt daran, dass dieser Datensatz auf empirischen Daten basiert und wegen deren Vertraulichkeit umfangreich manuell manipuliert wurde, was mit sprachlich komplexeren Items nicht möglich gewesen wäre. Die ReCo-Methodik selbst funktioniert hingegen auch bei komplexeren Antworten [...]. Dieser Beitrag skizziert kurz die ReCo-Methodik und stellt erstmals die Shiny-App vor, die automatisches Kodieren für eigene Daten flexibel anwendbar macht. Dafür wird skizziert, wie der aktuell verfügbare Prototyp installiert und auf einen Demodatensatz angewendet wird. Zuletzt gibt der Beitrag einen Ausblick, welche Funktionalitäten die App nach Verlassen der aktuellen Prototypenphase sowie in der langfristigen Entwicklung haben wird. Aktuelle Entwicklungen können auf der ReCo-Webseite verfolgt werden: www.reco.science (DIPF/Orig.)
DIPF-Abteilung:
Bildungsqualität und Evaluation
Testwertinterpretation, Testnormen und Testeichung
Goldhammer, Frank; Hartig, Johannes
Sammelbandbeitrag
| Aus: Moosbrugger, Helfried; Kelava, Augustin (Hrsg.): Testtheorie und Fragebogenkonstruktion | Berlin: Springer | 2020
40528 Endnote
Autor*innen:
Goldhammer, Frank; Hartig, Johannes
Titel:
Testwertinterpretation, Testnormen und Testeichung
Aus:
Moosbrugger, Helfried; Kelava, Augustin (Hrsg.): Testtheorie und Fragebogenkonstruktion, Berlin: Springer, 2020 , S. 171-195
DOI:
10.1007/978-3-662-61532-4_9
URL:
https://link.springer.com/chapter/10.1007/978-3-662-61532-4_9
Dokumenttyp:
4. Beiträge in Sammelwerken; Sammelband (keine besondere Kategorie)
Sprache:
Deutsch
Schlagwörter:
Test; Wert; Interpretation; Testkonstruktion; Konzeption; Datenanalyse; Testauswertung; Testtheorie; Normung
Abstract:
In diesem Kapitel werden verschiedene Möglichkeiten beschrieben, wie ein Testergebnis bzw. Testwert deskriptivstatistisch interpretiert werden kann. Bei der normorientierten Interpretation wird der Testwert in einen Normwert transformiert, der einen Vergleich mit den Testwerten anderer Personen einer Bezugsgruppe (den Testnormen) erlaubt. Die Testnormen werden im Wege der Testeichung an einer repräsentativen Eichstichprobe gewonnen. Sofern genauere theoretische Vorstellungen bestehen, kann das Testergebnis auch mit einem inhaltlich definierten Kriterium in Bezug gesetzt werden. Dieser Vorgang wird als kriteriumsorientierte Interpretation bezeichnet. Beide Interpretationsarten können auch miteinander verbunden werden. (DIPF/Orig.)
Abstract:
In diesem Kapitel werden verschiedene Möglichkeiten beschrieben, wie ein Testergebnis bzw. Testwert deskriptivstatistisch interpretiert werden kann. Bei der normorientierten Interpretation wird der Testwert in einen Normwert transformiert, der einen Vergleich mit den Testwerten anderer Personen einer Bezugsgruppe (den Testnormen) erlaubt. Die Testnormen werden im Wege der Testeichung an einer repräsentativen Eichstichprobe gewonnen. Sofern genauere theoretische Vorstellungen bestehen, kann das Testergebnis auch mit einem inhaltlich definierten Kriterium in Bezug gesetzt werden. Dieser Vorgang wird als kriteriumsorientierte Interpretation bezeichnet. Beide Interpretationsarten können auch miteinander verbunden werden. (DIPF/Orig.)
DIPF-Abteilung:
Bildungsqualität und Evaluation
Validität von Testwertinterpretationen
Hartig, Johannes; Frey, Andreas; Jude, Nina
Sammelbandbeitrag
| Aus: Moosbrugger, Helfried; Kelava, Augustin (Hrsg.): Testtheorie und Fragebogenkonstruktion | Berlin: Springer | 2020
40526 Endnote
Autor*innen:
Hartig, Johannes; Frey, Andreas; Jude, Nina
Titel:
Validität von Testwertinterpretationen
Aus:
Moosbrugger, Helfried; Kelava, Augustin (Hrsg.): Testtheorie und Fragebogenkonstruktion, Berlin: Springer, 2020 , S. 529-545
DOI:
10.1007/978-3-662-61532-4_21
URL:
https://link.springer.com/chapter/10.1007%2F978-3-662-61532-4_21
Dokumenttyp:
4. Beiträge in Sammelwerken; Sammelband (keine besondere Kategorie)
Sprache:
Deutsch
Schlagwörter:
Test; Wert; Testauswertung; Interpretation; Validität; Qualität; Datenanalyse; Testkonstruktion; Testtheorie; Argumentation; Methode
Abstract:
Das Gütekriterium der Validität ist ein zentrales Qualitätskriterium. Es ist den Gütekriterien Objektivität und Reliabilität übergeordnet. Validität bezieht sich darauf, inwieweit Interpretationen von Testwerten und beabsichtigte Verwendungen von Tests gerechtfertigt sind. Das Verständnis von Validität hat sich in den letzten Jahrzehnten deutlich weiterentwickelt. Während sich im vergangenen Jahrhundert zunächst eine wenig praktikable Vielzahl "verschiedener Validitäten" herausgebildet hatte, wird Validität inzwischen als einheitliches Qualitätskriterium betrachtet, das Informationen aus verschiedenen Quellen integriert. Zudem wurde Validität früher als Eigenschaft eines Tests betrachtet, heute bezieht sie sich auf die Interpretation von Testwerten. Ein Test kann demnach nicht als solcher valide sein, vielmehr erfordert jede intendierte Testwertinterpretation eine separate Validierung. Im Kontext aktueller internationaler Forschung wird die Validierung von Testwertinterpretationen im Rahmen des sog. "argumentationsbasierten Ansatzes" beschrieben. Dabei muss zunächst die zu validierende Testwertinterpretation präzise formuliert werden. Dann werden empirische überprüfbare Grundannahmen der Testwertinterpretationen identifiziert. Hierauf wird empirische Evidenz gesammelt, anhand derer die Grundannahmen widerlegt oder vorläufig gestützt werden können. Wichtige Evidenzquellen sind die Testinhalte, die bei der Testbeantwortung ablaufenden kognitiven Prozesse, die interne Struktur der Testdaten und die Beziehungen der Testwerte zu anderen Variablen. Bei der abschließenden zusammenfassenden Bewertung wird eine Testwertinterpretation dann als valide betrachtet, wenn keine der zugrunde liegenden Annahmen widerlegt werden konnte. Die argumentationsbasierte Validierung gleicht theoriegeleiteter und hypothesenbasierter Forschung und erfolgt spezifisch für jede intendierte Testwertinterpretation. Der Abschluss eines Validierungsprozesses hat einen vorläufigen Charakter, da zukünftige Befunde eine Testwertinterpretation hinsichtlich einer oder mehrerer Grundannahmen widerlegen und damit infrage stellen können. (DIPF/Orig.)
DIPF-Abteilung:
Bildungsqualität und Evaluation
Markierungen aufheben
Alle Treffer markieren
Export
1
(aktuell)
2
3
...
6
>
Alle anzeigen
(60)