Review

Verfahrensdokumentation für PIKE-P: Prozeduraler Informationsrecherchetest für Psychologiestudierende

Author(s) / Creator(s)

Rosman, T.
Mayer, A.-K.
Krampen, G.

Other kind(s) of contributor

Open Test Archive

Abstract / Description

Der PIKE-P misst sowohl prozedurale als auch deklarative Wissensbestände über wissenschaftliche Informationsrecherchen im Fach Psychologie. Er basiert auf dem "Information Problem Solving Modell" von Brand-Gruwel, Wopereis und Vermetten (2005). Als Multiple-Choice-Leistungstest umfasst er 22 Items. Reliabilität: Die Reliabilität der Gesamtskala lag in der Pilotstudie (n = 78) bei Cronbachs Alpha = .75 und in der Validierungsstudie (n = 81) bei Alpha = .72. Validität: Die in der Validierungsstudie gefundenen relativ hohen Korrelationen zwischen dem PIKE-P und den Leistungen in standardisierten Literaturbeschaffungsaufgaben (r = .42; p < .001) sowie standardisierten Rechercheaufgaben (r = .62; p < .001) sind als deutliche Indizien für die Übereinstimmungsvalidität zu werten. Zudem wurde eine mittlere bis hohe Korrelation zwischen dem PIKE-P und einem anderen Informationskompetenztest, der deutschen Version des Information Literacy Test für Psychologen (ILT-P; Leichner, Peter, Mayer & Krampen, 2013; r = .51; p < .001) gefunden.
The PIKE-P measures both procedural and declarative knowledge about scientific information research in psychology. It is based on the "Information Problem Solving Model" by Brand-Gruwel, Wopereis und Vermetten (2005). As a multiple-choice performance test it consists of 22 items. Reliability: The reliability of the overall scale in the pilot study (n = 78) was Cronbach's Alpha = .75 and in the validation study (n = 81) Alpha = .72. Validity: The relatively high correlations found in the validation study between PIKE-P and performance in standardized literary procurement tasks (r = .42; p < .001) as well as standardized research tasks (r = .62; p < .001) are to be evaluated as clear indicators of compliance validity. In addition, a medium to high correlation was found between the PIKE-P and another information literacy test, the German version of the Information Literacy Test for Psychologists (ILT-P; Leichner, Peter, Mayer & Krampen, 2013; r = .51; p < .001).

Persistent Identifier

Date of first publication

2019

Publisher

ZPID (Leibniz Institute for Psychology) – Open Test Archive

Publication status

publishedVersion

Review status

reviewed

Citation

Rosman, T., Mayer, A.-K. & Krampen, G. (2019). Verfahrensdokumentation für PIKE-P: Prozeduraler Informationsrecherchetest für Psychologiestudierende. In Leibniz-Institut für Psychologie (ZPID) (Hrsg.), Open Test Archive. Trier: ZPID. https://doi.org/10.23668/psycharchives.15766
  • Author(s) / Creator(s)
    Rosman, T.
  • Author(s) / Creator(s)
    Mayer, A.-K.
  • Author(s) / Creator(s)
    Krampen, G.
  • Other kind(s) of contributor
    Open Test Archive
  • PsychArchives acquisition timestamp
    2024-12-13T13:42:07Z
  • Made available on
    2024-12-13T13:42:07Z
  • Date of first publication
    2019
  • Abstract / Description
    Der PIKE-P misst sowohl prozedurale als auch deklarative Wissensbestände über wissenschaftliche Informationsrecherchen im Fach Psychologie. Er basiert auf dem "Information Problem Solving Modell" von Brand-Gruwel, Wopereis und Vermetten (2005). Als Multiple-Choice-Leistungstest umfasst er 22 Items. Reliabilität: Die Reliabilität der Gesamtskala lag in der Pilotstudie (n = 78) bei Cronbachs Alpha = .75 und in der Validierungsstudie (n = 81) bei Alpha = .72. Validität: Die in der Validierungsstudie gefundenen relativ hohen Korrelationen zwischen dem PIKE-P und den Leistungen in standardisierten Literaturbeschaffungsaufgaben (r = .42; p < .001) sowie standardisierten Rechercheaufgaben (r = .62; p < .001) sind als deutliche Indizien für die Übereinstimmungsvalidität zu werten. Zudem wurde eine mittlere bis hohe Korrelation zwischen dem PIKE-P und einem anderen Informationskompetenztest, der deutschen Version des Information Literacy Test für Psychologen (ILT-P; Leichner, Peter, Mayer & Krampen, 2013; r = .51; p < .001) gefunden.
    de_DE
  • Abstract / Description
    The PIKE-P measures both procedural and declarative knowledge about scientific information research in psychology. It is based on the "Information Problem Solving Model" by Brand-Gruwel, Wopereis und Vermetten (2005). As a multiple-choice performance test it consists of 22 items. Reliability: The reliability of the overall scale in the pilot study (n = 78) was Cronbach's Alpha = .75 and in the validation study (n = 81) Alpha = .72. Validity: The relatively high correlations found in the validation study between PIKE-P and performance in standardized literary procurement tasks (r = .42; p < .001) as well as standardized research tasks (r = .62; p < .001) are to be evaluated as clear indicators of compliance validity. In addition, a medium to high correlation was found between the PIKE-P and another information literacy test, the German version of the Information Literacy Test for Psychologists (ILT-P; Leichner, Peter, Mayer & Krampen, 2013; r = .51; p < .001).
    en
  • Publication status
    publishedVersion
  • Review status
    reviewed
  • Citation
    Rosman, T., Mayer, A.-K. & Krampen, G. (2019). Verfahrensdokumentation für PIKE-P: Prozeduraler Informationsrecherchetest für Psychologiestudierende. In Leibniz-Institut für Psychologie (ZPID) (Hrsg.), Open Test Archive. Trier: ZPID. https://doi.org/10.23668/psycharchives.15766
  • Persistent Identifier
    https://hdl.handle.net/20.500.12034/11186
  • Persistent Identifier
    https://doi.org/10.23668/psycharchives.15766
  • Language of content
    deu
  • Publisher
    ZPID (Leibniz Institute for Psychology) – Open Test Archive
  • Is related to
    https://www.testarchiv.eu/de/test/9007801
  • Is related to
    https://doi.org/10.23668/psycharchives.4572
  • Dewey Decimal Classification number(s)
    150
  • Title
    Verfahrensdokumentation für PIKE-P: Prozeduraler Informationsrecherchetest für Psychologiestudierende
    de_DE
  • DRO type
    review
  • Leibniz subject classification
    Psychologie
  • DFK number from PSYNDEX
    9007801
  • Visible tag(s)
    Testarchiv