gms | German Medical Science

Joint congress of the Gesellschaft für Medizinische Ausbildung (GMA) and the Arbeitskreis zur Weiterentwicklung der Lehre in der Zahnmedizin (AKWLZ)

30.09. - 03.10.2015, Leipzig

Entwicklung eines Tools zur Qualitätssicherung des Feedbacks von Simulationspatienten

Meeting Abstract

Gemeinsame Jahrestagung der Gesellschaft für Medizinische Ausbildung (GMA) und des Arbeitskreises zur Weiterentwicklung der Lehre in der Zahnmedizin (AKWLZ). Leipzig, 30.09.-03.10.2015. Düsseldorf: German Medical Science GMS Publishing House; 2015. DocV334

doi: 10.3205/15gma068, urn:nbn:de:0183-15gma0683

Published: August 31, 2015

© 2015 Thrien et al.
This is an Open Access article distributed under the terms of the Creative Commons Attribution License. You are free: to Share - to copy, distribute and transmit the work, provided the original author and source are credited. See license information at http://creativecommons.org/licenses/by-nc-nd/3.0/.


Outline

Text

Fragestellung/Einleitung: Der Einsatz von Simulationspatient/innen (SP) ist ein fester Bestandteil der Medizinischen Lehre [1]. Als Argument dient u.a. die Möglichkeit, den Studierenden ein qualifiziertes Feedback (FB) geben zu lassen [2], [3]. Die Effektivität von FB hängt maßgeblich von der FB-Kompetenz der FB-Geber/innen ab [4], [5], [6]. Die Sicherung der Qualität des FB von SP ist daher ein Faktor der Qualitätssicherung der Medizinischen Lehre. Es existieren bereits mehrere Instrumente [7], [8], [9], [10], [11], die aber von einem großen Teil der Mitglieder des Ausschusses Simulationspatienten der GMA nicht als zufriedenstellend bzw. übertragbar auf die Situation in der D-A-CH-Region empfunden wurden. So wurde ein Prozess angestoßen, einen Beobachtungbogen zu entwickeln, der im deutschsprachigen Raum in möglichst vielen Settings eingesetzt werden kann.

Methoden: Im Rahmen mehrerer GMA-Tagungen und SkillsLab-Symposien wurden Workshops veranstaltet, in denen Items aus vorhandenen validierten und nicht validierten Instrumenten (MaSP [7], mQSF [8], NESP [9], Mannheimer Checkliste zur Videoanalyse [10], Inter-Rater-Report, Connecticut [11]) sowie von den Teilnehmer/innen der Workshops als relevant erachtete Items diskutiert wurden. Diese wurden während der Workshops sowie in Arbeitsgruppen zwischen den Tagungen konsentiert und 2014 in Hamburg am Beispiel von drei live durchgeführten SP-Gesprächssimulationen von den WS-Teilnehmer/innen getestet. Außerdem wurde ein Manual erstellt, das die Bedeutung einzelner Items erläutert.

Eine vorläufige Version des Tools wurde von studentischen Tutoren der Charité pilotiert und ein Erfahrungsbericht beim SkillsLab-Symposium in Halle vorgestellt [12].

Ergebnisse: Entstanden ist ein Beobachtungsbogen mit 23 Items mit den Kategorien Haltung, Struktur, Inhalt sowie einer Kategorie mit Items, die nur bei Dozenten-/Moderationsfunktion des SP infrage kommen. 14 Items werden mit einer 5-stufigen Likert-Skala bewertet, sieben Items werden binär bewertet, bei zwei Items ist anzugeben, ob Ereignisse nicht, ein- bis dreimal oder mehr als dreimal eingetreten sind. Bei allen Items kann „nicht anwendbar“ ausgewählt werden, da das konkrete Vorgehen beim FB nicht an allen Standorten vollkommen deckungsgleich ist. Des Weiteren enthält der Bogen eine offene Frage, die ggf. zur Reflexion und weiteren Schulung der/des SP anregen soll.

Diskussion/Schlussfolgerung: Die ersten Einsätze deuten darauf hin, dass ein praktikables und hilfreiches tool zur Beurteilung der Qualität des FB von SP entstanden ist. Um eine akzeptable Inter-Rater-Reliabilität erreichen zu können, scheint das Manual unabdingbar zu sein. Dies mag an den häufig eingesetzten 5-stufigen Skalen liegen, kann aber durchaus auch in der Natur der Sache begründet sein, da kommunikatives Handeln immer Interpretationsspielräume lässt. Inwieweit das Instrument einer wissenschaftlichen Überprüfung standhält, soll eine multizentrische Validierungsstudie zeigen.


Literatur

1.
Kruppa E, Jünger J, Nikendei C. Einsatz innovativer Lern- und Prüfungsmethoden an Medizinischen Fakultäten der Bundesrepublik Deutschlang – Eine Bestandaufnahme. Dtsch Med Wochenschr. 2009;134:371-372. DOI: 10.1055/s-0028-1124008 External link
2.
Nikendei C, Zipfel S, Roth C, Löwe B, Herzog W, Jünger J. Kommunikations- und Interaktionstraining im psychosomatischen Praktikum: Einsatz von standardisierten Patienten. Psychother Psych Med. 2003;53:440-445. DOI: 10.1055/s-2003-43388 External link
3.
Wündrich M, Peters J, Philipsen A, Kopasz M, Berger M, Voderholzer U. Einsatz von Simulationspatienten in den Lehrfächern Psychiatrie und Psychotherapie: Eine kontrollierte Pilotstudie. Nervenarzt. 2008;79:1273–1782. DOI: 10.1007/s00115-008-2493-3 External link
4.
Archer JC. State of the science in health professional education: effective feedback. Med Educ. 2010;44(1):101–108. DOI: 10.1111/j.1365-2923.2009.03546.x External link
5.
Pelgrim EA, Kramer AW, Mokkink HG, van der Vleuten CP. Reflection as a component of formative assessment appears to be instrumental in promoting the use of feedback; an observational study. Med Teach. 2013;35(9):772-778. DOI: 10.3109/0142159X.2013.801939 External link
6.
Parkes J, Abercrombie S, McCarty T. Feedback sandwiches affect perceptions but not performance. Adv Health Sci Educ. 2013;18(3):397–407. DOI: 10.1007/s10459-012-9377-9 External link
7.
Wind LA, van Dalen J, Muijtjens AM, Rethans JJ. Assessing simulated patients in an educational setting: the MaSP (Maastricht Assessment of Simulated Patients). Med Educ. 2004;38(1):39–44. DOI: 10.1111/j.1365-2923.2004.01686.x External link
8.
Schlegel C, Woermann U, Rethans JJ, van der Vleuten C. Validity evidence and reliability of a simulated patient feedback instrument. BMC Med Educ. 2012;12:6. DOI: 10.1186/1472-6920-12-6 External link
9.
Bouter S, van Weel-Baumgarten E, Bolhuis S. Construction and Validation of the Nijmegen Evaluation of the Simulated Patient (NESP): Assessing Simulated Patients' Ability to Role-Play and Provide Feedback to Students. Acad Med. 2013;88(2):253–259. DOI: 10.1097/ACM.0b013e31827c0856 External link
10.
Strohmer R. QS-Checkliste für Videoanalyse UMM. Medizinische Fakultät Mannheim, Universität Heidelberg. Unveröffentlicht
11.
Pfeiffer C, Palten B, McNally T, Sousa MF, Kosowicz L. Inter-Rater Report Clinical Skills Assessment Program. University of Connecticut. Unveröffentlicht
12.
Freytag J, Kampel B, Fritz AH, Strohmer R, Thrien C. Erfahrungsbericht zum Einsatz eines neuen Tools zum Assessment von SP-Feedback. X. Internationales SkillsLab Symposium (iSLS) 2015. Halle/Leipzig: Universität Leipzig; 2015.