ArchivDeutsches Ärzteblatt42/2006Strukturierte Facharztweiterbildung: Alter Wein in neuen Schläuchen oder Zukunftsoption?

THEMEN DER ZEIT

Strukturierte Facharztweiterbildung: Alter Wein in neuen Schläuchen oder Zukunftsoption?

Siebolds, Marcus; Beer, André-Michael; Kiwitt, Paul; Meyring, Stefan

Als E-Mail versenden...
Auf facebook teilen...
Twittern...
Drucken...
LNSLNS Investitionen in eine qualitativ hochwertige Weiterbildung von Ärztinnen und Ärzten werden mitentscheidend für die Zukunfts- und Wettbewerbsfähigkeit von Krankenhäusern sein.

Kaum ein anderer medizinischer Bereich wird auf so unterschiedliche, positionsabhängige Weise gesehen wie die Facharztweiterbildung. Die folgende nicht repräsentative Auswahl von Äußerungen spiegelt die im Berufsreport 2003 (1) im Rahmen einer validen Untersuchung mit mehr als 2 100 befragten Ärztinnen und Ärzten erhobenen Befunde mit großer Übereinstimmung wider:
- „Im Rahmen meiner Facharztweiterbildung habe ich eine Menge gelernt, aber wenn ich mir das heute so ansehe, dann war das ziemlich zufällig und unvorhersehbar.“ (Internist, Facharzt am Krankenhaus)
- „In der Facharztweiterbildung muss ich sehen, wie ich weiterkomme. Ich muss mir das, was ich lernen will, selber organisieren. Wenn du das nicht tust, bist du draußen.“ (Chirurgischer Assistent)
- „Da organisieren sie dann eine Operation für einen Assistenzarzt und wollen ihm diese Technik vermitteln, und dann kommt der völlig unvorbereitet in den OP.“ (Gynäkologe, Oberarzt)
- „Bei meinen Chefarztkollegen besteht so gut wie kein Interesse an einem Facharztweiterbildungsprogramm. Die behaupten, sie hätten immer schon eine exzellente Weiterbildung gemacht.“ (Internist, leitender Arzt)
Im Rahmen des Berufsreports 2003 wurde die Zufriedenheit mit der Weiterbildung mithilfe des klassischen Schulnotensystems bewertet (Note 1 = sehr gut, Note 5 = mangelhaft). Die Zufriedenheit mit der theoretischen und praktischen Weiterbildung war abhängig von verschiedenen Faktoren. Ältere Befragte bewerteten sie positiver, weibliche Befragte negativer. In den Fachgruppen zeigten sich ebenfalls Unterschiede. Die interessantesten Unterschiede betrafen die hierarchischen Positionen. Während circa 60 Prozent der Assistenz- beziehungsweise Stationsärzte sowohl theoretische als auch praktische Weiterbildungsqualität mit der Note 3 oder schlechter beurteilten, war das bei Chefärzten und Klinikdirektoren bei weniger als 30 Prozent der Fall. Von den Oberärzten beurteilten 60 Prozent die theoretische und 40 Prozent die praktische Weiterbildungsqualität mit der Note 3 und schlechter (1). Nicht verwunderlich erscheint in diesem Zusammenhang, dass weniger als 20 Prozent der befragten Weiterbilder angaben, sich bei der Aneignung didaktischer Fähigkeiten wissenschaftlicher Methodik zu bedienen. Fast zwei Drittel orientieren sich an den Lehrpraktiken anderer Kollegen. Nur 15 Prozent evaluieren die von ihnen benutzten Lehrmethoden (2). Der Berufsreport enthält keine Angaben zur Weiterbildung in Vertragsarztpraxen.
Traditionell ist die Facharztweiterbildung in Deutschland strukturorientiert. Ihre Weiterentwicklung und Umsetzung in den Lan­des­ärz­te­kam­mern beschränkte sich überwiegend auf den Zuschnitt und die inhaltliche Abgrenzung der einzelnen Fachgebiete. Umso erfreulicher ist es, dass in der neuen Weiter­bildungs­ordnung erste Schritte hin zu einer Prozessorientierung erkennbar sind, die einige Fachgesellschaften (3, 4, 5) aufgegriffen haben. Mit Ausnahme der Deutschen Gesellschaft für Chirurgie, die didaktische Fortbildungen für weiterbildende Ärzte anbietet (4), bleiben diese Ansätze jedoch im internationalen Vergleich unbefriedigend. Die neue Weiter­bildungs­ordnung schreibt letztlich nur eine nicht weiter spezifizierte Darlegung des eigenen Weiterbildungsprogramms, die Durchführung von jährlichen, nicht weiter formalisierten Beratungsgesprächen zwischen Weiterbilder und Assistenzarzt sowie eine transparente Dokumentation des Ausbildungsverlaufs vor (7). Im internationalen Vergleich fällt auf, dass die didaktische Qualifikation der weiterbildenden Ärzte und die curricularen Anforderungen an die Weiterbildungsstätten sowie deren Strukturen vernachlässigt werden. Das Fehlen verbindlicher Vorgaben für den Aufbau systematisch geplanter Facharztweiterbildungsprogramme und die damit verbundene didaktische Fortbildung der weiterbildenden Ärzte stellt eine wesentliche Hürde dar, die Probleme in der Facharztweiterbildung konstruktiv anzugehen. Darüber hinaus existieren im deutschsprachigen Raum kaum Lehrevaluationsinstrumente (6).
Traditionell steht bei der Facharztweiterbildung in Deutschland die Qualifikation im Vordergrund. Weiterbildung und Facharztprüfung bescheinigen dem Arzt die Qualifikation, in seinem Gebiet selbstständig tätig zu werden (7). Dabei wird klinische Kompetenz (eine offizielle Begriffsdefinition fehlt) vorausgesetzt, nicht aber mit validen Methoden bei der Facharztprüfung nachgewiesen. Der Begriff dominiert inzwischen die Weiterbildungsdiskussion (7). In der Literatur findet sich eine Vielzahl von Definitionen, abhängig von den unterschiedlichen institutionellen und gesellschaftlichen Sichtweisen (12, 13, 14, 15, 16). Eine Definition, die Kompetenz im Sinne der neuen Weiter­bildungs­ordnungen gut beschreibt, ist die von Quillen. Danach beschreibt Kompetenz eine von einem Lehrer bescheinigte Fertigkeit, die der Lernende ohne weitere Ausbildung nach allgemein anerkanntem Standard ausüben kann (16). Das Royal College of General Practitioners in Großbritannien unterscheidet zwischen klinischer Kompetenz („what doctors can do“) und klinischer Performance („what doctors do do“) und definiert Kompetenz als Kombination aus Wissen, Fertigkeiten und Einstellungen, die in einer bestimmten Situation zu einem bestimmten Ergebnis führt (15).
Im Rahmen traditionell steiler Hierarchien stellt Weiterbildung eine Form der Zusammenarbeit von leitenden Ärzten und Assistenzärzten dar, in der gemeinsames Lernen und Entwickeln ärztlicher Fertigkeiten als verbindendes Element ärztliche Kollegialität und Wertschätzung sicherstellt. Dieses Ethos klinischer Arztbildung scheint zunehmend verloren zu gehen. Im Berufsreport 2003 bildet sich das in der deutlich besseren Bewertung der eigenen Weiterbildung durch ältere Ärzte im Vergleich mit jüngeren Befragten ab (1). Es ist deshalb nötig, die Facharztweiterbildung im Sinne eines traditionellen Selbstverständnisses ärztlicher Zusammenarbeit an die Erfordernisse eines modernen klinischen Managements anzupassen.
c Personalführung: Personalführung in Fachabteilungen zeichnet sich oft durch fehlende Transparenz und Zielführung aus. Die in den neuen Weiter­bildungs­ordnungen vorgeschriebenen Weiterbildungsgespräche können, wenn man sie ausreichend formalisiert und strukturiert, als Zielvereinbarungsgespräche zwischen leitenden Ärzten und Assistenten geführt werden. In der Literatur werden solche Gespräche, die die zuverlässige Planung von ärztlichen Bildungsprozessen ermöglichen, als erfolgsrelevant für die Weiterbildung eingestuft (10). Wesentliche Inhalte solcher Gespräche sollten Lernbedürfnisse und Erfahrungen der Assistenten, ein kontinuierliches Leistungsfeedback sowie klare Zielvereinbarungen für das nächste Weiterbildungsjahr sein. (20)
c Facharztweiterbildung und Qualitätsmanagement (QM): Werden QM-Elemente wie Clinical Pathways, evidenzbasierte Verfahrensanweisungen (54), Bildungspläne, Audits (55) et cetera erstellt, um sie in der Weiterbildung zu nutzen, so wird ihre alltägliche Bedeutung sofort nachvollziehbar. Weiterbildung stellt im Rahmen des QM Instrumente zur Verfügung, die leitende Ärzte brauchen, um ihre Fachabteilungen zu lernenden Organisationen zu machen.
c Facharztweiterbildung und Haftungsabwehr: Im Rahmen der Haftungsdiskussion rückt der Tatbestand des Organisationsverschuldens zunehmend ins Blickfeld. Von besonderer Bedeutung ist hier die am 1. Januar 2002 in Kraft getretene Schuldrechtsreform (56). Das Prinzip der Beweislastumkehr wird zunehmend in die Auseinandersetzungen zwischen Geschädigten und behandelnden Ärzten im Krankenhaus Einzug halten. Die nachgewiesene Qualifikation von Mitarbeitern wird zu einem relevanten Aspekt der juristischen Betrachtungen im Schadensfall. Kann dieser Qualifikationsnachweis durch dokumentierte Leistungsüberprüfung und -sicherstellung im Rahmen der Evaluation einer strukturierten Facharztweiterbildung erbracht werden, kann er zur Abwehr von Schadensersatzforderungen genutzt werden. Darüber hinaus stellt die Nachweisbarkeit von Mitarbeiterqualifikation und Kompetenzen ein Element des zunehmend von Haftpflichtversicherungen geforderten Risikomanagements dar.
c Facharztweiterbildung als zentrales Instrument der Personalgewinnung: Ein wesentliches Unterscheidungsmerkmal von Kliniken im Wettbewerb um Assistenzärzte kann ein nach außen gut dokumentiertes und evaluiertes Weiterbildungsprogramm sein. Dabei wird zukünftig neben dem Programmaufbau und dem Leistungsangebot der Fachabteilung die Qualifikation der Lehrenden eine wichtige Rolle spielen.
Im Masterstudienprogramm „Krankenhausmanagement für Fachärzte M. Sc.“ an der Katholischen Fachhochschule Nordrhein-Westfalen wurde zum ersten Mal in Deutschland das Modul „Grundlagen der Facharztweiterbildung“ in einem akkreditierten Studienprogramm eingeführt. Die im Folgenden beschriebenen Elemente von Facharztweiterbildungsprogrammen sowie die Implementierungsstrategien sind im Rahmen des Studienganges entwickelt, evaluiert und mittlerweile in einigen Kliniken umgesetzt worden (72, 73).
c Kernelemente eines Facharztweiterbildungsprogramms: Facharztweiterbildungsprogramme sollten strukturiert sein und dokumentiert werden. Dies setzt ein Portfolio von Elementen voraus (Kasten). Die praktische Einführung eines Facharztweiterbildungsprogramms stellt für alle Beteiligten eine Herausforderung dar. Entscheidend für den Erfolg ist der passende Zuschnitt für die eigene Weiterbildungseinrichtung. Dabei gilt es im ersten Schritt, die Mindestanforderungen der neuen Weiter­bildungs­ordnungen zu erfüllen. Dies setzt die Umsetzung folgender Elemente des Programmportfolios voraus: Programmbeschreibung mit Kerncurriculum, Jahresweiterbildungsgespräche sowie Einführung und Nutzung eines Logbuchs.
Will man über diese Anforderungen hinausgehen, so empfiehlt sich die Umsetzung des kompletten Programmportfolios. Entscheidend dabei ist es, einen pragmatisch handhabbaren Programmzuschnitt zu wählen. Hierbei stehen in aller Regel die Sicherstellung der Dienstfähigkeit von Ärzten im ersten Weiterbildungsjahr sowie die Vermittlung der klinischen Alltagsroutine im Mittelpunkt. Durch die Vernetzung mit den mittlerweile eingeführten QM-Systemen kann hier in der Regel auf die schon entwickelten prozesslenkenden Dokumente wie Critical Pathways, Verfahrens- und Arbeitsanweisungen zurückgegriffen werden.
Für die Einführung einer ersten Version sind sechs Monate zu veranschlagen. Wenn kein Programmverantwortlicher benannt wird, ist der zeitliche Mehraufwand für die Oberärzte und Assistenten in einer kleinen bis mittleren Abteilung auf circa 270 Stunden pro Jahr zu veranschlagen, von denen 200 Stunden auf die Oberärzte entfallen. Der zeitliche Aufwand eines Programmverantwortlichen ist mit 0,2 Oberarztstellen gleichzusetzen (73).
Die erfolgreiche Einführung strukturierter Facharztweiterbildungsprogramme wird in starkem Maß von der Bereitschaft leitender Ärzte abhängig sein, ihre traditionelle Rolle als lehrende Ärzte neuen Anforderungen und Entwicklungen anzupassen. Unter dem Druck der Einführung des DRG-Systems rücken die Produktionskosten im Rahmen der klinischen Versorgung in den Vordergrund innerbetrieblicher Budgetkalkulation. Die Notwendigkeit, unter den neuen Entgeltsystemen Unternehmensentwicklungskosten, hier insbesondere die Kosten der Weiterbildung im Sinne der Personalentwicklung, angemessen zu berücksichtigen, scheint vielen Unternehmensleitungen aus dem Blick zu geraten. Diese Investitionen in die Weiterbildung von Ärzten werden mitentscheidend für die Zukunfts- und Wettbewerbsfähigkeit von deutschen Kliniken sein. Hier sollten alle Beteiligten ein grundlegend anderes Bewusstsein über die Bedeutung von Arztbildung entwickeln.

zZitierweise dieses Beitrags:
Dtsch Arztebl 2006; 103(42): A 2765-8


Anschrift für die Verfasser
Prof. Dr. med. Marcus Siebolds
Katholische Fachhochschule Nordrhein-Westfalen
Fachbereich Gesundheitswesen
Wörthstraße 10
50668 Köln
E-Mail: m.siebolds@kfhnw.de

Literatur im Internet:
www.aerzteblatt.de/lit4206
Anzeige
1.
Rohde V, Wellmann A, Bestmann B: Beurteilung der Fort- und Weiterbildung. Dtsch Ärztebl 2004; 101(5): A 233–38.
2.
Rohde V, Bestmann B, Wellmann A: Klinik, Forschung und Lehre: Ein Spagat. Dtsch Ärztebl 2004; 101(14): A 908–12.
 3.
http://www.dgai.de/10_4empfehlungen.htm (Stand 4.11.2005).
4.
http://www.dgch.de/ (Stand 4. November 2005).
5.
http://www.dggg.de/ (Stand 4. November 2005).
6.
Prien T: Beurteilung der Facharztweiterbildung durch Ärzte in Weiterbildung anhand eines validierten Fragebogens. Anasth Intensivmedizin 2004; 45: 25–31.
7.
Bundes­ärzte­kammer (Arbeitsgemeinschaft der Deutschen Ärztekammern): (Muster-) Weiter­bildungs­ordnung gemäß Beschluss 106. Deutscher Ärztetag 2003 in Köln.
8.
Long DM: Competency-based residency training: the next advance in graduate medical education. Acad Med 2000; 75(12): 1178–83.
9.
van der Vleuten CPM, Swanson DB: Assessment of clinical skills with standardized patients: State of the art. Teach Learn Med 1990; 2(2): 58–76.
10.
Pratt D, Magill Mk: Educational Contracts: A basis for effective clinical teaching. J Med Educ 1983; 58: 462–467.
11.
Holmboe ES: Faculty and the observation of trainees’ clinical skills: problems and opportunities. Acad Med 2004; 79(1): 16–22.
12.
Greaves JD: Anaesthesia and the competence revolution. Br J Anaesth 1997; 79(5): 555–7.
13.
Carraccio C, Wolfsthal SD, Englander R, Ferentz K, Martin C: Shifting Paradigms: From Flexner to Competencies. Acad Med 2002; 77: 361–7.
14.
Hager P, Goncvi A: What is competence? Med Teach 1996; 18: 15–18.
15.
Leung WC: Competency based medical training: review. BMJ 2002; 325: 693–696. Competencies. Acad Med 2002; 77: 361–7.
16.
Quillen DM: Challenges and Pitfalls of developing and applying a competency-based curriculum. Fam Med 2001; 33(9): 652–4.
17.
Stillman PL, Sabers DL: Using a competency-based program to assess interviewing skills of pediatric housestaff. J Med Educ 1978; 53: 493–6.
18.
Weinstein HM, Russell ML: Competency-based psychiatric education. Am J Psychiatry 1976; 133: 935–9.
19.
Myerson KR: Anaesthesia and the competence revolution. Br J Anaesth 1998; 80(4): 562.
20.
Siebolds M: Arbeitsbuch zum Fach „Grundlagen der Facharztweiterbildung“ im Masterstudiengang „Krankenhausmanagement für Fachärzte“ 2003.
21.
Kovacs G: Procedural skills in medicine: linking theory to practice. J Emerg Med 1997; 15(3): 387–91.
22.
Hawes R, Lehmann GA, Hast J et al.: Training resident physicians in fiberoptic sigmoidoscopy. How many supervised examinations are required to achieve competence? Am J Med 1986; 80: 465–70.
23.
Rosser JC, Rosser LE, Salvalgi RS: Objective evaluation of a laparoskopic surgical skill program for residents and senior surgeons. Arch Surg 1998; 133: 657–61.
24.
Wigton RS, Steinmann WC: Procedural skills training in the internal medicine residency. J Med Educ 1984; 59: 392–400.
25.
Wigton RS: Measuring procedural skills. Ann Intern Med 1996; 125: 1003–4.
26.
Martin M, Vashisht B, Frezza E et al.: Competency-based instruction in critical invasive skills improves both resident performance and patient safety. Surgery 1998; 124: 313–7.
27.
Norris TE, Cullison SW, Fihn SD: Teaching procedural skills. J Gen Intern Med 1997; 12(Suppl 2): 64–70.
28.
Miller GE: The assessment of Clinical skills/competence/performance. Acad Med 1990; 65(9) (Suppl.): 62–7.
29.
Chambers DW, Glassman P: A primer on competency-based evaluation. J Dent Educ 1997; 61: 651–66.
30.
Working group on specialist medical training. Hospital doctors: training for the future. London: Department of Health 1993.
31.
Banning AP, Hall RJ: Assessment of competence of trainees in the medical specialties. Br J Hosp Med 1996–1997; 56(11): 588–9.
32.
Pietroni M: Quality in medical education and training. Br J Hosp Med 1993; 49(4): 237–46.
33.
Greaves JD: Anaesthesia and the competence revolution. Br J Anaesth 1997; 79(5): 555–7.
34.
Paice E, Aitken M, Cowan G, Heard S: Trainee satisfaction before and after the calman reforms of specialist training: questionnaire survey. BMJ 2000; 320: 832–6.
35.
Evans J, Goldacre MJ, Lambert TW: Views of junior doctors on the specialist registrar (SpR) training scheme: qualitative study of UK medical graduates. Med Educ 2002; 36(12): 1122–30.
36.
Khan KS, Pakkal MV: Formal, structured teaching in postgraduate training: a learner-centred educational programme. Hosp Med 2002; 63(12): 746–9.
37.
Lindsay KW: Neurosurgical training in the United kingdom and ireland: assessing progress and attainment. Neurosurgery 2002; 50(5): 1103–11.
38.
Ellis FR: Measurements of competence. Br. J Anaesth 1995; 75(6): 673–4.
39.
Batalden P, Leach D, Swing S, Dreyfus H, Dreyfus S: General competencies and accreditation in graduate medical education. Health Aff (Millwood) 2002; 21(5): 103–11.
40.
Kavic MS: Competency and the six core competencies. JSLS 2002; 6(2): 95–7.
41.
DeLisa JA: Evaluation of clinical competency. Am J Phys Med Rehabil 2000; 79(5): 474–7.
42.
DeLisa JA: Certifying and measuring competency in the United States. Arch Phys Med Rehabil 2000; 81(9): 1236–41.
43.
Miller DC, Montie JE, Faerber GJ: Evaluating the Accreditation Council on Graduate Medical Education core clinical competencies: techniques and feasibility in a urology training program. J Urol 2003; 170(4 Pt 1): 1312–7.
44.
Collins J, Hyde C, Gray L, Wood B, Blinder RA, Puckett ML, Rosado de Christenson ML, Koeller KK: Association of Program Directors in Radiology Education Committee. Radiology resident evaluation: a form that addresses the six competencies of the accreditation council for graduate medical education. Acad Radiol 2002; 9(7): 815–6.
45.
Collins J: Evaluation of residents, faculty, and program. Acad Radiol 2003; 10(Suppl 1): 35–43.
46.
King RV, Murphy-Cullen CL, Krepcho M, Bell HS, Frey RD: Tying it all together? A competency-based linkage model for family medicine. Fam Med 2003; 35(9): 632–6.
47.
Peltier WL: Core competencies in neurology resident education: A rewiew and tips for implemetation. The neurologist 2004; 10: 97–101.
48.
Gordon P, Tomasa L, Kerwin J: ACGME Outcomes Project: selling our expertise. Fam Med 2004; 36(3): 164–7.
49.
Taylor KL, Chudley AE: Meeting the needs of future physicians: a core curriculum initiative for postgraduate medical education at a Canadian university. Med Educ 2001; 35(10): 973–82.
50.
Lane DS, Ross V: Defining competencies and performance indicators for physicians in medical management. Am J Prev Med 1998; 14(3): 229–36.
51.
Brennan MG, Coles C: Developing professional skills. Lancet 2003; 362(9394): 1506.
52.
Piepgras DG: Post residency subspecialty training in neurosurgery –the impact of subspecialty training on organized neurosurgery and resident training – benefits, responsibilities and liabilities. Acta Neurochir Suppl (Wien) 1997; 69: 140–4.
53.
Reulen HJ, Marz U: 5 years’ experience with a structured operative training programme for neurosurgical residents. Acta Neurochir (Wien) 1998; 140(11): 1197–203.
54.
Siebolds M: Qualitätsmanagement im Praxisnetz-eine pragmatische Einführung. In: Tophoven C, Lieschke L: Integrierte Versorgung. Köln: Deutscher Ärzteverlag 2003; 107–29.
55.
Ärztliches Zentrum für Qualität in der Medizin (Hrsg.): Kompendium-Q-M-A. Köln: Deutscher Ärzteverlag 2004; 50.
56.
Großkopf V, Klein H: Krankenpflege und Recht. 2. Aufl. Balingen: Spitta-Verlag 2002; 177–82.
57.
Yudkowsky R, Elliott R, Schwartz A: Two perspectives on the indicators of quality in psychiatry residencies: program directors’ and residents’. Acad Med 2002; 77(1): 57–64.
58.
Yudkowsky R, Schwartz A: Content, culture, and context: determinants of quality in psychiatry residency programs. Acad Med 2000; 75(10 Suppl): 99–101.
59.
Wolfsthal SD, Beasley BW, Kopelman R, Stickley W, Gabryel T, Kahn MJ: Membership Survey and Scientific Data Committee, The Association of Program Directors of Internal Medicine. Benchmarks of support in internal medicine residency training programs. Acad Med 2002; 77(1): 50–6.
60.
Mensdorf B: Schüleranleitung in der Pflegepraxis: Hintergründe – Konzepte – Probleme – Lösungen. 2., überarbeitete und erweiterte Aufl. Stuttgart: Kohlhammer Verlag 2002.
61.
Siebolds M: Patientenfallkonferenz. In: Siebolds M, Kirchner H, Ollenschläger G (Hrsg.): Handbuch Qualitätszirkel. Köln: Deutscher Ärzteverlag 2004.
62.
Siebolds M, Horaczek U, Jacobs G: Qualitätszirkel Diabetes. Qualimed 1999; 4: 102–11.
63.
Winckel CP, Reznick RK, Cohen R, Taylor B: Reliability and construct validity of a structured technical skill assessment. Am J Surg 1994; 167: 423–27.
64.
van der Vleuten CPM, Swanson DB: Assessment of clinical skills with standardized oatients: State of the art. Teach Learn Med 1990; 2(2): 58–76.
65.
Johnston KC: Responding to the ACGME’s competency requirements: an innovative instrument from the University of Virginia’s neurology residency. Acad Med 2003; 78: 1217–20.
66.
Gray JG: Global rating scales in resident education. 1996; 71(1): 55–63.
67.
Risucci DA, Tortolani AJ, Ward RL: Ratings of Surgical Residents by self, supervisors and peers. Surg Gyn Ostet 1989; 169: 519–26.
68.
ACGME Outcome Projekt Weitere Details: http://www.acgme.org/outcome/ (Stand: 5. August 2004).
69.
King RC: A log book for preregistration house officers. Br J Hosp Med 1989; 41(2): 111.
70.
Luke C, Kadzombe E, Armstrong A, Gorman D, Horner J: An evaluation of a logbook for trainees in accident and emergency medicine in the United Kingdom. Arch Emerg Med 1991; 8(2): 130–4.
71.
Paice E, Moss F, West G, Grant J: Association of use of a log book and experience as a preregistration house officer: interview survey. BMJ 1997; 314: 213–5.
72.
Beer AM, Kiwitt P, Siebolds M: Entwicklung und Implementierung eines operationalisierten Weiterbildungsprogramms. NaturaMed 2005; 20: 14–8.
73.
Meyring S, Leopold HC, Siebolds M: Implementation of a competency-based graduate medical education program in a neurology department. Nervenarzt 2006; 77(4): 439–48. German
1. Rohde V, Wellmann A, Bestmann B: Beurteilung der Fort- und Weiterbildung. Dtsch Ärztebl 2004; 101(5): A 233–38.
2. Rohde V, Bestmann B, Wellmann A: Klinik, Forschung und Lehre: Ein Spagat. Dtsch Ärztebl 2004; 101(14): A 908–12.
 3. http://www.dgai.de/10_4empfehlungen.htm (Stand 4.11.2005).
4. http://www.dgch.de/ (Stand 4. November 2005).
5. http://www.dggg.de/ (Stand 4. November 2005).
6. Prien T: Beurteilung der Facharztweiterbildung durch Ärzte in Weiterbildung anhand eines validierten Fragebogens. Anasth Intensivmedizin 2004; 45: 25–31.
7. Bundes­ärzte­kammer (Arbeitsgemeinschaft der Deutschen Ärztekammern): (Muster-) Weiter­bildungs­ordnung gemäß Beschluss 106. Deutscher Ärztetag 2003 in Köln.
8. Long DM: Competency-based residency training: the next advance in graduate medical education. Acad Med 2000; 75(12): 1178–83.
9. van der Vleuten CPM, Swanson DB: Assessment of clinical skills with standardized patients: State of the art. Teach Learn Med 1990; 2(2): 58–76.
10. Pratt D, Magill Mk: Educational Contracts: A basis for effective clinical teaching. J Med Educ 1983; 58: 462–467.
11. Holmboe ES: Faculty and the observation of trainees’ clinical skills: problems and opportunities. Acad Med 2004; 79(1): 16–22.
12. Greaves JD: Anaesthesia and the competence revolution. Br J Anaesth 1997; 79(5): 555–7.
13. Carraccio C, Wolfsthal SD, Englander R, Ferentz K, Martin C: Shifting Paradigms: From Flexner to Competencies. Acad Med 2002; 77: 361–7.
14. Hager P, Goncvi A: What is competence? Med Teach 1996; 18: 15–18.
15. Leung WC: Competency based medical training: review. BMJ 2002; 325: 693–696. Competencies. Acad Med 2002; 77: 361–7.
16. Quillen DM: Challenges and Pitfalls of developing and applying a competency-based curriculum. Fam Med 2001; 33(9): 652–4.
17. Stillman PL, Sabers DL: Using a competency-based program to assess interviewing skills of pediatric housestaff. J Med Educ 1978; 53: 493–6.
18. Weinstein HM, Russell ML: Competency-based psychiatric education. Am J Psychiatry 1976; 133: 935–9.
19. Myerson KR: Anaesthesia and the competence revolution. Br J Anaesth 1998; 80(4): 562.
20. Siebolds M: Arbeitsbuch zum Fach „Grundlagen der Facharztweiterbildung“ im Masterstudiengang „Krankenhausmanagement für Fachärzte“ 2003.
21. Kovacs G: Procedural skills in medicine: linking theory to practice. J Emerg Med 1997; 15(3): 387–91.
22. Hawes R, Lehmann GA, Hast J et al.: Training resident physicians in fiberoptic sigmoidoscopy. How many supervised examinations are required to achieve competence? Am J Med 1986; 80: 465–70.
23. Rosser JC, Rosser LE, Salvalgi RS: Objective evaluation of a laparoskopic surgical skill program for residents and senior surgeons. Arch Surg 1998; 133: 657–61.
24. Wigton RS, Steinmann WC: Procedural skills training in the internal medicine residency. J Med Educ 1984; 59: 392–400.
25. Wigton RS: Measuring procedural skills. Ann Intern Med 1996; 125: 1003–4.
26. Martin M, Vashisht B, Frezza E et al.: Competency-based instruction in critical invasive skills improves both resident performance and patient safety. Surgery 1998; 124: 313–7.
27. Norris TE, Cullison SW, Fihn SD: Teaching procedural skills. J Gen Intern Med 1997; 12(Suppl 2): 64–70.
28. Miller GE: The assessment of Clinical skills/competence/performance. Acad Med 1990; 65(9) (Suppl.): 62–7.
29. Chambers DW, Glassman P: A primer on competency-based evaluation. J Dent Educ 1997; 61: 651–66.
30. Working group on specialist medical training. Hospital doctors: training for the future. London: Department of Health 1993.
31. Banning AP, Hall RJ: Assessment of competence of trainees in the medical specialties. Br J Hosp Med 1996–1997; 56(11): 588–9.
32. Pietroni M: Quality in medical education and training. Br J Hosp Med 1993; 49(4): 237–46.
33. Greaves JD: Anaesthesia and the competence revolution. Br J Anaesth 1997; 79(5): 555–7.
34. Paice E, Aitken M, Cowan G, Heard S: Trainee satisfaction before and after the calman reforms of specialist training: questionnaire survey. BMJ 2000; 320: 832–6.
35. Evans J, Goldacre MJ, Lambert TW: Views of junior doctors on the specialist registrar (SpR) training scheme: qualitative study of UK medical graduates. Med Educ 2002; 36(12): 1122–30.
36. Khan KS, Pakkal MV: Formal, structured teaching in postgraduate training: a learner-centred educational programme. Hosp Med 2002; 63(12): 746–9.
37. Lindsay KW: Neurosurgical training in the United kingdom and ireland: assessing progress and attainment. Neurosurgery 2002; 50(5): 1103–11.
38. Ellis FR: Measurements of competence. Br. J Anaesth 1995; 75(6): 673–4.
39. Batalden P, Leach D, Swing S, Dreyfus H, Dreyfus S: General competencies and accreditation in graduate medical education. Health Aff (Millwood) 2002; 21(5): 103–11.
40. Kavic MS: Competency and the six core competencies. JSLS 2002; 6(2): 95–7.
41. DeLisa JA: Evaluation of clinical competency. Am J Phys Med Rehabil 2000; 79(5): 474–7.
42. DeLisa JA: Certifying and measuring competency in the United States. Arch Phys Med Rehabil 2000; 81(9): 1236–41.
43. Miller DC, Montie JE, Faerber GJ: Evaluating the Accreditation Council on Graduate Medical Education core clinical competencies: techniques and feasibility in a urology training program. J Urol 2003; 170(4 Pt 1): 1312–7.
44. Collins J, Hyde C, Gray L, Wood B, Blinder RA, Puckett ML, Rosado de Christenson ML, Koeller KK: Association of Program Directors in Radiology Education Committee. Radiology resident evaluation: a form that addresses the six competencies of the accreditation council for graduate medical education. Acad Radiol 2002; 9(7): 815–6.
45. Collins J: Evaluation of residents, faculty, and program. Acad Radiol 2003; 10(Suppl 1): 35–43.
46. King RV, Murphy-Cullen CL, Krepcho M, Bell HS, Frey RD: Tying it all together? A competency-based linkage model for family medicine. Fam Med 2003; 35(9): 632–6.
47. Peltier WL: Core competencies in neurology resident education: A rewiew and tips for implemetation. The neurologist 2004; 10: 97–101.
48. Gordon P, Tomasa L, Kerwin J: ACGME Outcomes Project: selling our expertise. Fam Med 2004; 36(3): 164–7.
49. Taylor KL, Chudley AE: Meeting the needs of future physicians: a core curriculum initiative for postgraduate medical education at a Canadian university. Med Educ 2001; 35(10): 973–82.
50. Lane DS, Ross V: Defining competencies and performance indicators for physicians in medical management. Am J Prev Med 1998; 14(3): 229–36.
51. Brennan MG, Coles C: Developing professional skills. Lancet 2003; 362(9394): 1506.
52. Piepgras DG: Post residency subspecialty training in neurosurgery –the impact of subspecialty training on organized neurosurgery and resident training – benefits, responsibilities and liabilities. Acta Neurochir Suppl (Wien) 1997; 69: 140–4.
53. Reulen HJ, Marz U: 5 years’ experience with a structured operative training programme for neurosurgical residents. Acta Neurochir (Wien) 1998; 140(11): 1197–203.
54. Siebolds M: Qualitätsmanagement im Praxisnetz-eine pragmatische Einführung. In: Tophoven C, Lieschke L: Integrierte Versorgung. Köln: Deutscher Ärzteverlag 2003; 107–29.
55. Ärztliches Zentrum für Qualität in der Medizin (Hrsg.): Kompendium-Q-M-A. Köln: Deutscher Ärzteverlag 2004; 50.
56. Großkopf V, Klein H: Krankenpflege und Recht. 2. Aufl. Balingen: Spitta-Verlag 2002; 177–82.
57. Yudkowsky R, Elliott R, Schwartz A: Two perspectives on the indicators of quality in psychiatry residencies: program directors’ and residents’. Acad Med 2002; 77(1): 57–64.
58. Yudkowsky R, Schwartz A: Content, culture, and context: determinants of quality in psychiatry residency programs. Acad Med 2000; 75(10 Suppl): 99–101.
59. Wolfsthal SD, Beasley BW, Kopelman R, Stickley W, Gabryel T, Kahn MJ: Membership Survey and Scientific Data Committee, The Association of Program Directors of Internal Medicine. Benchmarks of support in internal medicine residency training programs. Acad Med 2002; 77(1): 50–6.
60. Mensdorf B: Schüleranleitung in der Pflegepraxis: Hintergründe – Konzepte – Probleme – Lösungen. 2., überarbeitete und erweiterte Aufl. Stuttgart: Kohlhammer Verlag 2002.
61. Siebolds M: Patientenfallkonferenz. In: Siebolds M, Kirchner H, Ollenschläger G (Hrsg.): Handbuch Qualitätszirkel. Köln: Deutscher Ärzteverlag 2004.
62. Siebolds M, Horaczek U, Jacobs G: Qualitätszirkel Diabetes. Qualimed 1999; 4: 102–11.
63. Winckel CP, Reznick RK, Cohen R, Taylor B: Reliability and construct validity of a structured technical skill assessment. Am J Surg 1994; 167: 423–27.
64. van der Vleuten CPM, Swanson DB: Assessment of clinical skills with standardized oatients: State of the art. Teach Learn Med 1990; 2(2): 58–76.
65. Johnston KC: Responding to the ACGME’s competency requirements: an innovative instrument from the University of Virginia’s neurology residency. Acad Med 2003; 78: 1217–20.
66. Gray JG: Global rating scales in resident education. 1996; 71(1): 55–63.
67. Risucci DA, Tortolani AJ, Ward RL: Ratings of Surgical Residents by self, supervisors and peers. Surg Gyn Ostet 1989; 169: 519–26.
68. ACGME Outcome Projekt Weitere Details: http://www.acgme.org/outcome/ (Stand: 5. August 2004).
69. King RC: A log book for preregistration house officers. Br J Hosp Med 1989; 41(2): 111.
70. Luke C, Kadzombe E, Armstrong A, Gorman D, Horner J: An evaluation of a logbook for trainees in accident and emergency medicine in the United Kingdom. Arch Emerg Med 1991; 8(2): 130–4.
71. Paice E, Moss F, West G, Grant J: Association of use of a log book and experience as a preregistration house officer: interview survey. BMJ 1997; 314: 213–5.
72. Beer AM, Kiwitt P, Siebolds M: Entwicklung und Implementierung eines operationalisierten Weiterbildungsprogramms. NaturaMed 2005; 20: 14–8.
73. Meyring S, Leopold HC, Siebolds M: Implementation of a competency-based graduate medical education program in a neurology department. Nervenarzt 2006; 77(4): 439–48. German

Leserkommentare

E-Mail
Passwort

Registrieren

Um Artikel, Nachrichten oder Blogs kommentieren zu können, müssen Sie registriert sein. Sind sie bereits für den Newsletter oder den Stellenmarkt registriert, können Sie sich hier direkt anmelden.

Fachgebiet

Zum Artikel

Anzeige

Alle Leserbriefe zum Thema