Gesine Hofinger, Dr. phil.
Psychologie
Otto-Friedrich-Universität Bamberg
Geboren 1968 in Düsseldorf
Studium der Psychologie und des Arbeitsrechts an der Universität Bamberg
und der Psychologie an der Universidad Complutense de Madrid
Schwerpunkt
The Sciences of Risk
Arbeitsvorhaben
Wahrnehmung und Bewertung von Risiko in kritischen Situationen in komplexen Arbeitsfeldern
My field of interest is the management of critical situations in complex working domains. In the year at the Wiko I'll work on a theory of perception and subjective assessment of risk in critical situations. I'll try to integrate findings on decision making under uncertainty and the research on acting in complex situations. I will concentrate on the interaction of mental models and motives in risk perception and assessment. How do individuals and groups assess risks when they have to take decisions in the course of critical incidents in complex working? In which way is "risk" a part of their mental models? How do individual motives and social influences interact in this process? How can training programs for the management of critical situations be designed and evaluated that help people to adequately assess risk?Data for theory building and the development of training sessions come from the analysis of critical situations in anaesthesia.
Recommended Reading
Buerschaper, C., G. Hofinger, and R. von der Weth. "Strategisches Denken aus dem Computer? Über den Nutzen eines Trainings allgemeiner Problemlösestrategien." In Planspiele in der beruflichen Bildung, edited by U. Blötz. Nuremberg: Bildung und Wissen, 2001.
Hofinger, G. and G. Horn. "Notfallmanagement. Aufgaben, Anforderungen, Anregungen." In Ja, mach nur einen Plan. Pannen und Fehlschläge - Ursachen, Beispiele, Lösungen, edited by S. Strohschneider and R. von der Weth, 2nd revised edition. Göttingen et al.: Huber, 2001.
Hofinger, G. Denken über Umwelt und Natur. Weinheim: PVU, 2001.
Kolloquium, 18.02.2003
Irren ist menschlich - Menschliches Versagen aus psychologischer Sicht
Dass Irren menschlich ist, wissen wir alle. Aber worin genau irren wir und warum? Was lernen wir aus Fehlern? Ist es Schicksal, Fehler zu machen, oder kann man das menschliche Handeln verbessern? Diese Fragen stellen sich aus der Perspektive der Wissenschaft und ihrer Anwender Psychologen, Sicherheitsingenieure, Ergonomen, Systemdesigner etc. In der Psychologie begann die Fehlerforschung Anfang des 20. Jhds. als ein Weg, das Funktionieren des menschlichen Geistes zu erkennen. In den anderen (angewandten) Wissenschaften war das Bemühen um Verbesserung des menschlichen Handelns, insbesondere in der Industrie und im Militär, vorrangig.
Zunächst wurden mehrere Jahrzehnte Einzelpersonen untersucht (v.a. im Labor), wobei eine Fülle an Einzelbefunden über die Begrenztheit des menschlichen Geistes zusammengetragen wurde. Im Fokus standen Wahrnehmung und basale Denkfehler; Motivationen und Emotionen bleiben gemäß der herrschenden Psychologiemoden weitgehend außen vor. In der Anwendung führte dieses Wissen zu ergonomisch ausgefeilten Arbeitsplätzen und, wo es auf Sicherheit ankommt, zu Automatisierung.
In den letzten Jahren verschiebt sich das Interesse der Fehlerforschung auf Teams und auf organisationale Strukturen. Diese Entwicklung erkennt an, dass menschliches Handeln multideterminiert ist - Fehler treten nicht nur in Abhängigkeit von der Aufgabe auf, sondern auch von sozialen Prozessen, die wiederum von Organisationsstrukturen mitbestimmt sind. Die Beschreibung des jeweiligen Gesamtsystems ist ein wesentlicher Fortschritt der Fehlerforschung. Zugleich mit dieser Entwicklung wird nicht mehr nur die eine falsche Handlung mit ihren Vorbedingungen untersucht. Man versucht, komplexere Geschehnisse wie Unfälle aus vielen einzelnen Fehlern und Vorbedingungen zu erklären. Aus der Analyse von Unfällen und Zwischenfällen lassen sich so Hinweise gewinnen, wie Arbeit in komplexen Berufsfeldern gestaltet werden kann, so dass die Wahrscheinlichkeit für das Auftreten von Fehlern geringer wird, ihre Verbesserung möglich wird und Folgen von Fehlern minimiert werden.
Es gibt bislang noch keinen Theorierahmen, der erlaubt, eine komplette Unfallanalyse in einer Sprache zu leisten - die bisherigen Fehlerklassifikationen sind auf kognitive Fehler von Einzelpersonen spezialisiert. Auch wenn ein solcher entwickelt wird, müssen Motivationen, Emotionen und komplexere Denkprozesse zwangsläufig vernachlässigt werden, wenn es um eindeutige, auch juristisch verwendbare Analysen geht.
Die (europäische) Forschung zum Umgang mit komplexen Problemen der letzten 20 Jahre hat Zusammenhänge des Denkens mit Motivationen und Emotionen herausgestellt. Ich möchte an je einem Beispiel aus der chemischen Industrie und der Anästhesie zeigen, wie die Ergebnisse dieser Forschung für die Analyse von Zwischenfällen bzw. Unfällen verwendet werden können, auch wenn die Interpretation z.T. spekulativ bleiben muss.
Aus dem Wissen um Fehler wird Wissen über Lernmöglichkeiten gewonnen. Auch wenn Menschen immer Fehler machen werden, kann durch die Gestaltung komplexer Arbeitsplätze und eine bessere Ausbildung der handelnden Menschen mehr Sicherheit erreicht werden
Publikationen aus der Fellowbibliothek
Hofinger, Gesine (Heidelberg, 2008)
Human Factors : Psychologie sicheren Handelns in Risikobranchen ; mit 17 Tabellen
Hofinger, Gesine (Frankfurt am Main, 2005)
Kommunikation in kritischen Situationen Schriftenreihe der Plattform Menschen in komplexen Arbeitswelten e.V.
Hofinger, Gesine (Berlin, 2005)
Notfallmanagement : human factors in der Akutmedizin ; [erkennen, entscheiden, handeln]
Hofinger, Gesine (2004)
Hofinger, Gesine (2003)
Behandlungsfehler : das Bewusstsein schärfen
Hofinger, Gesine (München [u.a.], 2001)
Denken über Umwelt und Natur Psychologie - Forschung - aktuell