Kognitive Fallgruben beim Beurteilen von Risiken

Kognitive Fallgruben beim Beurteilen von Risiken

Flavio Gerbino
von Flavio Gerbino
Lesezeit: 18 Minuten

Erkenntnisse aus der wissenschaftlichen Verhaltensökonomie und Psychologie enttarnen ungnädig unsere alltäglichen Denkfehler. Es scheint als revidiere die Verhaltensökonomie derzeit unsere Problemlösungsgewohnheiten.

Wenn man die Regale in Buchläden zu diesen Themen durchsieht, stellt man unschwer fest, dass sich unzählige dickleibige Folianten neben populärwissenschaftlich aufbereiteten Neuerscheinungen, Buchdeckel an Buchdeckel schichten und sich grosser Beliebtheit erfreuen. Viele davon stehen auf den Bestsellerlisten weit oben, und in den Buchhandlungen direkt neben der Kasse. Sie tragen Namen wie Fallgruben, Die Kunst des klaren Denkens, Schnelles Denken, langsames Denken und so weiter.

Daher scheint es mir naheliegend zu sein, die Frage aufzuwerfen, inwiefern wir die in diesen Ressorts verarbeiteten Einsichten und Erkenntnisse auch für die IT und die IT-Sicherheit und für einen adäquaten Umgang mit Risiken nutzen können? Welche nützlichen Informationen können wir aus diesen Ausführungen über unser Verhalten gewinnen, die es uns ermöglichen sinnvollere, objektivere Entscheidung in der IT-Welt im Allgemeinen und bei der Beurteilung von Risiken im Besonderen, zu treffen?

Die Kategorie der Kognitiven Verzerrungen (im Englischen Cognitive Biases genannt) sticht dabei besonders ins Auge. Darüber gibt es einige interessante, sowie kontrovers diskutierte Werke, welche die Fehlleistungen unseres Denkens systematisch und anschaulich dokumentieren (Quellen unten). Ich habe mir einige davon zu Gemüte geführt und daraus diejenigen Fallgruben des Denkens extrahiert, bei denen ich den Eindruck hatte, dass sie bei der Beurteilung von Situation in der IT-Welt und bei der objektiven Beurteilung von Risiken eine wesentliche Rolle spielen könnten. Und zwar dahingehend, dass die Verzerrung uns einen bösen Streich mit gravierenden Folgen spielt oder uns zu schlechten Entscheidungen und Fehlbeurteilungen drängt.

Da scheint es mir entscheidend, zu sehen, wie wir denken und welchen Wahrnehmungsfehlern unser Denken unterliegt. Denn wenn wir mit Unsicherheit zu kämpfen haben, und das ist in der IT ständig der Fall, dann spielt es eine grosse Rolle, wie wir ein Problem wahrnehmen.

Ein Beispiel: Wir hassen Verluste mehr, als dass wir Gewinne lieben. Bloss, wo der Gewinn aufhört und der Verlust beginnt, das liegt in unserer Wahrnehmung begründet, und die lässt sich auf vielfältige Art und Weise beeinflussen. Das heisst: Entscheidend ist weniger das Problem per se, sondern unsere Wahrnehmung des Problems.

Es würde den Rahmen dieses Artikels sprengen, alle gewonnenen Einblicke und Erkenntnisse systematisch zu dokumentieren und mit praxisnahem Beispielen anschaulich zu schmücken. Aber mit etwas Phantasie, wird es schnell klar, wozu die unten aufgeführten Kognitiven Verzerrungen führen, wenn wir ihnen in diversen Situationen verfallen – was immer wieder leicht geschehen kann und geschehen wird.

Definition der kognitiven Verzerrung

Kognitive Verzerrungen könnten als Tendenzen definiert werden, in bestimmter Art und Weise zu denken. Kognitive Verzerrungen können systematische Abweichungen von einer beabsichtigten rationalen Normalität (dem oft beschriebenen gesunden Menschenverstand) oder einem guten, ausgewogenen Urteil verursachen. Es zeigt sich, dass unsere Fehler charakteristische Muster aufweisen.

Obwohl die Realität dieser Verzerrungen bestätigt ist, gibt es Kontroversen darüber, wie diese zu klassifizieren oder wie sie zu erklären seien. Einige sind Auswirkungen unserer Informationsverarbeitungsregeln, auch Heuristiken genannt, die das Gehirn nutzt, um Entscheidungen zu treffen oder Urteile zu fällen. Alle damit in Verbindung stehenden Effekte werden nun kognitiven Verzerrungen genannt.

Die Experten sind sich auch uneinig darüber, ob einige dieser Verzerrungen wirklich als irrational eingestuft werden sollen, oder ob sie nicht doch zu einer nützlichen Haltung, Einstellungen oder Verhalten führen können.

Ein Beispiel: Menschen neigen, wenn sie jemanden kennenlernen, unbewusst dazu, Suggestivfragen zu stellen, und zwar so, dass sie bereits in die Richtung einer Bestätigung ihrer voreingenommenen Annahmen über diese Person zielen. Diese Denkweise nennt sich auch Bestätigungsfehler (Confirmation Bias) und bezeichnet die Neigung Informationen so zu selektionieren, zu suchen und zu interpretieren, dass sie die eigenen Erwartungen möglichst erfüllen. Unbewusst ausgeblendet werden dabei immer die Informationen, die den eigenen Erwartungen widersprechen.

Umgekehrt argumentiert könnte dieser Bestätigungsfehler nun aber auch ebenso gut als ein Beispiel sozialer Kompetenz interpretiert werden: als ein empathisches Mittel um auf eine gewisse Art und Weise, eine gemeinsame Verbindungsbasis mit der anderen Personen herzustellen.

Doch dies nur am Rande, um kurz aufzuzeigen, dass gewisse Verzerrungen eben je nach Auslegung nicht nur Nachteilig für uns sein müssen. Und dass intuitives Denken und Handeln wichtig ist.

Übersicht der Verzerrungen

Je nach Literatur zählt man zwischen 100 – 200 dokumentierter Verzerrungsfehler. Je nachdem, wie diese eingestuft, gruppiert, als unabhängig berücksichtigt oder nach Themen gruppiert gezählt werden. Man könnte sie nach Klassen gruppieren, zum Beispiel Verzerrungen der Entscheidungsfindung, Verhaltensverzerrungen, Soziale Verzerrungen, Gedächtnisverzerrungen und so weiter.

Es handelt sich bei der folgenden Auflistung also nicht um eine systematische Abhandlung, sondern um eine kleine subjektive Auswahl, mit dem Ziel einen Denkanstoss zu geben. Damit könnten wir nämlich unsere Anfälligkeit für verzerrtes Denken unter Umständen ein wenig reduzieren. Denn wenn wir uns bewusst sind, dass auch wir verzerrt denken, werden wir vielleicht auch etwas selbstkritischer und skeptischer. Diese Selbsterkenntnis ist essenziell: Wir müssen lernen, zu akzeptieren, dass wir uns selbst getäuscht haben könnten. Ein solches Bewusstsein wäre die Basis für effizienteres, kritisches Denken.

Fehler sind wichtig, Irrtümer sind ein notwendiges Durchgangsstadium zur Erkenntnis. Man kann daraus lernen, dass es notwendig ist, die eigenen Fehler zu analysieren und daraus Schlüsse für die Umorganisation des eigenen Denkens und Verhaltens zu ziehen.

Beschreibung Möglicher Effekt
Mehrdeutigkeitsvermeidungs- Effekt
Die Tendenz, Optionen zu vermeiden, die z.B. aufgrund unvollständiger Informationen den Ausgang einer Sache als weniger vorhersehbar erscheinen lassen.

Dies hat die Wirkung, dass Menschen dazu neigen, Optionen, für welche die Wahrscheinlichkeit eines positiven Ergebnisses bekannt ist, über eine Option zu stellen, für welche die Wahrscheinlichkeit eines positiven Ausgangs weniger klar vorhersehbar ist.
Damit stufen wir auch die Eintrittswahrscheinlichkeit für Risiken, deren Manifestation wir uns anschaulich vorstellen können, als wesentlich höher ein, als die, für Risiken, die sich unserer Vorstellungskraft als weniger eingängig präsentieren.

Daher sollten Risiken immer auch möglichst handfest, plastisch, anschaulich, anhand praktischer Szenarien und nicht ausschliesslich anhand abstrakter Begriffe erörtert werden.
Verankerung und unbewusste Fokussierung
Die Tendenz, uns zu stark, zu fixiert verankert auf ein Merkmal oder eine Information zu verlassen, wenn wir etwas entscheiden müssen (in der Regel die erste zugängliche Information, die wir zu diesem Thema zu erwerben und muss nichts mit der eigentlich Situation zu tun haben) Der Anker ist eine bestimmte Information oder Merkmal. Die Information kann der Betreffende selbst aus den Umständen bilden oder von einer anderen Person erhalten, oder sie ist rein zufällig vorhanden. Diese Information ist beim Einschätzen einer Situation und beim Fällen einer Entscheidung ausschlaggebend. Es spielt keine Rolle, ob die Information für eine rationale Entscheidung tatsächlich relevant und nützlich ist.

Sie trifft sehr ausgeprägt bei numerischen Informationswerten zu. D.h. wenn sie gegenüber dem Management Risiken präsentieren sollten, dann beginnen sie immer mit den kleinen! Die tiefen Schadenswerte, werden eine Ankerfunktion ausüben, welche in den Köpfen des Gremiums auch die Grossen Risiken mildern wird, weil unbewusst, immer die kleineren Zahlen, die zuerst als Information zur Verfügung standen ihren Ankereffekt ausspielen. Andererseits, wenn, sie auf bestimmte Risiken explizit hinweisen wollen, sollten sie diese unmittelbar nach den Werten präsentieren, die sie dem Risiko mitgeben möchten.
Aufmerksamkeitsverzerrung
Die Tendenz, dass unsere Wahrnehmung durch unsere wiederkehrende Gedanken und Interessen beeinflusst wird.

Diese beeinflussen, welche Informationen für Menschen zum Schwerpunkt werden. Zum Beispiel, wenn Sie sich für Hackerattacken interessieren, werden sie unbewusst auch eine erhöhte Aufmerksamkeit auf Informationen legen, die ihre Anliegen vertreten.
In der Beurteilung von Risiken bedeutet dass, das wir mit grosser Wahrscheinlichkeit die Risiken unbewusst ausblenden, für deren Grundthemen wir uns weniger interessieren und worüber wir uns deshalb auch weniger Gedanken machen.

Hingegen Risiken, deren Grundlage uns mehr fasziniert (z.B. spektakuläre Hacking Fälle) vermeintlich überbewerten werden.
Verfügbarkeitsheuristik
Die Tendenz, die Wahrscheinlichkeit von Ereignissen mit grösserer Verfügbarkeit in unserer Erinnerung deutlich zu überschätzen und zwar unabhängig davon, wie aktuell, ungewöhnlich oder emotional aufgeladen die Erinnerungen auch sein mögen.

Die Verfügbarkeitsheuristik geschieht unbewusst, wenn die Wichtigkeit oder Wahrscheinlichkeit eines Ereignisses beurteilt werden muss, aber gleichzeitig die Zeit, die Möglichkeit oder der Wille fehlt, um auf präzise Daten zurückzugreifen.

In solchen Fällen wird das Urteil stattdessen davon beeinflusst, wie verfügbar dieses Ereignis oder Beispiele ähnlicher Ereignisse im Gedächtnis sind. Ereignisse, an die wir uns sehr leicht erinnern, scheinen uns daher wahrscheinlicher zu sein als Ereignisse, an die wir uns nur schwer erinnern können.
Aus diesem Grund könnte man etwa die Wahrscheinlichkeit dafür, gehackt oder Opfer eines Virenbefalls zu werden, als noch höher einschätzen, wenn man kürzlich Berichte darüber gelesen hat oder in den Medien häufig solchen Geschichten begegnet.
Verfügbarkeits-Kaskade
Ein sich selbst verstärkender Prozess, bei dem eine kollektive Überzeugung sukzessive immer mehr an Plausibilität gewinnt, nur indem eine zunehmende Wiederholung im öffentlichen Diskurs stattfindet. (Wiederhole etwas nur lange genug und es wird in den Köpfen der Leute als wahr angenommen). Dieses Phänomen, dass Aussagen, die zuvor bereits gehört oder gelesen wurden, ein grösserer Wahrheitsgehalt zugesprochen wird als solchen, die erstmals gehört werden, bedeutet, dass neu erörterte Risiken im Vergleich zu bekannten, sich erst mal festigen müssen, bevor sie beurteilt werde.

Andererseits sollte man auch vorsichtig sein, dass ein Risiko, dass immerzu zur Sprache gebracht wird, mehr Aufmerksamkeit bekommt als es verdient.
Blinder Fleck Verzerrung
Die Tendenz, sich selbst als weniger voreingenommen als andere Menschen zu sehen, bzw. mehr kognitiven Verzerrungen in anderen zu identifizieren als in sich selbst.

Wir glauben die Auswirkungen von Verzerrungen in den Urteilen anderer erkennen zu können, während wir nicht in der Lage sind Auswirkungen von Verzerrungen in unserem eigenen Urteil zu sehen.

Als Trost kann man hier ergänzen, dass auch anderen sehr viel weniger Wissen, als sie selbst zu wissen glauben.
Da wir alle dieser Verzerrung unterliegen, scheint es bei der Beurteilung von Risiken äusserst sinnvoll, die Bewertung unabhängig von diversen Personen durchführen zu lassen.

In einem zweiten Schritt werden die identifizierten Bewertungsunterschiede abgeglichen und abgestimmt.
Konservative Verzerrung
Eine deutliche Neigung, bei der hohe Werte und hohe Wahrscheinlichkeiten überschätzt, während niedrige Werte und niedrige Wahrscheinlichkeiten unterschätzt werden. Das heisst, dass bei der Beurteilung von Risiken, grosse Risiken in der Tendenz noch überschätzt, währen gleichzeitig kleine eher unterschätzt werden.
Kontrastwirkung
Steigerung oder Reduktion gewisser Wahrnehmungsreize, wenn sie mit einem kürzlich beobachtet, kontrastreicher Objekt im Vergleich stehen.

Einer Information, welche zusammen mit einer im Kontrast stehenden Information präsentiert wird, wird intensiver wahrgenommen.
Ein Risiko erscheint grösser, wenn es mit einem kleinen Risiko verglichen wird, oder kleiner, wenn es mit einem grösseren Risiko kontrastiert wird.

Die Attraktivität einer Handlungs-Option eines Szenarios kann daher deutlich erhöht werden, wenn sie einer ähnlichen aber schlechteren Alternative gegenübergestellt wird und vice versa.
Framing Effekt
Tendenz, unterschiedliche Schlussfolgerungen aus identischer Information zu ziehen, abhängig davon, wie und von wem die Informationen präsentiert wurden.

Das bedeutet, dass unterschiedliche Aufbereitung bzw. Formulierungen einer Information – bei gleichem Inhalt – das Verhalten des Empfängers unterschiedlich beeinflussen.

Auch der bekannte Grundsatz c’est le ton qui fait la musique kann hierunter subsumiert werden.
Wenn dieser Effekt auf Risiken angewendet wird, dann scheint es wichtig, dass Risiken immer in gleicher Art und Weise, nach gleichem Schema aufzubereiten sind, um sie objektiv beurteil und untereinander vergleichen zu können.
Spielerfehlschluss
Die Tendenz zu glauben, dass zukünftige Wahrscheinlichkeiten durch vergangene Ereignisse beeinflusst werden, während sie in Wirklichkeit unabhängig sind.

Es handelt sich hier um einen, mathematischen, logischen Fehlschluss, dem die Vorstellung zugrunde liegt, dass ein zufälliges Ereignis wahrscheinlicher wird, wenn es längere Zeit nicht eingetreten ist, oder unwahrscheinlicher, wenn es kürzlich bzw. gehäuft eingetreten ist.
Dieser Denkfehler ist auch bei der Beurteilung von Risikowahrscheinlichkeiten weit verbreitet. Eine Vermeidung dieser Tendenz lässt sich erreichen, indem man sich den bekannten Satz Der Zufall hat kein Gedächtnis. vergegenwärtigt.
Rückschaufehler
Ich-wusste-es-die-ganze-Zeit-Effekt, die Tendenz, vergangene Ereignisse rückschauend als vorhersehbar zu beurteilen. D.h. wir erinnern uns nach dem Ausgang von Ereignissen, systematisch falsch an unsere früheren Vorhersagen. Wir verzerren zurückschauend unsere ursprünglichen Schätzungen in Richtung der tatsächlichen Ausgänge (Outcome).

Wir überschätzen im Rückblick die Möglichkeit, dass man das Ereignis hätte voraussehen können, oft massiv. Die Erklärung dafür ist, dass die Kenntnis des Ereignisses die Deutung und Wertung aller damit zusammenhängenden Sachverhalte verändert und somit das gesamte kognitive Koordinatensystem in Richtung seines Eintretens verschoben wird.
Ein CSO beobachtet die Risikolandschaft auf seinem Radar minutiös, alle vereinbarten Controls und Massnahmen zur Mitigation wurden genau umgesetzt, formal wurde nichts versäumt. Nun wird bekannt, dass bei einem Sicherheitsvorfall sensitive Personendaten massiv kompromittiert wurden. Sofort kommt im Rahmen der Empörung die Frage auf, wie ein derartiger Vorfall trotz der hohen Sicherheit und der akkuraten Arbeit des CSOs etc. möglich war.

Genau hier unterliegen nun nicht nur Laien, sondern auch Fachleute des jeweiligen Bereiches dem Rückschaufehler, indem sie vorher vorhandene Informationen unter dem Einfluss des Ereignisses neu betrachten und dabei zu einer Überschätzung der Vorhersagbarkeit des Ereignisses kommen.

Besonders bei der Zuweisung von Schuld und Verantwortung spielt der Rückschaufehler eine Rolle. Wichtig ist dabei die Erkenntnis, dass Sachexpertise diesen Einfluss oft nicht ausgleichen kann. In der Rechtsprechung gibt es daher auch die Ex-ante-Sicht (lat. aus vorher) D.h. Beurteilung aus früherer Sicht. Bei ihr entfallen später ablaufende Ereignisse und Vorgänge, die zu einem früheren Zeitpunkt noch nicht bekannt sein konnten.
Die-Medien-Lügen Effekt
Bezeichnet das Phänomen, dass die Anhänger einer bestimmten Position bzgl. eines Themas dazu tendieren, die Berichterstattung zum betreffenden Gegenstand als tendenziös, unsachlich, vorurteilsvoll bzw. unfair wahrzunehmen.

Diejenigen Rezipienten, die die mediale Darstellung als einseitig wahrnehmen, haben überwiegend den Eindruck, sie sei zu Ungunsten ihrer eigenen Meinung verzerrt. Auf diese Weise entsteht die Situation, dass sich die Anhänger unterschiedlicher Positionen gleichermassen durch denselben Bericht als benachteiligt empfinden.
Die-Medien-lügen-Effekt” ist wohl jedem bekannt: Denn egal, wie faktisch und ausgewogen objektiv ein Bericht auch sein möge; die Befürworter der Gegenposition werden ihn als Beleg für ihre Überzeugung werten, dass die Medien gegen sie eingestellt sind.

Dasselbe Phänomen gilt natürlich auch innerhalb von Firmen, beispielsweise für unabhängigen Auditreports, Prüfberichte oder einen Risikoreport etc.

Interessanterweise kann man diese Überzeugung bei beiden Seiten einer Position nachweisen – der bestimmende Faktor sind nämlich nicht die objektiven Fakten, sondern die Tiefe der Kluft zwischen den unterschiedlichen Positionen zu den berichtet wird. Je tiefer der Graben zwischen den involvierten Parteien ist – und je mehr sich die Vertreter als Repräsentanten eines Standpunktes begreifen – desto vehementer lehnen sie die rapportierten Fakten ab.
Kontrollillusion
Die Tendenz unseren Grad an Einfluss auf externe Ereignisse zu überschätzen. Bzw. der Glaube, gewisse Vorgänge kontrollieren zu können, die nachweislich nicht beeinflussbar sind. Stark ausgeprägte Kontrollillusionen können zwar die Strebsamkeit für eine Sache erhöhen, führen aber keinesfalls zu fehlerfreieren Entscheidungen. Denn schlimmstenfalls führt eine starke Kontrollillusionen dazu, dass man gegenüber wichtigen Rückmeldungen immun wird, Lernvorgänge gehemmt werden, und wir so zu grösserer objektiver Risikobereitschaft prädisponieren (weil die subjektive Risikoeinschätzung sinkt).
Gültigkeitsillusion / Informationsverzerrung
Überzeugung, dass zusätzlich gewonnene Informationen immer einen zusätzlichen Nutzen bezüglich bereits vorliegender relevanter Daten für eine Vorhersage generieren, auch wenn die zusätzlichen Informationen offenbar irrelevant sind. Selbst eine Lawine an zusätzlicher Information führt nicht zu besseren Entscheidungen. Was man für die Beurteilung einer Situation nicht wissen muss, bleibt wertlos, auch wenn man es weiss. Im Gegenteil. Zuviel Information führt zu Verwirrungen und Fehlentscheiden: Desinformation durch die Informationsflut!
Vernachlässigung von Wahrscheinlichkeiten
Die Tendenz, Wahrscheinlichkeiten völlig ausser Acht zu lassen, wenn eine Entscheidung zu einer ungewissen Situation getroffen werden muss. Die Vernachlässigung der Wahrscheinlichkeit tritt vor allem in emotionalen Situationen auf. Sie entspricht einer einfachen Art, regelmässig die normativen Regeln der Entscheidungsfindung zu verletzen, indem kleine Risiken in der Regel komplett vernachlässigt oder aber massiv überbewertet werden. Die Spannweite zwischen den Extremen wird völlig ignoriert. Die Angst vor den Konsequenzen eines bedrohlichen Szenarios führt nicht nur zu einer Überschätzung der Eintrittswahrscheinlichkeit, sondern auch zu einer Überschätzung des Nutzens präventiver und schützender Massnahmen.
Pseudogewissheitseffekt
Die Wirkung der Pseudogewissheiten verursacht die Tendenz, risikoscheue Entscheidungen zu treffen, wenn das erwartete Ergebnis positiv ist, aber risikofreudige Entscheidungen zu treffen um, negative Ergebnisse zu vermeiden. Bei einer Entscheidung unter Ungewissheit wird der Unterschied zwischen zwei Wahrscheinlichkeiten wesentlich höher bewertet, wenn dadurch absolute Gewissheit erreicht werden kann. So wird eins Steigerung von 99 auf 100 Prozent als gewichtiger bewertet als eine von 50 auf 51 Prozent. Obwohl diese lediglich eine quantitative Verbesserung ist, stellt jene auch eine qualitative Steigerung dar. Das heisst nun, um beispielsweise das Risiko einer Katastrophe von 5 auf 0 Prozent zu senken (also vollständig auszuschliessen), würden Menschen sehr viel mehr investieren, als für die Absenkung von 10 auf 5 Prozent.
Risikokompensationseffekt
Tendenz des Menschen nach der Umsetzung (z.B. von gesetzlichen oder technischen) Massnahmen zur Erhöhung der Sicherheit risikofreudiger zu werden. Es handelt sich um ein paradoxes Phänomen: Sicherheitsmassnahmen zur Risikomitigiation können ganz oder teilweise unwirksam oder sogar in ihr Gegenteil verkehrt werden, weil sie uns eine vermeintliches Sicherheitsgefühl suggerieren und wir uns sicherer fühlen als vor den Massnahmen. Wir verhalten uns deswegen teils riskanter als zuvor oder sind riskanteren Aktionen anderer ausgesetzt, weil ein möglicher, Schaden als weniger wahrscheinlich oder weniger schwerwiegend eingeschätzt wird.
Null-Risiko-Verzerrung
Die Null-Risiko-Verzerrung besagt, dass wir dazu neigen, lieber ein kleines Risiko auf null zu reduzieren, auch wenn mit alternativen Handlungsoptionen eine grössere Reduktion in einem viel höheren Risikos oder im Gesamtrisiko erreicht werden könnte. Ausserdem beruhigt uns die Reduktion des Risikos umso weniger, je grösser (d.h. emotional aufgeladen) die Gefahr ist. Es geht hier also nicht, um das Wunschdenken, dass Risiken komplett eliminiert werden könnten. Wir wissen nur zu gut, dass das nicht geht und nichts bringt, dennoch, fühlen wir uns trotzdem auch von dieser Art des Null-Risikos hingezogen. Hier geht es darum, dass wir zu sehr darauf bedacht sind, uns auf Kleinigkeiten zu fixieren, bis sie ganz bereinigt sind, da sie sonst immer unseren Gedanken beschäftigen, anstatt das Optimum, für die Gesamtsituation anzustreben.

Es macht wenig Sinn übermässig viel Aufwand zu betreiben um ein winziges Restrisiko komplett zu eliminieren. In beinahe allen Situationen lohnt es sich hingegen denselben Aufwand auf sich zu nehmen, um eine viel grössere Reduktion eines anderen Risikos zu erreichen.

Fazit

Oft verfallen wir der Illusion, komplexe gegenwärtige Ereignisse zu verstehen oder unterliegen einer retrospektiven Verzerrung geschehener Ereignisse. Die Überbewertung von Sachinformation, kombiniert mit einer Überbewertung von Fachexpertise führt zur Kompetenzillusion. Die Kompetenzillusion ist nicht nur ein individueller Urteilsfehler; sie ist tief in der Kultur der IT verwurzelt. Tatsachen, die Grundannahmen infrage stellen – und dadurch den vermeintlichen Erfolg und die Selbstachtung von Menschen bedrohen -, werden einfach und systematisch ausgeblendet.

Doch schon Selbstreflexion kann eine durchschlagende Wirkung haben. Die Betrachtung des eigenen Denkens also, auch ohne jede Anleitung, kann zu einer bedeutsamen Verbesserung des eigenen Denkens führen. Denn manchmal können wir gegenüber dem offensichtlichen blind sein, schlimmer ist es aber wenn wir sogar blind für unsere Blindheit sind.

Das Vertrauen, das wir unsere intuitiven Überzeugungen und Präferenzen setzen, ist in der Regel gerechtfertigt. Aber eben nicht immer. Wir sind leider oft auch dann von der Richtigkeit überzeugt, wenn wir irren. Lassen sie sich also von Fehlern in unserem intuitiven Denken nicht weiter täuschen…

Quellen:

Über den Autor

Flavio Gerbino

Flavio Gerbino ist seit Ende der 1990er Jahre im Bereich der Informationssicherheit tätig. Seine Schwerpunkte liegen im Bereich der strategischen Ausrichtung und des Managements der Sicherheit eines Unternehmens.

Sie brauchen Unterstützung bei einem solchen Projekt?

Unsere Spezialisten kontaktieren Sie gern!

×
TIBER-EU Framework

TIBER-EU Framework

Dominik Altermatt

Vertrauen und KI

Vertrauen und KI

Marisa Tschopp

Datenverschlüsselung in der Cloud

Datenverschlüsselung in der Cloud

Tomaso Vasella

Cyber Threat Intelligence

Cyber Threat Intelligence

Marc Ruef

Sie wollen mehr?

Weitere Artikel im Archiv

Sie brauchen Unterstützung bei einem solchen Projekt?

Unsere Spezialisten kontaktieren Sie gern!

Sie wollen mehr?

Weitere Artikel im Archiv