Mittwoch, 3. Februar 2016

The science of things that aren't so

Betrachten wir mal ein interessantes menschliches Phänomen. Ein Phänomen, das in allen Bereichen des Lebens existiert und das Irving Langmuir mit Blick auf die Naturwissenschaften trefflich mit The science of things that aren't so umschrieb. Er meinte damit wissenschaftliche Forschungen, die sich mit nicht-existenten Effekten oder Entitäten befassen - und dies nicht auf der Meta-Ebene, sondern ganz unmittelbar. Dabei geht es nicht um einzelne irrgeleitete Arbeiten oder Forscher sondern um ganze Forschungszweige, die sich über Jahre oder Jahrzehnte entwickeln, anerkannt in der wissenschaftlichen Gemeinde, durchgeführt von anerkannten, teils bedeutenden Wissenschaftlern mit anerkannten Methoden und mitunter hundertfach publiziert in anerkannten Fachjournalen - und die sich doch nur mit Beobachtungen und Phänomenen beschäftigen, die allein in den Köpfen der Wissenschaftler existieren. Solche Entwicklungen sind gar nicht so selten wie man vielleicht vermuten sollte. Allein ein kurze Wikipedia-Suche liefert ein Dutzend Beispiele alleine in den Naturwissenschaften in nicht einmal 150 Jahren. Nur wird nur halt nach dem Zusammenbruch einer solchen Phantomforschung nicht mehr so gerne über sie gesprochen...

Das allgemein bekannteste Beispiel sind wohl die "Marskanäle", lineare Strukturen auf der Oberfläche des Mars, die der sehr respektable Astronom Giovanni Schiaparelli 1877 entdeckt zu haben glaubte. Zunächst gab es zwar Zweifel über die Realität dieser "Kanäle", doch nach und nach bestätigten immer mehr Astronomen in der Welt nach eigenen Beobachtungen ihre Existenz und eine ganze Forschungsgeschichte begann. Es wurden Arbeiten über ihre Natur, ihren Ursprung und ihre Veränderlichkeit veröffentlicht. Der bedeutende Astronom Percival Lowell beanspruchte 1905 gar, diese Kanäle fotografiert zu haben [1] und seine Kollegen bestätigten Lowells Analyse der Bilder [2]. Zwar erlosch der Zweifel an der Existenz dieser Kanäle nie komplett, 1907 etwa veröffentliche der Astronom Simon Newcomb im Astrophysical Journal eine umfangreiche Untersuchung der Mars-Beobachtungen und schloß, daß er "cannot but feel that the proof of its objective reality is incomplete until the observers of the system [of canals] investigate the processes of visual inference in their own eyes" [3]. Doch Lowell antwortete sofort mit einem anderen Artikel [4], der mit "Selber doof!" ganz gut zusammengefasst ist. So blieb die Existenz der Marskanäle bis in die 1930er Jahre Teil des wissenschaftlichen Mainstreams. Erst sechzig Jahre nach ihrer vermeintlichen Entdeckung setzte sich nach und nach die Erkenntnis durch, daß es sich dabei nur um Illusion, optische Täuschung, unbewusste Mustererkennung des Gehirns handelte. Die letzte Marskarte, die diese nicht existierenden Kanäle noch zeigte, wurde im Jahr 1962 angefertigt [5], zur Vorbereitung des ersten Vorbeiflugs einer Raumsonde am roten Planeten.
Karte des Mars (Veröffentlicht 1927 von der British Astronomical Association)
Ein zweites schönes Beispiel ist die vermeintliche Entdeckung der "N-Strahlen" durch den französischen Physiker Blondlot im Jahre 1901. Dieser glaube, wie Jahre zuvor Wilhelm Conrad Röntgen mit seinen X-Strahlen (im Deutschen heißen sie heute "Röntgenstrahlen", in anderen Sprachen noch immer "X-rays"), ebenfalls eine neue Strahlungsart entdeckt zu haben, eben die "N-Strahlen". Französische Physiker studierten und analysierten diese neue Strahlung und publizierten ihre Ergebnisse in Fachjournalen. Bis sich die französische Physikergemeinde 1904, nicht ohne Mühe und Raffinesse, davon überzeugen ließ, daß diese N-Strahlen gar nicht existierten und alle Effekte, die sie auf diese Strahlen zurückführten, nichts als Einbildung und Autosuggestion waren (Der kurze Wikipedia-Artikel zum Thema gibt eine lesenswerte Übersicht).

Diese science of things that aren't so nun könnte Anstoß zu zwei Gedankengängen sein:
Wenn es offenbar möglich ist, über viele Jahre wissenschaftliche Forschung an nicht existenten Phänomenen durchzuführen, dann könnte man zu der These gelangen, daß "die Welt so zu beschreiben, wie sie ist" keine notwendige Voraussetzung für Wissenschaftlichkeit ist. Aber diese These wäre der Gottseibeiuns aller Freunde der Wissenschaft. Deshalb wollen wir diesen Gedanken lieber nicht weiter verfolgen.
Weiter könnte man sich aber auch fragen, in welchen relevanten Bereichen - wenn selbst die Objektivität so hoch wertende Naturwissenschaft mitunter nur die Realität in den Köpfen untersucht - solche Verirrungen noch auftreten. Reden wir z.B. mal vom Journalismus…

Man muß nun wahrlich kein "Lügenpresse" grölender Pegidist sein um ein beunruhigendes Maß an Versagen der Medien zu sehen. Beginnend mit der Berichterstattung zur Krise und folgendem Bürgerkrieg in der Ukraine über Griechenland, GWL-Streiks und Syrienkrieg wurde eine ungeheure Einseitigkeit und Voreingenommenheit deutlich. Gerne wird dies mit gezielter politischer Propaganda erklärt und ich finde diese Erklärung für einzelne Akteure durchaus plausibel. Ich glaube aber nicht, daß dies dem Phänomen insgesamt gerecht wird. Denn damit erklärt sich weder der offenkundige Realitätsverlust in weiten Teilen der Medien noch den Rückhalt, den dieser innerhalb der Medien erfährt.
Mit Realitätsverlust meine ich Fälle wie die Heute-Nachrichten, die ukrainische Milizen mit Hakenkreuzen und SS-Runen an den Helmen zeigen und im Kommentar dazu dazu von "Freiwilligenbataillonen aus nahezu jedem politischem Spektrum" zu sprechen [6]. Oder von Berichten zu einer russischen Pressekonferenz, in denen Satellitenbilder aus der Konferenz präsentiert werden mit der Behauptung in der Bildunterschrift, Russland hätte die Aufnahmedaten der Bilder verschwiegen. Und das, obwohl die Aufnahmedaten groß und deutlich im Bild selbst drinstehen [7]. Und man könnte den Bogen noch viel weiter spannen. Jeder konnte in Youtube-Videos sehen, daß das Gewerkschaftshaus von Odessa von einem Mob mit Molotowcocktails gezielt in Brand gesetzt wurde, während Menschen sich darin befanden. In der Tagesschau hieß es nur, das Gebäude sei "in Brand geraten" [8].
Kurzum, zwischen dem, was man sieht und dem, was dazu erzählt wird, klafft ein unübersehbarer Abgrund. Es scheint einfach keinen Abgleich des Erzählten mit dem Sichtbaren mehr zu geben. Und dies ist nicht allein Propaganda. Propaganda als bewusste, gezielte Manipulation wäre besser, weniger offensichtlich.
Dazu passt, daß die in einem solchen Fall aufbrandende Kritik an den Medien innerhalb der Medien gar nicht ernst genommen wird. Von Josef Jaffes Zeit-Texten bis zu Extra-3-Satiren wird eine grundsätzliche Kritik an den Medien abgewertet oder lächerlich gemacht. Selbst Journalisten, die, wie Übermedien, "Medien besser kritisieren" wollen, scheinen damit zu meinen, nur ja keinen zu weiten Blickwinkel zu entwickeln. All diese Journalisten sind keine gezielten Propagandisten. Man könnte eher annehmen, sie glaubten wirklich, was sie sagen? Man könnte einmal annehmen, der Journalismus ist in der selben Situation wie die Naturwissenschaft mitunter auch. So wie die science of things that aren't so nach allen Regeln der Kunst Forschung zu einer Welt produziert, die nur im Kopf existiert, so produziert ein journalism of things that aren't so nach allen Regen der Kunst Journalismus aus einer Welt, die nur im Kopf existiert? Nicht in betrügerischer Absicht, sondern weil sich das Denken von der  Realität gelöst hat?

Wie sollte so etwas möglich sein? Sowohl in der Wissenschaft als auch im Journalismus wäre die Vorraussetzung, von einer Position oder scheinbaren Tatsache absolut überzeugt zu sein. Seien es Astronomen, die die Existenz der von ihnen untersuchten Marskanäle für jenseits aller Zweifel halten oder Journalisten, die die russische Aggressivität und Boshaftigkeit für eine völlig unbestreitbare Offensichtlichkeit halten. Solche Überzeugungen können sich womöglich in Gruppen ausbilden, der Mensch neigt schließlich grundsätzlich dazu, sich einer Meinung anzuschließen, die eine Gruppe um ihn herum teilt, selbst dann, wenn diese seiner eigenen Wahrnehmung widerspricht [9]. Wird eine Meinung von einer anerkannten Autorität innerhalb einer Gruppe entschieden vertreten, dann wird es ebenfalls attraktiv, sich dieser Meinung anzuschließen, erst recht, wenn diese Autorität Einfluß auf die eigene Karriere hat. Ein Einzelner wird die Position, der Leiter seiner Forschungsgruppe und alle übrigen Mitglieder würden statt N-Strahlen nur Hirngespinste sehen, nicht lange durchhalten...

Diese feste Überzeugung von der eigenen Position erlaubt es dann auch, eigene Fehler besser zu verkraften. Beispielsweise haben deutsche Medien wieder und wieder Bilder von vermeintlichen russischen Panzern im Osten der Ukraine präsentiert [10,11,12]. Man sollte meinen, daß das Verschieben von Panzern in ein anderes Land, etwa weil man den Begleittext des Bildes aus der Agentur nicht aufmerksam gelesen hat, einen Fehler darstellt, der einem Journalisten die Schamröte in Gesicht treibt und zu einer aufrichtige Entschuldigung und mehr Aufmerksamkeit in dieser Hinsicht führt. Hält man hingegen die Anwesenheit russischer Panzer in der Ostukraine für eine Wahrheit jenseits aller Diskussionswürdigkeit, so spielen falsche Bilder keine besonders große Rolle. Sind eher eine Bagatelle, so als würde man die Sonne versehentlich mit einem Bild des Mondes illustrieren. Jeder weiß doch im Grunde, daß dies eine offensichtlich harmlose Verwechslung war und kein hinterhältiger Manipulationsversuch der "Lügenpresse"? Auf diese Weise erklärt sich, was Außenstehende als Skrupellosigkeit und Kaltschnäuzigkeit in den Medien wahrnehmen.

Die Zeit nun verfestigt einen einmal erzielten Konsens eher als daß sie ihn gefährdet. Menschen, die schon Jahre oder Jahrzehnte lang eine Meinung vertreten und Arbeit in sie investiert haben, werden sich eher schwerer als leichter tun, diese Meinung wieder aufzugeben. Manch einer tut es, und ich halte dies für ein Zeichen außergewöhnlicher charakterlicher Stärke. Viele beharren lieber auf ihrem einmal eingenommenen Standpunkt, und wenn sie sich dafür unempfänglich machen müssen gegenüber Fakten und Argumenten.

Ebenfalls eher stabilisierend ist in einem solchen Fall das Auftreten einer oppositionellen Gruppe. Wird die Überzeugung von außen angegriffen, dann nimmt die Tendenz zur Selbstkritik innerhalb einer Gruppe eher ab. Stattdessen wird der eigene Standpunkt gegenüber einer anderen Gruppe verteidigt, indem diese abgewertet wird oder ihr üble Absichten unterstellt werden. So mag es in der nationalistischen Stimmung des frühen 20. Jahrhunderts in Frankreich nicht vorstellbar gewesen sein, daß die Nichtreproduzierbarkeit der französischen Forschung zu den N-Strahlen durch deutsche Wissenschaftler bedeutet, daß man selbst falsch läge. Die Deutschen mussten einfach nur schlechte Experimentatoren sein oder den französischen Kollegen eine große Entdeckung neiden. Es brauchte einen amerikanischen Physiker als neutralen Gutachter, um den Fehler zu finden. Und wenn Menschen heute den Journalismus grundsätzlich kritisieren, dann kann dies nicht daran liegen, daß der Journalismus tatsächlich am Abgleich mit der Welt versagt. Viel eher haben diese Menschen, Amateure die sie nun mal sind, keine Ahnung. Oder sind selber ideologisch verblendet. "Journalismus besser kritisieren" bedeutet dann nurmehr, einzelne Beobachtungen der Marskanäle für nicht so besonders gelungen zu halten. Die Existenz der Marskanäle an sich in Frage zu stellen bleibt tabu. Ein Ausscheren aus der Gruppe ist Verrat.

Wo wir schon ins große Plaudern von den Marskanälen bis zum Krieg in der Ukraine gekommen sind, sollten wir zum Schluß noch einen Blick auf das werfen, was gerne unter das Thema "Verschwörungstheorien" eingeordnet wird. Diesen Begriff verbannen wir hier aber gleich wieder, und zwar aus zwei Gründen:
Zum einen ist er längst zu einem politischen Kampfbegriff zur Diffamierung anderer Meinungen verkommen. Zum "Verschwörungstheoretiker" kann man werden, wenn man die Mondlandung bezweifelt. Oder wenn man das in Westeuropa gepflegte Narrativ von den politischen Vorgängen in der Ukraine seit Ende 2013 in Zweifel zieht. So sieht es zumindest eine Forschungsgruppe an der Universität Tübingen. Damit ist dieser Begriff schlicht unbrauchbar für eine sachliche Diskussion.
Zum Zweiten funktioniert das, was man gemeinhin mit "Verschwörungstheorie" assoziiert, das Fakten- und vernunftresistente Festhalten an einer Position, in alle Richtungen. Flatter hatte einmal den schönen Begriff "Hoftheoretiker" vorgeschlagen um Menschen zu bezeichnen, die gegen alle Vernunft und Evidenz an der offiziellen (und das heißt automatisch den Mächtigen genehmen) Version einer Geschichte festhalten, so wie der "Verschwörungstheoretiker" gegen alle Vernunft und Evidenz an einer alternativen Version festhält. Es ist also mitunter gar nicht so klar, welche Version einer Geschichte denn die nun Verschwörungstheorie ist. Sprechen wir also behelfsmäßig lieber von der "etablierten Position" und der "nicht etablierten Position".

Treffen Vertreter beider Positionen in einer Diskussion, etwa in einem Forum, aufeinander, dann zeigen sich oft genau die Phänomene, die wie schon bei der science of things that aren't so und dem journalism of things that aren't so gesehen haben:

Beide Seiten sehen sich als Gruppen, die ihre eigene Grundannahme für unbedingt wahr halten. Dies sieht man daran, daß Vertreter derjenigen Gruppe, die argumentativ in die Enge getrieben wird, mit nacktem Unverständnis reagieren. Hier greift etwa der folgende Gedankengang:
"Ich kann keinen offensichtlichen Fehler in deiner Argumentation finden. Aber ich weiß, daß da ein Fehler sein muß, denn die Schlussfolgerung deiner Argumentation widerspricht ja meinem Standpunkt, und ich weiß ja, daß mein Standpunkt richtig ist. Also verstehe ich dich nicht. Und da ich nicht dumm bin, verstehe ich dich nicht, weil du dich nicht klar ausdrücken kannst."
In diesem Stadium versackt eine Diskussion dann für gewöhnlich indem sich die Teilnehmer im Kreis drehen und die schwächere Seite immer wieder erklärt, der andere rede dummes Zeug und solle mal klarstellen, wie sie was meint.
Doch auch bei der argumentativ stärkeren Seite in einer solchen Auseinandersetzung kann sich zeigen, daß der eigene Standpunkt als unumstößlich wahr betrachtet wird, nämlich an der Leichtfertigkeit, mit der über Fehler und Unschlüssigkeit in Argumentationen hinweg gegangen wird, sofern diese den eigenen Standpunkt untermauert. Als Beispiel soll hier der Fall genügen, daß jemand ein mathematisches Modell präsentiert, mit dem gezeigt werden soll, daß eine nicht etablierte Position falsch sein muß. In einem solchen Fall zeigen die Verfechter der etablierten Position erstaunlich wenig Interesse daran, ob dieses Modell schlicht falsch ist oder nicht - und dies selbst dann, wenn sie sich gegenüber der nicht etablierten Position auch ohne dieses Modell in einer argumentativ vorteilhaften Position befinden [13]. Der Gedankengang hier ist:
"Es spielt im Grunde keine Rolle, ob das Modell jetzt stimmt oder nicht. Denn letztlich weiß ich ja, daß die Schlussfolgerungen des Modells richtig sind, selbst wenn das Modell selbst falsch sein sollte. Denn die Schlussfolgerungen decken sich mit meiner Position, von der ich weiß, daß sie richtig ist."
Dies ist der gleiche gedankliche Mechanismus, der es Journalisten erlaubt, immer und immer wieder falsche Bilder von russischen Panzern in der Ukraine zu präsentieren.

Letztlich ist alles egal, denn ich weiß sowieso, daß ich recht habe. Und letztlich glauben wir das alle für uns selbst (der Autor dieses Textes und dessen Leser natürlich ausgenommen!).
Gefährlich wird es nur, wenn die gesellschaftlichen Kontrollmechanismen versagen, die dafür sorgen sollen, daß niemand sich mit seinem Rechthaben dauerhaft von der Realität abkoppeln kann...

Kommentare:

  1. Wunderbarer Beitrag.

    Allein, was oder wer sind denn die gesellschaftlichen Kontrollmechanismen?
    Die Medien?

    AntwortenLöschen
    Antworten
    1. Ich verstehe die Kontrollmechanismen eher als vielschichtige Strukturen ganz unterschiedlicher Ausstattung. Einzelne gesellschaftliche Bereiche können sich selbst kontrollieren, angefangen von Kontrolle unter Mitarbeitern der selben Arbeitsgruppe oder Redaktion ("Kontrolle" im ganz freundschaftlichen Sinne, als ehrliches Feedback, Faktencheck, etc.), dann die Kontrolle unterschiedlicher Einheiten gegeneinander (ist das Ergebnis eines externen Kollegen oder einer anderen Forschungsgruppe reproduzierbar oder konsistent? Können die Berichte anderer Medien eigentlich stimmen?). Dann gibt es eher formale Kontrollen um Fehlentwicklungen früh entgegen zu wirken, etwa ein Begutachtungssystem in den Wissenschaften oder den Presserat. Dann gibt es mehr oder weniger außenstehende Kontrollinstanzen. Die Medien sollten diese Rolle überall übernehmen, staatliche Institutionen wo es nötig ist. Aber auch interessierte Gemeinschaften können da beitragen. Im Falle der Medien scheint mir das ganz gut zu funktionieren, im Falle der Wissenschaften eher weniger.

      Da gibt es also jede Menge. Aber ab und an scheinen die alle nicht greifen zu können, und ein Bereich gerät auf Abwege...

      Löschen
  2. Der Feind des aufgeklärten Denkens einschliesslich der Wissenschaft ist nicht die Religion, sodern der Glaube. Denn aufgeklärtes Denken und Wissenschaft beruhen auf Zweifel, sie beruhen auf Skeptizismus.

    Menschen lieben es jedoch zu glauben. Will man biologistisch argumentieren, braucht's Hirn halt auch wieder einen Stromsparmodus, sonst verbraucht's zuviel Energie; da ist es vermutlich von evolutionärem Vorteil, das Denken über sicher geglaubte Wahrheiten einzustellen.

    Anders ist gar nicht mehr zu erklären, wie Leute ihre Glaubensvorstellungen gegen alle Widrigkeiten und Widersprüche verteidigen. Das erste Gebot des Ideologen ist: stehen Realität und Ideologie im Widerspruch, so ist selbstverständlich immer die Realität falsch!

    Man könnte auch sagen, manipulierende Schweine manipulieren Trottel.

    AntwortenLöschen
    Antworten
    1. "Der Feind des aufgeklärten Denkens einschliesslich der Wissenschaft ist nicht die Religion, sodern der Glaube."

      Oh ja! Ich würde mir wünschen, daß das mehr von den Leute bemerken, die sich selbst voller Überzeugung zu den Skeptikern zählen!

      Löschen
    2. Man unterschätze mir nicht den Glauben an sich.

      Denn das einzelne Hirn ist außerstande, die ganze Komplexität der Welt zu verstehen. Tatsachen außerhalb meines eigenen Fachbereichs (und Allgemeinwissens) begreife ich nicht und bin darum auf Glauben oder Nicht-Glauben angewiesen.

      Beispielsweise könnte ich für Gödels Unbestimmbarkeitssatz allenfalls die Beweisstrategie umreißen, aber nicht nachvollziehen. Hier entscheide ich mich für dran-glauben. (Denn ich weiß, dass die Selbstbezüglichkeit die Logik aushebelt. Sätze, die mit Prädikatenlogik weder wahr noch falsch konstruierbar sind. Allgemeinwissen.)

      Das ist nicht als Verteidigung für obengenannte wissenschaftliche und journalistische Fehlleistungen misszuverstehen.

      Löschen
  3. Wenn man an einem Standpunkt festhält, der als falsch bewiesen wurde, ist das doch Sophismus im klassischen Sinn?

    AntwortenLöschen
    Antworten
    1. Ich glaube nicht, daß der Begriff hier passt, allein schon weil er ein bewusstes Täuschen oder Fehlschliessen impliziert. Es geht aber weniger um ein absichtliches Manipulieren, sondern darum, daß man sich gar nicht erst auf die Prämissen einigen kann. Was einer als Schlussfolgerung annimmt, ist für den anderen eine Prämisse. Und deshalb betrachtet der eine etwas als für falsch Beweisen und der andere meint aufrichtig "Nö".

      Löschen
    2. Das triffts nicht ganz. Man hört von Gläubigen aller Couleur – sind sie mit Widersprüchen zu ihrem Glauben konfrontiert – viel eher eine Ausrede als ein Einsehen. Nagelt man sie auf den Widerspruch fest, so werden sie emotional. Einsehen ist aber auch so nicht zu haben.

      Es ist bei Gläubigen überhaupt nicht zu haben. Dabei spielt keine Rolle, an was sie glauben, welcher Ideologie sie aufgesessen sind. Ist das einmal passiert, so sinkt die Häufigkeit rapide ab, dass man beobachten kann, wie sich Glaubens-Ansichten ändern. Und das ist auch unabhängig davon, über welchen Teil ihres Glaubens man sie mit einem Widerspruch konfrontiert. Sie verteidigen ihre Dogmen eisern, alle.

      Das lässt zwei Vermutungen zu:

      Entweder, viele Menschen sind gar nicht fähig kritisch zu denken – das Konzept funktioniert nur bei wenigen Menschen. Dann wäre dieses Phänomen möglicherweise natürlichen Ursprungs (“bauartbedingt”). Oder aber es handelt sich um eine Denkfalle: dann sind alle Menschen gefährdet. Bei der Häufigkeit der Gläubigen wäre bei letzterem davon auszugehen, dass die Ideologiefalle leicht zu erreichen ist – der “Point of no return” wäre eng gesetzt in jeder Richtung der vermeintlichen “Wahrheit”. Kritisches Denken wäre dann eine Art Tanz auf der Nadelspitze: egal, in welche Richtung man beginnt zu glauben, man sollte sich tunlichst nicht allzu sicher der vermeintlichen Wahrheit nähern.

      Kritisches Denken wäre dann eine Art instabiler Gleichgewichtszustand.

      Löschen
    3. Ja, das sehe ich genauso. Und es kann mitunter schockierend sein, wenn man erlebt, daß ein sehr intelligenter und zum differenzieren Denken befähigter Mensch in einer bestimmten Angelegenheit plötzlich für jedes rationale Argument und für jede Tatsache unerreichbar wird. Und diese Angelegenheit kann religiöser, politischer und selbst wissenschaftlicher Natur sein...

      Löschen
  4. Ich denke ein wichtiger Aspekt ist, dass Denken zumeist in Institutionen stattfindet. Und Institutionen besitzen sowas wie eine Kernüberzeugung, die von allen ihren Mitgliedern geteilt werden muss, da sie das Selbstverständniss der Institution ausmacht.
    Ein Beispiel:
    Wie ergeht es einem Keynesianer innerhalb der ECB? Er hat dort kaum "Überlebenchancen", da das ganze Selbstverständnis der ECB auf dem Monetarismus gegründet ist. Was aber nun, wenn eine wirtschaftliche Situation eintreten sollte, in der keynesianische Maßnahmen wirksamer wären? (Nur mal als hypothetische Annahme.) Die ECB wäre unfähig solche Maßnahmen zu empfehlen, da sie dem Selbstverständnis widersprechen.
    Sowas wie in dem Beispiel gibt es denke ich in jeder Institution, die über Macht und Einfluss verfügt.
    Arnold Gehlen brachte daher in seiner Institutionenlehre "Institution" und "Religion" in einen engen Zusammenhang. (Ich weiß Gehlen gilt heute als Erzreaktionär, aber man kann Gehlen auch gegen den Strich lesen.)
    Dein Beispiel mit den französischen Wissenschaftlern und ihren N-Strahlen läßt sich in diesem Sinne als Wirkung der Institution auf das Denken verstehen.
    Im Englischen spricht man von "Tribalism", also von Stammesbewußtsein, was die Sache ganz gut trift.
    Institutionen tanzen wie Indianerstämme um ihre Totempfähle und wehe irgendjemand begeht das Sakrileg und stellt das Totem in Frage.

    AntwortenLöschen
    Antworten
    1. Ja, mir scheint, solche Phänomene sind vielfach und von verschiedenen Seiten aus beschrieben worden. Am einfachsten kann man es vielleicht unter "Gruppenzwang" zusammenfassen. Bei diesem Begriff denkt man zwar erst mal an rauchende Jugendliche, aber damit beginnt die Unterschätzung von Gruppeneffekten bereits. Der Konformitätsdruck in einer Gruppe kann beängstigend sein, ohne das er von den Betroffenen überhaupt ans solcher bemerkt wird...

      Löschen