In der heutigen Zeit, in der wissenschaftliche Erkenntnisse und Fakten eine entscheidende Rolle bei der Bildung von Meinungen und politischen Entscheidungen spielen, wird die Herausforderung, korrekte Informationen von irreführenden zu unterscheiden, immer drängender. Ein besorgniserregender Trend besteht darin, dass Wissenschaftsleugner vermehrt auf Scheinargumente und rhetorische Methoden zurückgreifen, um ihre Standpunkte zu verteidigen. Oder, um ihre strikte Ablehnung etablierter wissenschaftlicher Erkenntnisse zu rechtfertigen. In diesem Artikel möchte ich mich eingehend mit den unterschiedlichen Scheinargumenten und rhetorischen Taktiken befassen, die von Wissenschaftsleugnern angewendet werden. Durch eine kritische Analyse dieser Strategien versuche ich, dir ein tieferes Verständnis für die Mechanismen der Wissenschaftsleugnung zu vermitteln. Und ich möchte dir hilfreiche Werkzeuge und „Verteidigungstaktiken“ bereitstellen, um ihnen wirkungsvoll entgegentreten zu können!
Wissenschaftsleugnung – eine Erfolgsstrategie?
Egal ob beim Thema Klimawandel oder auch der Erklärung zur Entstehung unserer Erde und der heutigen Artenvielfalt: immer wieder werden in Diskussionen darüber von den Gegnern der Wissenschaft grundlegende Erkenntnisse der Forschung falsch dargestellt. Dahinter steckt nicht unbedingt nur Unwissenheit, sondern mitunter eine perfide ausgearbeitete Propaganda.
Denn wie bereits in meinen vorherigen Artikeln über Extremismus geschildert, scheitern Wissenschaftsleugner mit ihren Ideologien irgendwann zwangsläufig an der Sachlichkeit und an Tatsachen. Da sie Widerspruch allerdings nicht dulden können, müssen sie dieses Manko irgendwie umgehen, und das passiert auf Basis von Emotionen. Angst, Hass und Empörung sind dabei wohl die stärksten, alles keine besonders angenehmen oder fruchtbaren Gefühle. Aber sie halten jeden von uns vom kritischen Denken ab, und das ist es, worauf es ankommt.
Emotionen vs. Logik und Sachlichkeit
Je emotionaler eine Debatte wird, desto weniger besteht die Chance auf gegenseitiges Verständnis. Extremisten denken in absoluten Kategorien: Wer nicht für sie ist, ist gegen sie. Ein radikaler Anhänger wird sich nicht durch Argumente überzeugen lassen – wer mit ihnen diskutiert hat, kennt das.
Zweifler und gemäßigte Anhänger einer extremistischen Ideologie kannst du allerdings sicher noch irgendwie erreichen. Nur musst du dann imstande sein, ihre Maschen und rhetorischen Kniffe zu durchschauen und ihnen sachlich und faktenbasiert Red und Antwort stehen können. Denn meistens plappern die „niederrangigen“ Mitglieder ihren ideologischen Leitfiguren bloß alles nach dem Schnabel, ohne es selbst zu hinterfragen. Daran kannst du einen Hebel ansetzen.
Wie manipulieren Wissenschaftsleugner?
Extremisten haben ein breites Netz von Pseudo-Argumentationen in Petto, das sie einsetzen, um Gespräche auf unfaire und manipulative Weise zu ihren Bedingungen zu lenken. Ich nenne das gerne Schwarze Rhetorik, ein bisschen angelehnt an schwarze Magie. Es ist schon beachtlich, wie leicht man darauf reinfallen kann. Extremisten, die mit der schwarzen Rhetorik vertraut sind, können damit selbst die redegewandtesten Wissenschaftler oder sogar erfahrene Politiker mitunter an die Wand reden. Deshalb finde ich, dass wir alle das rhetorische „Kung Fu“, also die Techniken der Pseudo-Argumentation erkennen können sollten. Auch Kinder sollten das bereits in der Schule lernen, um Extremisten in einem solchen Gespräch inhaltlich stellen zu können.
Quellen: klimafakten.de; skepticalscience.com (auch Grafiken!)
PLURV (FLICC)
![]() (Bildquelle: Wikipedia.) |
Seit mehr als zehn Jahren beschäftigt sich der australische Kognitionsforscher John Cook mit Falschinformationen zum Klimawandel. Er hat im Jahr 2007 die Wissenschaftsplattform SkepticalScience.com gegründet, die populäre Leugner-Mythen widerlegt. 2013 war er Leitautor der inzwischen berühmten 97-Prozent-Studie, die den Expertenkonsens zum menschengemachten Klimawandel untersuchte. Derzeit forscht er als Assistenzprofessor am renommierten Center for Climate Change Communication (4C) der George-Mason-Universität vor den Toren Washingtons. Außerdem ist er Schöpfer der Comic-Figur Cranky Uncle, einem mürrischen Wissenschaftsleugner, und entwickelt derzeit ein gleichnamiges Smartphone-Spiel. |
Von all seinen einschlägigen Arbeiten aber, sagte Cook einmal, hatte die größte Resonanz eine schlichte Kette von fünf Buchstaben: FLICC. Mit diesem Kunstwort fasste Cook erstmals 2013 die fünf häufigsten Methoden von Klimawandel-Leugnern zusammen. Im Englischen stehen die Buchstaben für Fake Experts, Logical Fallacies, Impossible Expectations, Cherry Picking und Conspiracy Myths. Dieses Akronym wurde inzwischen auch eingedeutscht. Bei uns trägt es die Bezeichnung PLURV. Ich habe die Struktur und auch die Grafiken hier weitestgehend von SkepticalScience.com übernommen. Allerdings habe ich es etwas anders strukturiert und auch noch einige Punkte hinzugefügt, die ich selbst bei Diskussionen mit Wissenschaftsleugnern bereits häufig erlebt habe. Ein bisschen weiß ich auch noch aus meinem Rhetorik-Unterricht.
![]() |
Ich möchte nun die einzelnen Leugnungstaktiken der Extremisten einmal der Reihe nach durchgehen und auch Beispiele für PLURV-Strategien liefern, damit du sie als solche in Zukunft erkennen und bekämpfen kannst. Wie du das schaffst, mit einigen nützlichen Gegenantworten und Lösungsvorschlägen, erfährst du immer, wenn du das Symbol mit dem Kung-Fu-Kämpfer siehst. So kannst du selbst auch zu einem Kämpfer gegen Desinformation und Wissenschaftsleugnung werden! |
Pseudo-Experten
![]() |
Eine bewährte Strategie von Wissenschaftsleugnern ist es, mit falschen Autoritäten zu argumentieren. Auf Latein nennt man dies auch Argumentum ad verecundiam: Forscher, die durchaus einen Doktortitel oder sogar Professuren und Lehrstühle innehaben, werden von den Extremisten als scheinbare Experten herangezogen.
Falsch, weil: Die auftretenden „Koryphäen“ sind für die Thematiken, um die es in der Diskussion geht, überhaupt nicht qualifiziert! Ein Professor für Informationswissenschaften oder Chemie ist zum Beispiel keineswegs ein Experte für Evolutionsforschung oder Klimawissenschaften, und hat in diesem Fachbereich genauso wenig Qualifikation wie jeder andere Laie. |
Masse von Pseudo-Experten
Einige Strategien zielen auch darauf ab, den Eindruck zu erwecken, dass eine Idee oder ein Standpunkt richtig ist, nur weil viele (gebildete) Menschen ihn unterstützen oder glauben. Eine Masse von Pseudo-Experten, sozusagen. In der Rhetorik versteht man dies wiederum als Argumentum ad populum (Lateinisch für „Argument an die Menge“). Dies muss aber keineswegs der Fall sein! Auch Akademiker können natürlich falsch liegen. Ganz besonders dann, wenn sie sich abseits des Feldes zu einem Thema äußern, für das sie gar keine Experten sind!
![]() |
Beispiel 1: „Über 1.000 Wissenschaftler wehren sich gegen die Klima-Lüge!“
Beispiel 2: „Interview: Drei renommierte Professoren widersprechen dem dogmatischen Evolutions-Glauben!“ Falsch, weil: Die aufgeführte Liste von Wissenschaftlern mag wirklich Akademiker beinhalten, die allermeisten sind jedoch wahrscheinlich fachfremd – also gar keine Klimaforscher oder Evolutionsbiologen! |
Aufgeblähte Minderheit
In ähnlicher Weise werden auch Einzelmeinungen, manchmal sogar von echten Experten, angeführt, die es selbstverständlich immer gibt. Und auch geben soll! Forschung lebt ja auch vom Widerspruch und der Kontroverse. Bei Themen, die eigentlich aber Konsens sind, und die von der überwältigenden Mehrheit der Forscher als Tatsache anerkannt werden, kommt es dann zur aufgeblähten Minderheit: Einzelmeinungen werden so in Szene gesetzt, dass sie als gleichwertig neben dem Konsens erscheinen.
![]() |
Beispiel 1: „Guck dir mal an, was Richard Lindzen zur angeblichen Klimakrise sagt. Der hat diesen Humbug längst widerlegt.“
Beispiel 2: „Michael Behe von der Lehigh University schreibt, dass bestimmte biologische Strukturen so komplex seien, dass sie nicht durch natürliche Selektion entstanden sein können. Das widerlegt die Evolutionstheorie!“ Falsch, weil: Die Einzelmeinungen von Experten sagen nichts über den tatsächlichen Forschungsstand aus. Beide genannten Forscher stehen einer überwältigenden Mehrheit (weit über 95%!) gegenüber, die ihre Argumentationen auch schon längst in der Fachdebatte widerlegt haben. |
Fingierte Debatte – False Balance
![]() |
Es passiert in unserer Medienlandschaft leider ziemlich oft: wenn zu einem Podcast oder in eine Talkshow zwei Experten mit unterschiedlichen Positionen eingeladen werden und diese dann miteinander diskutieren, erweckt dies beim Zuschauer, wenn er nicht selbst Experte ist, den Eindruck, dass die beiden Fachleute auf Augenhöhe miteinander diskutieren. Oft ist dies aber gar nicht der Fall!
Falsch, weil: Hier wird ein falsches Gleichgewicht erzeugt. Die Debatte zwischen zwei Experten mit unterschiedlichen Ansichten wird zwar akademisch geführt, doch geschieht das aber in einer Talkshow oder einem Podcast, verzerrt dies komplett die Forschungslage. Der Zuschauer denkt dann, dass beide Positionen gleichberechtigt nebeneinanderstünden, obwohl dies absolut nicht der Fall ist: es steht ja nur ein Vertreter einer kleinen Minderheit einem Vertreter des breiten Konsens gegenüber! |
Was kannst du dagegen tun?
![]() |
|
Logische Trugschlüsse
Die wohl fintenreichste Strategie einer Pseudo-Argumentation stellen logische Trugschlüsse dar, die zur Verschleierung nachweisbarer Tatsachen eingesetzt werden. Dabei bedienen sich Wissenschaftsleugner Argumentationen, die bei genauer Betrachtung immer im Widerspruch zu sich selbst stehen.
Die Liste der Trugschlüsse ist lang und ich kann hier noch nicht einmal alle aufführen. Deshalb hier nur die wichtigsten, die in quasi jeder Diskussion mit Extremisten vorkommen (können).
Angriffe gegen die Person
Eine bewährte Methode schwarzer Rhetorik ist es, direkt die Person, aber nicht ihr Argument anzugreifen, um ihre Standpunkte zu diskreditieren. Ad hominem ist Lateinisch und bedeutet wörtlich übersetzt „Argument gegen den Menschen“. Hierbei wird häufig auf simple Äußerlichkeiten oder auch gern ein Fehlverhalten aus der Vergangenheit verwiesen, mit denen eine Ablenkung erzielt werden soll. Besonders die Spitzenpolitiker der Grünen sind aktuell solchem ad hominem-Bashing ausgesetzt. In zahlreichen Memes und auch Kommentaren, die noch nicht einmal etwas mit diesen Leuten direkt zu tun haben, nehmen Rechtsextremisten die Figur von Ricarda Lang, die Versprecher von Annalena Baerbock oder Robert Habecks frühere Tätigkeit als Schriftsteller zum Anlass, um sie zu diskreditieren. Was natürlich nicht heißen soll, dass Politiker anderer Parteien keinen Hass erleben! Ad hominem ist wohl das bei weitem häufigste Scheinargument unserer Zeit.
Eine Erweiterung dessen ist auch das Tu quoque-Argument (lateinisch für „Du (aber) auch!“).
Ad hominem
![]() |
Beispiel: „Dieser angebliche Forscher hat früher auf Demos Steine gegen Polizisten geworfen. Wie kannst du dem nur glauben?“
Falsch, weil: Das persönliche Fehlverhalten eines Experten hat nichts mit seiner Expertise zu tun. Auch wenn eine Person auf anderen Ebenen umstritten ist, kann sie trotzdem noch recht haben! |
Tu quoque
Bei Tu quoque geht es schließlich direkt um dich selbst: Hier zeigt der Finger deines Gegners direkt auf dich, wobei deine argumentative oder moralische Berechtigung, eine Behauptung oder Vorschrift überhaupt aufzustellen, in Frage gestellt wird – vielleicht, weil du dich auch nicht immer richtig verhalten hast. Doch nur, du vielleicht selbst auch deine Fehler hast, können deine Argumente trotzdem richtig und wichtig sein!
![]() |
Beispiel: Person A: „Du solltest weniger trinken.“ – Person B: „Du trinkst doch selbst immer zu viel!“
Falsch, weil: Auch wenn ich selber kein Chorknabe bin, legitimiert das keineswegs dein eigenes Fehlverhalten. Das „Selber, selber, lachen alle Kälber!“ lassen wir deshalb doch bitte lieber im Kindergarten. Es ist ein billiges Ablenkungsmanöver. |
Verfälschte Darstellung
Um irrezuleiten, bedienen sich Extremisten gern einer völlig verfälschte Darstellung einer Situation oder der Position eines Gegners. An den Haaren herbeigezogene, ausgedachte Begründungen werden hier geliefert, um die eigene Position zu stärken. Lügen mit einem kleinen Schuss Wahrheit, sozusagen.
Auch die Strohmann-Argumentation ist eine Erweiterung der verfälschten Darstellung.
![]() |
Beispiel 1: „Früher nannten sie es ‚globale Erwärmung‘. Jetzt haben sie diese Bezeichnung in ‚Klimawandel‘ geändert. Warum? Weil es überhaupt keine globale Erwärmung mehr gibt!“
Beispiel 2: „Evolutionisten sagen, das Affen sich in Menschen entwickelt haben. Wieso gibt es dann immer noch Affen?“ Falsch, weil: Beide Aussagen verfälschen bewusst die Position der Gegenseite, indem sie entweder Begriffe falsch deuten, wissenschaftliche Aussagen verzerren oder sie aus dem Kontext reißen. |
Strohmann
Ausgebaut wird sowas oft zu einem sogenannten Strohmann: Diese Metapher stammt aus dem Schwert- und Fechttraining: Anfänger trainieren mit Gegnern aus Stroh, die keinen Widerstand leisten können. Dadurch wird natürlich jeder Kampf gewonnen. In der Argumentation ist es ganz ähnlich: da wird die Aussage des Gegners aufgegriffen und verdreht. Ihm werden Worte in den Mund gelegt, die er so gar nicht gesagt hat. Im Anschluss wird diese vermeintliche Aussage des Gegners dann bekämpft und „entkräftet“. Ein besonders mieser Trick der schwarzen Rhetorik!
![]() |
Beispiel 1: „Diese Klima-Hysteriker wollen sich mit unseren Steuern die Taschen voll machen, uns zum Gendern zwingen und das Fleischessen verbieten. Es geht denen nicht ums Klima, sondern um Bevormundung!“
Beispiel 2: „Evolutionisten sagen, dass alles Leben nur durch Zufall entstanden ist. Das ist genauso wahrscheinlich, wie wenn ein Tornado über einen Schrottplatz fegt und dabei eine voll funktionsfähige Boeing 747 baut!“ Falsch, weil: Beide Aussagen verdrehen die Position der Gegenseite, indem sie ihr absurde, übertriebene oder frei erfundene Behauptungen unterstellen, die sie aber gar nicht vertritt! |
Mehrdeutigkeit
Wissenschaftsleugner und Extremisten bedienen sich häufig einer unklaren Sprache, bei der sie gezielt mit Mehrdeutigkeiten bestimmter Ausdrücke arbeiten. Besonders die Vermengung wissenschaftlicher Fachtermini im Gegensatz zu Bedeutungsunterschieden in der Umgangssprache werden dazu häufig herangezogen.
![]() |
Beispiel 1: „Klimawandel hat es schon immer gegeben!“
Beispiel 2: „Die Evolutionstheorie ist nur eine Theorie!“ Falsch, weil: Beide Aussagen nutzen Mehrdeutigkeiten, um falsche Schlussfolgerungen zu ziehen. Der natürliche Klimawandel ist nicht homolog zum viel rasanter ablaufenden anthropogenen Klimawandel. Und der wissenschaftliche Begriff „Theorie“ soll als bloße Vermutung abgestuft werden, obwohl sie eine durch viele Forschungsbelege gestärkte Beschreibung einer beobachtbaren Tatsache ist. |
Übermäßige Vereinfachung
Ebenso arbeiten Extremisten auch häufig mit einer übermäßigen Vereinfachung, um eine falsche Logik in der eigenen Argumentation aufzubauen. Bei einer Vielzahl von Trugschlüssen wird ein komplexes Thema so stark reduziert und verzerrt, dass die Schlussfolgerung falsch oder irreführend werden. Der Sprecher will sich selbst damit schlau aussehen lassen, und spricht damit vor allem diejenigen an, die sich mit einem Thema noch weniger gut auskennen als er selbst. Oft werden dabei wichtige Faktoren ignoriert oder Ursache und Wirkung verzerrt.
Monty Python verstehen es immer noch am besten, solche Pseudo-Argumente humorvoll darzustellen und sie auf die Schippe zu nehmen:
Hier aber trotzdem noch ein paar Beispiele aus unserer Zeit. Zur übermäßigen Vereinfachung gehören auch die falsche Wahl und die einzige Ursache als Taktiken der schwarzen Rhetorik
![]() |
Beispiel 1: „Pflanzen brauchen CO₂ zum Wachsen, also sollten wir mehr CO₂ ausstoßen – das fördert die Natur und stoppt den Klimawandel!“
Beispiel 2: „Wenn du einen Fisch ans Land legst, entwickelt er sich doch nicht in ein Landlebewesen! Er stirbt einfach!“ Falsch, weil: Das Wachstum von Pflanzen hängt auch von Nährstoffen, Wasser und Temperatur ab. Und Evolution passiert nicht einfach so einem einzigen Individuum, sondern läuft über tausende von Generationen ab, durch Mutation und Selektion. Beide Beispiele reduzieren somit komplexe Phänomene so stark, dass sie scheinbar einfach erscheinen – und die eigene Logik kohärent. |
Falsche Wahl
Dies ist ein Trugschluss, bei dem eine Diskussion absichtlich auf zwei extreme Optionen reduziert wird, obwohl es in Wirklichkeit mehrere Alternativen gibt. Die falsche Wahl vermittelt den Eindruck, man müsse sich zwangsläufig für eine der beiden Seiten entscheiden. Das ist also ein geschickter Trick, um komplexe Themen zu simplifizieren und Menschen in eine Ecke zu drängen. Oft wird diese Taktik genutzt, um den Gegner zu diskreditieren, indem ihm nur eine untragbare oder radikale Position als „Alternative“ angeboten wird.
![]() |
Beispiel 1: „Entweder, du folgst der links-grünen Klima-Ideologie, oder du bist für alle doch gleich ein Schwurbler oder Nazi.“
Beispiel 2: „Entweder man glaubt an die wortwörtliche Interpretation der Bibel, oder man leugnet den Glauben an Gott vollständig. Es gibt keine Möglichkeit, die Schöpfungsgeschichte mit der Evolutionstheorie in Einklang zu bringen.“ Falsch, weil: Die Redner stellen in beiden Beispielen ein Entweder-Oder-Schema her, obwohl die Lage eigentlich viel komplexer ist und deutlich mehr Optionen bietet. Es gibt fast immer mehr als nur schwarz und weiß! |
Einzige Ursache
Eng verwandt ist auch die Taktik der einzigen Ursache: Hier ignoriert der Sprecher, dass es mehrere Ursachen oder Gründe für bestimmte Phänomene geben kann. In beiden Varianten wird die Komplexität eines Themas scheinbar reduziert und dann mit eigenen, dummen Erklärungen aufgewartet. Da einfache Erklärungen besonders bei den Leuten hervorragend ankommen, die beim Denken nicht gerade zu den erfolgreichsten zählen, fallen immer wieder welche auf diesen Trug herein.
![]() |
Beispiel 1: „Die Klimaerwärmung wird nur durch die natürlichen Schwankungen der Sonnenaktivität verursacht. Alle anderen Faktoren sind unbedeutend.“
Beispiel 2: „Nur die Sintflut hat die Macht, Sedimentschichten aufzutürmen und so viel Druck auf sie auszuüben, dass alle darin eingeschlossenen Tiere zu Fossilien werden.“ Falsch, weil: Beide Sätze beinhalten den Fehler, komplexe Phänomene auf eine einzige Ursache zu reduzieren, obwohl sie in Wirklichkeit durch das Zusammenspiel mehrerer Faktoren entstehen. |
Falsche Analogie
„Du kannst doch nicht Äpfel und Birnen vergleichen!“ Doch. Selbstverständlich kann man! Und wer immer diesen Satz sagt, hat das im Grunde bereits getan und ist dabei zu dem Schluss gekommen, dass Äpfel und Birnen unterschiedliche Obstsorten sind. Darum soll es hier aber nicht gehen. Vergleiche sind nämlich absolut erlaubt und zulässige Argumente in den verschiedensten Diskussionen. Was allerdings darin gar nicht geht und definitiv ein Stilmittel der schwarzen Rhetorik sind: zwei Dinge aufgrund von oberflächlichen Ähnlichkeiten nicht nur zu vergleichen, sondern sie miteinander gleichzusetzen! Das ist nämlich ein wesentlicher Unterschied! Äpfel SIND nämlich keine Birnen. Das Scheinargument der falschen Analogie wird vornehmlich dazu verwendet, irreführende Schlussfolgerungen zu ziehen. Hierbei werden die (oft erheblichen!) Unterschiede einfach vernachlässigt, verharmlost, überspitzt oder verdreht.
![]() |
Beispiel 1: „Als Galileo damals sagte, dass die Erde sich um die Sonne dreht, haben die Wissenschaftler ihn dafür ausgelacht! Bei diesen Klimaforschern ist das heute doch genauso.“
Beispiel 2: „DNA ist wie ein Bauplan – und jeder Bauplan braucht einen Architekten!“ Falsch, weil: Galileo lebte noch in einer Welt ohne wissenschaftliche Gemeinschaft und empirischer Beweisführung. Und die Bauplan-Analogie ist auch kein Gottesbeweis. Beide Aussagen setzen völlig unterschiedliche Dinge miteinander gleich. |
Falsche Fährte
Das Pseudo-Argument der falschen Fährte, im Englischen auch als Red Herring bekannt, soll durch die Einführung einer irreleitenden oder unwichtigen Information vom eigentlichen Thema der Diskussion ablenken. Der Begriff stammt möglicherweise von der Praxis, eine falsche Fährte mit einem starken Geruch zu legen, um Hunde bei der Verfolgung abzulenken.
Erweiterungen dieser Ablenkungstaktiken sind der sogenannte Whataboutismus und das Kugelfisch-Argument.
![]() |
Beispiel 1: „CO₂ ist ein winziger Bestandteil der Luft, kann dann doch gar nicht schädlich sein!“
Beispiel 2: „Der zweite Hauptsatz der Thermodynamik besagt, dass geschlossene Systeme immer in Unordnung übergehen. Laut den Evolutionisten werden Lebewesen aber immer komplexer. Die Evolutionstheorie widerspricht sich somit selbst, weil sie gegen die Naturgesetze verstößt!“ Falsch, weil: Beide Sätze sind dreiste Ablenkungsmanöver: CO₂ hat trotz seines geringen Anteils an der Atmosphäre trotzdem eine hohe Klima-Potenz (vergleichbar mit Alkohol im Blut!). Und Lebewesen sind offene Systeme, die Energie von außen (Sonne!) aufnehmen. Der zweite Hauptsatz der Thermodynamik gilt hier also nicht. |
Whataboutismus
Eine typische Masche für die falsche Fährte ist der sogenannte Whataboutismus (aus dem Englischen „What about…„, mit der Bedeutung „Was ist eigentlich mit…“). Hierbei wird, anstatt auf ein Argument einzugehen, ein anderes, oft nur entfernt verwandtes Thema aufgeworfen. Ziel ist es, die Diskussion zu entgleisen und Kritik ins Leere laufen zu lassen, Sündenböcke zu präsentieren oder sich selbst aus der Verantwortung zu ziehen. Das berühmte „Der hat aber angefangen!“ ist wahrscheinlich das erste Whataboutismus-Argument, mit dem wir alle schon im Kindergarten einmal konfrontiert gewesen sind.
![]() |
Beispiel 1: „China und die USA stoßen ganze Größenordnungen mehr CO₂ aus als Deutschland, aber wir sollen mal wieder die Welt retten.“
Beispiel 2: „Anstatt ständig die Evolutionstheorie zu verteidigen, sollten Wissenschaftler lieber erklären, wie das Leben überhaupt entstanden ist – denn das können sie bis heute nicht!“ Falsch, weil: Beide Aussagen versuchen, vom eigentlichen Thema abzulenken, indem sie ein anderes, scheinbar gleichsam relevantes Problem oder einen „noch Schuldigeren“ in den Vordergrund rücken. |
Kugelfisch-Argument
Eine fiese Abwandlung der falschen Fährte ist auch das Kugelfisch-Argument. Es ist ein rhetorischer Trick, bei dem jemand seine eigene Argumentation oder auch etwas zuvor gesagten künstlich aufbläht, um klüger oder überzeugender zu wirken. Dabei hat der Inhalt eigentlich wenig Substanz. Es geht darum, mit kompliziert klingenden Begriffen, Fachjargon oder einer Flut an (oft irrelevanten) Informationen zu beeindrucken und den Gegner einzuschüchtern, anstatt wirklich eine schlüssige Beweisführung zu liefern. Eben wie ein Kugelfisch, der eigentlich ein ziemlich kleiner Fisch ist, sich aber aufbläst, um für seine Feinde größer zu wirken, als er eigentlich ist.
![]() |
Beispiel 1: „Die Klimamodelle basieren auf chaotischen Differentialgleichungen, die aufgrund der nichtlinearen Dynamik niemals Langzeitvorhersagen ermöglichen können – deswegen ist der Klimawandel nichts weiter als eine mathematische Illusion!“
Beispiel 2: „Die irreduzible Komplexität biologischer Makromoleküle zeigt, dass subzelluläre Mechanismen einer teleologischen Feinabstimmung unterliegen, die nicht durch neodarwinistische Paradigmen erklärt werden kann!“ Falsch, weil: Klingt alles hochgradig wissenschaftlich, ist aber im Grunde nur dummes Stammtisch-Geschwurbel, das nur der Ablenkung und Einschüchterung dienen soll. |
Dammbruch
Diese rhetorische Technik soll bei den Zuhörern auf irrationale Weise Panik und Widerstand gegen eine Veränderung erzeugen. Sie dient besonders dazu, (vernünftige!) Lösungsvorschläge für bestimmte Probleme zu diskreditieren. Die Behauptung: Ein vorgebrachter Vorschlag werde zu einer Kettenreaktion aus negativen Folgen führen, auch wenn es dafür keine logische oder empirische Grundlage gibt. Das „Argument“ ist also quasi ein Dammbruch, bei dem sich aufgrund einer in Wirklichkeit harmlosen Entscheidung eine Flut aus schrecklichen Konsequenzen über uns alle ergießen wird. Es ist auch eine beliebte Vorbereitungs-Taktik zum Aufbauen eines Strohmann-Arguments
![]() |
Beispiel 1: „Wenn wir CO₂-Emissionen besteuern, werden wir bald gar nichts mehr produzieren dürfen, und die Wirtschaft wird völlig zusammenbrechen!“
Beispiel 2: „Wenn wir Kindern Evolution beibringen, dann verlieren sie jeglichen moralischen Kompass und glauben, dass das Leben bedeutungslos ist!“ Falsch, weil: Klimamaßnahmen und Evolutionslehre sind Wissenschaftsleugnern gleichsam ein Dorn im Auge. Und so werden diese Maßnahmen als Anfang einer unaufhaltsamen Katastrophe dargestellt. Man könnte bei allen Szenarien noch ergänzen: „Das wird zu einer völligen Verrohung der Gesellschaft führen. Es wird einen Bürgerkrieg geben! Millionen Tote sind dann die Folge!“ Und so geht es weiter und weiter… |
Was kannst du dagegen tun?
![]() |
|
Unerfüllbare Erwartungen
Wissenschaftsleugner arbeiten gern mit fiesen Tricks, um eine berechtigte Kritik an der Forschung vorzutäuschen. Dazu stellen sie unerfüllbare Erwartungen: So fordern sie von Forschern unwiderlegbare Tatsachen oder präzise Prognosen, welche die Forschung wohlweißlich nicht erbringen kann. Schließlich ist Wissenschaft ja keine Kaffeesatzleserei und Forscher haben auch keine Kristallkugel, in der sie nach der „Wahrheit“ forschen. Raum für Zweifel muss in der Forschung immer offenbleiben, doch genau das machen sich die Extremisten gern zunutze, um diese Zweifel aufzubauschen und die Arbeit der Forscher zu diskreditieren. Diese Strategie wird oft eng verwoben mit logischen Trugschlüssen.
![]() |
Beispiel 1: „Wissenschaftler können nicht einmal das Wetter in der nächsten Woche vorhersagen. Wie sollen sie also das Wetter in 100 Jahren vorhersagen können?“
Beispiel 2: „Es gibt kein einziges Fossil, dass die Umwandlung von einem Dinosaurier in einen Vogel zeigt. Genauso wenig von einem Fisch in ein Landtier. Also ist die Evolution totaler Quatsch!“ Falsch, weil: Beide Aussagen setzen unerfüllbare Erwartungen, indem sie von der Wissenschaft absolute Sicherheit oder perfekte Vorhersagen verlangen. Doch das ist in komplexen Systemen wie Klima oder Evolution unmöglich! Diese Strategie soll Zweifel säen und wissenschaftliche Unsicherheiten fälschlicherweise als Schwäche darstellen. |
Abgesenkte Erwartungen
In umgekehrter Weise kann man aber auch mit abgesenkten Erwartungen arbeiten, mit denen eine Vorstellung oder Beweise für eigene Inhalte, die der Ideologie entsprechen, angeführt (und natürlich immer erfüllt!) werden. Hier machen es sich die Extremisten aber viel zu einfach und sehen Dinge als unumstößlichen Beweis an, obwohl es durchaus auch andere, sogar noch plausiblere Erklärungen für das „erklärte“ Phänomen gibt.
![]() |
Beispiel 1: „Die letzten beiden Sommer waren viel verregneter und kälter als die davor. Es gibt wohl doch keinen Klimawandel.“
Beispiel 2: „Es gibt Fossilien von Meerestieren auf Bergen. Ein eindeutiger Beweis für die Sintflut!“ Falsch, weil: Beide Aussagen senken die Anforderungen an einen „Beweis“ so stark ab, dass sie eine komplexe Realität verzerren: kurzfristige Wetterveränderungen widerlegen keinen langfristigen Klimawandel. Und Fossilien auf Bergen lassen sich geologisch erklären, ohne eine Sintflut zu benötigen. |
Torpfosten verschieben
Was eine besonders fiese Masche ist: Selbst, wenn die geforderten Belege wirklich erbracht werden, erkennen Extremisten diese einfach nicht an. Übel: Da hast du den Typen wirklich am argumentatorischen Schlafittchen gepackt und er muss sein Geschwurbel sogar an einer Stelle einräumen – da ändert er dann einfach die Spielregeln. Er wird nun einfach die Torpfosten verschieben. Diese Strategie lässt sich quasi endlos fortführen, sodass es sehr müßig sein kann, mit Extremisten weiter zu diskutieren. Sie ist eng gekoppelt an Verschwörungserzählungen und ein Ausdruck der Immunität gegen Beweise.
![]() |
Beispiel 1: „Okay, der Meeresspiegel mag gestiegen sein, aber dass sich der Anstieg beschleunigt, das kannst du trotzdem nicht beweisen!“
Beispiel 2: „Hmm, interessant, dein komischer Archaeopteryx oder dieser Tiktaalik… Aber hast du denn auch eine ‚Zwischenform‘, die zeigt, wie sich ein Dino mal in einen Archaeopteryx verwandelt hat? Oder ein Fisch in deinen Tiktaalik? Nee, haste nicht! Siehste!“ Falsch, weil: Beide Aussagen verschieben die Anforderungen an einen Beweis immer weiter, sodass kein Argument jemals ausreicht. Selbst wenn klare Belege vorliegen, werden neue, oft unerfüllbare Forderungen gestellt, um die eigene Position niemals aufgeben zu müssen. |
Argumentum ad ignorantiam
Letzten Endes laufen alle diese Diskussionen mit Extremisten auf das Argument der Unwissenheit (Lateinisch: Argumentum ad ignorantiam) hinaus. Wie das abläuft, ist leicht erklärt: Eine These wird für falsch erklärt, nur weil sie bisher nicht bewiesen werden konnte. Genauso gilt umgekehrt: Eine These wird für richtig erklärt, weil sie bisher nicht widerlegt werden konnte. Es ist allerdings so, dass man niemals wissenschaftlich beweisen kann, dass etwas nicht existiert. Egal ob es um Kobolde, Feen, Drachen, Bigfoot, Nessie, Yeti, Außerirdische oder auch Gott geht: ob es sie gibt, kann nur bewiesen werden, wenn jemand einen klaren Beleg für ihre Existenz liefert.
![]() |
Beispiel 1: „Dass der Klimawandel zu einer Katastrophe führen wird, ist überhaupt nicht sicher! Du sagst doch selber, dass so eine rasante Entwicklung in der Erdgeschichte noch nie gab!“
Beispiel 2: „Woher willst du eigentlich wissen, dass die Dinos wegen dieses Meteoriten ausgestorben sind? Warst du etwa dabei?“ Falsch, weil: Bei beiden Aussagen werden die eigene Unwissenheit, sowie die (scheinbare!) Unbeweisbarkeit, zur Waffe. Dabei kann man selbstverständlich auch Klimamodelle zu bislang unbekannten Szenarien erstellen – auf Basis von verfügbaren Daten, die wir ja trotzdem noch messen können. Und wir können auch Spuren für Ereignisse in der längst zurückliegenden Vergangenheit finden und sie erforschen. |
Was kannst du dagegen tun?
![]() |
|
Rosinenpickerei
Eine weitere typische Masche ist die Rosinenpickerei, auf Englisch auch oft als Cherrypicking bezeichnet. Was heißt das nun wieder? Der extremistische Wissenschaftsleugner „untermauert“ seine Position hier ausnahmsweise wirklich einmal mit wissenschaftlichen Daten, Studien und Forschungsergebnissen, an denen es erst einmal nichts oder nur wenig auszusetzen gibt. Das Verwerfliche: er stellt bei Kontroversen nur die Ergebnisse heraus, die seinen Standpunkt unterstützen. Dass es auch widersprechende Ergebnisse gibt, ignoriert er (wohlweißlich). Im Kern funktioniert das etwa so
![]() |
Experte: „In der Forschung müssen wir immer für den Irrtum offenbleiben. Es gibt keine Abschließende Wahrheit und ständig neue Erkenntnisse.“
Schlagzeile in Schwurbler-Blatt: „Professor gibt zu, dass Forschung im Grunde gar nichts bringt!“ Falsch, weil: Muss ich nicht erklären, oder? Das Schundblatt gibt die Aussage des Experten derartig reduziert wieder, dass der Inhalt völlig sinnentstellt wird. Dadurch entsteht ein ganz anderes Narrativ. |
Für ein erfolgreiches Cherrypicking gibt es mehrere miese Maschen: Die Anekdote, die Faultier-Induktion und das selektive Zitieren.
Anekdote
Hier pickt man sich eigene Erlebnisse, also eine Anekdote heraus, um sie als Scheinbeweise ins Feld zu führen. Etwas, was ich selbst oder andere mit ihren eigenen Augen gesehen haben, muss doch etwas wert sein, oder? Nein. Erstens lassen sich Anekdoten auf ihren Wahrheitsgehalt nur schwer überprüfen. Zweitens ignorieren sie oft, dass es mehr als nur eine logische Erklärung geben könnte, selbst wenn die Geschichte wahr sein sollte. Und drittens: Ausnahmen bestätigen die Regel. Eine eigene Anekdote kann durchaus eine Ausnahme sein, die sehr konträr zur Gesamtlage steht.
![]() |
Beispiel 1: „Jetzt sieh dir nur mal den ganzen Schnee an, den wir schaufeln müssen! Und die Deppen reden ständig von globaler Erwärmung!“
Beispiel 2: „Mein Biologielehrer konnte mir nie genau erklären, wie aus toter Materie Leben entstanden sein soll. Das zeigt doch, dass die ganze Evolutionstheorie Quatsch ist!“ Falsch, weil: Beide Aussagen ziehen aus Einzelfällen oder persönlichen Erlebnissen falsche Schlussfolgerungen, ignorieren breitere wissenschaftliche Daten und übersehen, dass Ausnahmen nicht die Regel widerlegen. |
Faultier-Induktion
Sobald ein Extremist nur eine einzige Studie gefunden hat, die sein Argument ansatzweisen stützen könnte, stellt er jede weitere Recherche ein. Es reicht ihm dann. Zu jeder sich bietenden Gelegenheit, wann immer irgendwer auf das betreffende Thema zu sprechen kommt, zitiert er nun aus dieser einen Studie, um sein Argument zu „untermauern“. Gegenbeweise, selbst wenn es reichlich davon gibt, werden schlichtweg ignoriert. Diese Strategie nennt man Faultier-Induktion. Faultiere gehen auch gern mit anderen Scheinargumenten spazieren, wie z.B. aus der Sparte der logischen Trugschlüsse, und besonders gern auch mit Pseudo-Experten.
![]() |
Beispiel 1: „Es gibt diese eine Studie, die zeigt, dass die Sonne viel stärker zum Klimawandel beiträgt als CO₂ – also ist die ganze Debatte über menschengemachten Klimawandel Unsinn!“
Beispiel 2: „Ein Wissenschaftler hat gesagt, dass es Lücken in der Fossilienreihe gibt – also ist die Evolution nur eine unbewiesene Theorie!“ Falsch, weil: Beide Aussagen stützen sich auf eine einzelne, oft aus dem Kontext gerissene Studien, die es vielleicht wirklich geben mag. Dabei wird aber ignoriert, dass der wissenschaftliche Konsens durch zahlreiche, unabhängige Untersuchungen gebildet wird. Echte Forschung basiert nicht auf Einzelmeinungen. |
Selektives Zitieren
Eng verbunden mit dem Komplex der Pseudo-Experten ist auch selektives Zitieren. Einzelne Zitate von Fachleuten werden dabei aus dem Kontext gerissen und verdreht, um die eigene Position zu stützen. Auch wenn die besagten Experten das irgendwann selbst herausfinden und sich von der Zitierweise deutlich distanzieren, hört diese Masche nicht auf. Jetzt wird ständig weiterbehauptet, Professor X hätte dies und jenes gesagt, obwohl er etwas komplett anderes meinte.
![]() |
Beispiel 1: „Der schwedische Physiker Svante Arrhenius sagte selbst, dass mehr CO₂ das Klima positiv beeinflussen und für bessere Ernten sorgen wird!“
Beispiel 2: „Der berühmte Paläontologe Stephen Jay Gould und sogar Charles Darwin selbst haben zugegeben, dass es in der Fossilienreihe keine Übergangsformen gibt – also ist die Evolutionstheorie falsch!“ Falsch, weil: Arrhenius erkannte 1896 als Erster, dass CO₂ zur Erderwärmung beiträgt. Er hielt eine moderate Erwärmung für vorteilhaft, aber nur, weil er nicht wusste, wie rasant sie tatsächlich verlaufen würde. Und seit Darwin wurden sogar mehrere „Übergangsformen“ entdeckt (z. B. Archaeopteryx oder Tiktaalik). Gould postulierte, dass Evolution manchmal in schnellen Sprüngen abläuft und nicht immer allmählich. Er sagte nie, dass es keine Übergangsformen gäbe, sondern dass sich neue Arten oft relativ schnell entwickeln, weshalb manche Übergangsformen in der Fossilienreihe seltener nachweisbar sind. |
Was kannst du dagegen tun?
![]() |
|
Verschwörungsmythen
Den runden Abschluss der schwarzen Rhetorik von Wissenschaftsleugnern bilden die übelsten Maschen von allen. Und das sind die Verschwörungsmythen! Vereinfacht gesagt steckt die Überzeugung dahinter, dass die Wissenschaft von einer (unbekannten) Elite unterwandert wurde, nun politisch gesteuert ist und instrumentalisiert wird. Dadurch werden nun bloß noch Ergebnisse präsentiert, die dem „Mainstream“ entsprechen. Dass die eigene Meinung ständig angegriffen werde, sei das Ergebnis einer groß angelegten Verschwörung, um die „Wahrheit“ nicht ans Licht kommen zu lassen. Diese Strategie hat ihren Grund: schließlich können empirische Forschungen die religiösen Dogmen und menschenverachtenden Ideologien widerlegen und gefährden damit ihre Agenda.
![]() |
Beispiel 1: „Globale Erwärmung ist eine Erfindung von China, um die westliche Wirtschaft zu schwächen! In Wahrheit kühlt sich die Erde ab, weil wir noch immer in der Eiszeit sind.“
Beispiel 2: „Paläontologen graben beileibe keine Knochen aus! Die tun nur so! Stattdessen kratzen sie die einfach nur in den Stein oder aus dem Stein heraus. Fossilien… Das ist doch alles nur ‚Kunsthandwerk‘!“ Falsch, weil: Beide Aussagen sind klassische Verschwörungsmythen, die wissenschaftliche Erkenntnisse nicht nur ablehnen, sondern durch wilde Spekulationen ersetzen. Dabei werden Fakten ignoriert, absurde Behauptungen miteinander kombiniert und eine geheime Agenda unterstellt. |
Die Verschwörungsmythen sind zwar oft eng miteinander verwoben, lassen sich aber in zwei Zweige unterteilen. Den einen bilden die üblen Absichten, wobei dem Gegner unterstellt wird, Teil einer Verschwörung zu sein.
Üble Absichten
Extremisten lehnen mit einer nihilistischen Skepsis alles ab, was im Widerspruch zu ihrer Ideologie steht. Alle Nachfragen nach Beweisen haben lediglich rhetorische Natur. Denn auch, wenn du wirklich einen Beweis anführen kannst, kommt sofort der Vorwurf, dass die Daten ungenau seien, oder die ganze Studie sogar gefälscht. Die Wissenschaft – der große Gegner – verfolgt ganz eigene Interessen, genauso wie die „Mainstream-Medien“ und die „Altparteien“. Es ist völlig egal, ob nach einem Regierungswechsel oder auch einem Paradigmenwechsel in der Forschung ein völlig anderer Kurs gefahren wird. Solange nicht die eigene Ideologie eins zu eins umgesetzt ist, ist jeder andere ein Feind, mit üblen Absichten.
![]() |
Beispiel 1: „Klimaforscher leben doch nur von Panikmache – ohne den Klimawandel würden die doch alle ihre Jobs verlieren!“
Beispiel 2: „Wissenschaftler verteidigen die Evolution nur, weil sie Atheisten sind und Gott und die Moral aus der Welt schaffen wollen!“ Falsch, weil: Beide Aussagen unterstellen der Wissenschaft oder der Regierung üble Absichten, um ihre Erkenntnisse nicht ernst nehmen zu müssen. Anstatt Argumente auf der Sachebene zu widerlegen (was mitunter schwierig ist!), wird einfach behauptet, dass die Gegenseite eine versteckte Agenda verfolgt. Beweise sind dafür nicht notwendig. |
Generalverdacht
Insbesondere die Forschung steht unter einem Generalverdacht. Die offizielle Darstellung der Forscher muss auf einer Täuschung beruhen. Denn was nicht wahr sein darf, kann auch nicht wahr sein. Egal ob es um Erkenntnisse aus der Klimaforschung, der Medizin oder auch der Evolutionsbiologie geht: alle sind gleichermaßen Anfeindungen ausgesetzt und werden von Extremisten stets zu diskreditieren versucht. Hierbei wird oft unterstellt, dass die Forscher ein (auch finanzielles) Eigeninteresse haben und deshalb nicht glaubwürdig sind. Bei dieser Technik wird auch eng mit Pseudo-Experten gearbeitet, die als wenigstens „gleichberechtigtes“ Gegengewicht aufgebaut werden.
![]() |
Beispiel 1: „Hinter der ganzen Klimahysterie steckt doch die Öko-Lobby! Die verdienen sich mit ihren Windrädern und Elektro-Autos eine goldene Nase.“
Beispiel 2: „Guck dir doch mal an, was die Museen für ein Geld machen! Oder Hollywood mit diesem Dino-Hype… Dabei hat es Dinosaurier überhaupt nicht gegeben!“ Falsch, weil: Alle drei Aussagen arbeiten mit einem pauschalen Generalverdacht, indem sie unterstellen, dass Forschung und Wissenschaft nur aus finanziellen Eigeninteressen betrieben werden. Anstatt die Fakten zu widerlegen, wird einfach behauptet, dass alles nur eine große Geldmacherei sei. |
Etwas stimmt nicht
Sogar, wenn Teile des Verschwörungsmythos absolut nicht mehr haltbar sind, und der Extremist sich das schmerzhafterweise eingestehen muss, kriegt er mit einer anderen Masche, dem „Etwas stimmt nicht!“ noch die Kurve. Jede kleine Ungenauigkeit oder (scheinbare!) Unstimmigkeit eines Arguments oder einer Studie wird dabei mit Hilfe von Trugschlüssen ausgeschlachtet. Hierbei wird oft auch mit Techniken aus der Kategorie der unerfüllbaren Erwartungen gearbeitet, und der andere Ast der Verschwörungsmythen, also die Immunität gegen Beweise, mit herbeigezogen.
![]() |
Beispiel 1: „Ja, okay, 97% der Klimaforscher sagen, dass Menschen die globale Erwärmung verursachen. Die machen das aber doch nur, weil sie keine Abweichler sein wollen. Sonst würden die doch gleich von ihrer Uni fliegen!“
Beispiel 2: „Ja okay, die Arche war für alle lebenden Tiere auf der Erde wohl doch etwas zu klein. Aber von den ganzen Vögeln hat Noah sicher nur die Eier mitgenommen. Und viele Tiere haben sich danach ja noch weiterentwickelt, aus Grundformen. Hunde aus Wölfen und so weiter. Mikro-Evolution eben!“ Falsch, weil: Beide Aussagen geben widerwillig einen Punkt zu, ersetzen die eigentliche Widerlegung aber sofort durch eine neue Spekulation oder Verschwörungsthese. Anstatt echte Argumente zu liefern, wird einfach so lange weiter geschwurbelt, bis die eigene Ideologie doch wieder passt. |
Opferrolle
Wenn nichts mehr klappt, begibt sich der Extremist in die Opferrolle. Auf Latein heißt sie übrigens Argumentum ad misericordiam (Argument gegen das Mitleid). Es ist der Versuch, Sympathie oder Mitleid zu erwecken, um Zustimmung zu erhalten, anstatt auf rationale Gründe einzugehen. Sich emotional als unterdrückte Minderheit zu präsentieren, kann jede Extremisten-Gruppe gut. Inwiefern sie allerdings selbst andere Menschen diskriminieren, und dass es für die Ablehnung des Extremismus wirklich gute Gründe gibt, wollen sie natürlich nicht sehen! Besonders bei der rechtspopulistischen AfD werden Heuchelei und Doppelmoral sehr deutlich, da ihre eigenen Aussagen selbst extrem hetzerisch sind. Gegen mehrere Parteimitglieder liefen bereits Ermittlungsverfahren wegen Beleidigung und Volksverhetzung. Aber auch für Wissenschaftsleugner ist die Opferrolle ein Kunststück, dass sie exzellent beherrschen.
![]() |
Beispiel 1: „Wenn man sich nicht dem Klimawahn anschließt, oder irgendwas Kritisches zu der sakrosankte Greta sagt, wird man doch gleich als Umweltverbrecher abgestempelt!“
Beispiel 2: „Die Evolutionstheorie wird uns allen in der Schule einfach aufgezwungen. Aber niemand lässt uns Kreationisten auch unsere eigene Meinung sagen! Das ist Diskriminierung!“ Falsch, weil: Beide Aussagen inszenieren die Sprecher als unterdrückte Opfer, um von der inhaltlichen Debatte abzulenken. Dabei ist Kritik an der Forschung ausdrücklich erlaubt. Sogar Falschaussagen darüber sind meistens von der Meinungsfreiheit gedeckt! Man muss allerdings trotzdem natürlich mit Widerspruch rechnen, weil Meinungsfreiheit eben keine Einbahnstraße ist. |
Immunität gegen Beweise
Den anderen Zweig dieser Kategorie bildet eine renitente Immunität gegen Beweise, wobei alle der eigenen Meinung entgegenlaufende Aussagen mit Scheinargumenten abgeschmettert werden sollen. Jeden Beweis, der gegen einen Verschwörungsmythos spricht, wird von Extremisten so gedreht, dass er diesem letztlich doch wieder entspricht.
Hierzu setzen Extremisten darauf, dass sie Zufälligkeiten uminterpretieren können. Daneben weisen ihre Argumentationsstränge aber auch zahlreiche Widersprüche auf, die allerdings nicht als solche wahrgenommen werden.
![]() |
Beispiel 1: „Zeigt mir den Beweis für den Klimawandel … na, der Beweis ist doch auf jeden Fall gefälscht! Die Studie wurde doch garantiert von der Öko-Lobby bezahlt!“
Beispiel 2: „Diese Methoden zur Datierung sind alle unzuverlässig! Man hat ja schon frisch gefundene Muscheln mit der C14-Methode auf Millionen Jahre datiert!“ Falsch, weil: Dass Studien zur globalen Erwärmung von unabhängigen Forschungseinrichtungen weltweit stammen, wird ignoriert. Und die C14-Methode wird nur für organisches Material bis etwa 50.000 Jahre verwendet. Für Millionen Jahre alte Fossilien nutzt man andere Verfahren wie Uran-Blei- oder Kalium-Argon-Datierung. Beide Behauptungen basiert also auf einem grundlegenden Missverständnis oder bewusster Verdrängung der Tatsachen. Egal, welche Fakten vorliegen, sie werden sofort als gefälscht, unglaubwürdig oder unzureichend abgelehnt. Dieses Denkmuster macht eine rationale Diskussion unmöglich. |
Zufälligkeiten uminterpretieren
Forschungsbelege, aber auch reine Zufälligkeiten uminterpretieren, ist ein sehr beliebte Masche. Sie geht oft mit Techniken aus der Rosinenpickerei Hand in Hand. Man greift zu rhetorischen und psychologischen Strategien, bei der zufällige Ereignisse oder Muster nachträglich so gedeutet werden, dass sie in eine vorgefertigte Erzählung oder Ideologie passen. Dabei werden nur jene Zufälle hervorgehoben, die ins Narrativ passen, während widersprechende ignoriert werden. Wenn irgendein beliebiges Ereignis eingetreten ist, wird ihm dann gern eine tiefere Bedeutung zugeschrieben: Korrelation wird als Kausalität missverstanden.
![]() |
Beispiel 1: „Ein NASA-Satellit ist explodiert? Na klar, ein Unfall! Die versuchen doch nur, ihnen unbequeme Daten zu vertuschen!“
Beispiel 2: „Forscher haben sogar schon Weichgewebe in Dinosaurierfossilien nachgewiesen. Das beweist, dass Dinosaurier noch vor Kurzem auf der Erde gelebt haben müssen!“ Falsch, weil: Beide Aussagen interpretieren zufällige oder wissenschaftlich erklärbare Phänomene so um, dass sie in eine bestehende Verschwörungserzählung passen. So kann sich zwar tatsächlich unter bestimmten Bedingungen bei der Fossilisation Weichgewebe bis in die heutige Zeit erhalten, das ist aber kein Beweis für eine junge Erde. |
Widersprüche
Die zweite Masche: Extremisten agieren mit unterschiedlichsten Aussagen, um auf Thesen ihrer Gegner zu reagieren. Diese beinhalten allerdings oft erhebliche Widersprüche zueinander. Dass sie sich selbst (eigentlich immer!) widersprechen, blenden Extremisten aber vollkommen aus! Natürlich weigern sich Extremisten aber, diese Widersprüche zuzugeben. Sie bemerken noch nicht einmal, dass sie reflexartig mal die eine, mal die andere These raushauen, obwohl sie sich damit teuflisch in ihrer eigenen Argumentation verheddern können.
![]() |
Beispiel 1: „Die Temperaturaufzeichnungen werden von Wissenschaftlern gefälscht!“ vs. „Die Temperaturaufzeichnungen zeigen eine Abkühlung!“
Beispiel 2: „Du sollst nicht töten!“ vs. „Tod allen Ungläubigen!“ Falsch, weil: Beide Beispiele enthalten einen grundlegenden Widerspruch, weil sie je nach Situation einfach die passendste Behauptung wählen – Wissenschaft wird entweder gefälscht oder als Beweis genutzt; religiöse Gebote gelten universell oder nur selektiv. Statt einer konsistenten Argumentation geht es nur darum, die eigene Ideologie zu stützen, egal mit welchen Mitteln. |
Was kannst du dagegen tun?
![]() |
Leider nicht viel! Mit jemandem, der bereits tief in einer Verschwörungsideologie steckt, kannst du keine sinnvolle Diskussion führen. Also versuche es erst gar nicht. Diese Menschen halten sich nicht an die Regeln eines fairen Austauschs. Sie sind nicht daran interessiert, Argumente abzuwägen, sondern nur daran, dich von ihrer Sichtweise zu überzeugen. Es ist im Grunde so, als würdest du mit einer Taube Schach spielen – da kannst du auch unmöglich „gewinnen“, weil die Taube alle Figuren einfach umwerfen wird, aufs Brett kackt und irgendwann einfach davonfliegt. Spätestens wenn sich dein Gegenüber in die Opferrolle begibt („Alle sind gegen mich, weil ich die Wahrheit sage!“), hast du die Diskussion verloren. Eine sachliche Auseinandersetzung war nie das Ziel. |
Ich hoffe, dieser Beitrag war hilfreich für dich und du konntest etwas für zukünftige Diskussionen mitnehmen. Wohlgemerkt nutzen ja nicht nur Wissenschaftsleugner diese Techniken der schwarzen Rhetorik, auch viele andere (z.B. Politiker) beherrschen sie. Nun wird es aber (hoffentlich!) nicht mehr so einfach sein, dich hinters Licht zu führen, und dich können viele solcher Pseudoargumente auch nicht mehr überraschen, da du sie ja jetzt kennst! Hab also keine Scheu, zu diskutieren. Extremismus bekämpfen wir am besten, indem man die Extremisten auf Basis ihrer eigenen Argumente stellt, und diese schlagkräftig widerlegt. Mach dabei gerne mit!
![]() |
Was ist Extremismus?
Wer sind die gefährlichsten Extremisten? Wieso sind Extremisten so erfolgreich? Was können wir gegen Extremismus tun? Extremistische Scheinargumente – bekämpfen! |
Noch eine letzte Bitte
Wenn man so einen Artikel wie diesen hier schreibt, bedeutet das natürlich, dass man polarisiert. Und für mich als Autor bedeutet es, dass ich sogar mit Rückschlägen zu kämpfen habe. Extremisten sind charakterschwache, hinterhältige Feiglinge, die mit unsauberen, heimtückischen Methoden arbeiten. Das ist allerdings nicht etwa eine persönliche Meinung oder Behauptung, sondern eine Tatsache, die ich selbst schon am eigenen Leib zu spüren bekam. Sobald ich mal etwas über Toleranz geschrieben, oder mich zu meiner Ablehnung von Diskriminierung und Extremismus bekannt habe, ist die Bewertung meiner Bücher auf Amazon nämlich meist deutlich gesunken.
Und nein, das ist keine zufällige Korrelation! Wenn man mehr als 4.000 Follower hat, dazu noch mehrere „stille“ Mitleser, müssen sich darunter zwangsläufig auch einige Personen eher zweifelhafter Gesinnung befinden. Das ist eben das Gesetz der Masse. Diese Personen drücken mir immer eine miese Bewertung rein, wenn sie Widerspruch erleben. Einige haben mich auch grundlos bei Facebook gemeldet, sodass mein Artikel für kurze Zeit gesperrt war. Ich konnte das aber zum Glück wieder rückgängig machen.
Ich befürchte also, dass einige Ewiggestrige auch diesen Artikel wieder zum Anlass nehmen werden, mir auf Amazon eine miese Bewertung reinzudrücken, um mich für meine ketzerischen Worte zu „bestrafen“. Und dass ich auf Facebook auch wieder Ärger dafür kriege, dass ich gegen Extremisten aufstehe, besonders gegen Rechtsextremisten. Ich verlasse mich aber darauf, dass du, der du jetzt wirklich bis ganz zum Ende gelesen hast, mir dabei hilfst, dass die blaubraunen Arschgeigen hier keinen „Sieg“ gegen mich erringen können.
Darf ich dich deshalb um folgendes bitten?
![]() |
Folge meiner Seite weiter so lieb, wie du es schon tust, und teilt meine Beiträge mit deinen Freunden auf Facebook, Instagram, Bluesky, Mastodon oder gern auch anderen sozialen Medien. Ein „Teilen“ kostet nicht viel Zeit. Und bestimmt gibt es in deiner Freundesliste auch den einen oder anderen, der sich für Dinos oder Abenteuerbücher interessiert. Also erzähle es einfach weiter!
|
Vielen Dank für jede Unterstützung!