In der heutigen Zeit, in der wissenschaftliche Erkenntnisse und Fakten eine entscheidende Rolle bei der Bildung von Meinungen und politischen Entscheidungen spielen, wird die Herausforderung, korrekte Informationen von irreführenden zu unterscheiden, immer drängender. Ein besorgniserregender Trend besteht darin, dass Wissenschaftsleugner vermehrt auf Scheinargumente und rhetorische Methoden zurückgreifen, um ihre Standpunkte zu verteidigen. Oder, um ihre strikte Ablehnung etablierter wissenschaftlicher Erkenntnisse zu rechtfertigen. In diesem Artikel möchte ich mich eingehend mit den unterschiedlichen Scheinargumenten und rhetorischen Taktiken befassen, die von Wissenschaftsleugnern angewendet werden. Durch eine kritische Analyse dieser Strategien versuche ich, dir ein tieferes Verständnis für die Mechanismen der Wissenschaftsleugnung zu vermitteln. Und ich möchte dir hilfreiche Werkzeuge und „Verteidigungstaktiken“ bereitstellen, um ihnen wirkungsvoll entgegentreten zu können!
Wissenschaftsleugnung – eine Erfolgsstrategie?
Egal ob beim Thema Klimawandel oder auch der Erklärung zur Entstehung unserer Erde und der heutigen Artenvielfalt: immer wieder werden in Diskussionen darüber von den Gegnern der Wissenschaft grundlegende Erkenntnisse der Forschung falsch dargestellt. Dahinter steckt nicht unbedingt nur Unwissenheit, sondern mitunter eine perfide ausgearbeitete Propaganda.
Denn wie bereits in meinen vorherigen Artikeln über Extremismus geschildert, scheitern Wissenschaftsleugner mit ihren Ideologien irgendwann zwangsläufig an der Sachlichkeit und an Tatsachen. Da sie Widerspruch allerdings nicht dulden können, müssen sie dieses Manko irgendwie umgehen, und das passiert auf Basis von Emotionen. Angst, Hass und Empörung sind dabei wohl die stärksten, alles keine besonders angenehmen oder fruchtbaren Gefühle. Aber sie halten jeden von uns vom kritischen Denken ab, und das ist es, worauf es ankommt.
Emotionen vs. Logik und Sachlichkeit
Je emotionaler eine Debatte wird, desto weniger besteht die Chance auf gegenseitiges Verständnis. Extremisten denken in absoluten Kategorien: Wer nicht für sie ist, ist gegen sie. Ein radikaler Anhänger wird sich nicht durch Argumente überzeugen lassen – wer mit ihnen diskutiert hat, kennt das.
Zweifler und gemäßigte Anhänger einer extremistischen Ideologie kannst du allerdings sicher noch irgendwie erreichen. Nur musst du dann imstande sein, ihre Maschen und rhetorischen Kniffe zu durchschauen und ihnen sachlich und faktenbasiert Red und Antwort stehen können. Denn meistens plappern die „niederrangigen“ Mitglieder ihren ideologischen Leitfiguren bloß alles nach dem Schnabel, ohne es selbst zu hinterfragen. Daran kannst du einen Hebel ansetzen.
Wie manipulieren Wissenschaftsleugner?
Extremisten haben ein breites Netz von Pseudo-Argumentationen in Petto, das sie einsetzen, um Gespräche auf unfaire und manipulative Weise zu ihren Bedingungen zu lenken. Ich nenne das gerne Schwarze Rhetorik, ein bisschen angelehnt an schwarze Magie. Es ist schon beachtlich, wie leicht man darauf reinfallen kann. Extremisten, die mit der schwarzen Rhetorik vertraut sind, können damit selbst die redegewandtesten Wissenschaftler oder sogar erfahrene Politiker mitunter an die Wand reden. Deshalb finde ich, dass wir alle das rhetorische „Kung Fu“, also die Techniken der Pseudo-Argumentation erkennen können sollten. Auch Kinder sollten das bereits in der Schule lernen, um Extremisten in einem solchen Gespräch inhaltlich stellen zu können.
Quellen: klimafakten.de; skepticalscience.com (auch Grafiken!)
PLURV (FLICC)
![]() (Bildquelle: Wikipedia.) |
Seit mehr als zehn Jahren beschäftigt sich der australische Kognitionsforscher John Cook mit Falschinformationen zum Klimawandel. Er hat im Jahr 2007 die Wissenschaftsplattform SkepticalScience.com gegründet, die populäre Leugner-Mythen widerlegt. 2013 war er Leitautor der inzwischen berühmten 97-Prozent-Studie, die den Expertenkonsens zum menschengemachten Klimawandel untersuchte. Derzeit forscht er als Assistenzprofessor am renommierten Center for Climate Change Communication (4C) der George-Mason-Universität vor den Toren Washingtons. Außerdem ist er Schöpfer der Comic-Figur Cranky Uncle, einem mürrischen Wissenschaftsleugner, und entwickelt derzeit ein gleichnamiges Smartphone-Spiel. |
Von all seinen einschlägigen Arbeiten aber, sagte Cook einmal, hatte die größte Resonanz eine schlichte Kette von fünf Buchstaben: FLICC. Mit diesem Kunstwort fasste Cook erstmals 2013 die fünf häufigsten Methoden von Klimawandel-Leugnern zusammen. Im Englischen stehen die Buchstaben für Fake Experts, Logical Fallacies, Impossible Expectations, Cherry Picking und Conspiracy Myths. Dieses Akronym wurde inzwischen auch eingedeutscht. Bei uns trägt es die Bezeichnung PLURV. Ich habe die Struktur und auch die Grafiken hier weitestgehend von SkepticalScience.com übernommen. Allerdings habe ich es etwas anders strukturiert und auch noch einige Punkte hinzugefügt, die ich selbst bei Diskussionen mit Wissenschaftsleugnern bereits häufig erlebt habe. Ein bisschen weiß ich auch noch aus meinem Rhetorik-Unterricht.
![]() |
Ich möchte nun die einzelnen Leugnungstaktiken der Extremisten einmal der Reihe nach durchgehen und auch Beispiele für PLURV-Strategien liefern, damit du sie als solche in Zukunft erkennen und bekämpfen kannst. Wie du das schaffst, mit einigen nützlichen Gegenantworten und Lösungsvorschlägen, erfährst du immer, wenn du das Symbol mit dem Kung-Fu-Kämpfer siehst. So kannst du selbst auch zu einem Kämpfer gegen Desinformation und Wissenschaftsleugnung werden! |
Pseudo-Experten
Der erste große Block an Strategien, die von Wissenschaftsleugnern oft ins Felde geführt werden, bringt falschen Autoritäten ins Spiel. Forscher, die zwar durchaus einen Doktortitel oder sogar Professuren und Lehrstühle an renommierten Universitäten innehaben, werden von den Extremisten als scheinbare Experten herangezogen. Auf Latein nennt man dies auch Argumentum ad verecundiam (Lateinisch für Argument der Ehrfurcht):
![]() |
Das Problem dabei: Die auftretenden „Koryphäen“ sind für die Thematiken, um die es in der Diskussion geht, aber überhaupt nicht qualifiziert!
Falsch, weil: Ein Professor für Informationswissenschaften oder Chemie ist zum Beispiel keineswegs ein Experte für Evolutionsforschung oder Klimawissenschaften, und hat in diesem Fachbereich genauso wenig Qualifikation wie ein Dachdeckergeselle oder eine Arzthelferin. Es ist also völlig Banane, was sie für eine Meinung haben – denn das ist dann eben nur eine Meinung und keineswegs eine Expertise! |
Masse von Pseudo-Experten
Einige Strategien zielen auch darauf ab, den Eindruck zu erwecken, dass eine Idee oder ein Standpunkt richtig ist, nur weil viele (gebildete) Menschen ihn unterstützen oder glauben. In der Rhetorik versteht man dies wiederum als Argumentum ad populum (Argument an die Menge). Dies muss aber keineswegs der Fall sein! Auch Akademiker können natürlich falsch liegen. Ganz besonders dann, wenn sie sich abseits des Feldes zu einem Thema äußern, für das sie gar keine Experten sind!
![]() |
Beispiel 1: „Über 1.000 Wissenschaftler wehren sich gegen die Klima-Lüge!“
Beispiel 2: „Interview: Drei renommierte Professoren widersprechen dem dogmatischen Evolutions-Glauben!“ Falsch, weil: Die aufgeführte Liste von Wissenschaftlern mag wirklich Akademiker beinhalten, die allermeisten sind jedoch wahrscheinlich fachfremd – also gar keine Klimaforscher oder Evolutionsbiologen! |
Aufgeblähte Minderheit
In ähnlicher Weise werden auch Einzelmeinungen, manchmal sogar von echten Experten, angeführt, die es selbstverständlich immer gibt. Und auch geben soll! Forschung lebt ja auch vom Widerspruch und der Kontroverse. Bei Themen, die eigentlich aber Konsens sind, und die von der überwältigenden Mehrheit der Forscher als Tatsache anerkannt werden, werden die Minderheiten künstlich aufgebläht und dabei Einzelmeinungen so in Szene gesetzt, dass sie als gleichwertig neben dem Konsens erscheinen.
![]() |
Beispiel 1: „Guck dir mal an, was Richard Lindzen zur angeblichen Klimakrise sagt. Der hat diesen Humbug längst widerlegt.“
Beispiel 2: „Michael Behe von der Lehigh University schreibt, dass bestimmte biologische Strukturen so komplex seien, dass sie nicht durch natürliche Selektion entstanden sein können. Das widerlegt die Evolutionstheorie!“ Falsch, weil: Die Einzelmeinungen von Experten sagen nichts über den tatsächlichen Forschungsstand aus. Beide genannten Forscher stehen einer überwältigenden Mehrheit (weit über 95%!) gegenüber, die ihre Argumentationen auch schon längst in der Fachdebatte widerlegt haben. |
Fingierte Debatte – False Balance
![]() |
Es passiert leider viel zu oft in unseren Medien: unter dem Deckmantel angeblich „neutraler“ Berichterstattung stellen gewisse Sendungsformate (oft sind es politische Talkshows wie z.B. Markus Lantz) wissenschaftlich gesicherte Fakten und extreme Meinungen gleichwertig einander gegenüber. Klingt fair? Ist es aber nicht! Denn nicht jede Meinung hat die gleiche Grundlage. Nicht alles ist einfach nur Ansichtssache, über die man mal diskutieren (lassen) kann. Klimakrise, Migration, Menschenrechte – das sind keine Debattenspiele! Wird zum Thema Klimawandel z.B. ein wirklicher Experte (z.B. ein Professor für Klimatologie, Meteorologie oder Astrophysik) eingeladen, der dann mit einem (wissenschaftsfeindlichen) Politiker diskutiert, bekommen beide gleich viel Raum. Ergebnis: Die ideologische Meinung wirkt gleichermaßen legitim. Damit wird Desinformation aufgewertet, Wissenschaft wird aber relativiert. Extreme Positionen werden so immer salonfähiger. |
Hier ein Beispiel:
Die Gäste: Mojib Latif ist Meteorologe, Ozeanograph, Klimaforscher, Hochschullehrer, Seniorprofessor an 2 Universitäten, Präsident der Akademie der Wissenschaften in Hamburg, Träger u. a. des deutschen Umweltpreises und des Bundesverdienstkreuzes. Sein Kontrahent ist Steffen Kotré, gelernter Elektromonteur, später Unternehmensberater, hat nie studiert, ist heute Mitglied des Bundestages für die AfD.
Reißerisch beworben wurde die Sendung auf YouTube dann so:
Falsch, weil: Der Titel suggeriert: Hier findet ein Streit zwischen zwei gleichwertigen Meinungen statt. Und warum passiert das? Weil Kontroverse Quote bringt.Weil Medien oft Angst haben, „zu einseitig“ zu wirken.Und Wissenschaftsleugner nutzen genau das aus! Das ist aber keine „Ausgewogenheit“! Das ist eine Einladung an Wissenschafts- und Menschenfeindlichkeit. Wenn Lüge und Hass auf Augenhöhe mit Fakten stehen, verliert die Wahrheit. False Balance gehört zu den gefährlichsten Strategien der Wissenschaftsleugnung. Denn wenn man belegbare Fakten und gezielte Desinformation gleich behandelt , verliert die Gesellschaft ihre gemeinsame Realität.
Was kannst du dagegen tun?
![]() |
|
Logische Trugschlüsse
Die wohl fintenreichste Strategie einer Pseudo-Argumentation stellen logische Trugschlüsse dar, die zur Verschleierung nachweisbarer Tatsachen eingesetzt werden. Dabei bedienen sich Wissenschaftsleugner Argumentationen, die bei genauer Betrachtung immer im Widerspruch zu sich selbst stehen.
Die Liste der Trugschlüsse ist lang und ich kann hier noch nicht einmal alle aufführen. Deshalb hier nur die wichtigsten, die in quasi jeder Diskussion mit Extremisten vorkommen (können).
Angriffe gegen die Person
Eine bewährte Methode schwarzer Rhetorik ist es, direkt die Person, aber nicht ihr Argument anzugreifen, um ihre Standpunkte zu diskreditieren. Ad hominem ist Lateinisch und bedeutet wörtlich übersetzt „Argument gegen den Menschen“. Hierbei wird häufig auf simple Äußerlichkeiten oder auch gern ein Fehlverhalten aus der Vergangenheit verwiesen, mit denen eine Ablenkung erzielt werden soll. Besonders die Spitzenpolitiker der Grünen sind aktuell solchem ad hominem-Bashing ausgesetzt. In zahlreichen Memes und auch Kommentaren, die noch nicht einmal etwas mit diesen Leuten direkt zu tun haben, nehmen Rechtsextremisten die Figur von Ricarda Lang, die Versprecher von Annalena Baerbock oder Robert Habecks frühere Tätigkeit als Schriftsteller zum Anlass, um sie zu diskreditieren. Was natürlich nicht heißen soll, dass Politiker anderer Parteien keinen Hass erleben! Ad hominem ist wohl das bei weitem häufigste Scheinargument unserer Zeit.
Ad hominem
![]() |
Beispiel: „Dieser angebliche Forscher hat früher auf Demos Steine gegen Polizisten geworfen. Wie kannst du dem nur glauben?“
Falsch, weil: Das persönliche Fehlverhalten eines Experten hat nichts mit seiner Expertise zu tun. Auch wenn eine Person auf anderen Ebenen umstritten ist, kann sie trotzdem noch recht haben! |
Tu quoque
Eine Erweiterung der Ad-hominem-Arguzmentation ist auch das Tu quoque-Argument (lateinisch für „Du (aber) auch!“). Hierbei geht es schließlich direkt um dich selbst: Hier zeigt der Finger deines Gegners direkt auf dich, wobei deine argumentative oder moralische Berechtigung, eine Behauptung oder Vorschrift überhaupt aufzustellen, in Frage gestellt wird – vielleicht, weil du dich auch nicht immer richtig verhalten hast. Doch nur, du vielleicht selbst auch deine Fehler hast, können deine Argumente ja trotzdem richtig und wichtig sein!
![]() |
Beispiel: Person A: „Du solltest weniger trinken.“ – Person B: „Du trinkst doch selbst immer zu viel!“
Falsch, weil: Auch wenn ich selber kein Chorknabe bin, legitimiert das keineswegs dein eigenes Fehlverhalten. Das „Selber, selber, lachen alle Kälber!“ lassen wir deshalb doch bitte lieber im Kindergarten. Es ist ein billiges Ablenkungsmanöver. |
No true Scotsman
Ebenfalls direkt gegen die Person geht die Taktik, in welcher die Gegenseite durch eine nachträgliche Anpassung der Definition auszuschließen versucht wird. Besonders, wenn du Expertenmeinungen mit in die Diskussion bringst,wird dir von Extremisten sehr schnell vorgeworfen werden, dass die zitierte Person ja gar kein echter „Schotte“, also kein Experte, keine zuverlässige Quelle oder schlichtweg kein guter Mensch ist. Die Gründe dafür werden in pauschalen Diffamierungen gesucht, mit Zirkelschlüssen „bestärkt“ oder basieren schlicht auf hanebüchenen Verschwörungserzählungen.
![]() |
Beispiel 1: „Du willst ein Klimaschützer sein? Das ich nicht lache! Aber fliegst trotzdem jedes Jahr auf die Kanaren. Und ’ne Kreuzfahrt hast du doch auch neulich erst gemacht!“
Beispiel 2: „Ein wahrer Christ kann Homosexualität niemals akzeptieren, er hat auch keinen vorehelichen Verkehr und an die Evolutionslüge glaubt er auch nicht!“ Falsch, weil: In beiden Aussagen wird das Gegenüber aus dem Kreis der „wahren“ Vertreter der Sache ausgeschlossen, wobei die Kriterien dafür willkürlich gesetzt werden. Selbstverständlich kann man aber auch mit einer Reise-Leidenschaft immer noch für den Klimaschutz eintreten, und auch homosexuell sein, sich sexuell vor der Ehe ausprobieren oder die Evolution als Fakt akzeptieren, ohne dass man dafür seinen Taufschein abgeben muss. |
Ad baculum
Zum Repertoire der Extremisten gehören auch offene Einschüchterungen und Drohungen. Das Argumentum ad baculum (Argument des Stockes) arbeitet anstatt mit sachlichen Argumenten wieder vor allem emotional. Dabei wird mit negativen Konsequenzen oder Bestrafung gedroht, wenn das Gegenüber bei seiner Position bleibt. Kritische Stimmen sollen so zum Schweigen gebracht werden, ohne dass die Richtigkeit des eigenen Standpunkts weiter belegt werden muss.
![]() |
Beispiel 1: „Du wirst dich schon noch umgucken, wenn wegen dieser ganzen Klimapanik der Strom viel teurer wird!“
Beispiel 2: „Wenn du nicht an das Wort Gottes glaubst, dann bleibt dir nichts anderes als die ewige Verdammnis!“ Falsch, weil: In beiden Aussagen werden negative Konsequenzen angedroht, ohne dass es dafür einen berechtigten Grund gibt. Tatsächlich sind erneuerbare Energien deutlich günstiger als fossile, und allein aus Angst vor einer Strafe Gottes an diesen zu glauben klingt doch eher nach brutaler Erpressung als nach einer gesunden spirituellen Beziehung. |
Zirkelschluss
Wenn es dann nicht gegen die Person geht oder er mit seinen Drohungen nicht weiterkommt, bewegt sich der Extremist mit seiner Argumentation oft im Kreis. Kennst du das Lied Ein Loch ist im Eimer? Genau so funktioniert es hier auch. Am Ende braucht man zum Flicken des Eimers wieder den Eimer selbst. Und in der Argumentation? Anstatt neue Beweise oder logische Schritte anzuführen, wird die ursprüngliche Aussage einfach wiederholt oder durch sich selbst „bewiesen“. Es fehlt jede Form einer externen Validierung oder ein echter Beweis. Zirkelschlüsse sind zwar nach den direkten Beleidigungen wohl die schwächsten Scheinargumente. Trotzdem werden Wissenschaftsleugner nicht müde, sie immer wieder einzusetzen.
![]() |
Beispiel 1: „Die Klimamodelle sind unzuverlässig, weil sie auf falschen Annahmen basieren. Wir wissen, dass alle Annahmen falsch sind, weil die Klimamodelle nur Ergebnisse liefern, auf die man sich nicht verlassen kann.““
Beispiel 2:„Die Bibel ist Gottes Wort, denn es steht ja darin selbst geschrieben: Alle Schrift ist von Gott eingegeben.“ Falsch, weil:Beide Sätze drehen sich im Kreis, da sie die Schlussfolgerung bereits in der Prämisse enthalten. Die Klimamodelle werden als unzuverlässig dargestellt, weil sie auf „falschen Annahmen“ basieren, die wiederum nur durch die Modelle selbst als falsch gelten. Genauso wird die Bibel als Gottes Wort bezeichnet, weil sie es selbst behauptet. |
Verfälschte Darstellung
Um irrezuleiten, bedienen sich Extremisten gern einer völlig verfälschte Darstellung einer Situation oder der Position eines Gegners. An den Haaren herbeigezogene, ausgedachte Begründungen werden hier geliefert, um die eigene Position zu stärken. Lügen mit einem kleinen Schuss Wahrheit, sozusagen.
![]() |
Beispiel 1: „Früher nannten sie es ‚globale Erwärmung‘. Jetzt haben sie diese Bezeichnung in ‚Klimawandel‘ geändert. Warum? Weil es überhaupt keine globale Erwärmung mehr gibt!“
Beispiel 2: „Evolutionisten sagen, das Affen sich in Menschen entwickelt haben. Wieso gibt es dann immer noch Affen?“ Falsch, weil: Beide Aussagen verfälschen bewusst die Position der Gegenseite, indem sie entweder Begriffe falsch deuten, wissenschaftliche Aussagen verzerren oder sie aus dem Kontext reißen. |
Strohmann
Ausgebaut wird sowas oft zu einem sogenannten Strohmann: Diese Metapher stammt aus dem Fechttraining: Anfänger trainieren mit Gegnern aus Stroh, die keinen Widerstand leisten können. Dadurch wird natürlich jeder Kampf gewonnen. In der Argumentation ist es ganz ähnlich: da wird die Aussage des Gegners aufgegriffen und verdreht. Ihm werden Worte in den Mund gelegt, die er so gar nicht gesagt hat. Im Anschluss wird diese vermeintliche Aussage des Gegners dann bekämpft und „entkräftet“. Ein besonders mieser Trick der schwarzen Rhetorik!
![]() |
Beispiel 1: „Diese Klima-Hysteriker wollen sich mit unseren Steuern die Taschen voll machen, uns zum Gendern zwingen und das Fleischessen verbieten. Es geht denen nicht ums Klima, sondern um Bevormundung!“
Beispiel 2: „Evolutionisten sagen, dass alles Leben nur durch Zufall entstanden ist. Das ist genauso wahrscheinlich, wie wenn ein Tornado über einen Schrottplatz fegt und dabei eine voll funktionsfähige Boeing 747 baut!“ Falsch, weil: Beide Aussagen verdrehen die Position der Gegenseite, indem sie ihr absurde, übertriebene oder frei erfundene Behauptungen unterstellen, die sie aber gar nicht vertritt! |
Reductio ad absurdum
Extremisten ziehen die Argumente von ihren Gegnern gern ins Lächerliche. Anstatt das eigentliche Argument sachlich zu widerlegen, wird es durch Übertreibung oder Karikatur verzerrt dargestellt. Diese Taktik lenkt von der eigentlichen Diskussion ab und untergräbt konstruktiven Dialog. Aber die Reductio ad absurdum (Reduktion auf das Absurde) ist trotzdem eine Taktik, die verfängt. Besonders wenn sie für Lacher unter den Zuhörern sorgt, kann das den Gegner völlig aus dem Konzept bringen und die eigenen Argumente logisch erscheinen lassen – selbst wenn sie es nicht sind. Es ist also eine der schwärzesten Taktiken der Pseudoargumentation, auch, wel sie sich wunderbar mit fast allen anderen Scheinargumenten kombinieren lässt, vor allem mit Angriffen auf die Person.
![]() |
Beispiel 1: „Du willst die CO₂-Emissionen stoppen? Na, warum hörst du dann nicht einfach auf, zu atmen?“
Beispiel 2: „Wenn es wirklich Evolution gäbe, wieso hat sich dann nicht überall das Kugelgelenk durchgesetzt? Und wieso haben Zebras keine Laser-Augen, um sich gegen Löwen zu verteidigen? Oder wenigstens scharfe Klauen und Zähne?“ Falsch, weil: Beide Beispiele stellen das zur Debatte stehende Thema bewusst übertrieben und verzerrt dar, um es ins Lächerliche zu ziehen. Eine sachliche Auseinandersetzung wird vermieden durch einen bescheuerten Witz ersetzt. |
Mehrdeutigkeit
Ein anderer, nicht weniger verächtlicher Weg: Wissenschaftsleugner und Extremisten bedienen sich häufig einer unklaren Sprache, bei der sie gezielt mit Mehrdeutigkeiten bestimmter Ausdrücke arbeiten. Besonders die Vermengung wissenschaftlicher Fachtermini im Gegensatz zu Bedeutungsunterschieden in der Umgangssprache werden dazu häufig herangezogen.
![]() |
Beispiel 1: „Klimawandel hat es schon immer gegeben!“
Beispiel 2: „Die Evolutionstheorie ist nur eine Theorie!“ Falsch, weil: Beide Aussagen nutzen Mehrdeutigkeiten, um falsche Schlussfolgerungen zu ziehen. Der natürliche Klimawandel ist nicht homolog zum viel rasanter ablaufenden anthropogenen Klimawandel. Und der wissenschaftliche Begriff „Theorie“ soll als bloße Vermutung abgestuft werden, obwohl sie eine durch viele Forschungsbelege gestärkte Beschreibung einer beobachtbaren Tatsache ist. |
Übermäßige Vereinfachung
Ebenso arbeiten Extremisten auch häufig mit einer übermäßigen Vereinfachung, um eine falsche Logik in der eigenen Argumentation aufzubauen. Bei einer Vielzahl von Trugschlüssen wird ein komplexes Thema so stark reduziert und verzerrt, dass die Schlussfolgerung falsch oder irreführend werden. Der Sprecher will sich selbst damit schlau aussehen lassen, und spricht damit vor allem diejenigen an, die sich mit einem Thema noch weniger gut auskennen als er selbst. Oft werden dabei wichtige Faktoren ignoriert oder Ursache und Wirkung verzerrt.
Monty Python verstehen es immer noch am besten, solche Pseudo-Argumente humorvoll darzustellen und sie auf die Schippe zu nehmen:
Hier aber trotzdem noch ein paar Beispiele aus unserer Zeit:
![]() |
Beispiel 1: „Pflanzen brauchen CO₂ zum Wachsen, also sollten wir mehr CO₂ ausstoßen – das fördert die Natur und stoppt den Klimawandel!“
Beispiel 2: „Wenn du einen Fisch ans Land legst, entwickelt er sich doch nicht in ein Landlebewesen! Er stirbt einfach!“ Falsch, weil: Das Wachstum von Pflanzen hängt auch von Nährstoffen, Wasser und Temperatur ab. Und Evolution passiert nicht einfach so einem einzigen Individuum, sondern läuft über tausende von Generationen ab, durch Mutation und Selektion. Beide Beispiele reduzieren somit komplexe Phänomene so stark, dass sie scheinbar einfach erscheinen – und die eigene Logik kohärent. |
Falsche Wahl
Dies ist ein Trugschluss, bei dem eine Diskussion absichtlich auf zwei extreme Optionen reduziert wird, obwohl es in Wirklichkeit mehrere Alternativen gibt. Die falsche Wahl vermittelt den Eindruck, man müsse sich zwangsläufig für eine der beiden Seiten entscheiden. Das ist also ein geschickter Trick, um komplexe Themen zu simplifizieren und Menschen in eine Ecke zu drängen. Oft wird diese Taktik genutzt, um den Gegner zu diskreditieren, indem ihm nur eine untragbare oder radikale Position als „Alternative“ angeboten wird.
![]() |
Beispiel 1: „Entweder, du folgst der links-grünen Klima-Ideologie, oder du bist für alle doch gleich ein Schwurbler oder Nazi.“
Beispiel 2: „Entweder man glaubt an die wortwörtliche Interpretation der Bibel, oder man leugnet den Glauben an Gott vollständig. Es gibt keine Möglichkeit, die Schöpfungsgeschichte mit der Evolutionstheorie in Einklang zu bringen.“ Falsch, weil: Die Redner stellen in beiden Beispielen ein Entweder-Oder-Schema her, obwohl die Lage eigentlich viel komplexer ist und deutlich mehr Optionen bietet. Es gibt fast immer mehr als nur schwarz und weiß! |
Einzige Ursache
Eng verwandt, quasi nur umgekehrt, ist die Taktik der einzigen Ursache: Hier ignoriert der Sprecher, dass es mehrere Ursachen oder Gründe für bestimmte Phänomene geben kann. In beiden Varianten wird die Komplexität eines Themas scheinbar reduziert und dann mit eigenen, dummen Erklärungen aufgewartet. Da einfache Erklärungen besonders bei den Leuten hervorragend ankommen, die beim Denken nicht gerade zu den erfolgreichsten zählen, fallen immer wieder welche auf diesen Trug herein.
![]() |
Beispiel 1: „Die Klimaerwärmung wird nur durch die natürlichen Schwankungen der Sonnenaktivität verursacht. Alle anderen Faktoren sind unbedeutend.“
Beispiel 2: „Nur die Sintflut hat die Macht, Sedimentschichten aufzutürmen und so viel Druck auf sie auszuüben, dass alle darin eingeschlossenen Tiere zu Fossilien werden.“ Falsch, weil: Beide Sätze beinhalten den Fehler, komplexe Phänomene auf eine einzige Ursache zu reduzieren, obwohl sie in Wirklichkeit durch das Zusammenspiel mehrerer Faktoren entstehen. |
Argumentum ad Antiquitatem
„Das haben wir doch immer schon so gemacht!“ Ein plausibles Argument? Für manche schon, aber es ist kein echtes! Das Argumentum ad Antiquitatem (Argument der Altehrwürdigkeit) ist vielmehr eine klassische Technik der schwarzen Rhetorik, bei der auf alte Traditionen verwiesen wird, um eine Position zu legitimieren. Im Kern bedeutet das, dass etwas richtig oder gut ist, nur weil es schon lange so gemacht wird. Diese Strategie ignoriert jedoch, dass Traditionen oft überholt sind und keinen wissenschaftlichen oder logischen Beweis liefern. Besonders in konservativen Diskursen wird dieses Scheinargument häufig eingesetzt, um Veränderungen zu verhindern.
![]() |
Beispiel 1: „Die Automobilindustrie hat unser Land doch erst groß gemacht! Wir sind immer noch Spitzenreiter bei Verbrennermotoren. Sollen wir das jetzt alles aufgeben, nur wegen dieser Klima-Sekte?“
Beispiel 2: „Die Bibel ist tausende von Jahren alt und hat unzählige Generationen inspiriert und in dunklen Zeiten Trost und Halt gespendet. Da muss dann doch etwas wahres dran sein!“ Falsch, weil: Beide Sätze berufen sich allein auf die althergebrachte Tradition, um eine Aussage zu legitimieren. Nur weil etwas lange Bestand hatte, bedeutet das aber nicht, dass es wissenschaftlich richtig oder rational vernünftig ist. Zeiten können sich schließlich ändern, und neue Erkenntnisse Althergebrachtes positiv erweitern, verbessern oder sogar ganz ersetzen. |
Falsche Analogie
„Du kannst doch nicht Äpfel und Birnen vergleichen!“ Doch. Selbstverständlich kann man! Und wer immer diesen Satz sagt, hat das im Grunde bereits getan und ist dabei zu dem Schluss gekommen, dass Äpfel und Birnen unterschiedliche Obstsorten sind. Darum soll es hier aber nicht gehen. Vergleiche sind nämlich absolut erlaubt und zulässige Argumente in den verschiedensten Diskussionen. Was allerdings darin gar nicht geht und definitiv ein Stilmittel der schwarzen Rhetorik sind: zwei Dinge aufgrund von oberflächlichen Ähnlichkeiten nicht nur zu vergleichen, sondern sie miteinander gleichzusetzen! Das ist nämlich ein wesentlicher Unterschied! Äpfel SIND nämlich keine Birnen. Das Scheinargument der falschen Analogie wird vornehmlich dazu verwendet, irreführende Schlussfolgerungen zu ziehen. Hierbei werden die (oft erheblichen!) Unterschiede einfach vernachlässigt, verharmlost, überspitzt oder verdreht.
![]() |
Beispiel 1: „Als Galileo damals sagte, dass die Erde sich um die Sonne dreht, haben die Wissenschaftler ihn dafür ausgelacht! Bei diesen Klimaforschern ist das heute doch genauso.“
Beispiel 2: „Unsere DNA ist ein Bauplan – und jeder Bauplan braucht einen intelligenten Architekten!“ Falsch, weil: Galileo lebte noch in einer Welt ohne wissenschaftliche Gemeinschaft und empirischer Beweisführung. Und die Bauplan-Analogie ist auch kein Gottesbeweis. Beide Aussagen setzen völlig unterschiedliche Dinge miteinander gleich. |
Doppelmoral
Das genaue Gegenteil kommt natürlich auch im Repertoire der Extremisten vor, nämlich Dinge unterschiedlich zu bewerten, die sich durchaus miteinander gleichsetzen lassen. Mit zweierlei Maß zu messen – das ist leider typisch menschlich, da kann sich wohl keiner von uns freisprechen. Aber Extremisten ist Moral so ausgesprochen wichtig, dass sie sie gleich doppelt haben! Sie bewerten gleiches Recht oder Unrecht stets nach ihrer eigener Interessenlage oder ideologischer Position. Eine sachliche Rechtfertigung für diese Bewertung und die Ausnahmen, die sie machen? Fehlanzeige. Einsicht, wenn man sie darauf hinweist? Niemals! Es wird stets von anderen etwas gefordert, was sie selbst nicht einzuhalten bereit sind. Oder sie akzeptieren Belege nur dann, wenn sie ins eigene Weltbild passen. Kurzgesagt: Reine Heuchelei. Wasser predigen und Wein trinken! Die Doppelmoral tritt bei vielen weiteren Scheinargumenten zutage, z.B. bei der Opferrolle bzw. Täter-Opfer-Umkehr, bei den Pseudo-Experten oder auch beim Cherrypicking; und die vielen Widersprüche sind offensichtlich.
![]() |
Beispiele:
Falsch, weil: Diese Aussagen demonstrieren, wie unterschiedlich Moralvorstellungen ausgelegt werden, je nachdem, ob es um die eigene Position oder die der Gegner geht. Anstatt eine konsistente und sachliche Bewertung vorzunehmen, wird das eigene Verhalten privilegiert. |
Falsche Fährte
Das Pseudo-Argument der falschen Fährte, im Englischen auch als Red Herring bekannt, soll durch die Einführung einer irreleitenden oder unwichtigen Information vom eigentlichen Thema der Diskussion ablenken. Der Begriff stammt möglicherweise von der Praxis, eine falsche Fährte mit einem starken Geruch zu legen, um Hunde bei der Verfolgung abzulenken.
![]() |
Beispiel 1: „CO₂ ist ein winziger Bestandteil der Luft, kann dann doch gar nicht schädlich sein!“
Beispiel 2: „Der zweite Hauptsatz der Thermodynamik besagt, dass geschlossene Systeme immer in Unordnung übergehen. Laut den Evolutionisten werden Lebewesen aber immer komplexer. Die Evolutionstheorie widerspricht sich somit selbst, weil sie gegen die Naturgesetze verstößt!“ Falsch, weil: Beide Sätze sind dreiste Ablenkungsmanöver: CO₂ hat trotz seines geringen Anteils an der Atmosphäre trotzdem eine hohe Klima-Potenz (vergleichbar mit Alkohol im Blut!). Und Lebewesen sind offene Systeme, die Energie von außen (Sonne!) aufnehmen. Der zweite Hauptsatz der Thermodynamik gilt hier also nicht. |
Whataboutismus
Eine Abwandlung der falschen Fährte und ein ebenso mieses Ablenkungsmanäver ist der sogenannte Whataboutismus (aus dem Englischen „What about…„, mit der Bedeutung „Was ist eigentlich mit…“). Hierbei wird, anstatt auf ein Argument einzugehen, einfach ein anderes Fass aufgemacht. Ziel ist es, die Diskussion zu entgleisen und Kritik ins Leere laufen zu lassen, Sündenböcke zu präsentieren oder sich selbst aus der Verantwortung zu ziehen. „Der hat aber angefangen!“ ist wahrscheinlich der erste Whataboutismus, mit dem wir alle schon im Kindergarten einmal konfrontiert gewesen sind.
![]() |
Beispiel 1: „China und die USA stoßen ganze Größenordnungen mehr CO₂ aus als Deutschland, aber wir sollen mal wieder die Welt retten.“
Beispiel 2: „Anstatt ständig die Evolutionstheorie zu verteidigen, sollten Wissenschaftler lieber erklären, wie das Leben überhaupt entstanden ist – denn das können sie bis heute nicht!“ Falsch, weil: Beide Aussagen versuchen, vom eigentlichen Thema abzulenken, indem sie ein anderes, scheinbar gleichsam relevantes Problem oder einen „noch Schuldigeren“ in den Vordergrund rücken. |
Kugelfisch-Taktik
Noch eine fiese Abwandlung der falschen Fährte ist der „Kugelfisch“, ein rhetorischer Trick, bei dem jemand seine eigene Argumentation oder auch etwas zuvor gesagten künstlich aufbläht, um klüger oder überzeugender zu wirken. Dabei hat der Inhalt eigentlich wenig Substanz. Es geht darum, mit kompliziert klingenden Begriffen, Fachjargon oder einer Flut an (oft irrelevanten) Informationen zu beeindrucken und den Gegner einzuschüchtern, anstatt wirklich eine schlüssige Beweisführung zu liefern. Eben wie ein Kugelfisch, der eigentlich ein ziemlich kleiner Fisch ist, sich aber aufbläst, um für seine Feinde größer zu wirken, als er eigentlich ist.
![]() |
Beispiel 1: „Die Klimamodelle basieren auf chaotischen Differentialgleichungen, die aufgrund der nichtlinearen Dynamik niemals Langzeitvorhersagen ermöglichen können – deswegen ist der Klimawandel nichts weiter als eine mathematische Illusion!“
Beispiel 2: „Die irreduzible Komplexität biologischer Makromoleküle zeigt, dass subzelluläre Mechanismen einer teleologischen Feinabstimmung unterliegen, die nicht durch neodarwinistische Paradigmen erklärt werden kann!“ Falsch, weil: Klingt alles hochgradig wissenschaftlich, ist aber im Grunde nur dummes Stammtisch-Geschwurbel, das nur der Ablenkung und Einschüchterung dienen soll. |
Gish Galopp
Extremisten, die weniger eloquent sind, greifen dagegen gern auf eine andere Ablenkungs-Taktik zurück. Sie galoppieren querfeldein durchs Gesprächsfeld und wechseln dabei ständig das Thema. Dabei präsentieren sie eine ganze Flut an Halbwahrheiten, Fehlinformationen und Scheinargumenten, alle auf einmal, sodass der Gegner unmöglich auf all den Quatsch eingehen kann. Es geht dabei nicht um echtes Argumentieren, sondern darum, den Gegner mit einer Masse an Aussagen und Maßnahmen zu überfordern. Diese Taktik orientiert sich direkt an Brandolini’s Law. Sie wurde von Eugenie C. Scott geprägt, die sie nach dem Kreationisten Duane T. Gish benannte.
![]() |
Beispiel: Die Strategie klappt auch in der Politik hervorragend und ist eine der Lieblings-Strategien von Populisten: Flood the zone lautet z.B. auch die Devise von Donald Trump, die von Trumps früherem Berater Steve Bannon formuliert wurde. Schon direkt zu seinem Amtsantritt 2025 ging Trump direkt damit in die Vollen, als er z.B. forderte, den Golf von Mexiko umzubenennen, den Zusammenschluss mit Kanada propagierte, Grönland kaufen wollte und den Gaza-Streifen zu besetzen, um ihn zu einem Touristengebiet am Mittelmeer auszubauen…
Der Plan dahinter: Wenn in den Medien und unter seinen Gegnern über diese Flut an Rand-Themen debattiert wird, fallen andere, deutlich prekärere Maßnahmen durchs Raster und werden weniger bis gar nicht kritisiert. So verschiebt sich die Debatte, oft geradezu ins Absurde, wodurch der Populist seine Macht weiter ausbauen kann. |
Dammbruch
Diese rhetorische Technik soll bei den Zuhörern auf irrationale Weise Panik und Widerstand gegen eine Veränderung erzeugen. Sie dient besonders dazu, (vernünftige!) Lösungsvorschläge für bestimmte Probleme zu diskreditieren. Die Behauptung: Ein vorgebrachter Vorschlag werde zu einer Kettenreaktion aus negativen Folgen führen, auch wenn es dafür keine logische oder empirische Grundlage gibt. Das „Argument“ ist also quasi ein Dammbruch, bei dem sich aufgrund einer in Wirklichkeit harmlosen Entscheidung eine Flut aus schrecklichen Konsequenzen über uns alle ergießen wird. Es ist auch eine beliebte Vorbereitungs-Taktik zum Aufbauen eines Strohmann-Arguments.
![]() |
Beispiel 1: „Wenn wir CO₂-Emissionen besteuern, werden wir bald gar nichts mehr produzieren dürfen, und die Wirtschaft wird völlig zusammenbrechen!“
Beispiel 2: „Wenn wir Kindern Evolution beibringen, dann verlieren sie jeglichen moralischen Kompass und glauben, dass das Leben bedeutungslos ist!“ Falsch, weil: Klimamaßnahmen und Evolutionslehre sind Wissenschaftsleugnern gleichsam ein Dorn im Auge. Und so werden diese Maßnahmen als Anfang einer unaufhaltsamen Katastrophe dargestellt. Man könnte bei allen Szenarien noch ergänzen: „Das wird zu einer völligen Verrohung der Gesellschaft führen. Es wird einen Bürgerkrieg geben! Millionen Tote sind dann die Folge!“ Und so geht es weiter und weiter… |
Relativierung
Ebenfalls beliebt ist das genaue Gegenteil: statt direkt die Apokalypse zu erwarten, wenn die Forderungen des Gegners umgesetzt würden, gehen viele Extremisten auch gern den komplett gegenteiligen Weg. Dann ist alles auf einmal gar nicht mehr so schlimm! Mit dieser Taktik versuchen sie, das Problem herunterzuspielen, zu verharmlosen oder auf auf vermeintlich noch „schlimmere“ Probleme zu verweisen. Dazu verknüpfen sie es gern mit Whataboutismen, doch kann eine Relativierung (oder englisch: Fallacy of Relative Privation) auch ganz allein daherkommen. Genau wie die vorherigen Beispiele lenken Relativierungen von der eigentlichen Diskussion ab und verhindern konstruktive Lösungsansätze. Und oft werden Relativierungen auch als simple Totschläger benutzt, um die Diskussion zu beenden: „Warum überhaupt streiten? Ist doch alles nicht so wild.“
![]() |
Beispiel 1: „Ist doch schön, wenn es auf der Welt ein bisschen wärmer wird. Längere Pflanz- und Saatzeiten, weniger Kälte-Tote im Winter… Ich sehe da eigentlich nur Vorteile!“
Beispiel 2: „Na gut, in der Bibel stehen wirklich einige grausame Dinge drin. Aber selbst wenn die Bibel gegen Homosexualität ist, was soll’s? Das war doch früher überall verboten, und die Menschen haben trotzdem gut gelebt.“ Falsch, weil: Beide Sätze relativieren tatsächliche Probleme, indem sie nur ausgewählte positive Aspekte hervorheben und ernsthafte negative Konsequenzen ignorieren. Das kann sich gar zur extremen Menschenfeindlichkeit auswachsen. |
Was kannst du dagegen tun?
![]() |
|
Unerfüllbare Erwartungen
Wissenschaftsleugner arbeiten gern mit fiesen Tricks, um eine berechtigte Kritik an der Forschung vorzutäuschen. Dazu stellen sie unerfüllbare Erwartungen: So fordern sie von Forschern unwiderlegbare Tatsachen oder präzise Prognosen, welche die Forschung wohlweißlich nicht erbringen kann. Schließlich ist Wissenschaft ja keine Kaffeesatzleserei und Forscher haben auch keine Kristallkugel, in der sie nach der „Wahrheit“ forschen. Raum für Zweifel muss in der Forschung immer offenbleiben, doch genau das machen sich die Extremisten gern zunutze, um diese Zweifel aufzubauschen und die Arbeit der Forscher zu diskreditieren. Diese Technik wird auf Englisch auch Nirvana Fallacy genannt. Oft wird dabei auch pauschal Kritik an Lösungsvorschlägen geübt, weil sie das Problem nicht vollständig oder perfekt lösen können – selbst wenn sie trotzdem effektiv sind. Diese Strategie wird oft eng verwoben mit logischen Trugschlüssen.
![]() |
Beispiel 1: „Wissenschaftler können nicht einmal das Wetter in der nächsten Woche vorhersagen. Wie sollen sie also das Wetter in 100 Jahren vorhersagen können?“
Beispiel 2: „Wenn Evolution wahr wäre, müsste es doch heute noch überall Tiere geben, die sich gerade weiterentwickeln. Warum sehe ich keine Affen, die Menschen werden?“ Falsch, weil: Beide Aussagen setzen unerfüllbare Erwartungen, indem sie von der Wissenschaft absolute Sicherheit oder perfekte Vorhersagen verlangen. Doch das ist in komplexen Systemen wie Klima oder Evolution unmöglich! Diese Strategie soll Zweifel säen und wissenschaftliche Unsicherheiten fälschlicherweise als Schwäche darstellen. |
Abgesenkte Erwartungen
In umgekehrter Weise kann man aber auch mit abgesenkten Erwartungen arbeiten, mit denen eine Vorstellung oder Beweise für eigene Inhalte, die der Ideologie entsprechen, angeführt (und natürlich immer erfüllt!) werden. Hier machen es sich die Extremisten aber viel zu einfach und sehen Dinge als unumstößlichen Beweis an, obwohl es durchaus auch andere, sogar noch plausiblere Erklärungen für das „erklärte“ Phänomen gibt.
![]() |
Beispiel 1: „Die letzten beiden Sommer waren viel verregneter und kälter als die davor. Es gibt wohl doch keinen Klimawandel.“
Beispiel 2: „Es gibt Fossilien von Meerestieren auf Bergen. Ein eindeutiger Beweis für die Sintflut!“ Falsch, weil: Beide Aussagen senken die Anforderungen an einen „Beweis“ so stark ab, dass sie eine komplexe Realität verzerren: kurzfristige Wetterveränderungen widerlegen keinen langfristigen Klimawandel. Und Fossilien auf Bergen lassen sich geologisch erklären, ohne eine Sintflut zu benötigen. |
Argumentum ex silentio
Auch das (bisherige!) Fehlen von Beweisen wird von Extremisten gern als Beweis für die eigene Position interpretiert. Mit der Taktik des Argumentum ex silentio (Argument der Stille) stellen sie dann ihre eigene Position als wahr oder die der Gegner als falsch dar, ohne dass sie es für nötig halten, einen eigenen, positiven Beweis zu erbringen. Auch diese Taktik basiert auf der unrealistischen Erwartung, dass für alles sofort und überall wissenschaftliche Beweise vorliegen müssten. Es ist somit eine klassische Strategie, um unbequeme Fakten zu ignorieren oder Zweifel zu säen.
![]() |
Beispiel 1: „Es gibt doch überhaupt keinen Beweis dafür, dass diese Flut nun durch den Klimawandel verursacht wurde. Das wird jetzt von den ganzen Hysterikern nur wieder schön ausgeschlachtet.“
Beispiel 2: „Alle diese superschlauen Wissenschaftler konnten bislang noch nie beweisen, dass Gott nicht existiert.“ Falsch, weil: Kausale Zusammenhänge zwischen Wetterextremen und dem Klimawandel lassen sich wissenschaftlich zwar nicht (immer!) direkt belegen, genauso wenig wie die Nichtexistenz Gottes. Dass der Klimawandel Extremwetterereignisse aber begünstigt, sagen Klimamodelle unmittelbar voraus. Nichtexistenzen zu belegen liegt außerhalb des Methodenrahmens der Wissenschaft. Forschung erfolgt immer nur umgekehrt, mit positiven Belegen. Das fehlen von Belegen ist aber per se kein valides Argument, jedenfalls nicht immer! |
Torpfosten verschieben
Was eine besonders fiese Masche ist: Selbst, wenn die geforderten Belege wirklich erbracht werden, erkennen Extremisten diese einfach nicht an. Übel: Da hast du den Typen wirklich am argumentatorischen Schlafittchen gepackt und er muss sein Geschwurbel sogar an einer Stelle einräumen – da ändert er dann einfach die Spielregeln. Er wird nun einfach die Torpfosten verschieben. Diese Strategie lässt sich quasi endlos fortführen, sodass es sehr müßig sein kann, mit Extremisten weiter zu diskutieren. Sie ist eng gekoppelt an Verschwörungserzählungen und ein Ausdruck der Immunität gegen Beweise.
![]() |
Beispiel 1: „Okay, der Meeresspiegel mag gestiegen sein, aber dass sich der Anstieg beschleunigt, das kannst du trotzdem nicht beweisen!“
Beispiel 2: „Hmm, interessant, dein komischer Archaeopteryx oder dieser Tiktaalik… Aber hast du denn auch eine ‚Zwischenform‘, die zeigt, wie sich ein Dino mal in einen Archaeopteryx verwandelt hat? Oder ein Fisch in deinen Tiktaalik? Nee, haste nicht! Siehste!“ Falsch, weil: Beide Aussagen verschieben die Anforderungen an einen Beweis immer weiter, sodass kein Argument jemals ausreicht. Selbst wenn klare Belege vorliegen, werden neue, oft unerfüllbare Forderungen gestellt, um die eigene Position niemals aufgeben zu müssen. |
Argumentum ad ignorantiam
Letzten Endes laufen alle diese Diskussionen mit Extremisten auf das Argumentum ad ignorantiam (Argument der Unwissenheit) hinaus. Wie das abläuft, ist leicht erklärt: Eine These wird für falsch erklärt, nur weil sie bisher nicht bewiesen werden konnte. Genauso gilt umgekehrt: Eine These wird für richtig erklärt, weil sie bisher nicht widerlegt werden konnte. Es ist allerdings so, dass man niemals wissenschaftlich beweisen kann, dass etwas nicht existiert. Egal ob es um Kobolde, Feen, Drachen, Bigfoot, Nessie, Yeti, Außerirdische oder auch Gott geht: ob es sie gibt, kann nur bewiesen werden, wenn jemand einen klaren Beleg für ihre Existenz liefert.
![]() |
Beispiel 1: „Dass der Klimawandel zu einer Katastrophe führen wird, ist überhaupt nicht sicher! Du sagst doch selber, dass so eine rasante Entwicklung in der Erdgeschichte noch nie gab!“
Beispiel 2: „Woher willst du eigentlich wissen, dass die Dinos wegen dieses Meteoriten ausgestorben sind? Warst du etwa dabei?“ Falsch, weil: Bei beiden Aussagen werden die eigene Unwissenheit, sowie die (scheinbare!) Unbeweisbarkeit, zur Waffe. Dabei kann man selbstverständlich auch Klimamodelle zu bislang unbekannten Szenarien erstellen – auf Basis von verfügbaren Daten, die wir ja trotzdem noch messen können. Und wir können auch Spuren für Ereignisse in der längst zurückliegenden Vergangenheit finden und sie erforschen. |
Argumentum ex Incredulitate
„Es kann nicht sein, was nicht sein darf“ oder „Ich kann mir das nicht vorstellen, also ist es sicher falsch“. Das Argumentum ex Incredulitate (Argument der Unglaubwürdigkeit) spielt, wie du hier bereits erkennst, mit den eigenen Grenzen des Verständnisses und nutzt das Unbehagen vor dem Unbekannten aus, um ein plausibles Argument der Gegenseite zu diskreditieren. Anstatt sich mit wissenschaftlichen Fakten oder logischen Erklärungen auseinanderzusetzen, wird die eigene Vorstellungskraft zum Maßstab der Realität erhoben – was natürlich Unsinn ist! Oft geht diese Taktik Hand in Hand mit anderen Scheinargumenten, wie dem Argumentum ad antiquitatem oder baut auf einem Argumentum ad ignorantiam auf.
![]() |
Beispiel 1: „Nur 1,5 Grad mehr sollen das ganze Klima verändern? Na, das klingt doch eher nach Panikmache als nach Wissenschaft.“
Beispiel 2: „Wie soll aus einer einzigen Zelle ein so komplexer Organismus wie der Mensch entstehen? Das geht nicht, und erst recht nicht ohne einen intelligenten Schöpfer.“ Falsch, weil: Beide Aussagen basieren nicht auf wissenschaftlichen Fakten oder Logik, sondern auf einem Gefühl. Nur weil jemand sich die Auswirkungen eines Temperaturanstiegs oder die Komplexität der Evolution nicht vorstellen kann, bedeutet das nicht, dass sie nicht real sein können. |
Was kannst du dagegen tun?
![]() |
|
Rosinenpickerei
Eine weitere typische Masche ist die Rosinenpickerei, auf Englisch auch oft als Cherrypicking bezeichnet. Was heißt das nun wieder? Der extremistische Wissenschaftsleugner „untermauert“ seine Position hier ausnahmsweise wirklich einmal mit wissenschaftlichen Daten, Studien und Forschungsergebnissen, an denen es erst einmal nichts oder nur wenig auszusetzen gibt. Das Verwerfliche: er stellt bei Kontroversen nur die Ergebnisse heraus, die seinen Standpunkt unterstützen. Dass es auch widersprechende Ergebnisse gibt, ignoriert er (wohlweißlich). Im Kern funktioniert das etwa so
![]() |
Experte: „In der Forschung müssen wir immer für den Irrtum offenbleiben. Es gibt keine Abschließende Wahrheit und ständig neue Erkenntnisse.“
Schlagzeile in Schwurbler-Blatt: „Professor gibt zu, dass Forschung im Grunde gar nichts bringt!“ Falsch, weil: Muss ich nicht erklären, oder? Das Schundblatt gibt die Aussage des Experten derartig reduziert wieder, dass der Inhalt völlig sinnentstellt wird. Dadurch entsteht ein ganz anderes Narrativ. |
Anekdote
Hier pickt man sich eigene Erlebnisse heraus, um sie als Scheinbeweise ins Feld zu führen. Etwas, was ich selbst oder andere mit ihren eigenen Augen gesehen haben, muss doch etwas wert sein, oder? Nein. Erstens lassen sich Anekdoten auf ihren Wahrheitsgehalt nur schwer überprüfen. Zweitens ignorieren sie, dass es mehr als nur eine logische Erklärung geben könnte, selbst wenn die Geschichte wahr sein sollte. Und drittens: Ausnahmen bestätigen die Regel. Eine eigene Anekdote kann durchaus eine Ausnahme sein, die sehr konträr zur Gesamtlage steht.
![]() |
Beispiel 1: „Jetzt sieh dir nur mal den ganzen Schnee an, den wir schaufeln müssen! Und die Deppen reden ständig von globaler Erwärmung!“
Beispiel 2: „Mein Biolehrer konnte mir nie genau erklären, wie aus toter Materie Leben entstanden sein soll. Das zeigt doch, dass die ganze Evolutionstheorie Quatsch ist!“ Falsch, weil: Beide Aussagen ziehen aus Einzelfällen oder persönlichen Erlebnissen falsche Schlussfolgerungen, ignorieren breitere wissenschaftliche Daten und übersehen, dass Ausnahmen nicht die Regel widerlegen. |
Faultier-Induktion
Sobald ein Extremist nur eine einzige Studie gefunden hat, die sein Argument ansatzweisen stützen könnte, stellt er jede weitere Recherche ein. Es reicht ihm dann. Zu jeder sich bietenden Gelegenheit, wann immer irgendwer auf das betreffende Thema zu sprechen kommt, zitiert er nun aus dieser einen Studie, um sein Argument zu „untermauern“. Gegenbeweise, selbst wenn es reichlich davon gibt, werden schlichtweg ignoriert. Diese „Faultiere“ gehen auch gern mit anderen Scheinargumenten spazieren, wie z.B. aus der Sparte der logischen Trugschlüsse, und besonders gern auch mit Pseudo-Experten.
![]() |
Beispiel 1: „Es gibt diese eine Studie, die zeigt, dass die Sonne viel stärker zum Klimawandel beiträgt als CO₂ – also ist die ganze Debatte über menschengemachten Klimawandel Unsinn!“
Beispiel 2: „Ein Wissenschaftler hat gesagt, dass es Lücken in der Fossilienreihe gibt – also ist die Evolution nur eine unbewiesene Theorie!“ Falsch, weil: Beide Aussagen stützen sich auf eine einzelne, oft aus dem Kontext gerissene Studien, die es vielleicht wirklich geben mag. Dabei wird aber ignoriert, dass der wissenschaftliche Konsens durch zahlreiche, unabhängige Untersuchungen gebildet wird. Echte Forschung basiert nicht auf Einzelmeinungen. |
Selektives Zitieren
Die nächste Masche: Einzelne Zitate von Fachleuten aus dem Kontext reißen und so zu verdrehen, dass sie zur eigenen Position passen. Auch wenn die besagten Experten das irgendwann herausfinden und sich von der Zitierweise deutlich distanzieren, hört diese Masche nicht auf. Jetzt wird ständig weiterbehauptet, Professor X hätte dies und jenes gesagt, obwohl er etwas komplett anderes meinte.
![]() |
Beispiel 1: „Der schwedische Physiker Svante Arrhenius sagte selbst, dass mehr CO₂ das Klima positiv beeinflussen und für bessere Ernten sorgen wird!“
Beispiel 2: „Der berühmte Paläontologe Stephen Jay Gould und sogar Charles Darwin selbst haben zugegeben, dass es in der Fossilienreihe keine Übergangsformen gibt – also ist die Evolutionstheorie falsch!“ Falsch, weil: Arrhenius erkannte 1896 als Erster, dass CO₂ zur Erderwärmung beiträgt. Er hielt eine moderate Erwärmung für vorteilhaft, aber nur, weil er nicht wusste, wie rasant sie tatsächlich verlaufen würde. Und seit Darwin wurden sogar mehrere „Übergangsformen“ entdeckt (z. B. Archaeopteryx oder Tiktaalik). Gould postulierte, dass Evolution manchmal in schnellen Sprüngen abläuft und nicht immer allmählich. Er sagte nie, dass es keine Übergangsformen gäbe, sondern dass sich neue Arten oft relativ schnell entwickeln, weshalb manche Übergangsformen in der Fossilienreihe seltener nachweisbar sind. |
Texanischer Scharfschütze
Eine der miesesten Taktiken der Scheinargumentation, bei dem selektiv Daten oder Fakten herausgegriffen werden, ist der Texanische Scharfschütze. Der Name stammt vom Bild eines Betrügers beim Sportschießen, der erst schießt und erst danach eine Zielscheibe um die Einschusslöcher malt, um den seine überlegene Treffsicherheit vorzutäuschen. Diese Technik wird oft genutzt, um Zufälle als kausale Zusammenhänge darzustellen und eine falsche Sicherheit in der eigenen Argumentation zu erzeugen. Der Extremist greift sich einfach ein (vielleicht sogar zutreffendes!) Beispiel heraus, dass zu seiner Argumentation zu passen scheint, und führt dieses dann immer wieder als Beweis für seine kruden Behauptungen an.
![]() |
Beispiel 1: „In Reykjavík sind die Durchschnittstemperaturen in den letzten Jahren nicht gestiegen, sondern gesunken. Das beweist doch, dass der Klimawandel eine Lüge ist!“
Beispiel 2: „Kennst du den Schwertschwanzkrebs? Der hat sich doch angeblich seit Millionen von Jahren nicht verändert. Da siehst du doch, dass der ganze Mist mit der Evolution willkürlich und erlogen ist!“ Falsch, weil: In beiden Beispielen werden einzelne Ausreißer selektiv herausgegriffen, während der globale Trend zu steigenden Temperaturen sowie die vielen Übergangsformen bei anderen Tieren ignoriert werden. Extremisten malen also ihre Zielscheibe selbst um das gewünschte Ergebnis herum. |
Was kannst du dagegen tun?
![]() |
|
Verschwörungsmythen
Den runden Abschluss der schwarzen Rhetorik von Wissenschaftsleugnern bilden die übelsten Maschen von allen. Und das sind die Verschwörungsmythen! Vereinfacht gesagt steckt die Überzeugung dahinter, dass die Wissenschaft von einer (unbekannten) Elite unterwandert wurde, nun politisch gesteuert ist und instrumentalisiert wird. Dadurch werden nun bloß noch Ergebnisse präsentiert, die dem „Mainstream“ entsprechen. Dass die eigene Meinung ständig angegriffen werde, sei das Ergebnis einer groß angelegten Verschwörung, um die „Wahrheit“ nicht ans Licht kommen zu lassen. Diese Strategie hat ihren Grund: schließlich können empirische Forschungen die religiösen Dogmen und menschenverachtenden Ideologien widerlegen und gefährden damit ihre Agenda.
![]() |
Beispiel 1: „Globale Erwärmung ist eine Erfindung von China, um die westliche Wirtschaft zu schwächen! In Wahrheit kühlt sich die Erde ab, weil wir noch immer in der Eiszeit sind.“
Beispiel 2: „Paläontologen graben beileibe keine Knochen aus! Die tun nur so! Stattdessen kratzen sie die einfach nur in den Stein oder aus dem Stein heraus. Fossilien… Das ist doch alles nur ‚Kunsthandwerk‘!“ Falsch, weil: Beide Aussagen sind klassische Verschwörungsmythen, die wissenschaftliche Erkenntnisse nicht nur ablehnen, sondern durch wilde Spekulationen ersetzen. Dabei werden Fakten ignoriert, absurde Behauptungen miteinander kombiniert und eine geheime Agenda unterstellt. |
Die Verschwörungsmythen sind zwar oft eng miteinander verwoben, lassen sich aber in zwei Zweige unterteilen. Den einen bilden die üblen Absichten, wobei dem Gegner unterstellt wird, Teil einer Verschwörung zu sein.
Üble Absichten
Extremisten lehnen mit einer nihilistischen Skepsis alles ab, was im Widerspruch zu ihrer Ideologie steht. Alle Nachfragen nach Beweisen haben lediglich rhetorische Natur. Denn auch, wenn du wirklich einen Beweis anführen kannst, kommt sofort der Vorwurf, dass die Daten ungenau seien, oder die ganze Studie sogar gefälscht. Die Wissenschaft – der große Gegner – verfolgt ganz eigene Interessen, genauso wie die „Mainstream-Medien“ und die „Altparteien“. Es ist völlig egal, ob nach einem Regierungswechsel oder auch einem Paradigmenwechsel in der Forschung ein völlig anderer Kurs gefahren wird. Solange nicht die eigene Ideologie eins zu eins umgesetzt ist, ist jeder andere ein Feind, mit üblen Absichten.
![]() |
Beispiel 1: „Klimaforscher leben doch nur von Panikmache – ohne den Klimawandel würden die doch alle ihre Jobs verlieren!“
Beispiel 2: „Wissenschaftler verteidigen die Evolution nur, weil sie Atheisten sind und Gott und die Moral aus der Welt schaffen wollen!“ Falsch, weil: Beide Aussagen unterstellen der Wissenschaft oder der Regierung üble Absichten, um ihre Erkenntnisse nicht ernst nehmen zu müssen. Anstatt Argumente auf der Sachebene zu widerlegen (was mitunter schwierig ist!), wird einfach behauptet, dass die Gegenseite eine versteckte Agenda verfolgt. Beweise sind dafür nicht notwendig. |
Generalverdacht
Insbesondere die Forschung steht unter einem Generalverdacht. Die offizielle Darstellung der Forscher muss auf einer Täuschung beruhen. Denn was nicht wahr sein darf, kann auch nicht wahr sein. Egal ob es um Erkenntnisse aus der Klimaforschung, der Medizin oder auch der Evolutionsbiologie geht: alle sind gleichermaßen Anfeindungen ausgesetzt und werden von Extremisten stets zu diskreditieren versucht. Hierbei wird oft unterstellt, dass die Forscher ein (auch finanzielles) Eigeninteresse haben und deshalb nicht glaubwürdig sind. Bei dieser Technik wird auch eng mit Pseudo-Experten gearbeitet, die als wenigstens „gleichberechtigtes“ Gegengewicht aufgebaut werden.
![]() |
Beispiel 1: „Hinter der ganzen Klimahysterie steckt doch die Öko-Lobby! Die verdienen sich mit ihren Windrädern und Elektro-Autos eine goldene Nase.“
Beispiel 2: „Guck dir doch mal an, was die Museen für ein Geld machen! Oder Hollywood mit diesem Dino-Hype… Dabei hat es Dinosaurier überhaupt nicht gegeben!“ Falsch, weil: Alle drei Aussagen arbeiten mit einem pauschalen Generalverdacht, indem sie unterstellen, dass Forschung und Wissenschaft nur aus finanziellen Eigeninteressen betrieben werden. Anstatt die Fakten zu widerlegen, wird einfach behauptet, dass alles nur eine große Geldmacherei sei. |
Etwas stimmt nicht
Sogar, wenn Teile des Verschwörungsmythos absolut nicht mehr haltbar sind, und der Extremist sich das schmerzhafterweise eingestehen muss, kriegt er mit einer anderen Masche, dem „Etwas stimmt nicht!“ noch die Kurve. Jede kleine Ungenauigkeit oder (scheinbare!) Unstimmigkeit eines Arguments oder einer Studie wird dabei mit Hilfe von Trugschlüssen ausgeschlachtet. Hierbei wird oft auch mit Techniken aus der Kategorie der unerfüllbaren Erwartungen gearbeitet, und der andere Ast der Verschwörungsmythen, also die Immunität gegen Beweise, mit herbeigezogen.
![]() |
Beispiel 1: „Ja, okay, 97% der Klimaforscher sagen, dass Menschen die globale Erwärmung verursachen. Die machen das aber doch nur, weil sie keine Abweichler sein wollen. Sonst würden die doch gleich von ihrer Uni fliegen!“
Beispiel 2: „Ja okay, die Arche war für alle lebenden Tiere auf der Erde wohl doch etwas zu klein. Aber von den ganzen Vögeln hat Noah sicher nur die Eier mitgenommen. Und viele Tiere haben sich danach ja noch weiterentwickelt, aus Grundformen. Hunde aus Wölfen und so weiter. Mikro-Evolution eben!“ Falsch, weil: Beide Aussagen geben widerwillig einen Punkt zu, ersetzen die eigentliche Widerlegung aber sofort durch eine neue Spekulation oder Verschwörungsthese. Anstatt echte Argumente zu liefern, wird einfach so lange weiter geschwurbelt, bis die eigene Ideologie doch wieder passt. |
Opferrolle
Wenn nichts mehr klappt, begibt sich der Extremist in die Opferrolle. Auf Latein heißt sie übrigens Argumentum ad misericordiam (Argument gegen das Mitleid). Es ist der Versuch, Sympathie oder Mitleid zu erwecken, um Zustimmung zu erhalten, anstatt auf rationale Gründe einzugehen. Sich emotional als unterdrückte Minderheit zu präsentieren, kann jede Extremisten-Gruppe gut. Inwiefern sie allerdings selbst andere Menschen diskriminieren, und dass es für die Ablehnung des Extremismus wirklich gute Gründe gibt, wollen sie natürlich nicht sehen! Besonders bei der rechtspopulistischen AfD werden Heuchelei und Doppelmoral sehr deutlich, da ihre eigenen Aussagen selbst extrem hetzerisch sind. Gegen mehrere Parteimitglieder liefen bereits Ermittlungsverfahren wegen Beleidigung und Volksverhetzung. Aber auch für Wissenschaftsleugner ist die Opferrolle ein Kunststück, dass sie exzellent beherrschen.
![]() |
Beispiel 1: „Wenn man sich nicht dem Klimawahn anschließt, oder irgendwas Kritisches zu der sakrosankte Greta sagt, wird man doch gleich als Umweltverbrecher abgestempelt!“
Beispiel 2: „Die Evolutionstheorie wird uns allen in der Schule einfach aufgezwungen. Aber niemand lässt uns Kreationisten auch unsere eigene Meinung sagen! Das ist Diskriminierung!“ Falsch, weil: Beide Aussagen inszenieren die Sprecher als unterdrückte Opfer, um von der inhaltlichen Debatte abzulenken. Dabei ist Kritik an der Forschung ausdrücklich erlaubt. Sogar Falschaussagen darüber sind meistens von der Meinungsfreiheit gedeckt! Man muss allerdings trotzdem natürlich mit Widerspruch rechnen, weil Meinungsfreiheit eben keine Einbahnstraße ist. |
Täter-Opfer-Umkehr
Anstatt sich nur selbst die Opferrolle zuzuschieben, stellen Extremisten auch gern die tatsächlichen Opfer von Gewalt und Diskriminierung in widerwärtiger und tatsachenfremder Weise als „die Bösen“ dar. Diese Taktik ist sehr weit verbreitet und unterstützt menschenfeindliche Narrative in allen Richtungen. Es geht im Grunde immer um das Gleiche: das eigene Verhalten zu rechtfertigen, (berechtigte!) Kritik daran auf unlautere Weise abzuwehren, die eigene Schuld zu verschleiern und sich vor Verantwortung zu drücken.
![]() |
Beispiele:
Falsch, weil: Statt sich mit den eigenen Taten auseinanderzusetzen, wird in allen Beispielen dem Opfer Mitschuld gegeben oder es wird sogar zum alleinigen Aggressor erklärt. Dadurch wird die Diskussion emotional aufgeladen und eine sachliche Aufarbeitung der eigentlichen Problematik verhindert. |
Immunität gegen Beweise
Den anderen Zweig dieser Kategorie bildet eine renitente Immunität gegen Beweise, wobei alle der eigenen Meinung entgegenlaufende Aussagen mit Scheinargumenten abgeschmettert werden sollen. Meistens bekommt man es mit der sogenannten Slothful Induction (Faules Schlussfolgern) zu tun. Und wenn das nicht wirkt, wird jeder Beweis, der gegen die eigene Überzeugung spricht, so verdreht, dass er sich wieder darin eingliedert.
![]() |
Beispiel: „Egal was die sogenannten Forscher sagen – Ich glaube da trotzdem nicht dran!“
Falsch, weil: Egal, welche Fakten vorliegen, sie werden sofort als gefälscht, unglaubwürdig oder unzureichend abgelehnt. Dieses Denkmuster macht eine rationale Diskussion auf Augenhöhe nahezu unmöglich. |
Zufälligkeiten uminterpretieren
Eine weitere Masche geht gern mit Techniken aus der Rosinenpickerei Hand in Hand. Hierbei greift man zu rhetorischen und psychologischen Tricks, bei der zufällige Ereignisse oder Muster nachträglich so gedeutet werden, dass sie in eine vorgefertigte Erzählung oder Ideologie passen. Dabei werden nur jene Zufälle hervorgehoben, die ins Narrativ passen, während widersprechende ignoriert werden. Wenn irgendein beliebiges Ereignis eingetreten ist, wird ihm dann gern eine tiefere Bedeutung zugeschrieben: Korrelation wird als Kausalität missverstanden – oft absichtlich und wohlweißlich. Daher weist diese Technik eine enge Verwandtschaft mit dem Texanischen Scharfschützen auf.
![]() |
Beispiel 1: „Ein NASA-Satellit ist explodiert? Na klar, ein Unfall! Die versuchen doch nur, ihnen unbequeme Daten zu vertuschen!“
Beispiel 2: „Forscher haben sogar schon Weichgewebe in Dinosaurierfossilien nachgewiesen. Das beweist, dass Dinosaurier noch vor Kurzem auf der Erde gelebt haben müssen!“ Falsch, weil: Beide Aussagen interpretieren zufällige oder wissenschaftlich erklärbare Phänomene so um, dass sie in eine bestehende Verschwörungserzählung passen. So kann sich zwar tatsächlich unter bestimmten Bedingungen bei der Fossilisation Weichgewebe bis in die heutige Zeit erhalten, das ist aber kein Beweis für eine junge Erde. |
Widersprüche
Die zweite Masche: Extremisten agieren mit unterschiedlichsten Aussagen, um auf Thesen ihrer Gegner zu reagieren. Diese beinhalten allerdings oft erhebliche Widersprüche zueinander. Dass sie sich selbst (eigentlich immer!) widersprechen, blenden Extremisten aber vollkommen aus! Natürlich weigern sich Extremisten aber, diese Widersprüche zuzugeben. Sie bemerken noch nicht einmal, dass sie reflexartig mal die eine, mal die andere These raushauen, obwohl sie sich damit teuflisch in ihrer eigenen Argumentation verheddern können.
![]() |
Beispiel 1: „Die Temperaturaufzeichnungen werden von Wissenschaftlern gefälscht!“ vs. „Die Temperaturaufzeichnungen zeigen eine Abkühlung!“
Beispiel 2: „Du sollst nicht töten!“ vs. „Tod allen Ungläubigen!“ Falsch, weil: Beide Beispiele enthalten einen grundlegenden Widerspruch, weil sie je nach Situation einfach die passendste Behauptung wählen – Wissenschaft wird entweder gefälscht oder als Beweis genutzt; religiöse Gebote gelten universell oder nur selektiv. Statt einer konsistenten Argumentation geht es nur darum, die eigene Ideologie zu stützen, egal mit welchen Mitteln. |
Was kannst du dagegen tun?
![]() |
Leider nicht viel! Mit jemandem, der bereits tief in einer Verschwörungsideologie steckt, kannst du keine sinnvolle Diskussion führen. Also versuche es erst gar nicht. Diese Menschen halten sich nicht an die Regeln eines fairen Austauschs. Sie sind nicht daran interessiert, Argumente abzuwägen, sondern nur daran, dich von ihrer Sichtweise zu überzeugen. Es ist im Grunde so, als würdest du mit einer Taube Schach spielen – da kannst du auch unmöglich „gewinnen“, weil die Taube alle Figuren einfach umwerfen wird, aufs Brett kackt und irgendwann einfach davonfliegt. Spätestens wenn sich dein Gegenüber in die Opferrolle begibt („Alle sind gegen mich, weil ich die Wahrheit sage!“), hast du die Diskussion verloren. Eine sachliche Auseinandersetzung war nie das Ziel. |
Ich hoffe, dieser Beitrag war hilfreich für dich und du konntest etwas für zukünftige Diskussionen mitnehmen. Wohlgemerkt nutzen ja nicht nur Wissenschaftsleugner diese Techniken der schwarzen Rhetorik, auch viele andere (z.B. Politiker) beherrschen sie. Nun wird es aber (hoffentlich!) nicht mehr so einfach sein, dich hinters Licht zu führen, und dich können viele solcher Pseudoargumente auch nicht mehr überraschen, da du sie ja jetzt kennst! Hab also keine Scheu, zu diskutieren. Extremismus bekämpfen wir am besten, indem man die Extremisten auf Basis ihrer eigenen Argumente stellt, und diese schlagkräftig widerlegt. Mach dabei gerne mit!
![]() |
Was ist Extremismus?
Wer sind die gefährlichsten Extremisten? Wieso sind Extremisten so erfolgreich? Was können wir gegen Extremismus tun? Extremistische Scheinargumente – bekämpfen! |
Noch eine letzte Bitte
Wenn man so einen Artikel wie diesen hier schreibt, bedeutet das natürlich, dass man polarisiert. Und für mich als Autor bedeutet es, dass ich sogar mit Rückschlägen zu kämpfen habe. Extremisten sind charakterschwache, hinterhältige Feiglinge, die mit unsauberen, heimtückischen Methoden arbeiten. Das ist allerdings nicht etwa eine persönliche Meinung oder Behauptung, sondern eine Tatsache, die ich selbst schon am eigenen Leib zu spüren bekam. Sobald ich mal etwas über Toleranz geschrieben, oder mich zu meiner Ablehnung von Diskriminierung und Extremismus bekannt habe, ist die Bewertung meiner Bücher auf Amazon nämlich meist deutlich gesunken.
Und nein, das ist keine zufällige Korrelation! Wenn man mehr als 4.000 Follower hat, dazu noch mehrere „stille“ Mitleser, müssen sich darunter zwangsläufig auch einige Personen eher zweifelhafter Gesinnung befinden. Das ist eben das Gesetz der Masse. Diese Personen drücken mir immer eine miese Bewertung rein, wenn sie Widerspruch erleben. Einige haben mich auch grundlos bei Facebook gemeldet, sodass mein Artikel für kurze Zeit gesperrt war. Ich konnte das aber zum Glück wieder rückgängig machen.
Ich befürchte also, dass einige Ewiggestrige auch diesen Artikel wieder zum Anlass nehmen werden, mir auf Amazon eine miese Bewertung reinzudrücken, um mich für meine ketzerischen Worte zu „bestrafen“. Und dass ich auf Facebook auch wieder Ärger dafür kriege, dass ich gegen Extremisten aufstehe, besonders gegen Rechtsextremisten. Ich verlasse mich aber darauf, dass du, der du jetzt wirklich bis ganz zum Ende gelesen hast, mir dabei hilfst, dass die blaubraunen Arschgeigen hier keinen „Sieg“ gegen mich erringen können.
Darf ich dich deshalb um folgendes bitten?
![]() |
Folge meiner Seite weiter so lieb, wie du es schon tust, und teilt meine Beiträge mit deinen Freunden auf Facebook, Instagram, Bluesky, Mastodon oder gern auch anderen sozialen Medien. Ein „Teilen“ kostet nicht viel Zeit. Und bestimmt gibt es in deiner Freundesliste auch den einen oder anderen, der sich für Dinos oder Abenteuerbücher interessiert. Also erzähle es einfach weiter!
|
Vielen Dank für jede Unterstützung!