Es gibt eine erkenntnistheoretische Tradition, in der es darum geht, wie die Wahrheit herauszufinden ist, und zwar nur die eine, ganz bestimmte, wirkliche Wahrheit. Seit je her gibt es aber auch unterschiedliche Vorstellungen davon, was die Wahrheit sei. Sie wurde häufig in der Differenz zu den jeweils anderen Auffassungen von Wahrheit definiert. Der eigene Zugang zur einzig wahren Erkenntnis wurde als das einzig richtige und der Wahrheit angemessene Erkennen verstanden, dagegen die jeweils anderen Zugänge als irreführend, sogar sündhaft, oder wenigstens als von minderem Rang gegenüber dem einzig richtigen Erkennen der höheren Wahrheit.
So war allein der Glaube („sola fide“) an die von Propheten oder vom Monotheos selbst geoffenbarte Wahrheit nicht nur der einzige Weg zum Heil, sondern schon vorweg der einzige Weg zur Erkenntnis, gegen alle Zweifel gefeit. Das ging bis zur Forderung und sogar freiwilligen Bereitschaft zu glauben, „quia absurdum est“ (= weil es unglaubhaft ist), nicht nur „obwohl ich es kaum glauben kann“. Der Glaube hatte somit mehr mit dem Gehorsam gegenüber Glaubensforderungen zu tun als mit dem Erkennen von Wahrheit, wurde aber dennoch als eine höhere, sogar höchste Form des Erkennens hingestellt, als die Erkenntnis selbst. Andere Erkenntniswege standen dagegen unter dem Vorbehalt, von den klerikalen Glaubenshütern erst noch in ihren einzelnen Ergebnissen und rückwirkend auch in der dazu führenden Erkenntnismethode bestätigt („sanktioniert“) werden zu müssen.
In diesem Zusammenhang ist interessant, dass das Wort „Sanktionierung“ (von lateinisch sanctus „geheiligt, geweiht“) zunächst eine Heiligung oder zumindest Heilung meinte. Von da her wurde es auch als Billigung und Zustimmung verstanden, als ein Gutheißen des Erkannten. Mit einer formellen Bestätigung (dem „placet“) durch die dafür zuständige Autorität, in der katholischen Kirche schlussendlich durch den in solchen Beschlüssen „unfehlbaren“ Papst, konnte einer Bestimmung Gesetzeskraft erteilt und etwas Erkanntes als unverbrüchlich geltend festgesetzt werden. Das Wort „Sanktion“ hat inzwischen seltsame Bedeutungsänderungen erfahren. In der heutigen Soziologie wird es verallgemeinernd für alle Maßnahmen verwendet, mit denen eine Gemeinschaft auf das Verhalten anderer Personen oder Gruppen entweder anerkennend und bestätigend oder aber abweisend und bestrafend reagiert. So werden positive Sanktionen (Belobigungen, Belohnungen) von negativen Sanktionen (Tadel, Ausschluss, Bestrafung, auch Entzug von Gütern) unterschieden. Durch die Verinnerlichung von Normen (siehe Norbert Elias: Über den Prozess der Zivilisation, Suhrkamp TB, 1977, Bd. 2, Kapitel: Der gesellschaftliche Zwang zum Selbstzwang, S. 312 – 336) soll die Anwendung äußerer Sanktionen überflüssig werden. Stattdessen sollen Normverstöße oder vorweg schon bloße Neigungen oder Absichten dazu von den Personen selbst durch innere Sanktionen (Unwert- oder Schuldgefühle) verhindert werden. Inzwischen wird die Sanktion im allgemeinen Sprachgebrauch fast nur noch in ihrer negativen Zielrichtung verstanden, nämlich als das „Verhängen von Sanktionen“ über das sozial verworfene Tun, indem also Strafandrohungen ausgesprochen und Zwangsmaßnahmen eingeleitet werden.
So verstandene Sanktionen gab es schon im Mittelalter, allerdings damals viel entschiedener als heute, schließlich sogar menschenverachtend grausam und sadistisch. Es war bei Strafe verboten, das Irrige und damit Sündige auch nur untersuchen und genauer erkennen zu wollen. Erst recht wurde es streng geahndet, wenn das dennoch Erkannte auch öffentlich geäußert oder gar praktiziert wurde. Ihm Rahmen der „Heiligen Inquisition“ kam es in Europa massenweise und flächendeckend bis in den Beginn der Neuzeit, örtlich noch länger, zu Folterungen – zur „hochnotpeinlichen“ Befragung, um die Wahrheit zu erkunden – bis zur qualvollen Tötung, wo das Verbranntwerden auf dem Scheiterhaufen mit schon vorher eintretender Bewusstlosigkeit fast schon als Erlösung von aller Qual verstanden werden konnte. Solche Sanktionierung zielte zunächst auf die Verhinderung „irriger“ Meinungen, wandte sich daher besonders gegen Ketzerei und Häresie im Bereich der eigenen Religion, also gegen bloße Varianten des eigenen Glaubens, gegen Andersgläubigkeit. Aber auch die außermonotheistische „Ungläubigkeit“ war lebensgefährlich: „ ... und willst du nicht mein Bruder sein, so schlag ich dir den Schädel ein!“. Da ist es nicht verwunderlich, dass in diesen finsteren Jahrhunderten Wissenschaftler und insbesondere Philosophen es vorzogen, ihre wesentlichen Erkenntnisse erst postum veröffentlichen zu lassen, weil sie davon ausgingen, dass ein Toter kein Verbranntwerden mehr zu fürchten habe. Politisches Abweichlertum nach links oder auch nach rechts, auch solches mit wissenschaftlicher Begründung, wurde in Europa noch im vorigen Jahrhundert von den großen politisch-ideologischen Systemen des Stalinismus und des Nazi-Regimes streng geahndet, und bis heute gibt es soziale Sanktionen für Wissenschaftler, die gegen das Gebot der „political correctness“ verstoßen. Ich selber sollte damit nicht zu leichtsinnig umgehen.
Nicht ganz so rigoros wie die früheren Glaubenshüter und späteren Gesinnungsprüfer sind manche heutigen Verteidiger der exakten wissenschaftlichen Methode. Immerhin wird doch noch von der „streng“ empirisch-experimentellen Vorgehensweise gesprochen. Da wird aber kaum noch mit Falsifizierung gedroht, vielmehr wird der Forscher selbst dazu angehalten, seine Theorie einer Falsifizierung durch weitere Untersuchungen auszusetzen. Wirklich verifizierte, also abschließend empirisch bestätigte Theorien könne es nach Sir Karl Popper gar nicht geben. Oder doch? Ich selber bestehe darauf: 2 mal 2 ist wirklich 4, da beißt die Maus kein’n Faden ab. Als Schüler habe ich allerdings einmal – auf inzwischen vergessenen Umwegen – herausgefunden, dass 9 durch 3 nur 2,999999999.... ist, wo ich doch als Ergebnis eine glatte 3 erwartet hatte!
Deshalb will ich nun doch noch der Frage nachgehen: Wie überprüft man empirisch, ob 2 mal 2 wirklich 4 ist? Dazu braucht man einige Äpfel oder Birnen, auch anderes Obst oder andere abzählbare Dinge sind dafür geeignet. Dann überprüft man erst einmal, ob 2 plus 2 immer 4 ist. Dazu nimmt man zwei Äpfel, und dann noch zwei Äpfel, und zählt sie zusammen: ein Apfel und noch einer dazu sind zwei Äpfel, dann kommen zu diesen zwei Äpfeln noch der erste von den anderen zwei Äpfeln dazu, dann sind es drei, und schließlich noch der zweite von den anderen zwei Äpfeln, dann sind es zusammen vier. Das geht auch mit zwei Birnen und zwei Birnen, sogar mit zwei Birnen und zwei Äpfeln, und auch mit zwei Jungen und zwei Mädchen kann man es nachprüfen, und jedes Mal kommt vier heraus. Man braucht nur abzuzählen, jedes Mal wieder, bis man ganz sicher ist. Es stimmt also: 2 + 2 = 4.
Aber 2 mal 2? Das ist doch etwas ganz anderes. Dennoch kann man auch das empirisch überprüfen. Dazu muss man zwei Äpfel oder zwei andere Dinge als Paar zusammen lassen, und muss diesen Zweierpack zwei mal zählen: 1 +1 = 2, und noch mal 1 + 1 = 2. Und zweimal zwei, das ist demnach (1 +1) und (1 +1), das sind wieder zusammen 4. Auf solche Weise kann man ein Zweierpack auch drei mal, vier mal, fünf mal usw. zählen, immer sind es anfangs nur zwei, und jeweils zusammen sind es: 3 x 2 = 6, 4 x 2 = 8, 5 x 2 = 10. Zählen Sie nach!
Eine solche empirische Überprüfung von Mathematik ist natürlich albern, weil die Relationen zwischen Zahlen völlig unabhängig davon gelten, ob man damit Äpfel oder Birnen, dieses oder jenes, oder überhaupt etwas zählen kann, auch unabhängig davon, ob die Zahlen nach unserem dekadischen System oder etwa, für den Computer besser verarbeitbar, binär in einer Zahlenreihe angeordnet werden. Auch die Logik bedarf keiner empirischen Überprüfung. Es gilt umgekehrt, dass sie zur Fundierung und zur Absicherung empirischer Untersuchungen sinnvoll eingesetzt werden kann, damit aus deren Ergebnissen keine falschen Schlüsse gezogen werden.
So ist als Ergebnis dieser Überlegungen unabweisbar, dass es außer der empirischen oder gar experimentellen Überprüfung von Hypothesen über Sachverhalte auch noch andere Wege zu anderen Arten von Erkenntnis gibt, neben logischen und mathematischen auch noch weitere. So gibt es offenbar, schon auf der Ebene der Sinneswahrnehmung, ein Erkennen von Ähnlichkeiten, das weitergeführt werden kann in einem auch von Traumerfahrungen angeregten analogischen Denken. Es gibt auch ein Denken und Erkennen, das von rechtlichen oder gesetzlichen Normen ausgeht. Empirisch überprüfbar ist hierbei nur, ob beispielsweise die Normen beachtet und in welchem Grade sie tatsächlich eingehalten werden. Für die Überprüfung der richterlichen Entscheidung selbst nützt keine wiederholte Beobachtung der Richterverhaltens und auch kein Experimentieren mit ihm. Es muss dazu vielmehr nach geltendem Verfahrensrecht das Rechtsmittel der Berufung oder der Revision eingelegt werden, das wiederum aus formalen Gründen zurückgewiesen oder bei zutreffender Begründung akzeptiert werden kann. Während die Berufung eine neue Tatsacheninstanz eröffnet und ggf. weitere Untersuchungen erforderlich macht, finden in der Revision keine weiteren Beweiserhebungen mehr statt. Das ist offenbar eine andere Art von Richtigkeit als die des Glaubens, der Logik, der Mathematik, oder der Naturwissenschaft, und es gibt dem entsprechend verschiedene Möglichkeiten, sich einer besseren Erkenntnis anzunähern.
Diese Aufzählung von Möglichkeiten der Wahrheitsfindung und Urteilsbegründung außerhalb der empirisch-experimentell vorgehenden Naturwissenschaften kann noch fortgesetzt werden. Es sollte aber auch schon jetzt deutlich geworden sein, dass es nicht nur einen Weg zu der Wahrheit gibt und dass die bisher noch nicht falsifizierte und sogar hoch bestätigte Theorie über Tatsachen nicht das einzige Ziel des Erkennenwollens sein kann.
In den folgenden Kapiteln 2.3.2. und 2.3.3. sind Überlegungen weitergeführt worden aus meinem Beitrag "Vom klassischen Letztbegründungsanspruch zum Methodenpluralismus moderner Erkenntnistheorie", in: Aufklärung und Kritik, Sonderheft 5/2001, zum Schwerpunkt: Hans Alberts Kritischer Rationalismus, S. 55 - 66.