Das naturwissenschaftliche Paradigma
Die Dritte-Person-Perspektive möchte, von einem distanzierten und äußeren Standpunkt aus, zu möglichst objektiven Erkenntnissen gelangen. Sie nützt dabei vor allem die experimentelle Beobachtung, die sinnliche Wahrnehmung, computergestützte Analysen und die Erhebung von intersubjektiven Daten. Die Bezeichnung »wissenschaftlich begründet« wird heute vor allem auf diese Form von Erkenntnisgewinnung angewendet.
Der technische Fortschritt der Menschheit in den letzten Jahrzehnten spiegelt sich in vielen Wissensgebieten wider. In der Medizin wird darüber diskutiert, wie man die Erbanlagen so umprogrammieren kann, dass dem Menschen schwere Krankheiten erspart bleiben und eine bestmögliche Intelligenzausstattung effizientere Lebensentscheidungen hervorbringt. In der Astronautik wird die Ausdehnung des Lebensraumes auf fremde Planeten hin erkundet. Im Bereich der Computertechnologie sind Roboter mit »Bewusstsein« und »Emotionen« keine Fiktion mehr. Zurzeit macht vor allem auch die Hirnforschung von sich reden. Sie hat uns darauf hingewiesen, dass der freie Wille weitgehend eine Illusion ist. Bewusstsein, Ich und Selbst sind nach ihrer Ansicht auch nicht als überdauernde Strukturen aufzufassen, sondern nur im Sinne temporärer kohärenter Hirnströme zu verstehen. Inzwischen sieht sich die Neurobiologie nicht mehr als eine Teildisziplin der Medizin, sondern mehr und mehr als Leitwissenschaft. Es gibt kaum noch Fragen zum Menschen, zur Gesellschaft, zu Religion oder Kultur, zu der sie nicht wortreich Stellung bezieht und darauf pocht, dass ihre Ergebnisse miteinbezogen werden.
So ist auch nicht verwunderlich, dass im modernen wissenschaftlichen Menschenbild immer mehr die Gewichte zugunsten der biologischen Determiniertheit verschoben werden. Auch der publizistische Boom rund um das Thema Evolution, der anlässlich des 200. Geburtstages von Charles Darwin entfacht wurde, ist dieser Tendenz geschuldet. In dem naturwissenschaftlichen Menschenbild verbirgt sich die Illusion, bald die Regie über die Schöpfung übernehmen zu können. Je näher nämlich der Mensch in Richtung Materie gerückt wird, desto formbarer erscheint er. Die Tendenz, den Menschen nur noch als biologisch determinierte Maschine zu sehen, ist würdelos, genauso wie es überheblich ist, davon abzuleiten, dass der Mensch dadurch Schöpfer seiner selbst ist.
Will man die Vormachtstellung des naturwissenschaftlichen Paradigmas verstehen, lohnt sich ein Blick zurück. Galileo Galilei wurde für seinen genialen Beweis, dass sich nämlich die Erde um die Sonne dreht und nicht das Zentrum des Universums bildet, heftig angegriffen. Die Kirche, die damals über Staat und Wissenschaft herrschte, fürchtete, ihre Vormachtstellung und Autorität zu verlieren. Auch ist es eine massive Kränkung des Ego, die Stellung des Menschen fortan in diesem Maße zu relativieren.
Diese Konfrontation begann im Hochmittelalter, mit dem sogenannten »Universalienstreit«, der sich damit befasste, ob allgemeine Begriffe oder Sätze wie »der Mensch ist die Krone der Schöpfung« real oder nur ein Kunstprodukt des menschlichen Geistes sind. Der Nominalismus ging von der zweiten Annahme aus und betonte, dass es sich hierbei um Namen (nomen) handelt, die lediglich Schall und Rauch seien und denen kein eigentlicher Wirklichkeitscharakter zugrunde liege. Nur das, was man mit den Sinnen wahrnehmen kann, also das materielle Einzelding sei real. Diese Idee fußt indirekt auch auf dem Atomismus, eine antike Anschauung (Demokrit), nach der die Welt aus kleinsten, nicht weiter teilbaren und mit bestimmten Kräften ausgestatteten Teilchen zusammengesetzt ist. Will man verstehen, was die Welt im Innersten zusammenhält, muss man sie auf ihre kleinstmöglichen Elemente zurückführen. Das Kleine und Molekulare wird damit als fundamentaler angesehen als das Große und Molare. Diese Denkart wird heute als Reduktionismus bezeichnet.
Gegen Ockham, den Begründer des Nominalismus, und seine Anhänger wurde 1340 das sogenannte »Nominalistenstatut« verfasst, das sich gegen diese neuen Lehren wandte. Die kulturgeschichtliche Erosion, die von dieser Bewegung ausging, war jedoch nicht mehr aufzuhalten: Widersinnige Dogmen wurden in Frage gestellt, die Autorität der kirchlichen Ideologie wurde untergraben und die Unterdrückung des Menschen zunehmend problematisiert. Dieser kulturgeschichtliche Konflikt inspirierte spätere politische Bewegungen, die für Demokratie, Feminismus, Auflösung der Klassengesellschaft und Befreiung der Sexualität eintraten. In gegenwärtigen islamistischen »Gottesstaaten« zeigt sich in dieser Hinsicht eine eigenartige Ambivalenz. Einerseits wird die technische Entwicklung mit immensen Mitteln vorangetrieben, andererseits werden aber wissenschaftliche Ergebnisse, die dem Koran widersprechen, als nicht mit dem »wahren Glauben« vereinbar abgetan.
Eine weitere wichtige Leitfigur in der Entwicklung der modernen Wissenschaftstheorie kann in René Descartes gesehen werden. Er förderte durch seine fundamentale Unterscheidung von Naturding (res extensa) und Geistesding (res cogitans), die wie zwei parallel laufende Uhren nichts miteinander zu tun haben, die Unversöhnlichkeit zwischen Natur- und Geisteswissenschaften, die bis in die Gegenwart fortdauert. So werden auch heute noch körperliche Leiden erst dann nach ihrer psychodynamischen Bedeutung befragt, wenn die Apparatemedizin keine Heilung mehr verspricht.
Aus dem galileisch-cartesianischen Weltbild entwickelten sich nach und nach die wissenschaftstheoretischen Konzepte des Positivismus und Empirismus, die bis ins 20. Jahrhundert die Bedingungen bestimmten, was als wissenschaftlich zu gelten habe und was nicht. Zusammengefasst fordert der Positivismus, nur solche Sachverhalte zu untersuchen, die durch das Wort »positiv«, also positiv vorhanden, charakterisiert sind. Davon ausgehend müssen, nach den Grundsätzen des Empirismus, Untersuchungsgegenstände objektiv und zuverlässig beobachtet, gemessen und überprüft werden können, also alles, was wir wiegen, sehen, tasten oder hören können.
Erst bei genauerer philosophischer Analyse erkennt man, dass in diesen Forderungen verdeckte Widersprüche aufzuspüren sind. Wenn es nämlich wahr sein soll, dass wirkliche Erkenntnis nur durch Beobachtung zugänglich wird, wie kann dieser Satz einer Beobachtung zugeführt werden?
Gödel (vgl. Hofstadter, 1985) hat darüber hinaus aufgezeigt, dass wissenschaftliche Theorien schon ihrem Wesen nach begrenzt sind, denn man kann beispielsweise auch in der Mathematik nicht alle Aussagen formal beweisen oder widerlegen. Sein berühmter Unvollständigkeitssatz besagt, dass jedes große formale System entweder widersprüchlich oder unvollständig ist. Wenn wir wieder zur Erläuterung des naturwissenschaftlichen Denkens zurückkehren, dann können Theorien ihre Gültigkeit nur dann nachweisen, wenn sich aus ihren Basissätzen Beobachtungsdaten ableiten lassen.
Wenn dabei das Spektrum der Sinnesorgane nicht mehr ausreicht, müssen empfindliche Geräte dazwischengeschaltet und die Ergebnisse am Computer dargestellt werden. So können Lichtjahre entfernte Sternensysteme ausfindig gemacht und Blicke in die Mikrostruktur der Elementarteilchen geworfen werden. Wenn man an die europäische Organisation für Kernforschung (CERN) in der Schweiz denkt, dann wird schnell klar, dass ein immenser Aufwand an Technik und Rechenleistung erforderlich ist, um mit Hilfe eines kilometerlangen Teilchenbeschleunigers tief in die Struktur der Materie einzudringen und sie durch unzählige Rechenoperationen sichtbar zu machen. Aufgrund des Aufwandes ist das Großforschungsprojekt ein international finanziertes Projekt, an dem sich mindestens zwanzig führende Nationen beteiligen. Natürlich soll hier nicht unerwähnt bleiben, dass diese Forschungen für die Menschheit in vielerlei Hinsicht nutzbringend sind und den technischen Fortschritt beschleunigt haben.
Theorien müssen also immer, neben ihrer Widerspruchsfreiheit, einer empirischen Überprüfung standhalten. Dabei sollte jeder Forscher, an jedem Ort der Welt, bei gleichen Bedingungen zu gleichen Ergebnissen kommen können. Experimente müssen wiederholbar und prognostizierbar sein. Hat man sich, so die implizite Annahme, einmal der objektiven Wahrheit angenähert, sei sie bei gleichen Laborbedingungen jederzeit wieder herstellbar. Das bedeutet auch, dass man den Erkenntnisgegenstand aus seinem Kontext herauslösen und isolieren muss, um die Daten nicht durch persönliche Einflüsse zu verfälschen. Doch schon die Mikrophysik hat die nicht kontrollierbare Interaktion zwischen Beobachter und Messergebnis erkannt und der künstlichen Trennung von Erkenntnissubjekt und Erkenntnisgegenstand eine Absage erteilt, da sie die natürliche Verbundenheit des Menschen mit der Welt nicht ausreichend berücksichtige. Gleichzeitig nimmt man stillschweigend an, dass es ein objektives Universum außerhalb des Geistes gebe, was erforschbar und erkennbar sei, und zwar ebenfalls nur mit rein materiellen Mitteln.
So wird die Materie zum Grundbaustein des Lebendigen, was in letzter Konsequenz nur heißen kann, dass sich alles Geistige auf materielle Ursachen zurückführen lässt. Unser derzeitiger Wissensstand rechtfertigt wohl kaum eine solch weitreichende Schlussfolgerung. Vielleicht ist diese Haltung einem Bedürfnis nach Kontrolle geschuldet, denn kleinste Stoffe können leichter manipuliert, funktionalisiert und umgestaltet werden. Es ist ja noch zu verstehen, wenn in den Naturwissenschaften diese Denkweise vertreten wird, doch je mehr man das Rätsel Mensch entschlüsseln möchte, umso problematischer wird es, wenn man sich nur darauf stützt. Die einseitige Betonung...