alles als wissen


die hyperbolik universeller ansprüche


"...im Grunde geht es immer nur um die Herstellung von Metaphern..."

Heiner Müller

totale als urgrund

was sich erkennen und verstehen lässt, hat immer irgendwo hineinzupassen. dafür schafft sich unentwegt die Einbildungskraft einen Rahmen. doch wie mächtig muss dieser sein, damit das, was allenthalben der Fall ist, als ein Ganzes umfasst wird? es kann sich bei dem Anspruch, für die Vielfalt des Erkennbaren eine All-einheit zu unterstellen, nur um eine anmassende Vermessenheit handeln. um eine Vermessenheit, die das Unbeschränkte zu einem grundsätzlichen Massstab erhebt wenn solch eine Hybris keine Begrenzung kennt, kann die Leitfrage der Ontologie: "Was gibt es?" einfach mit "Alles" beantwortet werden (siehe Willard Van Orman Quine, "On what there is", 1948)..
Thales von Milet war der Überlieferung nach der erste griechische Philosoph, der einer ontologischen Vielfalt eine fluide Grundlage gab. er destillierte das mythische Wissen seiner Zeit zu einer substanziellen Einheit und war damit hinlänglich erfolgreich. sein Ansatz verpflichtet, obgleich auf Wasser gebaut, bis heute das philosophische Denken auf das Phantasma bei Thales bekommt die Bestimmung von Gesamtheit mit dem Urstoff Wasser eine mystische Bedeutung und ist somit auf keine rationale Begründung angewiesen. eines Verstehenwollens in einem infiniten Einen.


unmögliche nullperspektive

obwohl erst die Vorstellung von einem allumfassenden Ganzen eine universelle Orientierung erlaubt, darf sie die Wirklichkeit nicht als Totalität begrenzen, also keine abgeschlossene Einheit sein. das menschliche Denken ist auf Fluchtpunkte angewiesen, um sich aus einer Distanz heraus zu überbieten. dies gelingt gemeinhin durch eine weltanschauliche Entsprechung, welche mit einer Nullperspektive ein fundamentum inconcussum schafft. nur ist eine derartige Position strenggenommen eine unmögliche Perspektive, da sie einen archimedischen Punkt ausserhalb des Wissbaren beansprucht. Descartes meinte ihn mit seinem hyperbolisch alles hinterfragenden Zweifel gefunden zu haben Augustinus hatte auch bereits die produktive Kraft des Zweifelns erkannt und als eine Gewissheit für den Glauben ausgewiesen. (De vera religione 39,73). nur wo ein radikaler Zweifel zum Prinzip erhoben wird, droht irgendwann jede Gewissheit, selbst die des Zweifelns verloren zu gehen. der cartesische Zweifel führte nicht zwangsläufig zu einem unbedingten Wissen, da es auch für ihn ausgeschlossen bleibt, an allem zu zweifeln und gleichzeitig in allem getäuscht zu werden Descartes empfahl später, seinen Zweifel als Verfahren methodisch einzusetzen ("Discours de la méthode", 1637).


streben nach vollständigkeit

vielleicht steht hinter der Auffassung von einer universell kohärenten Weltgesamtheit nur das profane Verlangen nach einer geordneten Vollständigkeit phänomenologisch wird Welt gern als grösster Horizont verstanden, welcher die Peripherie aller Entitäten umfasst . notwendigerweise ist nicht davon auszugehen, dass die Realität dementsprechend disponiert ist. ihr könnte genauso gut ein inkonsistentes Werden zugrunde liegen, eine Genese mit nur temporären Regelmässigkeiten, welche emergent als ein Entsprechungsverhältnis für die Orientierung vorliegen.
wenn das menschliche Transzendenzvermögen eine Grenzerfahrungen bleibt, endet die Vorstellung von einem Universum nicht an der Endlichkeit erfassbarer Welterfahrungen. wie beschränkt auch das Erkenntnisvermögen sein mag, ein zu antizipierendes Aussen ist erahnbar und somit eine offene Angelegenheit. der Anspruch von einer Vollständigkeit des Universums kann sich mit Paradigmenwechseln wandeln und konzipiert inzwischen bei einem nicht widerspruchsfrei wachsenden Wissensstand das Universale sogar im Plural als Multiversum Parallelwelten wurden lange Zeit eher als unrealistische Gedankenexperimente in der Philosphie erörtert. oder auch viele-Welten-Konglomerat.


verum et factum

um Naturwissenschaft betreiben zu können, braucht es die Vorstellung von kausal wirkenden Kräften. selbst wenn sie nicht konkret ermittelbar sind, wird daran festgehalten. wer sich darüber hinwegsetzt und verursachende Verknüpfungen, weil sie zu Komplikationen führen, einfach verwirft, gerät wie einst Bertrand Russel in eine Erklärungsnot Bertrand Russell schlug 1912 in "The Problems of Philosophy" vor, das Wort Ursache aus dem Wortschatz der Philosophie zu streichen. .
obwohl Modellierungen für natürliche Phänomene im Mikro- und Makrobereich präzise Vorhersagen von Zusammenhängen liefern, liegt bis heute kein akzeptables Konzept vor, das Beziehungen zwischen Ursachen und Wirkungen universell erfasst. alle Versuche, jenes Defizit zu füllen oder zu umgehen, beanspruchen für interdisziplinäre Ansätze zu unterschiedliche Theorien noch im 20.Jahrhundert wurde ein objektiver Kausalitätsbegriff mit naturalistischen Vorstellungen verbunden, dem divers zirkuläre Ansätze des Konstruktivismus und der Systemtheorie folgten, die aber ebenso nicht zu befriedigenden Lösungen führten. .
in der Wirklichkeit liegen mannigfaltig verschachtelte Abhängigkeiten vor, bei denen Ursachen nicht vollständig zu separieren sind. selbst vielversprechend probabilistische Interpretationen, die komplexe Verhältnisse als strukturelle Wahrscheinlichkeiten verstehen, bieten nur begrenzt Erklärungen kausale Beziehungen sind auch hier modellhaft universalisierte Vereinfachungen von physikalischen Prozessen. . sie bleiben dennoch als Referenzrahmen ein aussichtsreicher Ansatz für das Verstehen mannigfaltiger Wechselwirkungen.
man könnte davon ausgehen, dass sich der Begriff der Verursachung aus der menschlichen Erfahrung eines zweckmässigen Handelns abstrahiert hat für David Hume war deshalb die Gewohnheit ein Referenzrahmen, der dazu verleitet, für die Zukunft Ähnlichkeitsbeziehungen aus der Vergangenheit abzuleiten. . nicht das Beobachten von Veränderungen in der Wirklichkeit, sondern das Streben, sie für eigene Ansprüche zu befördern, scheint bei dem Gedanken einer ursächlichen Verbindung grundlegend zu sein. dafür reicht es immerhin aus, dass sich Kausalitäten als konstante Abläufe experimentell in einem festgelegten Setting von Effekten isolieren und für technologische Anwendungen optimieren lassen. die dahinterliegenden Wechselwirkungen müssen als natürliche Prozesse nicht grundsätzlich verstanden werden.
als einer der ersten hat sich Giambattista Vico gegen den Anspruch gewandt, dass eine methodische Wissenschaft Naturzusammenhänge in toto erfassen könne. von der vergleichenden Rechtsbetrachtung eines Hugo Grotius ausgehend, vertrat er die Überzeugung, dass die Geschichte der primäre Gegenstand des Wissens sei. der Mensch könne somit allein die Phänomene bewusst begreifen, die er selbst hervorbringt (verum et factum convertuntur), während die Natur nur der erkennt, der sie erschaffen hat Vico hat in seiner "Neuen Wissenschaft" also bereits 1725 den Weg für einen konstruktivistischen Methodenbegriff der Moderne geebnet.. unter dieser Prämisse, welche eine wesentliche Verwandtschaft zwischen Erkenntnisobjekt und -subjekt radikal einfordert, würde einzig ein Gott das verbindlich Einende einer Wirklichkeit verstehen, oder allmählich ein Homo ludens, indem er seine Lebenswirklichkeit realiter nachzubauen, resp. virtuell zu simulieren vermag.


diskrepantes relativieren

wer universell denkt, stellt sein Wissen in komplexe Bezüge und relativiert mit wachsendem Wissensstand Zusammenhänge. schlimmstenfalls erscheint ihm irgendwann alles Erkennbares als nur relativ wahr. doch die Feststellung, dass alles relativ wahr sei, ist unakzeptabel, solange sie ohne ein rückhaltloses Fundament selbst relativierbar wird. die Aussage, dass alles, was als wahr gilt, nur relativ wahr sei, kann hingegen akzeptiert werden. Relativität bezieht sich auf Gegebenes und verkörpert kein grundsätzliches Prinzip.
der Relativismus als philosophische Denkrichtung hat es nie leicht gehabt, weil er selten als Denkstil überzeugte und zudem sich mit der klassischen Logik schlecht verträgt. er ist entweder inkonsistent, wo er alles als relativ deklariert, ausser die eigene Position, oder trivial, falls im grossen und ganzen postuliert wird, dass Wahrheitsansprüche nie sicher sein können wer die Wahrheit von Aussagen und Prämissen als bedingt ansieht, muss bereit sein, sich selbst zu relativieren und dieserart bezähmen. ein Gesamtzusammenhang lässt sich nicht auf die Beziehungen seiner Bestandteile, allein auf relationale Bezüge reduzieren. beansprucht wird bei einem universellen Denken aber nolens volens eine fiktionale Wesenheit, welche als ein sicherer Bezugspunkt nicht relativiert werden darf.


fragilität des wissens

wo Naturwissenschaften umfänglicher Erkenntnisse zusammentragen, geht der Überblick sogar in lang überschaubaren Bereichen wie der Botanik oder Geologie verloren. mehr Knowhow in der Forschung führt zu Strategien der Ausspezialisierung, mit denen Perspektiven für Entdeckungen diverser und unkalkulierbarer werden. kommen bei einer sich ausdifferenzierten Spezialisierung wissenschaftliche Fragen zu keiner abschliessenden Auflösung, führen neue Erkenntnisse immer wieder zu neuen Fragen oder einem relativierenden Aber Durchbrüche wie etwa die Entzifferung des menschlichen Genoms können einen besonderen Entdeckergeist wecken, und desillusionierend wirken, wenn deutlich wird, dass es noch weiterer Quantensprünge bedarf, um beim Klonen wirkliche Erfolge in der Humanmedizin zu erzielen. . selbst technische Erfindungen, die sich mit wissenschaftlichen Entdeckungen erfolgreich etabliert haben und in das menschliche Leben eingreifen, bleiben bei wachsenden Unwägbarkeiten beanstandbarer denn je. deshalb müssen Risiken mit enormem Aufwand prognostiziert und reguliert werden, so dass die Beherrschbarkeit von Technologien mehr und mehr Ressourcen verschlingt.
das Anwachsen von Wissen erzwingt einen Bedeutungsgewinn und gleichfalls einen Bedeutungswandel des Nichtwissens. der Gegensatz von Gewissheit und Ungewissheit verliert bei einer kaum überschaubaren Bedingtheit von strukturellen Zusammenhängen an Trennschärfe. es ist wie bei einem Katz-und-Maus-Spiel, wo eine Mobilität für eine Dynamik von schwer kalkulierbaren Umkehreffekten sorgt und umso weniger planbar wird.


latenz des zufalls

mit Verallgemeinerungen versucht das menschliche Denken die begreifbare Wirklichkeit einheitlich zu deuten. dabei wird latent vorausgesetzt, dass Ordnungen universell gelten und stets konträr zu Unordnungen stehen. gleichzeitig sollen, da für die Erkennbarkeit der Natur willkürliche Freiräume unerlässlich sind und eine immanente Geltung beanspruchen. die Annahme einer Willkür als absoluten Zufall, der zwischen einer erkennbaren Ordnung und Unordnung fungiert, wird damit zu einer Notwendigkeit unter den Naturwissenschaftlern ging Heisenberg erstmals davon aus, dass es im subatomaren Bereich absolute Zufälle geben müsse..
das Chaotische, mithin als überkomplexer Zusammenhang etwa noch Verkannte oder per se Fluktuative, erzwingt für eine akzeptable Kohärenz die Dreierbeziehung Ordnung-Zufall-Chaos ein absoluter Zufall muss ein Zufall sein, der grundlos von jeglichen kausalen Zusammenhängen zustande kommt. . um zu erkennen, was ordnend strukturiert in welcher Form vorliegt und was nicht, braucht das naturwissenschaftliche Kalkül ein Vermittelndes, das sich selber einer Zuordnung entzieht und neutral bleibt. derartiges kann bislang nur ein Zufall umfangreich leisten. ein Zufall, der unbestimmbar ist und als nicht definierbares Medium die Unterscheidung von Ordnung und Chaos garantiert.


offene gewissheit

irrtümliche Annahmen führen nicht zwangsläufig zu falschen Erkenntnissen. sie können bei einer falsch interpretierten Faktenlage sich rein zufällig als wahr erweisen und, wie Bertrand Russell und Alexius Meinong als Erkenntnistheoretiker meinten, dann nicht ausreichend begründet werden Russell bezog sich in einem Beispiel auf eine Uhr, die stehengeblieben ist, aber zweimal am Tag die richtige Zeit anzeigt (Human Knowledge: Its Scope and Limits) 1948 und Alexis Meinong berichtete 1906 von der Halluzination einer geträumten Windharfe, die unbekannterweise wirklich an einem Baum hing.. der Wittgensteinianer Edmund Gettier ist später diesem Problem in einem lange kontrovers diskutierten Aufsatz dezidiert nachgegangen, um festzustellen, dass auch falsche Gewissheiten eine Überzeugung rechtfertigen, wenn sie durch irrtümliche Beobachtungen oder einfach mit Raten zustande kommen in Edmund Gettier: Is justified true belief knowledge? Analysis 23.6, Juni 1963..
die Geschichte der Wissenschaften bietet dafür einige kuriose Belege. so ermittelte Kepler aufgrund einer abstrusen astrologischen Analogie, dass der Mars zwei Monde besitzen müsse, insofern die Erde nur einen und der Jupiter vier hat, und lag damit richtig. Hegel beharrte gegen das Wissen seiner Zeit auf neun Planeten in unserem Sonnensystem und hat recht behalten, da nach der Degradierung des Pluto zum Asteroiden manche Astronomen wieder nach einem unentdeckten Kandidaten suchen.
wo Wissen, das sich universal an einem unendlichen Ganzen misst, beansprucht wird, sind selten ausreichende konsistente Erklärungen zu bekommen. man könnte daraus schliessen, dass ein Wissen als wahre, gerechtfertigte Überzeugung selten vorliege. fatalerweise ist eine solche Erkenntnis nicht unfehlbar, da sie ebenso wenig eine Gewissheit darstellt Meta-Wahrheiten sind ebenso auf den Zweifel als Korrektiv angewiesen, damit Erkenntnisse und bewährte Methoden hinterfragbar bleiben..


hyperkomplexes schlussfolgern

die Logik war in der griechischen Antike im Gegensatz zu einer überredend-wollenden Rhetorik eine Instanz für das korrekte Argumentieren das Verhältnis von Logik und Rhetorik blieb dabei ein ambivalent konfliktgeladenes und hat langfristig zu einer Logisierung der Rhetorik und einer Rhetorisierung der Logik geführt.. mit jenem Anspruch konnte sich ein Schlussfolgern etablieren, das Verbindlichkeiten einforderte, und dann mit Kant zunehmend transzendental verwendet für die moderne Forschung zum notwendigen Anspruch wird. daran hat sich mit der Ablösung der Naturwissenschaften von philosophischen Digmen wenig geändert, obzwar nach wie vor ungeklärt scheint, ob ein logisches Operieren der menschlichen Vernunft a priori zugrunde liegt oder ein Desiderat seines Sprachvermögens darstellt schon Rousseau fragte sich, ob die Menschen die Worte nötig hätten, um denken zu können, oder ob sie das Denken noch nötiger gehabt hätten, um die Kunst des Sprechens zu erfinden (Rousseau, Über den Ursprung der Sprachen, S. 153).
für naturwissenschaftliche Ansprüche hat sich ein logisch widerspruchsfreies Schliessen durchgesetzt, insofern es erlaubt, unabhängig von Personen und örtlichen Gegebenheiten Wissen zu verallgemeinern. die Logik ist dabei eine interaktive Praxis für das Kommunizieren geblieben und zunehmend zu einer Strategie für Erkenntnisansprüche geworden. ihre Reichweite verringert sich allerdings, wo Sachverhalte differenzierter analysiert werden und bei einer sinkenden Halbwertszeit von Theorien sich der Wissensstand relativiert wo ein zusammenhängendes Regelsystem relational komplexer Aussagen behauptet wird, engt es ebenso den Rahmen von Konklusionen ein und kann zu Paradoxien führen..
inzwischen beanspruchen logische Theoreme immer mehr Erweiterungen, die wie bei der intuitionistischen oder mehrwertigen Logik überlieferte Prinzipien aufgeben oder extendieren. es ergeben sich, wo Regeln des Schliessens offener designt werden, multiple Verknüpfungen von Wahrheitswerten und Ausnahmebestimmungen. damit lassen sich sogar Möglichkeitsräume konstruieren, die so komplex sind, dass sie erst NP-taugliche Algorithmen zu händeln vermögen bei einer logischen Mehrwertigkeit, die zuerst Jan Lukasiewicz entdeckt hat, wird das Tertium non datur selbst als dritter Wert behandelt. als ein Wert der jenseits des klassischen Denkraumes liegt und die elementare Basis der Logik von 16 Wahrheitsfunktionen auf insgesamt 7.625.597.484.987 potenziert. bei einer solchen Weiterentwicklung von Gotthard Günther handelt es sich nach wie vor um ein logischen Schliessen, das eine logische Form vom gedachten Inhalt eines Urteils absondert, aber schlichtweg das Vorstellungsvermögen überfordert..


rekursiv definieren

die menschliche Polemik braucht begriffliche Selbstbezüglichkeiten, um abstrakt argumentieren zu können. für den wissenschaftlichen Anspruch hingegen sollten Begriffe nicht bereits das voraussetzen, was sie zu bestimmen haben. bei der Rekursion lässt es sich indes nicht vermeiden. wer den Begriff allgemein erklären will, muss sich selbst in eine rekursive Schleife begeben das Erklären kann sich selber aufrufen und dabei konkretisieren.. wird dies bereits als Demonstration verstanden, hat man eine auf sich angewandte Regel rekursiv veranschaulicht.
augenscheinlich werden Selbstbezüglichkeiten bei dem Beispiel einer Schneeflocke. sie zeigt sinnfällig, wie sich idem per idem das Prinzip einer Konstruktion selbst konstruiert. eine Software, die solches für den Computerbildschirm darstellt, muss eine Abbruchbedingung begrenzen, ansonsten hängt sie sich womöglich in einer Endlosschleife auf. das gilt ebenso für Metatheorien, welche wie der kritische Rationalismus eine alles inkludierende Allgemeingültigkeit beanspruchen, aber nur bedingt auf sich selbst, also nicht rekursiv angewendet werden dürfen bei Metatheorien hat die Klasse der Falsifikationsmöglichkeiten leer zu sein, insofern schon das Bestehen einer Falsifikationsmöglichkeit die Idee der Falsifikation zum Provisorium degradiert..


unverbindliche differenz

intuitiv verfügt der Mensch über mehr Wissen, als er mit Gewissheit anzugeben vermag. doch was für einen Wert haben Erkenntnisse, die nicht ausreichend begründbar sind. ein intuitives Wissen, dass jenseits möglicher Erfahrungen eine vorliegende Wirklichkeit erfasst, gerät in Schwierigkeiten, wenn es sich erklären muss. so wie Augustinus nicht ad hoc klarzustellen vermochte, was die Zeit ist, fällt es schwer, etwas das primär auf eigenen Anschauungen beruht, für allgemein evident zu halten für Augustinus war die Zeit wegen dieser Unbestimmtheit eine subjektive Anschauung der Seele..
das menschliche Abstraktionsvermögen kann komplexe Strukturen wahrnehmen, aber in ihrer Genese nur als ein individuelles Ermessen mutmassen. daher wird es kompliziert, bildliche Evidenzen verbindlich festzulegen. sogar bei von einem Computerprogramm imitierten Mondrian-Komposition kann es eine Herausforderung sein, wenn die Unverbindlichkeit des rezeptiven Imaginierbaren von dem Ausdrucksvermögen ein Spalt trennt, der zu einer Grenze wird. die Möglichkeiten des Gestaltbaren können die Potentiale des Interpretierens übersteigen in seiner Schrift "Über die Seele" grenzt Aristoteles daher die Einbildung (phantasia) von der Wahrnehmung (aisthesis) und dem Denken (noein) ab (De an. 427 b 9-12)..


wissen im rausch

wo Informationen auf einem Bildschirm von einem Rauschen unterdrückt, Gespräche durch ein Knacken gestört und Bilder zerpixelt werden, liegen Störungen vor. sie richten sich gegen eine festgelegte Formung von Strukturen und können diese bis zur Unkenntlichkeit auflösen Störung werden entweder als Abweichung von technischen Parametern oder als Divergenz von kommunikativen Erwartungen wahrgenommen.. solche Zerfallserscheinungen sind mitunter das Ergebnis von interferenten oder entropischen Prozessen, die sogar installierte Filter oder fehlerkorrigierende Codes nicht zu bändigen vermögen. selbst bei mit Redundanzen arbeitenden Übertragungen kann es zu Abweichungen kommen, welche sich nur aufwendig oder gar nicht kompensieren lassen.
wird die Störung als Teil der Normalität angesehen, stellt sie einen Parameter dar, der hinzukommend eingreift und Erwartungen unterläuft. erst in einem chaotischen System, in dem alle möglichen Zustände Informationen wären, würden sich Störungen der Wahrnehmung völlig entziehen. sie benötigen für ihre aisthesis als Pendant eine semiosis, eine Ordnung, die immer etwas weniger als alles Mögliche ist.


erfinden statt finden

was heute als allgemeine Gewissheit gilt, kann morgen schon mit neuen Theorien, anderen empirischen Zugängen widerlegt werden. die Realität gibt im Grossen und Ganzen nicht vor, wie man über sie zu sprechen hat. das meinte jedenfalls Nietzsche, als er in seinem Aphorismenbuch "Jenseits von Gut und Böse" feststellte, dass Philosophen nichts finden, sondern vorwiegend erfinden "Jenseits von Gut und Böse", Kapitel 3, Erstes Hauptstück: Von den Vorurtheilen der Philosophen . konsequenterweise konnte daher für ihn Wissen nur ein Interpretieren sein und sogar die Sinneswahrnehmung, die eine menschliche Existenz orientierend fundiert, wird für Nietzsche primär durch Interpretationen geleitet. . mit jener skeptischen Haltung gab Nietzsche selbst das Argumentieren auf und fabulierte stattdessen die Naturgeschichte als eine allzumenschliche Sinnsuche.


äpfel und birnen

man soll nicht Äpfel mit Birnen vergleichen. sie werden nicht nur in einem Obstladen getrennt gewogen und ausgepreist, auch in wissenschaftlichen Untersuchungen verschieden kategorisiert.
doch wo zu ermittelnde Bezüge sich nicht an althergebrachte Redensarten halten, ist ein Vergleichen unumgänglich. jedem Abwägen geht dann ein partielles Gleichsetzen voraus, das ein Relativieren erlaubt. hierbei wird deutlich, dass generell alles Vorliegende miteinander vergleichbar ist. einzig das von Philosophen veranschlagte absolut Vereinzelte, völlig Alogische und in jeder Hinsicht Zufällige bei Hegel war es dereinst das qualitätslose Seyn, das sich jeder Bestimmung entzieht., das es für Naturwissenschaftler in einem Raum-Zeit-Kontinuum aber nicht geben kann, würde sich dem entziehen.


fokus der vagheit

ohne präzise Begriffe sind keine nachhaltig anschlussfähigen Theorien zu haben. doch kann es eine sprachliche Präzision für solche Theorien überhaupt geben? für Popper reichte es aus, dass Begriffe nur so exakt vorliegen müssen, wie es eine Problemsituation erfordere Karl R. Popper in seinem Exkurs über den Essentialismus ("Ausgangspunkte: meine intellektuelle Entwicklung").. allein der epistemische Anspruch bestimmte für ihn, in welchem Umfang bei Definitionen Präzisierungen oder Erweiterungen nötig werden.
mittlerweile sind vage Begriffe als Pendant zu exakten in komplexen Theorien unumgänglich geworden. sie müssen nur für ihren Anwendungsbereich zurechtgeschliffen werden und besonders passgenau dort, wo sie in Laborwissenschaften Messbares zu bestimmen haben. bei Plato waren Begriffe noch als Ideen an ewigseiende Wesenheiten gebunden und wurden derart als eherne Einheiten von Bestimmungen, Prinzipien oder Gegenstandsklassen benutzt die Scholastiker bemühten sich in diesem Sinne um eine Disputationskunst und gingen davon aus, dass den allgemeinen Begriffen (Universalien) eine wahrhafte Wirklichkeit zukommt. .
für Hegel, der an das platonische ontos on anknüpfend Wahrheit bereits mehr als eine selbstreferenzielle Wirklichkeit begreift, enthielt die Bedeutung eines Begriffs den gesamten Denkweg einer Bestimmung und blieb wie das wahre Ganze somit vieldeutig. derart lassen sich philosphische Begriffe wie Knoten in einem Netzwerk variabel verknüpfen, um in einem zu bedenkenden Möglichkeitsraum Fragen fortwährend neu zu stellen um zu neuen, weiterführenden Erkenntnissen zu kommen, muss man nach Ernst von Glasersfeld sogar mit der komplexen Vagheit einer Sprache denken und dafür sorgen, dass jedes Raster, welches wie ein Netz über die erkennbare Realität geworfen wird, flexibel sich anzupassen vermag..
in positivistisch orientierten Wissenschaften kann solch ein Ansatz selten behauptet werden. doch sinkt die Halbwertszeit von Theorien, sind wissenschaftliche Heuristiken darauf angewiesen, sich ebenjener analytischen Mittel zu bedienen, von denen sie eigentlich eine Entlastung suchen. sie bleiben, wo immer eine Genauigkeit anvisiert wird, an die Vagheit der Sprache und Vieldeutigkeit von stochastischen Modellen gebunden. ergeben sich dabei keine Verallgemeinerungen, werden Wahrheiten zukünftig zu etablierende.


signifikante exempel

kein Lehrbuch der elementaren Logik kann anscheinend auf den sterblichen Sokrates oder das Referenz-Double Abend- und Morgenstern verzichten. das Exemplarische ist ein Probierstein des Denkens und gemeinhin ein rhetorischer Imperativ für die Urteilskraft. wo es schlagkräftig zu überzeugen gilt, wird sogar ein Beispiel zum Kriterium der Wahrheit. es hat dann abstrakte Gedanken nicht nur zu illustrieren, sondern muss wie bei Gilbert Ryle für eine Analyse des Geistigen definitiv Begrifflichkeiten untermauern Gilbert Ryle argumentiert in "The Concept of Mind" virtuos mit Beispielen eines räumlich-architektonisch disponierten Bewusstseins, ohne eine formale Definition dafür vorzulegen..
was in den Naturwissenschaften das empirische Ergebnis eines sinnfälligen Experiments übernimmt, leistet in den Geisteswissenschaften zuweilen ein plausibel statuiertes Exempel. es wird für eine These oder wie bei den Gettier-Fällen Gettier zeigte mit simplen Beispielen aus dem Alltagsleben, wie die gerechtfertigte wahre Meinung auch aus falschen Prämissen zustande kommen kann. konträr zu einer konventionellen Wissensdefinition eingesetzt. da sich bei einem hermeneutischen Ansatz ein Beweis nicht wie in der Mathematik entwickeln lässt, werden signifikante Beispiele benötigt, um Argumente zu untermauern. ohne sie würden Begriffe mitunter ihren Kontext verlieren und Theorien gegenstandslos bleiben. es darf freilich nicht vergessen werden, dass Beispiele recht unzuverlässige Argumente sind. sie können keine objektive Allgemeinheit beweisen und ebensowenig bei einem freien Bezugsrahmen eine Faktizität beanspruchen. indem sie lediglich für etwas Bestimmtes eine Vorstellung ermöglichen, bleiben sie freie Behauptungen.


praxis versus poesie

ein dualistische Verständnis von Theorie und Praxis verführt zu einseitigen Präferenzen. entweder wird eine praktische Überprüfbarkeit von Wissen oder die vorhergehende Reflexion favorisiert. Puristen der einen wie der anderen Seite begründen ihre Position meist praxisfern. Theorien wie die Newtonsche Mechanik oder die Wärmelehre wurden nicht aufgrund der zur Verfügung stehenden Fakten entworfen und gleichfalls wurde nicht erst Datenmaterial in Laboren gesammelt, wenn dafür ein heuristischer Anlass vorlag.
jedem Laborieren und Herumtüfteln gehen Überlegungen voraus, die auf Verallgemeinerungen zielen dass sich Tatsachen ohne theoretisch fundierte Beschreibungssysteme nicht ermitteln lassen, hat auch immer wieder zu Krisen des Empirismus, des Induktionismus und Positivismus geführt. , während wissenschaftliche Konzepte wiederum kaum ohne praktische Erfahrungen auskommen. nicht einmal die Mathematik erlaubt derartiges, weil sie eine wirkend händelbare Axiomatik vor jeder Regelbegründung voraussetzt. das einseitig tendenziöse Privilegieren der Praxis gegenüber der Theorie oder umgekehrt ist vermeidbar, wenn man das Theoretisieren gleichwohl als eine Aktivität versteht, d.h. als einen Akt, der sich in der Weise einer téchne als Poesie die Poesie ist immerhin ein fundamentales Alphabet des menschlichen Denkens und kann als zuverlässiges Instrument zur Aufdeckung von unbestimmbaren Gründen erweisen. ereignet.


exklusives philosophieren

das philosophische Denken verliert die Verbindung zum wissenschaftlichen Fortschritt. während es bei Aristoteles noch selbst Wissenschaft war und im Mittelalter als Königin der Wissenschaften galt, scheint heute ein Erkenntnisstreben um seiner selbst willen entthront. wo Wissen an technologischen Erfolgen gemessen wird und durch Apparate in Laboren eine Prägund erhält, hat die Philosophie als übergeordnetes Ressort abzudanken. sie kann mit ihren Ansätzen den Wissenschaftsprozess weniger beeinflussen und mit ihren Verallgemeinerungen kaum noch als Ganzes reflektieren eine allgemein erklärende Erkenntnistheorie stösst zunehmend an Grenzen, wenn sie fachübergreifend die Voraussetzungen und das Zustandekommen von Erkenntnissen zu thematisieren versucht..
wenn wissenschaftliche Ansprüche sich ausspezialisieren und in stets neuen Disziplinen Erkenntnisbereiche erfassen, werden Experten rar, die enzyklopädische Kompetenzen ausbilden und fachübergreifend durchzusetzen vermögen. Gaston Bachelard, der eine solche Entwicklung bereits im vergangenen Jahrhundert voraussah, warnte daher, dass irgendwann jedes wissenschaftliche Problem, jedes Experiment, ja sogar jede Gleichung einer eigenen Philosophie bedarf In Gaston Bachelard "Die Bildung des wissenschaftlichen Geistes", 1938.


gefangen im konsens

in wissenschaftlichen Diskursen werden Erkenntnisprozesse nachvollziehbar kommuniziert. denn im Normalfall tauschen Koryphäen einer Denkschule Informationen und Überzeugungen unmissverständlich aus das Ziel wissenschaftlichen Arbeitens ist nach wie vor die systematische und nachvollziehbare Darstellung von Erkenntnissen.. erst disparate Unstimmigkeiten führen dazu, dass über das Verhältnis zwischen dem, was jemand darlegen will, und dem, was ein anderer versteht, so lange dis- oder rekursiv verhandelt wird, bis sich mehr oder weniger ein Konsens einstellt.
kommt er nicht zustande, ist der Austausch vielleicht von zu verschiedenen Kompetenzen und Interessenlagen bestimmt. darüber kann man sich wiederum ausgiebig auf Symposien und in internen Fachzirkeln verständigen. aber auch hier gilt, dass wo Wahrheitsansprüche erhoben werden, sich nur nachvollziehbar kommunizieren lässt, was erst durch einen Konsens vermittelbar ist.


artifizielle independenz

eine künstliche Intelligenz operiert diskret auf der Basis rationaler Kriterien und kann sich bestens mit anderen Systemen digital vernetzen. erst für die Kommunikation mit einem Menschen benötigt sie ein Interface, das zwischen rein abstrakten Datenrelationen und symbolisch intendierten Aussagen vermittelt. darauf sind ebenso routinierte Softwareentwickler angewiesen, wenn sie bei einer steigenden Komplexität von Operationen einen floatierenden Code nachvollziehen wollen ein nur aus Binärzeichen bestehender Code ist die primäre Sprache, die ein Computer, aber bei komplexen Programmen immer seltener ein Mensch verstehen kann..
optimieren sich jedoch abgekoppelt von einer menschlichen Obhut Software-Systeme, operieren sie selbstbezüglicher auf einer virtuellen Ebene da einer KI-Applikation bei virtuellen Operationen der Sinn für ein Handeln fehlt, kann sie auch bedenkenlos Komplexitäten generieren. . irgendwann verfügen sie bei sich potenzierenden Verarbeitungs- und Speicherkapazitäten vielleicht über ein komplementäres Vermögen für intentionale Sprachanalogien. sie haben dann möglicherweise eine moralische Empathie entwickelt. aber sollte es wirklich einmal so weit kommen, dann sind intelligente Algorithmen noch nicht in der Lage, eine Vorstellung ausserhalb ihres Paradigmas zu abstrahieren. ihre Möglichkeiten sind an Notwendigkeiten des rationalen Operierens gebunden und somit können sie nicht wie der Mensch die vermessene Vorstellung eines Universums entwickeln der Mensch kann sich einer rationalen Komplexität bloss begrenzt anpassen, allerdings komplexen Phänome ausserordentlich intuitiv erfassen.. es bleibt einer artifiziellen Intelligenz wohl für immer erspart, ein sich jeder Ordnung entziehendes, da vorausgehendes Eines imaginieren zu müssen.


ungewissheit des universalen

kann es Wissen ohne ein menschliches Bewusstsein geben? es müsste wohl ein universelles Wissen sein, das auf endgültig verbindlichen Anschauungsformen beruht und auch für eine extraterrestrische Intelligenz zu verstehen wäre. als die NASA erstmals in Kupfer gestochene Informationen über die Erde mit einer Sonde in den Weltraum schickte eine Plakette in der Sonde Pioneer 10 zeigt ein Wasserstoffmolekül, die Postion der Erde im Weltall und zwei nackte Menschen mit Grössenangaben., gingen Wissenschaftler davon aus, dass jede Intelligenz sich auf allseits geltende Naturgesetze beziehen und überall dieselben strukturellen Relationen bestehen würden.
mittlerweile erwartet man nur noch in Science-Fiction-Filmen, dass menschliches Wissen für eine andere interstellare Intelligenz per se übersetzbar und damit verständlich sei. der nüchterne Sachverstand geht von einem je eigenen Wahrheitssinn aus, insofern Wissen an eine konkrete Existenz gebunden ist. das Vermögen, sich etwas repräsentativ anzueignen, charakterisiert mehr einen kognitiven Phänotyp als die ihn umgebende Realität und es scheint unwahrscheinlich, dass ausserirdische Bewusstseinsformen auf dieselbe Weise wie ein Mensch Wirklichkeiten erfassen. sie werden wahrnehmbare Determinationen in einem kognitiven Eigensystem modellieren, das aus ihrer Sicht universell ist und nicht unseren Anschauungen entsprechen muss. eventuell haben sie sogar gänzlich andere Raum- und Zeitbezüge, so dass sie nicht in einem gleichen Universum existieren Auffassungen über Raum und Zeit haben sich ebenso bei uns Menschen mit wissenschaftlichen und religiösen Weltbildern unentwegt gewandelt. .


einsamkeit im denken

für Kant war eine subjektive Selbstreflexion konstitutiv für das Denken, da erst ein alle Vorstellungen begleitendes Ich es ermögliche, mentale Akte zu bündeln. seine primär auf Erkenntnisgewinn ausgerichtet Subjekt-Auffassung ignorierte weitestgehend das Begreifen von affektiven Erfahrungen und damit den Einfluss von Gefühlszuständen, von Wünschen und Absichten auf mentale Prozesse.
wahrscheinlich hat Kant jenen Bereich absichtlich ausgeblendet, weil ihm klar war, dass im Unterschied zur wahrgenommen Aussenwelt immanent vorliegende Eindrücke kein begriffenes Wissen darstellen bei Kant begreift der Verstand nicht einzelne Empfindungen, er deduziert nur abstrakt ihr Bestehen. . als inhärente Verfassungen können sie nicht wie wahrgenomme Objekte intentional repräsentiert, bloss analysiert werden. wer introspektiv seine Emotionen zu bedenken versucht, geht insofern das Risiko ein, sich selbst ein Fremder, ein einsamer Intimissimus in einem unfokussierbaren Horizont zu sein doch je mehr der Mensch erkennt, desto mehr wird er auch sich selbst erkennen. wäre es nicht der Fall, würden Erkenntnisse irgendwann ein unmenschliches Wissen werden..


glauben im wissen

der Mensch strebt nicht nur nach Wissen, sondern ebenso nach Gewissheit. und dies sogar, wenn es kein sicheres Wissen, sondern erst einen Glauben geben kann. eigentlich würde es ausreichen, falls Erkenntnisse sich nicht zweifelsfrei begründen lassen, eine Meinung zu haben. wo für universelle Relationen nicht sämtliche Implikationen eruierbar sind, bleiben sie ein zweifelhaftes Erkennen, an dessen Geltung geglaubt werden muss. ein solcher Glaube ist die Hoffnung, dass dem Verstehbaren trotz mangelnder Überprüfbarkeit eine unbedingte Geltung zukomme. aber wo es um das Unbedingte, also um das Absolute geht, beginnt bereits das Dogmatisieren. das rationale Erwägen kann freilich kaum darauf verzichten, nicht den Anspruch an eine unbedingte Einheit im Denken aufgeben das absolute Wissen als die höchste Stufe bildet bei Hegel insofern erst den Rahmen für die Beantwortung der Frage nach der höchsten Erkenntnis.. würden Theorien sich nur auf konkret Vorliegendes beziehen, bliebe kein Raum mehr für Abstraktionen, welche über das Faktische hinausgehen.


vakante superposition

warum darf in einem populären Gedankenexperiment von Erwin Schrödinger eine Katze eine leibhaftige Superposition einnehmen Schrödinger erhebt derart eine fiktive Katze zu einer unkalkulierbaren Lebensform, um ein Problem der Quantentheorie zu verdeutlichen.? obgleich sie sich im Gegensatz zum Menschen in den eigenen Schwanz beissen kann, wird es ihr immer an der Fähigkeit mangeln, ihr Dasein mit einem kosmologischen Weltbild zu verbinden. über eine solche Fähigkeit verfügt bislang einzig der Mensch. erst er schafft es, dank seiner intelligiblen Anschauung die Wirklichkeit mit all ihren Mannigfaltigkeiten als eine Einheit zu begreifen. sogar eine Welt quantenmechanischer Wahrscheinlichkeiten vermag er wie ein Gott zusammenzuhalten, seitdem es der Quantenphysik gelingt, fluktuierende Wechselwirkungen in eine überschaubare Kohärenz zu bringen. dies aber meist zu dem Preis, dass manche Wirklichkeit unwirklicher wird und so ist auch Schrödingers Messapparat ein isoliertes System, ein System ohne Wechselwirkungen mit seiner Umgebung, was nur einer Situation entspricht, die es tatsächlich nicht gibt..


kontinuum des geistes

können Tiere denken? vermutlich besitzen alle Säugetiere und zahlreiche Vogelarten ein intentionales Bewusstsein, das dem menschlichen ähnelt bis ins 17. Jahrhundert hinein galten Tiere noch als eine blosse Sache. Descartes sprach ihnen sogar jegliches Gefühlsleben ab.. Insekten wie Bienen oder Ameisen, die über ein sehr kleines Gehirn verfügen, vollbringen als Individuen in einem organisierten Staat effizient intelligente Leistungen, und ohne zentrales Nervensystem können amorphe Einzeller seit Millionen von Jahren unter verschiedenen Bedingungen effektiv überleben.
mit der Evolution hat sich ein intelligentes Verhalten vielfältig und unabhängig voneinander verwirklicht. zur Transzendenz befähigt stellt der Mensch eine bedingte Variante von diesem Vermögen dar. seitdem er sich zu seiner Umwelt mit einem abstrakt universellen Wissen positioniert, ist seine Intelligenz darauf angewiesen, seine Lebenswirklichkeit grundlegend zu transzendieren, und dies inzwischen zunehmend artifizieller.


anschauung als apriorie

braucht das Denken die Anschauung eines koordinierbaren Raumes? da sich gewohntermassen die Aussenwelt derart in der Wahrnehmung darstellt und erkennen lässt, muss die Frage bejaht werden. ohne eine solche Anbindung würden Vorstellungen von der Wirklichkeit und Begriffe über sie ins Leere laufen. dabei reicht es eigentlich aus, das Gegebene als eine topografische Ordnung strukturell zu relationieren, mit Zahlenverhältnissen zu erfassen in der Mathematik werden Räume so als abstrakte Strukturen mannigfaltig erfasst..
für Kant waren Raum und Zeit apriorische Bedingheiten, welche nicht den äusseren Erscheinungen zu Grunde liegen und in ihrer Spezifik eine Eigenheit der menschlichen Kognition darstellen. die bewährte Dreidimensionalität unseres Anschauungsraumes lässt sich bis heute nicht damit begründen, dass die physische Welt selbst über eine solche Struktur verfügt. es ist eher davon auszugehen, dass die Wirklichkeit nur räumlich erscheint und nicht von einem Koordinatenkreuz dimensioniert wird.
bei manchen Tieren garantiert bereits eine zweidimensionale Verortung die schnelle Orientierung, und es wäre vorstellbar, sogar eindimensional das Umgreifende, wie bei einer Turingmaschine als linear durchlaufende Spur von Eindrücken zu erfassen. ein sich mit seinen Sinnesorganen und dem Hirn evolutionär entwickelte Wahrnehmungsvermögen hat spezifische Raumvorstellungen für das Überleben von Organismen herausgebildet. doch der Mensch ist nicht daran gebunden. sein Wahrnehmungsapparat kann die eigene biologische Disposition reflexiv übersteigen, so dass sogar ein angeborenes anisotropes Raummass, das Tiefen weiter entfernt zeigt, korrigierbar wird ein lediglich widerspiegelndes Erfassen der Umwelt wäre eine auf Sinnesdaten recht begrenzte Wahrnehmung..
mit dem Vermögen körperliche Verhältnisse zu abstrahieren lässt sich die Anschauung erweitern und mit mathematischen Modellen sogar bis ins Unendliche mannigfaltig kalkulieren wird die Orientierung als eine Wechselwirkung mit Qualitätsänderungen verstanden, können eingehende Sinesdaten dahingehenden modelliert werden, dass sie eine Anpassung durch Lernprozesse darstellen, die effizient eigene Anschauungsräume konstruieren.. so werden nicht nur Wahrnehmungsverzerrungen ausgeglichen und Erfahrungshorizonte modellhaft auf kosmologische Grössen erweitert, sondern der Anschauungsraum generell mit topografischen Verhältnissen relativiert. womöglich lassen sich räumliche und zeitliche Raster irgendwann durch explizit topologische Abstraktionen ersetzen und sind dann nicht mehr der primäre Ausgangspunkt für kognitive Prozesse.


künstliche wirklichkeiten

was künstlich ist, kann nicht natürlich sein, ist nichts urwillig Gewordenes, sondern etwas Gemachtes. es liegt gehegt und gepflegt in einem Garten mit einer beabsichtigten Wuchsform vor. dafür werden Pflanzen gezüchtet oder ihr Erbgut genetisch so verändert, dass ausgewählte Potentiale in Biotopen stärker zum Zuge kommen. künstliche Optimierungen bestimmen vermehrt naturwissenschaftliche Experimente, wenn in Laboren zu untersuchende Phänomene aufwendig selektiert werden. diffizile Zusammenhänge werden bei physikalischen Prozessen besser erkannt, wenn eine wild wuchernde Komplexität überschaubar, d.h. reduziert vorliegt. umso exakter Wissenschaftler operieren, desto weniger haben sie es dann fallweise mit einer natürlichen Wirklichkeit zu tun. für Versuche in Hightech-Laboren, Blasenkammern und Teilchenbeschleunigern werden sogar Bedingungen geschaffen, die als Normalität äusserst selten oder überhaupt nicht vorkommen der Wissenschaftstheoretiker Ian Hacking behauptete sogar, dass Forscher manche Effekte im Experiment erst erzeugen. dennoch bleiben für ihn auch solche Untersuchungsobjekte reale Entitäten, insofern es sich um kausale Agenten handelt.. das technologische Potenzial bestimmt hier, was konkret zu erkennen ist, und der wissenschaftliche Erkenntnisstand, was technologisch relevant sein kann die Unterscheidung zwischen Natürlichkeit und Künstlichkeit wird dabei irrelevanter und mehr eine phänomenologische Beschreibungsweise..
Giambatista Vico meinte schon vor 300 Jahren, dass Menschen das eher adäquat verstehen, was sie selbst hervorgebracht haben in seiner "Scienza Nuova" stellt Vico der scholastischen Auffassung: Verum est ens – das Sein ist die Wahrheit ein Verum quia factum entgegen.. damit stellte er nicht nur die antike Überzeugung in Frage, dass jede techne auf eine episteme, also alles Handlungswissen auf ein kontemplatives Wissen beruhe, vielmehr zeichnete er unter dem Handlungswissen, das produzierende als das aus, welches primär zu Einsichten führt.


technik als prüfstein

die Technik ist zum Prüfstein des Wissens geworden und, wo sie erfolgreich Theorien in eine praktische Anwendung transformiert, auch das Zertifikat für wissenschaftliches Know-how. dies wird besonders deutlich, wenn technologische Erfindungen mit ihrem Entwicklungspotential zu einer Sinnstiftung der Forschung werden. sie entscheiden in Laboren mit entsprechender Präzision und Skalierbarkeit nicht über die Berechtigung einer Theorie, sie verkörpern sie mitunter geradezu Gaston Bachelard meinte, dass technische Instrumente tatsächlich die Verkörperungen von Theorien sind, die sie überprüfen ("Epistemologie : Ausgewählte Texte. von Gaston Bachelard, 1974")..
in einer kontingenten Umwelt haben sich Technologien als basaler Mechanismus der Kontrolle bewährt. wo sie physikalische Prozesse in kausal fixierten Abläufe halten oder wie beim Licht vorgeben, ob es als Strahl, Welle oder gebündelter Quantenzustand fungiert, binden sie wirksam zukünftige Erwartungen der moderne Mensch hat sich mit Technologien eine Wirklichkeit erschaffen, die er nur noch medial erfassen kann.. selbst Misserfolge führen nicht zu Neuorientierungen, eher zum optimierten Ausbau von technischen Systemen und irgendwann gar zu einer ganzheitlichen Technospäre.
für Arnold Gehlen war der Mensch als Mängelwesen dazu verdammt, sich mit der Technik entsprechend seinen steigenden Bedürfnissen die Umwelt zu gestalten. da dies nicht unproblematisch geschieht, muss man ebenso argwöhnen, dass Technik nicht eine notwendige Mängelkompensation sei, sondern wie der Soziologe Helmut Schelsky reklamierte als eine Überschussleistung letztendlich mehr Probleme schafft als löst eine raumgreifend sich entwickelnde Technik kann zur Entstehung eines technolgischen Metasystems führen, das sich in Konkurrenz zu Bio- und Geosphäre risikobehaftet herausbildet..


grenzen der arithmetik

unter den Wissenschaften ist zuerst die Physik dazu übergegangen, die Mathematik grundlegend für ihre Theorien zu nutzen so wurden bereits die axiomatischen Ansätze der Mathematik zum Vorbild für die axiomatische Formulierung der klassischen Mechanik.. wo Phänomene der Natur sich als Regelmässigkeiten ermessen lassen, konkretisieren sich Strukturaffinitäten, welche als algebraisch abstrakte Relationen vorliegen. dabei haben Übereinstimmungen nicht ihren Grund in berechenbaren Naturgesetzen, denen Teilchen gehorchen, eher darin, dass Quantifizierungen und algebraische Strukturen, mit denen physikalische Prozesse modelliert werden, von Menschen verstanden werden.
Zählen setzt ein Beobachten und das Beobachten einen Beobachter voraus. die Realität ist nicht von sich aus gemäss der Abzählbarkeit ihrer Objekte wohlgeordnet und lässt sich nicht per se quantitativ erfassen. jede Berechnung ist nur so gut und brauchbar, wie sie kalkulierbar, item prognostizierbar die Verhältnisse der Natur berücksichtigt. wo nichtlineare, chaotische Komplexitäten vorliegen, können, wie bereits beim Bahnverlauf von drei annähernd gleich grossen Körper, mit elementaren Funktionen Prozesse nicht ausreichend kalkuliert werden das Zweikörperproblem ist durch die Keplerschen Gesetze lösbar, während Integrale ab drei Himmelskörpern keine algebraischen Lösungsansätze mehr ergeben..
es besteht kein Zweifel daran, dass Naturphänomene mathematisch beschreibbar sind. die Mathematik verfügt über eine Sprachmätigkeit, mit der sich wissenschaftliche Modelle formulieren und auf eine logische Konsistenz hin überprüfen lassen. ohne eigene physikalische Realität schafft sie kalkulierbare Möglichkeitsräume, um Hypothesen zu verfeinern und um darüber hinaus Vorstellungen wie die des Unendlichen und des Irrationalen denkbar zu machen das mathematische Kontinuum war schon in der griechische Antike ein detailliert ausformuliertes Thema für den philosophischen Diskurs.. ungewiss ist, ob die Mathematik nur ein Handwerkszeug des Physikers ist, mit dessen Hilfe sich das Universum beschreiben lässt, oder ob die Realität selbst eine abstrakt berechenbare Struktur konkretisiert und somit Physik und Mathematik am Ende eins sind oder es einmal werden.


nach der wissenschaft

was wird es nach der Wissenschaft geben? da die Wissensproduktion als soziale Praxis Weiterentwicklungen unterliegt, muss konsequenterweise irgendwann eine qualitativ neue Form erreicht werden. das wissenschaftliche Denken hatte mit welterklärenden Mythen seine Vorläufer und wird für den positivistisch rationalen Ansatz der heutigen Wissenschaft ebenso Nachfolger finden.
es ist absehbar, dass zukünftige Erfolge der Forschung vorrangig mit technologischen Innovationen und besonders mit den Potentialen einer künstlichen Intelligenz erreicht werden KI-Technologien können im Wisssenschaftsbetrieb nicht nur menschliche Routineleistungen nachbilden, seit einigen Jahren sogar autonom Datenlagen analysieren und werden inzwischen vermehrt in heuristische Aufgaben eingebunden.. bereits jetzt sind ohne Hightech-Apparate, digitale Visualisierung und ohne IT-Datensysteme kaum noch massgebliche Entdeckungen möglich. in naher Zukunft organisieren bestimmt intelligente Algorithmen autonom die Wissensproduktion und erfassen dann für den Menschen in schwer überschaubaren Datenmengen Kausalordnungen bei einer überkomplexen Datenlage, die eine Imagination schnell überfordert, kann der Mensch Strukturzusammenhänge nur bedingt als eine Gegebenheit wahrnehmen.. vielleicht wird es einmal unvorstellbar sein, dass ein technologischer Fortschritt an die Beschränkung eines anthropologischen Verstandes gekoppelt war.


vagheit des logischen

das Dogma des logischen Denkens ist das Prinzip der Widerspruchsfreiheit. lange verband die klassische Logik jene Forderung mit der ontologischen Binarität von Sein oder Nichtsein, so dass etwas nicht zugleich als wahr und falsch vorliegen konnte. inzwischen reicht ein solcher Bezug nicht mehr aus, wo ein Schlussfolgern komplexe Sachverhalte umfasst und gehäufter Inkonsistenzen Hempels Paradoxon oder die Cantorsche Antinomie verdeutlichten bereits im letzten Jahrhundert problematische Grenzen der Logik. akzeptieren muss.
um dem zu entgehen, nutzen erweiterte Logiksysteme logistische Potentiale der Mathematik und quantifizieren Argumente sowie Schlussfolgerungen mit Kalkülen solche Ansätze fanden ihr Fundament bereits im spätmittelalterlichen Nominalismus bei William von Occam.. ohne ontologischen Bezug darf man gegen den Satz vom ausgeschlossenen Dritten verstossen oder einfach mit intentionalen Aspekten der Alltagssprache operieren. die Fuzzy-Logik ermöglicht es, auch mit statistischen Berechnungen die Vagheit eines Möglichkeitsraumes zu verifizieren. Unschärfen werden dabei wie bei einer Wetterprognose mehr oder weniger präzis als graduelle Wahrheiten erfasst.
bei Peirce Peirce, Charles Sanders. Semiotische Schriften, 3 Bde. Frankfurt a. M.: Suhrkamp, 1986-1993. wurde das logische Operieren zu einem Dritten der Dualität Wahr und Nichtwahr. dafür führte er, in Analogie zu seinem triadischen Zeichenmodell, die logischen Terme des absoluten, des einfachen und des konjugativen Relativen ein. der ontologische Status des Relativen wird zu einem informellen Sein, das sich rein aus strukturellen Beziehungen ergibt ein sich daraus ergebendes Informiert-Sein beansprucht als eine konkrete Wirklichkeit ebenso einen ontologischen Status.. mit jenem Ansatz können kybernetische Modelle die ontologische Binarität von Sein und Nichtsein in immer komplexere Verhältnisse aufspalten und multilateral relativieren Gotthard Günther zeigt, dass eine Polykontextualität mehrere Bezugsrahmen behandeln kann, ohne dass eine Selbstreferenz in logischen Zirkeln strandet ( A New Approach to The Logical Theory of Living Systems, Chicago 1972)..
technologische Innovationen profitieren im Bereich der künstlichen Intelligenz ungemein von einer solchen Weiterentwicklung. aber ebenso die Naturwissenschaften, da sie sich weniger an einen ontologisch fundierten Wahrheitsbegriff gebunden fühlen. sie können selbstbezüglich Modelle entwickeln und mit ihnen zu untersuchende Phänomene als poietische Prozesse beschreiben. das komplexe Schlussfolgern ist mit der Öffnung zum mannigfaltig Strukturellen ein kühnes Unterfangen geworden, das mittlerweile bei immer mehr Rechenkapazitäten zu einer Wette auf künftige technologische Entwicklungen wird.


universell ohne horizont

mit Abstraktionen und formalen Verallgemeinerungen versucht der Mensch in der Wissenschaft zu einem universellen Wissen zu kommen. nur kann es ein solches Wissen überhaupt für ihn geben? ein Gesamtzusammenhang, der physikalische Prozesse komplett als Raum- und Zeitrelationen strukturiert, wäre einzig für einen Laplaceschen Dämon erfassbar. eine endliche Intelligenz muss sich wohl damit begnügen, Wechselwirkungen der Natur als rationale Zusammenhänge stufenweise aufzudecken. dabei ist ein derartiger Anspruch ebenso ein bodenloses Ansinnen, denn zum einen sind die Naturwissenschaften, wie es provokant Heidegger reklamierte, nicht gewillt oder in der Lage, ihr Wissen grundlegend zu definieren Heideggers Einwurf, dass die Wissenschaft nicht denken kann, war weniger ein Vorwurf als vielmehr eine hinterfragte Anspruchshaltung. (Was heisst denken? 4. Aufl. Tübingen: Niemeyer 1984, S. 4)., und zum anderen ist kein absehbares Niveau zu erwarten, das sie zu einer abschliessenden Kohärenz mit einem dementsprechend komplexen Rahmen kommen lässt. solange es etwas zu deuten gibt, solange das Wesen der Dinge und ihre Erscheinungsformen nicht unmittelbar zusammenfallen, muss es akzeptiert werden, dass fortwährend komplexere Probleme, weitere Formen des Nichtwissens und paradigmatische Krisen evoziert werden nach Marx wäre alle Wissenschaft überflüssig, wenn das Wesen der Dinge und ihre Erscheinungsformen unmittelbar zusammenfallen (Kapital III, MEW 25, 825.).


wissen prognostizieren

Kant hat drei Arten des Fürwahrhaltens unterschieden: den Glauben, das Meinen und das Wissen. seitdem die wissenschaftliche Forschung verstärkt von Erwartungen auf zukünftige Entdeckungen abhängt und dementsprechend ein technisches Know-how beansprucht, müsste das Prognostizieren als vierter Modus hinzugefügt werden. sind allgemeingültige Wahrheiten nicht mehr zeitunabhängig und ohne Unwägbarkeiten zu bekommen, d.h. bei technologischen Erfindungen nicht ohne Risiken zu veranschlagen, bleiben Erkenntnisse über faktisch ermittelbare Wechselbeziehungen unzulänglich. jener Herausforderung kann offensichtlich erst ein epistemisches Prognostizieren gewachsen sein, das in und mit einem künftigen Entwicklungsstand operiert bislang werden dafür Hypothesen erstellt, die von wahrscheinlichen Entwicklungen ausgehen..
in einer Zeit des permanenten wissenschaftlichen Fortschritts, wird wie an der Börse verstärkt auf die künftige Geltung von Wissen spekuliert. derartige Erwartungen orientieren sich weniger am tatsächlich Vorliegenden als vielmehr an einem zu erwartenden Zuwachs an Erkenntnissen für die Forschung ergibt sich somit ein Perspektivenwechsel, der weniger von Voraussetzungen als vielmehr von vorstellbaren Ergebnissen geprägt wird.. für solche Ansprüche sind nicht nur ständig höhere Bemühungen zu investieren, es ist auch ein Kredit zu zahlen, der zu einer immensen Verschuldung führen kann, insofern mit jeder Antwort sich neue Fragen ergeben und nachhaltig riskante Fallibilitäten bei technischen Forcierungen drohen.


kausale simplifikationen

die Technik ist für Kausalitäten ein ideales Medium. mit wenig Aufwand gelingt es, in geregelten Kreisläufen natürliche Effekte separiert zu optimieren und damit zielorientiert zu nutzen. eine solche Konsolidierung garantiert stabile Abläufe mit konstanten Energieverteilungen, kann aber zu einem Korsett werden, wo Maschinen prozesshaft in einem spezifischen Setting operieren derartige Optimierungen müssen, um Bestand zu haben, regelmässig gewartet und nachjustiert werden..
für technisch forcierte Optimierungen gibt es in der Natur selten adäquate Vorlagen. der Mensch schafft dafür erst die nötigen Bedingungen und seine Leistung besteht nicht darin, stabile Ursache-Wirkungs-Beziehungen entdeckt zu haben, sondern in der Lage zu sein, die Voraussetzungen ihres Zustandekommens zu reproduzieren. dafür können Spielräume konzipiert werden, insoferen es gelingt, Effekte nachhaltig einzubinden und von unerwünschten Einflüssen fernzuhalten.
technische Artefakte waren für Luhmann kausale Simplifikationen, welche für bestimmte Ereignisse Zukunftsbindungen erlauben Technik konstruiert für Luhmann eine kausale Simplifikation für einen Erwartungszusammenhang, der sich auf eindeutig funktionierende Ursache-Wirkungs-Beziehungen beschränkt. In "Die Gesellschaft der Gesellschaft", 1997 und somit ein reduziertes Wissen verkörpern. bei wechselnden Ansprüchen bleibt Wissen zudem auf fortwährende Innovationen angewiesen. ein solches Defizit ist gleichfalls bei Entwicklungen der künstlichen Intelligenz zu konstatieren, insofern sich hier komplexe Prozesse auf festgelegte Anwendungen orientieren. auch wenn inzwischen grosse Erfolge bei wissenschaftlichen Modellierungen und in der algorithmischen Datenverwaltung erzielt werden, gibt es bisher keine autonome Reproduktionen im Sinne einer Koevolution müssen sich kausale Beziehungen als Manipulation allzu optimiert profilieren, sind im Sinne einer Koevolution kaum Selektionsprozesse möglich.. die Potentiale der künstlichen Intelligenz bleiben an menschliche Erwartungshaltungen gebunden und damit eine Hybrid von Kulturleistungen.


inkonsistente gesamtheit

das Wirkliche der Wirklichkeit muss mehr als die Gesamtheit aller feststellbaren Tatsachen sein. der Mensch will es so, um das Ganze von realen Zusammenhängen als eine totale Wahrheit hypostasieren zu können. obwohl sich komplex Gegebenes als allumfassende Vielfalt selten konsistent umfassen lässt, wird grundsätzlich vorausgesetzt, dass auf einer Metaebene, in einem noch nicht erfassbaren Gefüge von Relationen eine allesumfassende Kohärenz frei von Widersprüchen zu haben ist.
für Nikolaus Cusanus war in seiner Lehre von der coincidentia oppositorum jede Welterfassung eine perspektivische und keine abschliessende, da sich unter verschiedenen Blickwinkeln gleiche Dinge unterschiedlich darstellen. erst eine letzte Wahrheit, welche für ihn eine göttlich absolute wäre, würde alle Differenzen aufheben eine letzte Wahrheit muss über eine Perspektivität und den mit ihr verbundenen Gegensatzcharakter auf Nicht-Kontrarietät hinausgedacht werden (Kues: Die belehrte Unwissenheit. Buch III).. eine solche Wahrheit ist für den Menschen indes unerreichbar, also lediglich eine vorstellbare Wunschvorstellung. oder eher eine Zwangsvorstellung, demnach das Reale überdeterminiert vorliegt und womöglich gar keinem Konsistensgebot folgt.


veritatives irren

das wissenschaftliche Denken bleibt auch bei einem wachsenden Wissenshorizont auf ein Mutmassen angewiesen. wer das Universum mit seinen Bedingtheiten zu begreifen versucht, muss konsequenter Weise ebenso bereit sein, in die Irre zu gehen. denn ein Irrtum, der sich nicht darauf reduziert, das Gegenteil einer Wahrheit zu sein ein Irregehen verweist zumindest auf die Fähigkeit zur Unterscheidung zwischen falsch und richtig. der Mensch verfügt über eine kognitive Kompetenz, die sich nicht einfach in der Übereinstimmung zwischen Erkenntnis und Wirklichkeit erschöpft, sich vielmehr weltbildend durch Intentionalität und Kontrafaktizität und Pluriperspektivität sein Umfeld erschliesst. , kann unabhängig von einer vertretenen Überzeugung einen heuristischen Wert darstellen und ein Türöffner für neue Denkansätze sein.
für Anhänger des kritischen Rationalismus wurde das Irren sogar mit dem Trial-and-Error-Prinzip zu einer unfehlbaren Erkenntnisinstanz für Karl Popper vollzog sich der Erkenntnisfortschritt vor allem durch dieses Prinzip, das von Herbert Spencer Jennings und W. Holmes für evolutionäre Prozesse zuvor in der Biologie als Begriff geprägt wurde.. man meinte, mit einem eruierbaren widerspruch die Asymmetrie von Verifikation und Falsifikation vermitteln zu können. zwangsläufig müsste ebenso ein Prinzip der Falsifizierbarkeit davon ausgehen, dass es sich hierbei um einen irrtümlichen Ansatz handeln könnte, mithin Erkenntnisprozesse nicht persistent falsifizierbar sind.


immanenz der strukturen

ogleich ein alles umschliessendes Universum das übersteigt, was sich bestimmen lässt, ist der Mensch in der Lage, dafür eine Vorstellung zu entwickeln. er kann seine Wahrnehmung übersteigen und bleibt bei komplexen Wechselbeziehungen im Mikro- oder Makrobereich nicht auf das Offensichtliche einer greifbaren Wirklichkeit beschränkt. um Dynamiken als essentielle Washeit (quidditas) zu erfassen, reicht es mitunter aus, das Messbare als variable Struktur zu taxieren. Relationen zwischen den Dingen offenbaren dann strukturell neue Wesenheiten.
doch was stellen überhaupt Strukturen dar? sie beschreiben einerseits als Orientierungsrahmen zu untersuchende Phänomene und werden andererseits als Relationen der Wirklichkeit vorausgesetzt. somit sind sie ein Raster der menschlichen Wahrnehmung und zugleich unterstellter Sachverhalt bei natürlichen Prozessen. doch wo die Realität für den Menschen überdeterminiert vorliegt, kann es sich mithin nicht um identische und nicht einmal um analog korrespondierende Verhältnisse handeln.
die von Aristoteles ausgehende und im neuzeitlichen Rationalismus weiterentwickelte Ontologie wollte eine Logik des Seienden sein und übertrug, um eine umfassende Erkennbarkeit zu behaupten, logische Strukturen auf die Sphäre allen Seins. eine solche Universialisierung gelingt mit Weltbildern, welche überzeugend entwickelt werden, um irgendwann wie der alte Zeus-Glaube wieder verworfen zu werden. solange nicht fraglos zu klären sei, ob logische Strukturen ebenso der Natur immanent sind, gehörten sie für Vertreter des kritischen Realismus wie Nicolai Hartmann eher in eine ideale Sphäre Nicolai Hartmann in Grundzüge einer Metaphysik der Erkenntnis (1921).
ein spekulativer Realismus geht davon aus, dass die Welt neben konkreten Entitäten ebenso aus immateriellen Fiktionen des Denkens bestehen muss da man wahre Aussagen über nicht-existierende Dinge formulieren kann, hat Meinong bereits 1904 vorgeschlagen, dass unser Universum nicht nur von real existierenden Objekten bevölkert wird, sondern abstrakte und imaginäre Entitäten mit einschliesst.. für deren Protagonisten und besonders für Graham Harman haben immaterielle Fiktionen des Denkens eine gleiche Existenzberechtigung wie empirische Tatsachen Graham Harman: "Speculative Realism – An Introduction",Cambridge 2018. ein artikulierter Gedanke über ein abstraktes Bild ist somit kein Epiphänomen, sondern genauso real wie der neuronale Zustand eines Gehirns im Moment der Betrachtung. mit einer ontologischen Grosszügigkeit werden die Bereiche des Seins interferent gesehen, auf dass sich der Dualismus von Geist und Materie überwinden lässt. ein derartiger Pluralismus hat den Vorteil, dass die Realität ohne einen bestimmbaren Bezug zwischen transzendentaler Vernunft und Emperie als eine instant wahr gegebene vorliegt die Vernunft ist für jenen Realismus nur noch Vermögen und nicht notwendig an Subjekt-Objekt-Beziehungen gebunden. sie kann, wenn sie das nicht Erdenkliche der Welt fabuliert, phantasiert oder fingiert, sich rein spekulativ entfalten..


riskantes knowhow

was kann der Mensch nicht wissen? was soll er nicht erstreben? und was darf er sich nicht erhoffen? wenn Chancen und Risiken bei technologischen Entwicklungen indifferent zusammenhängen, ist es wichtig zu wissen, was man nicht erkennen kann und trotz intensiver Forschung kaum ausreichend zu validieren vermag.
seitdem wissenschaftliches Knowhow vermehrt mit technischen Entwicklungen verknüpft ist, nehmen unberechenbare Eingriffe in natürliche Kreisläufe zu seit einigen Jahrzehnten gravierend im Bereich der Chemie, Biologie und durch KI-Anwendungen für die soziale Infrastruktur. Probleme lassen sich seltener voraussehen oder können bei einer grösser werdenden Eindringtiefe von technologischen Innovationen nur ambivalent erfasst werden. bei einem wachsenden Wissensstand benötigen Entscheidungs- und Handlungsprozesse eine stetig höhere Absicherung, welche vermehrt kollektive Ressourcen verschlingt oder bei Unwägbarkeiten wie der Gen-Manipulation zu juristischen Verboten und damit zu einer Beschränkung der Forschung führt bei schwer zu prognostizierenden Risiken wird die Forderung, manches Wissen restriktiv zu unterbinden, vehementer vorgetragen..
Aristoteles hatte der Kreativität einst andere Grenzen gesetzt. er plädierte für eine Priorität der Verwirklichung gegenüber dem kontingent Möglichen, so im Seienden lediglich das hervorgebracht werden kann, was dafür angelegt ist. vor der modernen Wissensschaft versuchte die Philosophie der Antike das Geschehen der Wirklichkeit schon als Ganzes zu erklären. man ging bei begrenzten kognitiven Mitteln davon aus, dass Denken und Sein dasselbe seien. Wahrheiten hatten dafür als etwas Unveränderliches in einem Kosmos vorzuliegen, während das ontologisch nicht Einordbare als Trug abgelehnt wurde in der überlieferten Fassung kann der Satz von Parmenides: dass Denken und Sein dasselbe seien derart verstanden werden. der Grund für das Denken sind demnach existierende Seinsformen, während das ontologisch nicht zu ordnende als Trug abzulehnen wäre..


topografie des denkens

aus einem Hier und Jetzt heraus entfaltet sich das Denken und ist von einem Subjekt, der Perspektive eines reflektierenden Ich nicht abzulösen. dennoch kann der Ort des Denkens nicht auf Personen eingegrenzt werden und ebenso wenig auf die Schallwellen gesprochener Sätze, das Feuern von Neuronen oder die sozialen Effekte einer Sprache.
für Descartes existierte ein Bewusstsein im Gegensatz zum Körper nicht in einem Raum, sondern in der Zeit die Zeit war für René Descartes ein Modus des Bewusstseins. (Princ. philos. III, 3). wenn bis heute unterschwellig an seiner problematischen Trennung zwischen denkender und materieller Substanz festgehalten wird, so um geistige Prozesse nicht reduktionistisch zu erklären, nicht auf biochemische Reaktionen oder soziale Verhaltens- und Sprachspiele zu reduzieren. Denkenprozesse sind immerhin auch mentale Prozesse, die sich als Epi-Phänomene irreduziebil übersteigen. eine solche Emergenz generiert dann heterotopische Virtualitäten in einem unbestimmbaren Möglichkeitsraum mentale Akte beanspruchen als aufgeschobene oder ausbleibende Reaktionen eine komplexe Virtualität.. für selbstbewusste Reflexionsprozesse wird fortwährend eine Welt beansprucht, welche die Wirklichkeit übersteigt und bei einem stetig wachsenden Wissensumfang vielleicht irgendwann nicht mehr das notwendige Fassungsvermögen hat.


anspruch auf eine weltformel

die theoretische Physik hat ihre Hoffnung, mit einer Theory of Everything die Wirklichkeit zu erfassen, nicht aufgegeben, eher aufgeschoben. der Wunsch, den Geltungsbereich von Erkenntnissen in eine systematische Gesamtheit zu bringen, ist schon zu lange ein menschlicher Traum.
auch wenn die verstehbare Wirklichkeit keinesfalls Realität komplett umfasst, wird an dem Prinzip von einem universellen Wissen festgehalten. ein solches Streben konsequent abzulehnen, wäre ein Verrat an einem transzendentalen Denken, dessen Potentiale nicht völlig zu durchdringen sind. da das menschliche Vernunftvermögen fortwährend zu qualitativ neuen Gewissheiten kommen kann, ist es wahrscheinlich, dass Erkenntnisse in einer fernen Zukunft nicht den Rahmen einer systematischen Abgeschlossenheit erfordern und damit das Streben nach Wissen einen neuen Motivationsrahmen braucht.
die Vorstellung von einer Welt ist an ihre Erkennbarkeit gebunden und ihre Erkennbarkeit wiederum von einer vorstellbaren Welt bedingt seitdem man die erkennbare Wirklichkeit mit Weltbildern imaginiert, gibt es auch Versuche, diese idealistisch, naturalistisch, phänomenologisch oder finalistisch zu begründen.. geht man davon aus, dass sich das Vorstellungsvermögen über Grenzen des Wissens hinwegsetzt, lässt sich das Universum weder mit noch ohne einer kohärenten Ordnung, also der Idee von einer Theory of Everything, vollständig beschreiben bei Kants Unterscheidung zwischen einer Welt für uns und einer Welt an sich wird nicht der Gegensatz von unterschiedlichen Wirklichkeitsebenen herausgestellt, sondern die vermittelbare Weise einer kognitiven Aneignung..


kosmische evidenz

bei Kant ist das moralische Gesetz im menschlichen Gemüt nicht ohne den bestirnten Himmel zu haben. die Unermesslichkeit des Universums und das subjektive Empfinden werden in eine antinomische Beziehung gebracht, um in der "Kritik der praktischen Vernunft" einen fulminanten Schlussakkord zu setzen das Universum, dessen Relationen man zu Kants Zeit vielversprechend zu erforschen begann, wurde in der "Kritik der praktischen Vernunft" als Inbild des ästhetisch Erhabenen zu einem Pendant für das gemeine Sittliche. . von diesem Bezug geht eine erhebende Wirkung aus, da die Übergrösse der Welt die menschliche Einzigartigkeit als etwas Besonderes herausstellt. sie kann aber ebenso kränken, wo universelle Weiten voller Kontingenzen die Empfindung aufkommen lassen, ein unbedeutendes Staubkorn in einer schieren Weltengrösse zu sein.
seitdem Raum, Zeit und Materie mit dem Paradigma der Quantenphysik nicht mehr als eine homogene Einheit so wurde bereits das neuzeitliche Denken von der Frage enerviert, ob Raum und Zeit eine eigenständige Existenz neben den Körpern zukommt. gelten, stellt sich die Wirklichkeit gleichfalls als komplexe Unordnung dar. statt erkennbarer Determinismen liegen apriori-Wahrscheinlichkeiten vor, die erst geordnete Strukturen herausbilden, wenn sie jemand erfasst und in plausible Vorstellungen bringt. gelingt es nicht, gerinnt der kosmische Blick für das nach Erkenntnis strebende Subjekt zu einer Erfahrung der eigenen Losigkeit. Erkennbares kann sich nivellierend relativieren, wenn innerhalb kosmischer Dimensionen das menschliche Vorstellungsvermögen seine Begrenzung als eine infinite Freiheit imaginiert, mit der alles möglich und damit gleich gültig sein kann der Kosmos liegt hierbei als eine Option vor, welche die eigenen Möglichkeiten zur Disposition stellt, ohne selbst zur Disposition zu stehen. .


falsifikation als evidenz

Theorien, welche sich erfolgreich in der Praxis bewähren, abstrahieren eine empirische Evidenz. sie bilden Wirklichkeitsausschnitte vorhersehbar ab und erweitern dahingegen den Wissensstand. nur um eine ausbaufähige Geltung beanspruchen zu können, erweisen sich solche Verallgemeinerungen nicht als zuverlässig genug. eine Theorie prüfen heisst daher nach Poppers Falsifizierbarkeits-Regel, vielmehr Verfahren finden, mit denen sich Wissen widerlegen lässt. da keine noch so grosse Anzahl von Überprüfungen zu zeigen vermag, dass eine Verallgemeinerung zwingend wahr sein kann, war für ihn das Widerlegen einem Verifizieren vorzuziehen. dies trifft leider ebenso auf die Falsifikation selbst zu, die mit ihren erkenntnistheoretischen Methoden und damit als Prinzip kein Nonplusultra beanspruchen kann der Anspruch einer Falsifizierbarkeits-Regel muss auch hinterfragbar, d.h. selbst falsifizierbar sein. dies gilt vor allem bei einen empirischen Nachweis, der bei konkurrierenden Theorien stets widerlegbar ist..
um mit der Falsifikation zu einem garantierten Fortschritt in den Wissenschaften zu kommen, hat der Physiker David Deutsch vorgeschlagen, dass eine Theorie nicht nur falsifizierbar sein soll, sie muss vielmehr Erklärungen bieten, bei denen es nicht möglich ist, sie einfach abzuändern, falls ihr neue Erkenntnisse widersprechen David Deutsch forderte dies in seinem Vortrag "A new way to explain explanation" (Juli 2009).. so könne verhindert werden, dass es immer wieder Kompromisse als Nachbesserungen gibt, welche fällige Paradigmenwechsel blockieren.
wer derartig argumentiert, ignoriert jedoch, dass neue Paradigmen als strukturell sich etablierende Perspektivenwechsel erst zu veränderten Sichtweisen führen und nicht per se empirische Widersprüche. ob unmittelbar evident oder erweitert durch präzisere Messinstrumente, bleibt die sinnliche Evidenz eine begrenzte Erfahrung. denn es kann für jede Theorie mindestens eine Alternativtheorie geben, welche durch dieselben empirischen Daten gestützt wird.


jenseitige perspektive

solange die Realität das übersteigt, was sich bewusst erfassen lässt, bleibt die Vorstellung von ihr als Ganzes eine illusionäre Obsession. vorstellbar ist das Allesumfassende einer Wirklichkeit erst mit Analogien oder aus der abstrakten Position einer totalen Perspektive. für Leibniz war die kosmische Gesamtheit bei einem begrenzten Horizont an die Vielheit unterschiedlicher Perspektiven gebunden und in seiner Theodizee eine Eigenschaft von einzelnen Monaden, welche mit einem jeweils anderen Blickwinkel ganz viele Universa generieren da Monaden bei Leibniz in ihrer Perzeptionen so verschieden sind, stellt jede in ihrer Weise das Universum als ein jeweils eigenes Abbild dar..
Kant hat, um allgemeine Bedingungen für das Erkennen zu verorten, den perspektivisch universellen Blick wieder an den endlichen Horizont des Menschen gebunden. indem er nicht die Frage favorisierte, was etwas ist, sondern was die Bedingungen für mögliches Wissen über etwas sein können, wurde die Erkennbarkeit von Wirklichkeit an das Bezugssystem des subjektiven Intellektes gebunden spätestens seit der Renaissance bezeichnet man in Analogie zur Erdkugel und zum Himmelsglobus die Gesamtheit der reinen Erkenntnisse als globus intellectualis. Kant versuchte dafür ein Modell zu entwerfen, mit dem die Grenzen menschlicher Erkenntnis zu bestimmen wären.. eine standpunktunabhängige Betrachtung wird dabei durch die Objektivierung der eigenen Position möglich. wenn der Mensch als Beobachter zweiter Ordnung mittlerweile seinen begrenzten Horizont besser einordnet und relativiert eine Beobachtung zweiter Ordnung wird dabei zu einer Beobachtung, die Beobachtbares beziehungsreicher erfasst., muss er nicht von einem Jenseits aller möglichen Standpunkte Zusammenhänge erfassen doch auch jeder fiktive Standpunkt dafür bleibt ein Irgendwo, das bezügliche Parameter braucht..


hier und jetzt

etwas hic et nunc zu bestimmen, schafft konkrete Fakten. derweil das Faktische immer und überall erfassbar ist, verweisen allerdings solche Bestimmungen nicht anhaltend auf dasselbe. bei manchen Elementarteilchen ist nur für ein paar Millionstel Sekunden eine Zuordnung möglich. im Bereich des elementar Punktförmigen scheint die Realität weder real noch lokal zu sein.
kurzlebige Entitäten erfordern ein äusserst präzises Sensorium, und mitunter werden sie allein durch Berechnungen erfasst, wie bei den ephemeren Higgs-Teilchen, welche mit beinaher Lichtgeschwindigkeit niemals die kurze Strecke bis zu einem Detektor überdauern. einzig Zerfallsprodukte lassen sich von ihnen nachweisen in der Quantenwelt gibt es für elementare Teilchen mitunter erst eine Bestimmtheit, wenn ihr Möglichkeitsraum kollabiert., insofern nur in der Gegenwart etwas bestehen kann.


relativer metabezug

das naturwissenschaftliche Denken strebt nach Allgemeingültigkeit und findet sie vorwiegend bei beständig verlaufenden Prozessen. nur je genauer Zusammenhänge exploriert werden, desto mehr offenbaren sich Strukturaffinitäten als schwer zu kalkulierende Instabilitäten. selbst bei einfachen Systemen mit drei Körpern, sorgen im stellaren Bereich Gravitationskräfte für so komplizierte Bahnkurven, dass geringste Änderungen zu nichtlinearen Rückkopplungen führen während das Zweikörperproblem durch die Keplerschen Gesetze analytisch lösbar ist, sind Integrale im Fall von mehr als zwei Himmelskörpern meist nur approximativ berechenbar..
für wissenschaftliche Ansprüche können Prozesse besser ermittelt werden, wenn man Phänomene auf überschaubare Faktoren mit einfachen Abhängigkeiten reduziert. bei komplex dynamischen Abläufen, die wie in der Thermodynamik oder Biologie stark abstrahierende Betrachtungen erfordern, gelingt es nicht immer, fundamentale von marginalen Relationen zu trennen. nichtsdestotrotz werden in den Naturwissenschaften universell wirkende Strukturen für alle Phänomene der Wirklichkeit unterstellt. mit mathematischen Modellen und digitalen Simulationen versucht man, Korrelationen im immer grösserem Umfang zu analysieren, und mitunter erst mit Erfolg, wo Effekte einer Selbstorganisation unterstellt werden. verbindliche Regelmässigkeiten müssen sich dann nicht mehr aus den Eigenschaften einzelner Entitäten, den Konstituenten der Materie ableiten, sie sind mit der Vorstellung von einer Gesamtheit als systemische Eigendynamik oder sogar als negative Entropie beschreibbar der Begriff negative Entropie wurde von Erwin Schrödinger geprägt und beschreibt Prozesse, die Entropie exportieren, um ihre eigene Entropie niedrig zu halten..
der wissenschaftliche Diskurs ist nicht per se darauf angewiesen, Ordnungen zu beanspruchen, welche als Strukturgefüge allgemeingültig sind bei Kant war die Allgemeinheit noch ein ausschlaggebendes Kennzeichen für eine objektive Gültigkeit von Aussagen und Begriffen.. das menschliche Erkenntnisvermögen ist in der Lage, seinen Standpunkt zu wechseln und Wahrgenommenes damit zu objektivieren, braucht jedoch einen verlässlichen Rahmen. oder einen imaginären Metabezug, der vor einem infiniten Regress des blossen Aufeinanderbeziehens von Ansichten bewahrt.


mass des denkens

die Wirklichkeit ist zu mannigfaltig für allgemeingültige Wahrheiten. der nach Orientierung strebende Mensch kann die Faktizität des Realen nur gemäss seiner Verhältnisse erfassen und wird so, wie einst Protagoras feststellte, zu einem Mass aller Dinge, der seienden, wie sie sind, der nichtseienden, wie sie nicht sind der von Platon überlieferte Homo-mensura-Satz des Protagoras wird je nach Übersetzung der Konjunktionen subjektivistisch, sensualistisch oder relativistisch interpretiert, die grundlegende Bedeutung des Wortes Mass indes meist unterschlagen.. dabei ist das menschliche Erkennen ein Bestimmen und kein Wissen von den Dingen selbst, insofern das Reale keiner Sinngebung unterliegt, lediglich aus aktualen Verhaltensweisen von Teilchen und Feldern besteht.
wer das Wirkliche im Rahmen eines Kosmos, Multi- oder Megaversum mit seinen Bezugsgrössen massnimmt, erhält kein unmittelbares Abbild, sondern bloss seinen Messverfahren entsprechende Relationen von Naturphänomenen. Realität üblicherweise bezieht sich das Wort Realität auf den Bereich, der unabhängig vom Bewusstseinszustand existiert. wird in der Form erkannt, in der sie durch Abstraktionen und Symbolisierungen zugänglich ist, wissentlich bestimmt durch Zahlen und syntaktische Strukturen des logisch Ausdrückbaren. auf diese Weise lässt sich, wenn sie als ein einender Grund vorausgesetzt werden muss, gleichfalls das nicht Erfassbare mit der Annahme einer allumgreifenden Gesamtheit variabel explorieren die Idee eines universellen Zusammenhanges wird zu einer Präsumtion, die sich im Nachhinein zu rechtfertigen hat..


sinn des sinnlosen

sinnlose Aussagen, wie die semantischen Antinomien "ich lüge" oder "ich existiere nicht", sind weder falsch noch wahr. sie bilden einen Nebeneffekt generischer Potentiale von Grammatiken und können in jeder Sprache artikuliert werden. Vertreter des Logischen Empirismus haben sich an Propositionen, die keine Verifizierbarkeit zulassen, lange Zeit die Zähne ausgebissen und sie irgendwann als unwissenschaftliche Aussagen verwerfen wollen so rät A.J. Ayer in "Wahrheit, Sprache und Logik": falls sich nicht prinzipiell angeben lässt, wie man über Wahrheit bzw. Falschheit entscheiden kann, sollen Aussagen als wissenschaftlich sinnlos verworfen werden.. dabei stellen sinnlose Sätze ein Vermögen des Denkens dar, wenn sie das Potenzial für neuartige Reflexionszusammenhänge haben und damit Erkenntnisgewinne versprechen. Regeln, die einzig evidente Sinngehalte zulassen, begrenzen das Denken auf etwas Begründ- und Begreifbares. sie umfassen ausschliesslich das, was bereits folgerichtig der Fall sein kann.
um Widersprüchen bei unstimmig erscheinenden Tatsachen auf den Grund zu gehen, braucht es Sprachpotentiale, welche eine Dualität von wahr und falsch unterlaufen. erst so lässt sich mutmassen, was noch keinen Wahrheitskriterien unterliegt. selbst streng wissenschaftliche Orientierungen können daher bei der Sinngebung Sätze ohne Wahrheitsgehalt nicht völlig ablehnen. die Wirklichkeit als unbedingbare Einheit übersteigt das Begreifbare, und sie muss es immer wieder, damit sie bei wechselnden Paradigmen ein sinngebendes Fundament für Erkenntnisprozesse bleibt.


lücke im rationalen

ob die Realität in ihrer Komplexität als eine erkennbare vorliegt oder nicht, ist eine schwer zu beantwortende Frage. aber noch schwieriger ist es zu klären, warum es eine solche Frage überhaupt geben kann. die Meta-Frage nach einer Erkennbarkeit beansprucht bereits eine Differenz zwischen dem, was wissbar ist, und dem, was nur mutmassend erahnt werden kann. wo sich etwas dem Verstehen entzieht, bleibt das Erkennen lückenhaft solche Lücken könnte nicht einmal ein vorgestellter Laplacesches Dämon füllen..
dies müsste frustrierend sein, ist es aber nicht, solange der Verstand beim logischen Schliessen zu weiterführenden Urteilen gelangt. es ist möglich, einen aktuellen Wissensstand immer wieder zu einer zusammenhängenden Gesamtheit, einer behaupteten Annahme, wie der von räumlichen und zeitlichen Relationen, zu erheben. dafür braucht es nichts weiter als das Narrativ, dass kohärente Zusammenhänge in der Wirklichkeit vorliegen. um die Realität als Totalität in eine Plausibilität zu bringen, imaginiert das menschliche Bewusstsein stets neue Standpunkte, mit denen es sich vorstellen kann, eine Welt ausserhalb des eigenen Fliegenglases zu betrachten der Fliege den Ausweg aus dem Fliegenglas zu zeigen, war für Wittgenstein immerhin das Ziel der Philosophie..


transzendente anmassung

wenn es alles gibt, was es geben kann, warum dann nicht gleich als erkennbare Tatsache? die Frage scheint vermessen zu sein, da der Horizont des menschlichen Verstehenwollens von einem endlicher Lebensbezug begrenzt wird. die generalisierte Auffassung von einer allumfassend erkennbaren Realität kann nur eine Hybris sein es lassen sich Wissen und bleibende Ungewissheiten jedoch in ein ambivalentes Verhältnis bringen, so dass die Vorstellung von einer Begrenzung in Raum und Zeit in eine Grenzenlosigkeit passt..
Kierkegaard machte für eine solche Vermessenheit die Leidenschaft der menschlichen Ungeduld verantwortlich. für ihn war es das äusserste Paradox des Denkens, etwas erkennen und verstehen zu wollen, das man nicht denken kann Kierkegaard in "Philosophische Brocken". die Auffassung von einem überbordenden Alles ist eigentlich das Höchste, was der Mensch zu ersinnen vermag. insofern es aber keine dementsprechende Perspektive und keine empirische Basis für dieses Ansinnen gibt und wahrscheinlich niemals geben wird, muss das Streben nach Welterkenntnis wohl unentwegt das Fatum eines Ungrund der Ungrund ist nach Jakob Böhme kein denkbarer, vielmehr ein existentiell zu lebender Grund. bleiben d.h. als die Obsession eines unmöglichen Verstehenwollens..


© frank richter, 2016-19