Theorie und Abstraktion

- 1 -


In den Naturwissenschaften geschieht Theoriebildung durch Beobachtung, die man zu verallgemeinern versucht. Im Idealfall bekommt man ein begriffliches oder mathematisches Modell, das man mit der Wirklichkeit - mittels Experiment - abgleichen kann, und das es erlaubt, auf zukünftige Vorkommnisse Vorhersagen zu treffen. Dabei geht es natürlich nicht darum, daß nur das gilt, was den Sinnen unmittelbar zugänglich ist. Das von der Relativitätstheorie vertretene Bild vom Universum etwa läßt sich nicht unmittelbar „sehen” oder „anfassen”. Trotzdem lassen sich Experimente anstellen, die seine Gültigkeit beweisen.

Eine Theorie bietet eine Abstraktion der Wirklichkeit. Eine Abstraktion - und das muß man sich gelegentlich bewußt machen - ist immer eine Vereinfachung eines komplexen Zusammenhangs oder Zusammenspiels. Die Mathematik der Relativitätstheorie mag schwer verständlich sein. Dennoch ist sie der Versuch, ein komplexes Problem auf eine Formel zu reduzieren. Eine Abstraktion versteckt komplexe Zusammenhänge, und ermöglicht dadurch, daß diese gewissermaßen „beweglich” werden. Wenn ich einen Begriff für etwas habe, das sich seinerseits erst durch viele Sätze erklären läßt, muß ich nicht immer diese vielen Sätze sprechen, sondern nur diesen einen Begriff. Dadurch kann ich ihn überhaupt erst in neue Zusammenhänge verfrachten und benutzen: ich kann die dahinter verborgene Komplexität dann temporär vergessen, obwohl sie inhärent immer mitgedacht bleibt.

Das gilt für die Physik, und das gilt ebenso für die Soziologie. In beiden Disziplinen gelten die gleichen Maßstäbe: was sich an der Wirklichkeit nicht messen läßt, fliegt raus, und was keine Vorhersagen auf zukünftige Ereignisse erlaubt, ist vielleicht nicht falsch, aber redundant und wertlos. Auch der formale Unterschied bei den Abstraktionen ist gar nicht soweit voneinander entfernt, wie man gerne glauben will. Gesellschaftswissenschaftliche Theorien, die mit mathematischen Formeln arbeiten, sind zwar glücklicherweise nicht gerade breit gesät. Das liegt aber lediglich daran, daß die Ebene der Abstraktionen eine andere ist. Während die Physik gute Gründe hat, sich Sprache und Begriffe vom Leib zu halten, so gut das irgend geht, sind dies für die Soziologie der Gegenstand. Das grundlegende Verfahren bei der Theoriebildung - Abstraktion zur Reduzierung von Komplexität - ist jedoch jeweils dasselbe.

In der objektorientierten Programmierung ist das Abstrahieren von Zusammenhängen sozusagen der Grundgedanke beim Software-Design. Dabei geht es in erster Linie um die Trennung zwischen Implementierung und Interface: ein (als Teil eines Programmes vorliegendes) »Object« definiert Daten und implementiert Methoden, die diese manipulieren, sowie ein funktionales Interface, das von außen zugänglich ist. Ein Beispiel wäre ein »Object«, das Zeichenketten zu Computern sendet und entgegen nimmt, die miteinander vernetzt sind. Das Interface, das der »User« (der Mensch hinter der Tastatur, oder aber nur ein anderer Teil des gleichen Programms) zu sehen bekommt, besteht lediglich aus einer „Write” sowie eine „Read”-Methode. Die interne Implementierung des »Objects« besteht dann vielleicht aus tausenden Zeilen Code, mit denen der Netzverkehr in Form einer komplexen State-Machine initiiert, durchgeführt, überwacht und terminiert wird, wobei womöglich noch unterschiedliche Netzwerk-Protokolle unterstützt werden. Der User muß all das nicht mehr sehen oder ins Kalkül aufnehmen. Die Abstraktion erlaubt es ihm, sich wichtigeren Dingen zuzuwenden - was er mittels des Netzes schreiben oder lesen will, etwa.



- 2 -


Es gibt eine lange Liste von Abstraktionen, ohne die sich niemand mehr im Bereich von Computersoftware bewegen könnte. Das fängt an mit der Beschreibung von Maschinenbefehlen in Assembler - hier ist jeder Zahl, die einen Befehl oder einen Speicherplatz in der CPU („Register“) ausdrückt, ein Wortkürzel zugeordnet. Dadurch muß man nicht mehr jene binären Zahlen entziffern bzw. eintippen, mit denen die CPU gespeist wird, sondern kann sie benennen. Es geht dann weiter mit sog. Hochsprachen, in denen man sich von der direkten Logik der Maschinenebene lösen kann, und logische Konstrukte verwendet (»if/else«, »while«, etc.), die ein Compiler erst in Maschinensprache übersetzt. Es geht weiter mit objektorientierten Sprachen, die auf einer höheren Ebene Abstraktionen erlauben, indem in ihnen nicht mehr Speicherplatz und Programmablauf die zentrale Rolle spielen, sondern »Objects«, die sowohl Daten als auch Methoden bereitstellen, und in denen ein bestimmtes Verhalten realisiert ist. Auf einer anderen Ebene gibt es in der Informatik Forschung über bestimmte Design-“Patterns“ - das sind einmal allgemein gültige Algorithmen („sortieren”, „suchen”, etc.), zum anderen ganze Problemfelder, die in unterschiedlichen Zusammenhängen immer wieder neu auftauchen und abstrakt gelöst werden können („Proxie”, „Iterator”, etc.pp).

Wenn man eine Applikation entwirft, versucht man – noch bevor nur eine Zeile Code geschrieben ist – das Projekt abstrakt zu planen. Man sieht sich an, was man schon in den Händen hält und was sich davon wiederverwenden läßt, und entwirft Lösungen, die zunächst nur auf dem Papier stehen. Das ist nicht sehr viel anders als die Arbeit des Architekten beim Bau eines Gebäudes (tatsächlich gibt es die Bezeichnung des „Software-Architekten”, und – zumindest unter meinen Kollegen – ist oft die Rede von der „Baustelle“, wenn man an einem bestimmten Codebereich arbeitet).

Man sollte meinen, daß man jetzt nur noch den Code schreiben muß, und danach ist alles fertig. Tatsächlich gibt es eine ganze Reihe von Versuchen, die Planung am Anfang soweit voranzutreiben, daß man einen kompletten Entwurf des Programms auf dem Papier hat, bevor die Programmierer mit ihrer Arbeit beginnen (was man z.B. als Grundlage für Vertragsverhandlungen oder Zeitmanagement verwenden könnte). In der Praxis stellt sich heraus, daß die „Wasserfall-Verfahren“ regelmäßig scheitern.[1]

Die bei der Planung einer Applikation vorgenommenen Abstraktionen müssen idR im Projektverlauf revidiert und angepaßt werden. Im Vorfeld ist schlicht nicht absehbar, auf welche Probleme man erst beim Schreiben und Testen des konkreten Codes stoßen wird. Es gibt regelmäßig Fälle, bei denen sich herausstellt, daß selbst Grundannahmen, von denen man beim Design ausgegangen war, unvollständig oder unpraktikabel sind. Man muß dann aus der laufenden Codeproduktion aussteigen und das Design anpassen – mit der Folge, daß gelegentlich auch bereits geschriebener Code hinfällig wird und neu geschrieben oder doch zumindest angepaßt werden muß. Solches „Refactoring“ findet über die gesamte Lebensdauer eines Programms (im Fall von Cubase bislang stolze 20 Jahre) statt – wobei man, wenn man das nicht konsequent betreibt, immer wieder Codebereiche „verliert“. Man hat damit zu kämpfen, daß sich Code in „Legacy“-Code verwandelt, den keiner mehr verstehen oder warten kann, und der sich immer schlechter in den Rest des Programms integrieren läßt.

Man hat es mit Abstraktionen zu tun, die man ständig anpassen muß, weil sich der ihnen zugrunde liegende Gegenstand permanent verändert.

Wenn man oben stehenden Satz außerhalb des Kontexts dieses Textes liest, wird man zunächst nicht an Computer, sondern an Gesellschaftstheorie denken. Ich bin nicht wirklich sicher, ob man die Analogie zwischen Theoriebildung und Softwaredesign tatsächlich ziehen kann, oder ob es sich um zwei Bereiche handelt, die nichts miteinander zu tun haben. Es kann sein, daß sich irgendwo ein gewaltiger Denkfehler versteckt, der, wenn ich ihn irgendwann finde, dazu führt, daß ich die Hände über dem Kopf zusammen schlage. Trotzdem – der Versuch, die beiden Begriffe zueinander in Beziehung zu bringen, könnte sich lohnen, weil Software für Beobachtung gut zugänglich ist. Sie ist längst nicht so komplex wie eine ausdifferenzierte Gesellschaft, gleichzeitig aber auch nicht so trivial, daß sich jeder Vergleich von vornherein verbietet. Das Entstehen von Abstraktionen könnte man hier also gleichsam modellhaft vorführen – wobei die Frage offen bleibt, ob und wie weit sich Folgerungen für (oder gar Forderungen an) das Entstehen von Gesellschaftstheorie ergeben.

  1. [1] Ich habe mit der Beschreibung eines alternativen Konzepts - den agilen Entwicklungsmethoden - zumindest begonnen.



- 3 -


Bevor ich mit dem Thema fortfahre, muß ich wohl klären, was ich unter „Theorie” verstehe. Das dürfte sich im Kontext dieses Blogs ohne weiteres erschließen - trotzdem fasse ich das besser noch einmal zusammen. Wenn selbst bei den ScienceBlogs plötzlich Beiträge erscheinen, die dem Versuch von Religion und Esoterik, einen klaren Begriff von wissenschaftlicher Theorie zu relativieren, nicht direkt das Wort sprechen, aber doch Tür und Tor öffnen, läßt sich das schwer vermeiden.

Wissenschaftliche Theorie führt nicht zu Naturgesetzen. Es verhält sich genau andersherum: Theorie steht über solchen Gesetzen, weil sie versucht, diese zu erklären. Theorie formuliert allgemeine Annahmen, die auf Fakten basieren. Sie ist jederzeit falsifizierbar, und läßt sich niemals verifizieren. Dennoch hat sie den Anspruch, wahr zu sein. Diesen Anspruch löst sie auch ein: sie ist die einzige Methode, mit der man die (beobachtete) Welt verstehen kann.

Das Gesetz der „Schwerkraft” z.B. findet sich auf der einen Seite, jener des Faktischen. Newton und Einstein finden sich auf der anderen Seite - von ihnen stammen zwei Theorien, die versuchen, die Fakten in einen Zusammenhang zu stellen und zu erklären.[1]

Das Erlebnis der Differenz zwischen Subjekt und Außenwelt, das jedes Individuum in der Moderne erfährt, ist ein Faktum. Ob diese Erfahrung spezifisch für die menschliche Gattung ist, oder durch Gesellschaft überhaupt erst produziert wird, ist Gegenstand soziologischer Theorie.

Die wissenschaftliche Methode wird nicht weniger wahr, wenn man regelmäßig ihre Theorien wiederlegt - im Gegenteil, sie beweist genau an dieser Stelle ihren universellen Anspruch auf Evidenz. Egon Friedell hat das – in einer Sprache, deren Begrifflichkeit dem Geist der Romantik entstammt – schlagend formuliert (Hervorhebung von mir):

Fast alle „exakten” Feststellungen, die in früheren Zeiten gemacht wurden, scheinbar so sicher auf klare Vernunft und scharfe Beobachtung gegründet, sind dahingeschwunden; und den unsrigen wird es genau so gehen. An allen unseren Ionen, Zellen, Nebelflecken, Sedimenten, Bazillen, Ätherwellen und sonstigen wissenschaftlichen Grundbegriffen wird eine kommende Welt nur noch interessieren, daß wir an sie geglaubt haben. Wahrheiten sind nichts Bleibendes; was bleibt, sind nur die Seelen, die hinter ihnen gestanden haben. Und während jede menschliche Philosophie dazu bestimmt ist, eines Tages nur noch von geschichtlichem Interesse zu sein, wird unser Interesse an der menschlichen Geschichte niemals aufhören, ein philosophisches zu sein.

(Erich Friedell: Kulturgeschichte der Neuzeit. München 1996, S.174)

Die scheinbare Paradoxie, etwas als Wahrheit aufzufassen, das nur für einen Moment in der Geschichte für wahr gehalten wird, löst sich auf, wenn man sich klar macht, wie Erkenntnis entsteht: in einem gesellschaftlichen Zusammenhang, und zu einer bestimmten Zeit. Damit ist Erkenntnis unmöglich, die – unabhängig von Zeit und Raum – verifizierbar wäre. Nur eine Theorie, die unter der Vorgabe antritt, jederzeit wiederlegbar zu sein, trägt dem Rechnung – und nur in den Wissenschaften findet sich ein Modell, eine Theorie aufzustellen (aka „etwas zu erklären”), in dem selbst Fragen der Methodik zur Debatte stehen und dem Lauf der Zeit unterworfen sind.


  1. [1] In den Kommentaren (sic!) zum oben verlinkten ScienceBlogs-Artikel findet sich ein Zitat, das dort Karl Popper zugeschrieben wird:


    Some people think that in science, you have a theory, and once it's proven, it becomes a law. That's not how it works. In science, we collect facts, or observations, we use laws to describe them, and a theory to explain them. You don't promote a theory to a law by proving it. A theory never becomes a law.
    This bears repeating. A theory never becomes a law. In fact, if there was a hierarchy of science, theories would be higher than laws. There is nothing higher, or better, than a theory. Laws describe things, theories explain them. An example will help you to understand this. There's a law of gravity, which is the description of gravity. It basically says that if you let go of something it'll fall. It doesn't say why. Then there's the theory of gravity, which is an attempt to explain why. Actually, Newton's Theory of Gravity did a pretty good job, but Einstein's Theory of Relativity does a better job of explaining it. These explanations are called theories, and will always be theories. They can't be changed into laws, because laws are different things. Laws describe, and theories explain.

    Diese Aussage kann ich nur unterschreiben - wobei sie allerdings nur die wissenschaftliche Methode beschreibt, und nicht ihre gesellschaftliche Praxis.


- 4 -


Die wissenschaftliche Methode ist völlig klar und unmißverständlich formulierbar. Allerdings ist der Betrieb der Wissenschaften eine gesellschaftliche Praxis, die eigenen Regeln folgt. Sie findet an keiner Stelle im luftleeren Raum statt, wo Wissenschaftler allein ihren hehren Zielen folgen und unbeeindruckt von den Interessen all jener agieren, die sie letztlich bezahlen. Ich rede hier keineswegs nur vom Einfluß der Industrie auf Wissenschaft und Forschung - der ist umfassend und verheerend genug. Auch die scheinbar „freie“ Forschung an den Hochschulen findet in einem gesellschaftlichen Bezugsrahmen statt, der einen Sinnzusammenhang konstituiert, der nichts mit Wissenschaft, aber viel mit sozialen Beziehungen zu tun hat, und ganz eigene Zwänge mit sich bringt.

Man muß fürchterlich aufpassen, diese beiden Ebenen nicht zu verwechseln oder auch nur miteinander zu verzahnen. Alle Mängel des „Betriebs der Wahrheitsproduktion“ können nicht dazu dienen, die Methode zu kritisieren, die Wahrheit hervorbringt. Umgekehrt kann das (unbedingt erwünschte) Beharren von Wissenschaftlern auf den Besitz der einzigen Methode, die etwas wie Wahrheit erst möglich macht, nicht dazu dienen, ihr konkretes Handeln außerhalb jeder Kritik zu stellen.

Tatsächlich finden sich in der Geschichte der Wissenschaften ja immer wieder Episoden, angesichts derer es schwer fällt, am wissenschaftlichen Theoriebegriff in seiner abstrakten Herrlichkeit ungebrochen festzuhalten. Im Namen der Wissenschaft sind wahre Monstren erschaffen worden, die unmittelbare Folgen für die gesellschaftliche Wirklichkeit hatten, immer mit dem Verweis auf die objektive Wahrheit wissenschaftlichen Erkennens. Die Theorie, daß erworbene Fähigkeiten vererbt werden und zur Entwicklung der Arten führen, war 1910 – vor der Entdeckung der Mechanismen der zufälligen Mutation – Stand der Wissenschaften, und wurde von Francis Galton aufgegriffen, um seine Idee der genetischen Verbesserung der Menschheit durch Zuchtwahl zu untermauern. Es dauerte nicht lange, bis sein Konzept der Eugenik zu einer gesellschaftlichen Debatte führte, bei der die Annahme, es sei legitim, missgebildete Babys zu töten, nicht einmal die radikale Position darstellte[1] – diese Debatte hat der Rassenideologie der Nazis maßgeblich den Boden bereitet und ihr Plausibilität verschafft.

Es gab und gibt immer Situationen, wo das „Soziale System“, in dem Wissenschaft entsteht, eine Eigendynamik entwickelt, die krude Folgerungen salonfähig macht, obwohl sie wissenschaftlichen Anforderungen letztlich nicht entsprechen. Auf längere Sicht hat sich das System aber immer wieder stabilisiert und korrigiert – und zwar durch Rückgriff auf die eigentliche Natur der wissenschaftlichen Methode, und nicht durch ihre Revision.

Darüber hinaus - und da liegt m.E. der eigentliche Knackpunkt der ganzen Debatte - kann man aber festhalten, daß etwas nicht moralisch richtig ist, nur weil es sich als wissenschaftlich wahr erweist.[2]

  1. [1] Vergl. Philip Blom: Der taumelnde Kontinent – Europa 1900-1914. München 2009. S.388 ff.
  2. [2] Das berühmteste Beispiel, mit dem man diese These untermauern kann, kennt jeder: das Manhatten-Projekt.
1 Kommentar

- 5 -


Wenn man von der Annahme ausgeht, daß eine Theorie die Abstraktion einer komplexen Wirklichkeit ist, führt dies zu zwei weiteren Fragen. Zunächst ist das jene nach den Bedingungen, unter denen jede Beobachtung von Wirklichkeit statt findet. Zweitens wäre zu klären, wie die Reduktion von Komplexität vonstatten geht - sprich: wer die Bedeutung von Beobachtungen und Annahmen über diese Wirklichkeit wiegt, und auf welchem Wege solch eine Gewichtung zustande kommt.

Das klingt zunächst arg abstrakt - ich nehme zwei verschiedene Anläufe, um zu erklären, worauf ich hinaus will.

Ich habe bereits beschrieben, welchen Begriff von Theorie ich verwende: eine Theorie führt nicht zu zeitlosen Gesetzen, sondern erklärt solche Gesetze, wobei sie nur zu einem bestimmten geschichtlichen Moment wahr ist. Sie beruht auf beobachteten Fakten, und sie ist jederzeit falsifizierbar. Daraus ergeben sich zwei Fragen, die nahezu deckungsgleich sind mit denen, die ich im ersten Absatz stelle: erstens, wie kommt man dazu, die Faktizität etwa einer Beobachtung festzustellen und zu begründen? und zweitens, wer (welches Individuum oder welche Instanz) überprüft die Konsistenz einer Theorie und falsifiziert sie, oder tut dies nicht?[1]

Hinter der ersten Frage steckt ein erkenntnistheoretisches Problem: wieweit ist sinnliche Wahrnehmung überhaupt in der Lage, etwas wie „Wirklichkeit” zu erfassen? Gibt es so etwas wie Fakten jenseits der Sinneserfahrung, oder konstituiert sich „Wirklichkeit” überhaupt erst durch Sinnestätigkeit, wie Kant dies postuliert?

Die zweite Frage zielt auf den den Betrieb, innerhalb dessen Wissenschaft entsteht. Die „Produktion wissenschaftlicher Wahrheit” findet ja nicht im luftleeren Raum statt. Es gibt einen konkreten gesellschaftlichen Rahmen, in dem Forscher ihre Arbeit tun - und dort ergeben sich gelegentlich gänzlich außerwissenschaftliche Zwänge, in denen Forscher z.B. voreilige und vereinfachende (Kurz)Schlüsse ziehen, weil sie unter dem Einfluß bestimmter (Eigen)Interessen die Wirklichkeit nur selektiv wahrnehmen oder womöglich sogar Labordaten bewußt fälschen. Nicht nur das: auch die Schwerpunkte, auf die sich ein bestimmter Bereich wissenschaftlicher Forschung konzentriert, werden vom gesellschaftlichen System mehr oder weniger stark beeinflußt oder sogar erzwungen.

Der zweite Anlauf, um den ersten Absatz zu erläutern, führt wieder zur Entwicklung von Software. Wenn man ein (nichttriviales) Programm schreiben will, muß man als erstes die Problemdomain analysieren. Das kann man idR nicht ohne fremde Hilfe, weil z.B. ein Softwarearchitekt es vielleicht versteht, bestimmte Abläufe in eine Klassenhierarchie oder ein UML-Diagramm zu übersetzen, diese Abläufe aber erst einmal erklärt bekommen muß. Ein Spezialist für jenes Problemfeld, für das eine Software entwickelt wird, muß sich zunächst verständlich machen, bevor man seine Anforderungen versteht, die dann als Grundlage für das konkrete Design dieser Software dienen können.

Der zweite Punkt betrifft wiederum den sozialen Zusammenhang, in dem eine Abstraktion (eine wissenschaftliche Theorie, oder - hier - eine Software) entstehen soll. Das Bild vom Nerd, der einsam vor seinem Computer sitzt und von der Welt draußen nichts mitbekommt, ist ja spätestens dann völlig schief, wenn sein Rechner mit dem Internet verbunden ist. Aber schon ein Einzelgänger, der seine Tools und Scripte selber schreibt, hat es mit komplexen gesellschaftlichen Verhältnissen zu tun, in denen er gezwungen ist, ständig zu kommunizieren: es ist völlig unmöglich, eine Software zu erstellen, ohne ständig in Dokumentationen zu wühlen.[2] Spätestens, wenn eine Software ein gewisses Level an Komplexität überschreitet, wird sie endgültig zu einem Projekt, das sich nur noch im Team bewältigen läßt.

  1. [1] Die Idee, das man eine Theorie nur falsifizieren, nie jedoch verifizieren kann, führt dazu, daß es gelegentlich schwierig ist, dafür einen adäquaten sprachlichen Ausdruck zu finden. Wer verifiziert eine Aussage? läßt sich leicht formulieren. Wer falsifiziert eine Aussage? wäre hingegen sprachlicher Unsinn, weil eine Theorie ja (zunächst) wahr wird, weil man dies zu einem gegebenen Zeitpunkt eben nicht vermag.
  2. [2] Das ist übrigens wohl der entscheidende Grund, warum ich vom Luhmann nicht loskomme: Kommunikation, in Luhmanns Definition, kommt nicht zustande, weil jemand redet, sondern weil ein anderer zuhört - Margot Berghaus hat mir das kürzlich genauer erklärt.


- 6 -


Für Techniker und Planungstheoretiker war das Problem der Komplexität das entscheidende Problem: Planung läuft auf Komplexität auf, die planende Instanz steht außerhalb dessen, was sie plant, und hat nicht [...] die Möglichkeit, ebenso viele Zustände anzunehmen wie das, was sie plant oder wie die Welt draußen. Sie muss Komplexität reduzieren, wie dann die Formel heißt. Sie muss versuchen, elegante Lösungen für viel schwierigere Probleme zu finden. Sie muss vereinfachen. Sie muss technisieren, abstrahieren, Modelle bilden und dann versuchen, die Systeme über solche Modelle zu steuern.

(Niklas Luhmann. Einführung in die Systemtheorie. Heidelberg 2008, S. 236)

Das klingt sehr ähnlich wie meine eigenen Überlegungen. Luhmann geht hier jedoch noch einen entscheidenden Schritt weiter: er stellt die These auf, daß „Komplexitätsmanagement” auf der einen Seite und „sinnhafte Interpretation” auf der anderen Seite dasselbe Problem haben: den Zwang, zu seligieren.

Zunächst ist Luhmanns Definition von „Sinn” nichts für schlichte Gemüter - das ist denkbar weit entfernt von jeder alltagstauglicher Definition des Begriffs. Luhmann zufolge gibt es „Sinn”, der sich auf psychische Systeme, und „Sinn”, der sich auf soziale System bezieht. Damit ist „Sinn” nicht länger auf ein Subjekt bezogen. Psychische Systeme, die durch Bewußtseinstätigkeit in Gang erhalten werden, werden hier unterschieden von sozialen Systemen, die sich durch Kommunikation reproduzieren. Bewußtsein und Kommunikation sind hier also zwei strikt voneinander getrennte Begriffe. Bewußtseinssysteme erleben sich selber als sinnhaft, soziale Systeme reproduzieren Sinn durch Kommunikation. Dabei ist Sinn nicht objektiv von Außen gegeben, sondern wird vom System überhaupt erst produziert. Luhmann zufolge ist Sinn das Gedächtnis, das ein System produziert, wenn es sein eigenes Operieren beobachtet.

Für Sinnsysteme ist die Welt kein Riesenmechanismus, der Zustände aus Zuständen produziert und dadurch die Systeme selbst determiniert. Sondern die Welt ist ein unermeßliches Potential für Überraschungen, ist virtuelle Information, die aber Systeme benötigt, um Information zu erzeugen, oder genauer: um ausgewählten Irritationen den Sinn von Informationen zu geben.

(Niklas Luhmann. Die Gesellschaft der Gesellschaft. Ff./M. 1998. S.46)

Ich paraphrasiere das so: die Welt ist ein Potential von Möglichkeiten, aus denen Systeme auswählen. Eine Information wird mitgeteilt, oder sie bleibt unausgesprochen. Eine Mitteilung, die auf jemanden stößt, der sie entgegen nimmt und auf sie reagiert, wird schließlich zu Kommunikation - und bestätigt damit das Medium, in dem sich soziale Systeme selber erhalten und reproduzieren. „Sinn” ist diesem Konzept zufolge die Erinnerung an eine Auswahl, die erfolgreich war.

Damit schließt sich der Kreis: Abstraktion ist eine Auswahl aus einer komplexen Welt, um diese Komplexität planbar zu machen. „Sinn” ist die Erinnerung an eine Auswahl, die man in der Vergangenheit erfolgreich vorgenommen hatte, und an der man die Möglichkeiten zum Anschluß an die Gegenwart mißt.



- 7 -


Das Wort „Sinn” wird in verschiedenen Bedeutungen verwendet; ich rede hier nicht von den Sinnen bei der sinnlichen Wahrnehmung, sondern von Sinn als Bedeutung. Auch hier gibt es eine Reihe verschiedener Ebenen - den Sinn von Sprache, jenen für das Erleben von Individuen, sowie für das Funktionieren von Gesellschaft. Ein Satz kann unsinnig sein, weil er grammatisch falsch ist oder Wörter enthält, die nur Nonsens ergeben. Ein Individuum kann sein Leben als sinnlos empfinden, und eine Gesellschaft kann bestimmte Handlungen oder Kommunikationen als sinnlos ablehnen. Dabei ist jede Sinnlosigkeit gleichzeitig ein Verweis auf Sinn, und nicht ihr Gegenteil. Ein falsch gebauter Satz ist nicht das Gegenteil eines richtig gebauten, zumindest solange er immer noch als sprachliches Konstrukt sichtbar wird - er bleibt in gewisser Weise noch immer lesbar, wenn auch nur indirekt, in verschlüsselter Form. Auch ein als sinnlos empfundenes Leben wird normalerweise weitergelebt - es bleibt die Hoffnung auf eine Verbesserung, und damit noch ein Rest von Sinn. Auch eine sinnlose Handlung zerstört Gesellschaft nicht, sondern bringt sie allenfalls dazu, kurz inne zuhalten, um ihren Sinn neu zu justieren - nach einem Krieg etwa, oder einem Amoklauf.

Sinn ist jenes Medium, jenes Movens, das Individuen und Gesellschaften in Bewegung setzt und erhält. Ohne Sinn würde niemand morgens aus dem Bett kommen, und jede gesellschaftliche Tätigkeit käme zum erliegen. Wenn ich keinen Sinn in dem sehe, was ich hier gerade tue, würde ich es bleiben lassen, und mich etwas anderem zuwenden. Wenn eine Gesellschaftsordnung keinerlei Sinn produzieren würde, wäre sie noch in derselben Minute am Ende. Aber auch Sprache, die darauf beharren würde, nur noch sinnlose Sätze zu produzieren, würde sich umgehend selber erledigen, weil sie niemand mehr sprechen würde.

Sinn läßt sich als ein Medium definieren, das es erlaubt, Unterscheidungen zu treffen. Wenn man Sätze bildet, kann man verständliche Sätze von unverständlichen unterscheiden, weil die verständlichen Sätze Sinn ergeben. Ein Leben, mit dem man zufrieden ist, ergibt sich, weil man z.B. einen Beruf ergriffen hat, dessen Tätigkeit oder Resultate einem sinnvoll erscheinen. Man sieht eine Reihe von Möglichkeiten, und entscheidet sich für jene, die sinnvoll erscheinen. Man trifft eine Auswahl aus einer Potenzialität anhand des Sinns, den deren konkrete Realisierung verspricht.

Das, was „man” aktuell wählt - einen konkreten Satzbau, einen bestimmten Lebensumstand, eine gesellschaftliche Realität - ist durch Sinn von allen anderen potentiellen Realitäten getrennt. Dadurch reduziert sich die Komplexität dieser potenziellen Wirklichkeiten: man greift nur auf das zurück, was Sinn verspricht, und grenzt all jenes aus, das dies nicht tut. Sinn wird damit gewissermaßen zu einem Agenten, dessen man sich bedient, um Komplexität einzugrenzen - unter seiner Mithilfe trennt „man” das Wirkliche vom Möglichen. Damit ist das nur ein anderer Mechanismus zur Reduktion von Komplexität, den man auch bei der Bildung von Theorien oder der Planung von komplexen Abläufen benötigt: man abstrahiert, indem man vereinfacht.



- 8 -


For every problem, there is a solution that is simple, elegant, and wrong.

H.L. Mencken

Wenn jede Theorie darauf basiert, daß sie von Realität abstrahiert und diese somit vereinfacht, dann wird es letztlich immer darauf hinauslaufen, daß man nicht die komplette Realität erklären kann, sondern nur bestimmte Teilbereiche. Eine gute Theorie zeichnet sich dadurch aus, daß sie verhältnismäßig einfach ist, dennoch aber eine große Anzahl verschiedener Dinge erklären kann. Dabei widersprechen sich diese beiden Forderungen natürlich, und man muß aufpassen, nur die eine zu erfüllen, und die andere darüber zu vernachlässigen. Es gibt zahlreiche schlechte Theorien, die wortreich und komplex daherkommen, und letztlich bei der Erklärung simpelster Dinge scheitern. Es gibt aber auch Theorien, die verblüffend einfach und elegant gestrickt sind, die aber dennoch einen Fehler haben: sie sind falsch.

Im Softwaredesign gibt es ein Modell, in dem zunächst Use-Cases gesammelt werden, bevor das eigentliche Programm entworfen wird. Use-Cases sind jene Operationen, die zum Schluß der User des Programmes durchführen wird. Dabei geht man „von oben nach unten” vor - man startet bei den allgemeinen Zielen eines Programms, und geht immer weiter in die Details. Der User soll z.B. in der Lage sein, seine Stimme bei einer Online-Petition abzugeben. Dazu muß er sich registrieren. Dafür braucht es eine Feld, in den er seinen Namen eintragen kann. Es braucht einen Button, mit dem er die Registrierung verschickt. Er soll eine E-Mail bekommen, mit der er die Richtigkeit der Registrierung bestätigt. - Usf.

Erst nachdem man relativ detailliert den „Workflow” - also die Arbeitsabläufe des anvisierten Users - untersucht hat, beginnt man, Bereiche zu benennen, in denen am Code gearbeitet werden muß (z.B. das GUI für das Webinterface bei der Anmeldung), und entwirft dafür konkrete Designs (z.B. bestimmte Hierarchien von Classes, mit denen die GUI-Elemente konkret realisiert werden). In der Designphase dienen die Use-Cases als Rückbezug: man kann stets kontrollieren, ob man durch ein bestimmtes Design bestimmten Anforderungen an die einzelnen Use-Cases tatsächlich näher kommt, oder ob man sich in Abstraktionen verheddert, die überhaupt keinen Bezug mehr zum Ausgangsproblem haben (wenn man z.B. ein komplettes GUI inklusive Fenster- und Menuverwaltung entwirft, für das es konkret keine Verwendung gibt). Ebenso aber kann man sie immer wieder durchspielen mit Blick darauf, ob im Programmdesign gerade Weichen gestellt werden, die bestimmte Use-Cases unrealisierbar zu machen drohen (wenn man z.B. im Design von Widgets und Controls vergißt, daß die manchmal auch einen editierbaren Text haben müssen). In beiden Fällen muß man dann durch Redesign umsteuern.

Mir scheint das ein ganz brauchbares Modell zu sein, an dem man sich auch beim Theoriedesign orientieren könnte. Die Use-Cases sind hier die Fragen, auf die eine Theorie die Antworten geben soll. Während man ein theoretisches Modell entwickelt, kann man die Liste der Fragen immer wieder gegentesten, um sicherzustellen, daß man nicht dabei ist, in irgendwelche Metasphären abzudriften. Ebenso kann man so vermeiden, eine Theorie immer weiter einzudampfen und abstrakter zu machen, bis sie zwar noch elegant und stringent ist, aber nichts mehr erklärt.

4 Kommentare

[Drucken]