Computerprogramm gegen Amokläufer

Wed, 19 May 2010 02:01:11 +0000

Lol schon wieder meint irgendwer er hätte eine Möglichkeit gefunden Amokläufe anhand von Verhaltensmustern programmatisch vorauszusagen, schreibt gulli.com – sorry, das hab ich inzwischen einmal zu oft gehört um es wirklich zu glauben. Dass es Profiling-Software gibt die zumindest Anhaltspunkte geben kann ok. Aber dass man damit irgendeinen Amoklauf wirklich verhindern kann, das bezweifle ich stark.

Zum Einen müsste man damit sehr viele Informationen sehr vieler Personen sammeln – ich denke mal, so viel, dass selbst noch so viele Polizeigewerkschaftspressekonferenzen die Bevölkerung nicht mehr davon überzeugen könnten.

Außerdem sehe ich in sowas eine Gefahr. Die Frage die sich mir stellt: Angenommen, so eine Software würde wirklich funktionieren. Und angenommen, sie würde auf irgendeinen Menschen anschlagen, der sich sonst nichts vorzuwerfen hat. Was soll man tun? Soll man ihn zwingen eine Therapie zu machen? Soll man ihn einsperren? Ich bezweifle, dass das noch irgendwie mit rechtsstaatlichen Prinzipien vereinbar wäre, einen Menschen „präventiv“ einzusperren, vor allem nachdem sich der Gesetzgeber schon so schwer mit dem Stalking-Gesetz getan hat.

Imho produziert so etwas drei Dinge, die wir gerade im Moment am wenigsten brauchen: Angst, Misstrauen und Schuldige.

Schuldige vor Allem im Falle eines Amoklaufs. Denn nicht nur der Amokläufer wird schuld sein, sondern etliche Behörden, die nicht rechtzeitig reagiert haben, obwohl deren Profiling den Amokläufer frühzeitig erkannt hätte. Wir haben in letzter Zeit sowieso schon viel zu viele Mitschuldige bei jeder sich bietenden Gelegenheit. Anstatt eines komplizierten Computerprogramms das versucht einzelne Täter herauszupicken sollte man vielleicht eher nach den gesellschaftlichen oder sonstigen Gründen für die – angeblich – gestiegene Anzahl an Amokläufen in der letzten Zeit suchen.

Misstrauen vor Allem gegenüber dem Staat und der Polizei, die noch mehr Daten von uns sammelt, und diese möglicherweise in großen Datenbanken ansammelt, die dann – wie so oft – von irgendwem Gehackt werden, der damit die Persönlichkeitsprofile vieler Menschen hat. Außerdem ist ja nicht auszuschließen, dass die Daten die gesammelt werden fehlerhaft sind, und es ist auch nicht auszuschließen, dass sie wissentlich manipuliert werden. Und, wenn jemand erstmal als potenzieller Amokläufer stigmatisiert wurde, wird er eine sehr schlechte Position haben eine solche wissentliche Manipulation aufzudecken und sich dagegen zu wehren. Das Letzte was wir brauchen ist noch mehr Misstrauen gegenüber dem Staat. Davon gibt es eh schon genug.

Das Schlimmste ist wohl die zusätzliche Angst. Zunächst mal wird die Angst vor Amokläufen dadurch wohl eher verstärkt als geschwächt. „Die da oben“ werden ja schließlich ihre Gründe haben, warum sie so eine Maßnahme einführen. Zusätzlich zu der Angst vor neuen Amokläufen kommt die Angst davor, sich irgendwie auffällig zu verhalten, und selbst fälschlich als potenzieller Amokläufer „erkannt“ zu werden. Man wird von solchen Fällen hören (denn es wird sie sicher geben), und sein Verhalten unbewusst anpassen. Wahrscheinlich wird es dann irgendwann Kurse geben, wie man sich verhalten soll, um nicht erfasst zu werden.

Was ich damit sagen will ist nicht, dass ich eine solche Technik grundsätzlich sinnlos finde. Im Gegenteil, der Einsatz von Computern in der Psychologie ist sowieso etwas was ich ziemlich stark vermisse irgendwie. Ich rate nur zur extremen Vorsicht. Das Wissenschaftsteam wird – wie die meisten guten Wissenschaftsteams – vor Allem Nerds beinhalten, die von ihrer Sache fasziniert sind und dementsprechend diese auch benutzen wollen. Die Politiker werden wie üblich höchstens die Hälfte verstehen aber meinen, es sei ja ihre Aufgabe das Volk mit allen Mitteln vor Gefahren zu schützen. CCC und Konsorten werden das Ding unter die Lupe nehmen, kritisieren und wie üblich erstmal ignoriert werden.

Darum rate ich zur Vorsicht von vorne herein. Ich halte Derartiges für interessant aber auch hochgefährlich.

Advertisements

Was Maschinen niemals koennen werden …

Thu, 13 May 2010 19:54:50 +0000

Es regt mich ja immer wieder auf, wenn Leute voellig unreflektiert behaupten, irgendetwas bliebe der Wissenschaft jetzt und fuer immer versperrt, und es gaebe Dinge, die wuerde man niemals verstehen und vor allem niemals nachmachen koennen. Als Argument, um sein Weltbild und dessen Praemissen (zum Beispiel dass Leben, der Mensch, Liebe, etc. etwas besonderes ist) zu rechtfertigen, kann ich es ja gerade noch verstehen, obgleich ich eine Geisteshaltung, die nur auf dem Glauben der jetzigen und kuenftigen Unkenntnis und Unerkennbarkeit basiert, nicht besonders sinnvoll finde. Als wissenschaftlich-pragmatisches Argument um die Forschung auf andere Bahnen zu lenken sollte doch die Erfahrung bereits gezeigt haben, dass es sich hier um keine gute Einstellung handelt.

Es gab Zeiten, da glaubte man, ein Computer koenne niemals so gut Schach spielen wie ein Mensch, moderne Schachcomputer sind aber eigentlich doch ziemlich gut. Es gab Zeiten, da dachte man genauso ueber das Erkennen von Gesichtszuegen und deren Emotionen, und Strukturerkennung.

Nun, und man ist weitlaeufig, soweit ich das mitbekommen habe, der Meinung, es sei niemals moeglich, dass kuenstliche Wesen sich selbst, ohne menschliches Zutun reproduzieren.

Ich halte dies allerdings durchaus fuer moeglich, denn zumindest die Einzelteile dafuer sind vorhanden, sie muessen nur zusammengebaut werden. Projekte, die in diese Richtung gehen, gibt es viele. Aber das ist teuer, braucht dennoch Entwicklungszeit, und ist nicht von Interesse – warum sollte man so etwas wollen?

Unrelatedly habe ich aber diesen Artikel auf Slashdot gelesen. Hier werden DNA-Replikationsmechanismen zur Chiperzeugung genutzt. Das hat freilich mit autonomer Reproduktion recht wenig zu tun. Ich fand es trotzdem irgendwie passend zu dem Thema.

Dass man sich Dinge, die man in der Natur sieht, ausnutzt, um Maschinen zu verbessern, ist ja ein altes Prinzip. Speziell in der Informationstechnik in der man sich schon jetzt mit Datenmengen konfrontiert sieht die ein Mensch in seinem ganzen Leben nicht konsumieren kann wird die Notwendigkeit von Maschinen die einfach schlauer sind als die bisherigen Maschinen so stark sein, dass man kaum nachkommen wird.  Und so denke ich, wird es gerade hier frueher oder spaeter immer mehr darauf hinauslaufen, dass man Technik und Biologie vernetzt.

Kundenbewertungen und grosse Community-Projekte wie Wikipedia, die diversen Webcrawler und semantischen Indizierer, zeigen einen Trend hin zu einem kollektiven Bewusstsein. Die kleinen Tweaks, die man heute unter Augmented Reality zusammenfasst, und die wohl mit den modernen kleinen Gadgets und deren Verbreitung ihre Bluetezeit demnaechst noch erleben werden, zeigen einen Trend hin dazu, von diesem kollektiven Bewusstsein ohne grossen Overhead gebrauch machen zu koennen.

Freilich sieht der Unterschied zum Borg-Kollektiv noch ziemlich gross aus. Doch zumindest fuer mich macht es am Ende keinen allzu grossen Unterschied, ob man in die Augmented Reality per Okularimplantat kommt, oder den Umweg ueber die vorhandene Netzhaut nimmt. Vor Allem ist der Schritt ein garnicht so grosser.

Umgekehrt halte ich es durchaus fuer plausibel, dass man Teile von Gehirnen zuechten koennte, um mit ihnen effizient Berechnungen durchfuehren zu koennen. Zumindest halte ich solche biologischen Rechner erstmal fuer realistischer als Quantencomputer.

Interessant hierbei sind die philosophischen Konsequenzen, die sich daraus ergeben. Schon jetzt faellt es mir persoenlich eher schwer, einen intrinsischen Sinn in der Existenz der Menschen zu sehen. Vor Allem sehe ich haeufig Postulate von Wegen guter oder schlechter Dinge fuer unsere Gesellschaft, ich frage mich jedoch oefters, was sind denn eigentlich die Ziele unserer Gesellschaft. Aus der „Zufriedenheit Aller“ wird mit wenig Argumentation schnell eine „Zufriedenheit Aller, die dazu nichts unrechtmaessiges benoetigen“, woraus wiederum die Frage nach der Rechtmaessigkeit resultiert, die wiederum zum Anfang fuehrt – was sind die Ziele unserer Gesellschaft. In Diskussionen hoere ich bisweilen von Preisen des Fortschritts und der Frage ob diese gerechtfertigt sind. Gerechtfertigt sind sie zumindest dann, wenn das Ziel unserer Gesellschaft der technische Fortschritt ist. Wenn nicht, muss man sich nach dem Ziel fragen.

Unabhaengig davon, welches nun das genaue Ziel ist, bleibt stets die Frage, ob man dieses Ziel auch erreicht, wenn man dafuer gebauten Maschinen die Arbeit ueberlaesst. Wenn man sie immer groessere Teile dessen tun laesst, was zum Ziel unserer Gesellschaft fuehrt, nur dass nicht mehr unsere Gesellschaft sondern die Maschinen es tun. Schon jetzt koennen wir zum Beispiel mehr Nahrung produzieren als wir benoetigen (der Welthunger ist schliesslich ein Verteilungsproblem, kein Produktionsproblem), und das mit vergleichsweise wejnig menschlicher Arbeit. Es ist wohl eher naiv anzunehmen, dass dieser Trend sich nicht fortsetzt. Menschen werden also weniger arbeiten muessen. Sicherlich werden auch irgendwann kuenstlerische Faehigkeiuten kuenstlich erzeugt werden koennen. Die Existenz von Menschen wuerde also nur noch der gelegentlichen Pflege von Maschinen dienen.

Nun, zumindest fuer mich ist das keine Utopie sondern eine einfache Extrapolation des aktuellen Entwicklungsstandes. Aber selbst wenn nicht, halte ich die Frage durchaus fuer berechtigt. Eine Antwort der Form „es wird Dinge geben, die Maschinen niemals koennen werden“ wuerde zu einem Weltbild fuehren das ich ablehne, weil es annimmt, der Mensch sei etwas besonderes aufgruynd seiner Unfaehigkeit sich selbst nachzubauen.


Personal Notes on LaTeX

Fri, 07 May 2010 02:34:08 +0000

I am making this post to finally have everything written down in a central place.

Firstly, everytime I can, I use TexMacs. I dont like LaTeX, I never found a real introduction that goes into the implementation details of latex or tells how to really write code with it – I mean its said to be turing-complete, but I dont actually know how to do some quite simple things with it.

However, TexMacs is said to be capable of vitally anything LaTeX also is, and its scriptable with scheme, but well, sometimes its not capable of some things, and its not as well-documented as latex is. If I just want to write lecture notes, then I use TexMacs because you can really typeset the stuff fast and looking very good.

But for „larger“ things like my project thesis, I decided to use LaTeX. And before I knew TexMacs (which is – unfortunately – very unknown), I also used LaTeX, and before I knew LaTeX, I used the OpenOffice.org-Math-Editor (which isnt that bad at all).

And so, here a few notes of problems that I had and their solutions:

Sometimes one wants to have one page without a page number. Setting \pagestyle{empty} should work in most cases. But not in all. When you use \maketitlepage, it somehow changes the pagestyle, so you have to use \thispagestyle{empty} afterwards instead. Setting the pagestyle back to the „default“ value is done by \pagestyle{plain}, which is the default, afaik.

Well, then there are dedication-pages. What I want is a single page which is empty except for one small text in the center of the page. Well, there are the commands \hfill and \vfill, filling up a line horizontally and a page vertically. Using these should make this possible. So I tried something like \vfill \hfill my-dedication \hfill \vfill \newpage. Didnt work. After a lot of trying around, finally, I „hacked“ around it by just using empty formulas, which make LaTeX think that it has to keep place: $ $\vfill$ $ \hfill my-dedication \hfill $ $ \vfill $ $. Well, not perfect, but it works.

For Code-Listings I finally found the LaTeX-Package „listings“ and this nice tutorial (which is in german). This is yet another of these „I can do everything“-Packages of which LaTeX has so many. In my opinion, a language should give you the possibilities of defining your own routines and only help you for this, but not keeping you as good as it can from doing anything yourself, while providing packages for „everything“.

Meanwhile I always use UTF-8. I dont see any reason for using anything else for my documents. Especially, when I want to include special characters like Hiragana or Katakana. Just to prevent the encoding hell. Actually, I dont quite understand why anybody is using anything else than UTF-8. Ok, some software needs encodings with an equal width, but these are special needs. For vitally everything the user has to handle with, UTF-8 should be the best.

Including graphics is also one major problem which always occurs. There may be a lot of packages which should place the graphics somewhere special, etc. – but none of them actually worked everywhere. Using pdf-files with \includegraphics from the graphicx-Package was sufficient for me so far – especially because I couldnt find anything that really worked better so far.

Then linebreaks. If I have a large formula, or a large word, or a large \tt-form, then LaTeX either goes over the side-boundaries, or gives up completely. I already used \emergencystretch=10000pt which sort of solved this problem (that is, it made some lines stretched pretty hard, but I didnt mind), but it created widows and orphans (seems to undermine the prevention-mechanisms somehow). Ok, it is a problem to choose what to do then. But the default I found was „just do it by hand“, but seriously, this cannot be a solution. Especially since the solution for me was clear: Use your algorithm where you can, but if a line would become too empty to stretch it, then simply dont do this with that line, just use \flushleft for this line. In my opinion, that sounds like the only thing one really can do about it – that is, even if I did it by hand, I would do it that way. But I couldnt find any pre-defined package or instruction defining this behaviour. So what I basically did was to just use \flushleft everywhere. It doesnt look that „pretty“, but well, it also doesnt look that „bad“, at least it looks continuous.


Randomly Found Software: Planarity

Sat, 01 May 2010 13:08:35 +0000

Planarity (via) is a nice game where you get a graph with intersecting edges and have to move its vertices such that the edges dont intersect anymore. This sounds easy, but in fact, it gets complicated in higher levels. Well, its a simple game, and as soon as you got a little practice, you will be very fast and of course will get bored. But its a nice pastime anyway.

Its definitely worth trying out this game!


A nice connection between Russel’s paradox and Gödel’s incompleteness theorems

Wed, 28 Apr 2010 17:05:16 +0000

Russel’s paradox states that there must not be a set y:={x|x∉x}, because then y∈y→y∉y and y∉y→y∈y.

In my younger days, when I had less knowledge but more time and fun when increasing it, I had a time when looking for paradoxes inside common theories. I simply didnt want to believe in the consistencies of the theories we have. I was desperately trying to get articles from Eduard Wette and liked hearing about failures mathematicians had made in the past. Well, this time wasnt too long, and soon I realized that searching for paradoxes in common theories is not useful anyway, since if they really arent consistent, either we will never know (and thus dont have to care) or we will notice someday and then adapt our theories. Anyway, on some day at this time, somehow I was thinking about the Russel Paradox and what happened to it if you did formal set theory inside number theory. Thinking deeper about it, I had a strange result which I firstly didnt quite understand.

First, lets not be too formal – such that you can understand my confusion at first sight.

Lets consider , the standard-model of peano arithmetic. As Gödel did, you can encode propositions about natural numbers in natural numbers themselves. Lets denote by [P] the natural number encoding the proposition P. Especially, you can encode every proposition with one free variable as a number, and a proposition with one free variable is something similar to a set of natural numbers. So lets denote by n∈[P] the fact that P(n) holds (and define it to be false if the second given argument doesnt encode a proposition with exactly one free variable). Now, is a binary relation between natural numbers, which can be expressed inside arithmetic, and so is its negation, which we denote by . Then the proposition n ∉ n has exactly one free variable, and can also be encoded as a natural number, say m:=[n ∉ n]. Now assume m m. Then, by definition of m, we have m m. Same vice versa. Sounds like a contradiction.

Ok, well, something obviously went wrong. Lets get a little more formal.

The first flaw is that we may be able to denote every proposition about natural numbers, but not the question whether it is true. Because we have to give a finite relation which tells when a given proposition should be true. Thus, lets redefine our relation by n∈[P] saying „there is a formal proof of P(n)„, or in signs ⊦P(n) – it is known that this is possible. Then again consider our m:=[n ∉ n]. It applies to all [P] such that ⊦P([P]). Again, we may ask whether m m. This time that means ⊦m m. That is, if m m then we can prove that m m which is a contradiction. Hence, m m if any. At this point we had the contradiction above.

But this time, m m means ¬⊦m m. That is, there is no formal proof for m m. At this point, we have shown that m m is not provable in peano arithmetic, but that it is indeed true in . That is, we have a proposition that is true in the standard model, but not provable, like the one Gödel created.

And if you think about it, you will notice that actually we created exactly the same proposition as Gödel did, namely a proposition stating its own unprovability. But essentially we have followed the same idea as done in Russel’s Paradox.

The main difference is that in Russels‘ Paradox, we assume some „omniscient“ decider for the relation, while in we also assume an „omniscient“ decider for the arithmetic relations we have, but we cannot assume an „omniscient“ decider for meta-propositions [P], we must use provability for this.

To emphasize this a bit, lets not talk about sets but about deciding functions f:’abool. Lets say ‚a may contain every of these functions. That is, every function can be passed an arbitrary function as first argument. Lets again define a relation f a g stating g(f)=True. Then we can define the function NSA(f):=True, if f a g and False otherwise. Then as before, we can ask whether NSA∈aNSA. Of course, this will lead to the same contradictions as above. In this case, the answer is again that such a function NSA must not exist. But this time we can clearly see the connections to both situations above: On the one hand, with NSA, we denote a set of objects, like in the Russel paradox. On the other hand, we want NSA to be something which can always „tell“ us the truth of a proposition, and there must not be such a thing, like in Gödel’s incompleteness theorem.

Btw, NSA stands for Non-Self-Accepting, one can identify it with the class of Non-Self-Accepting algorithms, i.e. algorithms which return False when they are passed their own code, and with a little more recursion theory, the above argument is the proof of NSA not being decidable.


Warum ich kein Pragmatiker bin

Sat, 24 Apr 2010 00:14:52 +0000

Die Pragmatiker haben die Oberhand, so scheint es. In der Politik, der Wirtschaft, der Softwareentwicklung, dem Ingenieurswesen, überall hört man von Praxisorientiertheit, von der Praxis™, und, gerade wenn man sich als Mathematiker fühlt, davon, wie sinnlos die Theoretiker sind, die keine Ahnung davon haben, worauf es wirklich ankommt.

So kommt es, dass ich mir von einem Fachinformatiker sagen lassen muss, dass ich in meinem Informatikstudium nichts sinnvolles lerne – obgleich ich in der Universitäts-Informatik prinzipiell dasselbe lerne, was ein Fachinformatiker lernt, und unzählige zusätzliche Dinge, die er nicht lernt, und deren Sinn er somit nicht beurteilen kann, und ansonsten der hauptsächliche Unterschied eine Verlagerung der Schwerpunkte ist. Ich muss mir anhören, ich würde nur funktionale Programmierung lernen, die ja so sinnlos sei und in der Praxis™ keinerlei Relevanz hat und je haben wird, da de facto alle wichtigen Softwareprojekte die kommerziell relevant sind in C++ geschrieben sind. Dass C++ sich im Laufe der Zeit einiges aus der Ecke der funktionalen Sprachen abgeschaut hat, und generell theoretische Erkenntnisse einflossen, was auch pragmatisch gesehen die Forschung an funktionalen Sprachen rechtfertigt, sei mal ungeachtet, denn darauf will ich garnicht hinaus.

Nein, worauf ich hinaus will ist, dass mir die ganzen Pragmatiker inzwischen generell wahnsinnig auf den Senkel gehen, weil in dem, was man als Pragmatik ansieht, eigentlich der Ursprung vieler schlechter Entwicklungen steckt. Wie immer bei solchen Posts von mir, erstmal die Definition von Wikipedia:

„Der Ausdruck Pragmatismus (von griech. pragma „Handlung“, „Sache“) bezeichnet umgangssprachlich ein Verhalten oder Handlungen, die sich nach den bekannten Gegebenheiten richten und auf eine theoretische Analyse und genaue Begründung der Wirkungen verzichtet. Pragmatisches Handeln ist nicht an unveränderliche Prinzipien gebunden.“

Nun, das klingt nach einer ganz guten Definition. Ich persönlich würe es rein Betonungstechnisch sogar eher so ausdrücken, dass Pragmatismus das Arbeiten mit den Gegebenheiten, ohne ein Interesse einer Veränderung oder Verbesserung, ist. Und diese Form der Arbeit ist die sinnloseste überhaupt – jede Arbeit hat in der Regel im Sinn, eine Verbesserung in irgendeiner Weise herbeizurufen, und sei es nur, den Verfall etablierter Strukturen zu verhindern. Dies setzt ein grundsätzliches Interesse an der Arbeit die man erledigt voraus, und ich persönlich könnte nur schwer an irgendetwas arbeiten, was mich in keiner Weise interessiert.

Selbstverständlich muss nicht jeder in jeder Beziehung ein großes, tiefgründiges Interesse einer Verbesserung haben. Ein Webdesigner darf meinetwegen Flash verwenden, eine Büroangestellte muss die Office-Lösung verwenden, die sie vorgesetzt bekommt.

Hier komme ich aber gleich zum ersten Beispiel, das ich für falschen Pragmatismus anbringen will: Ich hatte bereits Gesprächspartner, die meinten, sie würden grundsätzlich nur Microsoft Office verwenden. Microsoft Office sei ein de-facto-Standard, und jeder, der sinnvoll am Geschäftsleben teilnehmen will, muss eben erstmal in Microsoft Office investieren, weil es schlichtweg zu dem Gehört, was man grundsätzlich benötigt. Und ich gebe zu, würde ich ein Unternehmen gründen, ich würde mir wohl auch einen Windows-Rechner mit einem Microsoft Office irgendwo hinstellen. Einfach, weil ich dann ein kleines Unternehmen wäre, das zumindest die Möglichkeit haben sollte, doc-Dateien richtig zu lesen. Andererseits würde ich von meinen Sekretärinnen erwarten, dass sie mit einem anderen System, am Besten LaTeX, schlimmstenfalls aber OpenOffice, zurechtkommen.

Man mag mir an dieser Stelle entgegnen, dass das keine Schlüsselqualifikation einer Sekretärin sei – schließlich könne sich nicht jeder mit der tiefgreifenderen Technik auskennen, und es müsse reichen, dass Sekretärinnen Arbeitsprozesse auswendig gelernt haben, die auf diese Weise nur in den etablierten Office-Anwendungen funktionieren.

Dem kann ich nicht zustimmen. Office-Anwendungen sind Handwerkszeug von Sekretärinnen. Freilich sind sie in erster Linie Nutzer, aber zumindest so gut, dass man einen Umstieg auf ein vergleichbares Produkt ohne größere Probleme autonom hinbekommt, sollte man sein Handwerk beherrschen.

Hier ist jedenfalls Pragmatismus komplett falsch, weil er ein Monopol erzeugt, und unzählige Unternehmen abhängig von Einem macht. Vor Allem wenn der Pragmatismus sich in die Ausbildung auswirkt, womit ich beim nächsten Punkt wäre: Der Pragmatismus in der Ausbildungspolitik.

Mehr Praxisbezug, mehr Nähe zu den Unternehmen, ich kanns manchmal nicht mehr hören … ständig hört man solchen Müll. Die Akademische Welt hat ihre Berechtigung, auch ohne Wirtschaft, auch wenn man ihr dies gerne absprechen würde. Grundlagenforschung brachte bereits mehr als Einmal wichtige Erkenntnisse. Das große Problem des Pragmatismus ist hier, dass er möglicherweise dafür sorgt dass man sehr viel was sehr lange nichts bringt nicht durchführt, nur leider gibt es gerade für die Dinge, die die Welt wirklich voranbringen, keinen Detektor, keine Garantie, keine Methode, sie zu finden. Wenn man revidiert wie viele Erkenntnisse sich ergeben haben, ist die Frage, ob die allzu pragmatische Sicht sinnvoll ist – sie garantiert kurzfristige Gewinnmaximierung, mehr auch nicht.

Wirtschaftlicher Pragmatismus – etwas, das ich zum politischen Pragmatismus zähle. Da gab es zum Beispiel die Politiker die meinen, eine Stimme für die Piratenpartei wäre eine Stimme für den Gulli, da diese die 5%-Hürde ohnehin nicht erreicht hätte. Mit dieser Argumentation hätte man noch vor garnicht so langer Zeit gegen die Grünen argumentieren können. Mit dieser Argumentation hätte man generell gegen jede Auflehnung gegen ein Establishment argumentieren können. Klar behalten die Pragmatiker nicht selten tatsächlich Recht mit der Aussage, eine kleine Bewegung setzt sich nicht durch. Die Frage ist nur, ob es sich nicht dennoch lohnt, sie zu unterstützen? Immerhin ist auch dies die einzige Möglichkeit, die Welt relevant zu verändern. Die Welt wird eben nicht von etablierten Mainstream-Ansichten verändert.

Die Struktur all dieser Beispiele ist ungefähr die Gleiche: Pragmatismus schließt große Veränderungen aus. Bisweilen sind aber große Veränderungen notwendig um ein System zu verbessern.

Ich sage nicht, dass Pragmatismus generell schlecht ist. Auch ich bin bisweilen pragmatisch, in kleinen Dosen. Generell bin ich aber eher idealistisch. Ich habe mir das pragmatische Denken mühsam antrainieren müssen, aber ich beherrsche es inzwischen denke ich ganz gut – teils zu gut, denn viele Menschen, die sich selbst als Pragmatiker sehen, haben subtil selbst Ideologien.

Pragmatismus vs. Ideologie sind zwei entgegengesetzte Haltungen. Man benötigt beide in einem entsprechenden ausgeglichenen Maß. Aber eben auch wirklich beide – das darf man nicht vergessen.


Ein seltsamer Gesprächsverlauf …

Mon, 05 Apr 2010 17:10:24 +0000

In einem neulichen Chat ging es gerade um Ignorieren. Mein Gesprächspartner meinte „Ignorieren geht so:“. Das brachte das Gespräch in eine sehr interessante Situation.

Will er mir nun zeigen, wie Ignorieren geht, so darf er auf keinen meiner Posts mehr antworten. Auf keinen meiner Posts mehr zu antworten setzt aber voraus, dass ich auch etwas schreibe. Schreibe ich also nichts mehr, so handelt es sich nicht um Ignorieren. Damit hätte er gelogen, denn er würde mir nicht zeigen, wie Ignorieren geht …

Sobald ich etwas sage darf er mir nicht mehr antworten. Ich habe also keine Motivation noch etwas zu schreiben … Wenn ich aber nichts schreibe, hat er die Unwahrheit gesagt, denn es handelt sich nicht um Ignorieren. Eine sehr seltsame Situation!

Ich hatte eigentlich vor, sie hier formal aufzuschlüsseln, aber nachdem man Transitionssysteme mit Aktoren braucht, spare ich mir das lieber. Natürlich war in diesem Moment gemeint, dass Aussagen folgen, die das Ignorieren genauer beschreiben. Und natürlich kann man in der natürlichen Sprache immer eine Metaebene höher gehen. Und natürlich versucht die natürliche Sprache nicht, Widersprüche zu vermeiden.

Trotzdem. Eine nette Gesprächssituation.