Neue Blog- und Feed-URLs / New Blog- and Feed-URLs

So, 30 Mai 2010 03:32:19 +0200

Die neue Blogsoftware auf meinem eigenen Server ist aufgesetzt. Ich habe dementsprechend vor, hier keine weiteren Beiträge zu schreiben. Mein neues Blog findet sich unter http://blog.uxul.de/. Würde mich freuen, wenn der eine oder andere Leser mir dahin folgt.

I have set up a blog software on my own server. Thus, I will presumably post anything new there, not posting anything new here. My new blog can be found at http://blog.uxul.de/. I welcome every reader to follow me there.


Technikfeindlichkeit

Fr, 28 Mai 2010 20:16:11 +0200

Ich habe mich ja schon über die „Wichtigkeit“ und Relevanz diverser „Internet-Kritiker“ subtil ausgelassen. Ich will mir demnächst das Buch „Das Große Rauschen“ zulegen, um mich „fulminant, klug und angriffslustig“ über „Die Lebenslügen der Digitalen Gesellschaft“ aufklären zu lassen. Wie es sich für so ein wichtiges Buch gehört kann man es nirgends herunterladen. Bei Amazon ist es aber gebraucht für 7 Euro inklusive Porto erhältlich, so viel bin nich gerade noch bereit zu zahlen – billiger als zwei Packungen dreilagiges Klopapier.

Nun, warum will gerade ich ein solches Buch lesen, was erwarte ich mir davon? Ich erwarte in diesem Buch wenig Überraschungen, ich erwarte eigentlich einen Text der sehr viele Klischees die ich so kenne repräsentiert. Aber ich will ein Objekt haben, an dem ich diese Klischees festmachen kann. Und ich erhoffe mir dadurch, besser zu verstehen, woher die Angst der Bevölkerung gegenüber (für sie) neuen Technologien kommt.

Mir scheint, als hätten wir im Moment neben den immer dagewesenen Kulturpessimisten eine neue Form der Technikfeindlichkeit, die es vorher so noch nicht gab, zumindest nicht in diesem Ausmaß. Die Technikfeindlichkeit entstammt nicht den Kulturpessimisten die sich der Technik verweigern, sondern sie stammt paradoxerweise genau von den Leuten die sie benutzen wollen: Den „Endbenutzern“. Es sind Menschen, die kein Interesse an technischen Hintergründen haben, sie wollen ihr Produkt „einfach nur verwenden“. So habe ich auch von einigen Kritikern des Vorschlags einer Art institutionalisiertem Internet-Führerschein bzw. eines Fachs über Internetkunde oder eines relevanten Faches Informatik, in dem man nicht nur Sekretärtätigkeiten lernt, genau dieses Gegenargument gehört: Die Spezialisten müssten sich einfach darum kümmern, dass die Laien es benutzen können.

Dies ist eine grundsätzlich technikfeindliche Einstellung, die ich noch schlimmer finde als die der Kulturpessimisten. Kulturpessimisten sind dafür, mehr Anstrengungen auf sich zu nehmen um einer bestimmten Entwicklung entgegenzuwirken, diese Einstellung hingegen ist reine Faulheit. Die Technik könnte an allen Ecken und Enden schon weiter seien, wenn nicht irgendein Marketingexperte die „Marktreife“ anzweifeln würde, weil man seinem Kunden nicht sagen kann, er soll doch bitte einen roten Knopf nicht drücken, außer wenn man es ihm sagt.

Die Technisierung ist jedenfalls ein Trend der sicher nicht zurückgehen wird, auch wenn er Zeitweise stagniert (weil es einfach keine relevanten Neuentwicklungen gibt). Und die Technik wird sicherlich nicht einfacher, und schon garnicht benutzerfreundlicher, ohne großen Aufwandt. Es ist nur gerechtfertigt, Schülern entsprechendes Wissen bereits in der Schule zu vermitteln. Ich habe zum Beispiel kaum Wissen über digitale Elektronik, einfach, weil die Bauteile teuer sind, einfach, weil es zu meiner Schulzeit kein schnelles erschwingliches Internet auf der Ländlichen Gegend aus der ich komme gab, und ich somit keinerlei Bezug dazu hatte. Ich hätte sie aber gerne. Und ich bin der Meinung, rudimentäres Wissen darüber ist unverzichtbar, und wichtiger als zum Beispiel Latein.

Auf die praktische Anwendbarkeit von Schulfächern wird ohnehin niemals eingegangen. Einzig die naturwissenschaftlichen Fächer scheinen sich – so war zu Schulzeiten mein Eindruck, und der ist es noch heute – ständig einer kritischen Beäugung von Wegen Praxisbezug unterziehen.

Wo ist zum Beispiel der Praxisbezug im Deutschunterricht? Der Deutschunterricht hat den Vorteil, dass er sich hinter dem Namen „Deutsch“ verstecken kann – doch „richtig sprechen und schreiben“ lernt man dort zumindest ab der fünften Klasse kaum noch. Man liest diverse Lektüren, zum Beispiel Göthe oder Schiller. Ich gebe zu, nicht alle Literatur die ich zu Lesen gezwungen wurde fand ich sehr schlecht, dennoch ist dieses Fach in einer Weise praxisfern wie kaum ein anderes Fach. Statt Rhetorik und Medienkompetenz lernt man das Verstehen anachronistischer Satzkonstrukte, welches ich seitdem niemals mehr nutzte.

Würde man allgemein Literatur mit den selben Kriterien betrachten wie Technik, würden Bücher wie die von Schiller niemals verkauft, weil sie schlichtweg dem Benutzer nicht zumutbar sind. Es wird ein großes Portfolio an Wissen und sprachlicher Begabtheit und Entrauschungsfähigkeit vom Konsumenten abverlangt, der nicht notwendig wäre, denn die getroffenen Aussagen sind meist banal und jedenfalls in wenigen Worten zusammenfassbar. Doch die allgemeine Auffassung ist es, dass sich der Mensch insbesondere als Schüler an die Gegebenheiten der Literatur anpassen muss, bei der Technik jedoch sieht man dies nicht ein, Technik sei ausschließlich zur Anwendung vorhanden, und im Zweifelsfall müsse man die Technik anpassen, nicht den Menschen.

Ich sehe das anders. Der technische Fortschritt erleichtert unser Leben in großem Maße, und er könnte es noch weiter erleichtern, wenn alle Menschen nur ein wenig bereit wären mitzugehen. E-Mails waren beispielsweise ursprünglich schon fast Magie, heute nutzt sie fast jeder, und zumindest hier sind sich die meisten Menschen wohl einig dass es eine effizientere und einfachere Form des Sendens von Informationen ist als der Postale Weg. Doch E-Mails haben Nachteile, beispielsweise die Unsicherheit des Contents. Experten und Leute die Wikipedia-Artikel lesen können haben unlängst zahlreiche Möglichkeiten um die Vertrauenswürdigkeit der E-Mail zu verbessern, und wenn man seinen Benutzern nur ein Minimum an Allgemeinbildung über kryptographische Verfahren zumuten würde wäre ein sehr großes Problem gelöst und man könnte sich wichtigeren Problemen widmen. Es wäre auch ziemlich schnell das Spam-Problem gelöst, denn man könnte Whitelists führen für Signaturen von denen man weiß dass sie kein Spam sind, und das Versenden ansonsten mit einer Challenge versehen.

Im Zusammenhang mit E-Mails fällt mir übrigens ein Paradebeispiel dafür ein, wie Benutzerfreundlichkeit Systeme unnötig kompliziert macht: Das automatische Ausblenden bekannter Dateinamenserweiterungen – meiner Meinung nach eine unglaublich sinnfreie Unidee. Dateien haben Namen, und eine Erweiterung, die etwas über deren Inhalt sagt – damit ist man Jahrzehnte Lang ausgekommen, „die drei Buchstaben hinter dem Punkt“ geben an was es für eine Art von Datei ist, anhand von ihnen kann man normalerweise erkennen, mit welchem Programm die Datei geöffnet wird. Im Grunde eine völlig Banale sache, die man jedem Benutzer zumuten könnte – .doc heißt „irgendwas mit Office“, .bmp/.jpg/.png sind irgendwelche Bilder, .zip/.tgz/.rar/.7z sind irgendwelche Archive, .exe/.com/.dll – vorsicht: das kann gefährlich sein, das sind ausführbare Dateien. Der Benutzer wird dann selbst, wenn er regelmäßig mit seinem Computer arbeitet, erkennen und lernen welche Erweiterungen was bedeuten. Und wenn nicht dann wird er sie wenigstens akzeptieren. Durch das Verstecken kamen schon diverse Viren zum Zug. Nein, das Ausblenden von Dateinamen ist keine Erleichterung, es ist künstliches Verstecken von Technik, das nichts positives bringt, aber viel Negatives.

Eine weitere Unsitte die sich in Windows inzwischen breitmacht ist das Geizen mit Fehlerinformationen. Als Admin hatte man ja schon immer mit Reports der Form „das geht nicht“ zu kämpfen, wenigstens konnte man bisher Rückfragen was denn die Fehlermeldung sei. Windows 7 hingegen scheint es nicht für nötig zu halten, irgendetwas anderes als Fehlermeldungen der Form „das geht nicht“ anzubieten. Weil – äh – ein Fehlercode könnte ja bedrohlich wirken, oh mein Gott, eine Zahl, und das auf einem Computer. Bäääh. Nein, lieber schreibt man freundlich „fragen Sie ihren Administrator“ dazu. Ich kann mir so richtig das hämische Grinsen des Programmierers vorstellen, der diesen Satz verbrochen hat. Der Admin kann nämlich mit einer vollkommen Inhaltslosen Fehlermeldung genausowenig anfangen. Doch das scheint den Nutzern nicht klar zu sein. Und normalerweise gehen alle Anstrengungen eines Admins dahin, dieses in das Bewusstsein seiner Schützlinge zu rufen. Windows hingegen geht den Weg, seinem Benutzer den Admin als „allmächtig und allwissend“ zu verkaufen.

Meiner Meinung nach hat jemand den eine Dateinamenserweiterung oder ein Fehlercode überfordern nichts vor einem Rechner zu suchen! Und eigentlich auch nichts hinter einem Lenkrad – wenn den schon ein Fehlercode irritiert, wie wird er sich dann erst im Straßenverkehr aufführen wenn mal eine Sicherungsleuchte leuchtet (was ja hin und wieder mal passiert). Es sind trotz noch so viel Desktop-Pr0n immernoch Maschinen, die nicht perfekt sind, und die eine große Fülle sehr komplexer Aufgaben übernehmen, und man kann nicht erwarten, dass eine Maschine einem das Denken abnimmt – vielleicht wird das dereinst möglich sein, doch noch ist die KI nicht hinreichend weit fortgeschritten, noch muss man dem Computer sagen was man will.

Eine andere nette Annekdote ist als ein Freund von mir vor Kurzem mit einer nach eigenen Angaben nicht allzu qualitativ hochwertigen Digitalkamera herumhantierte, um einen bestimmten Gegenstand zu fotografieren. Der Focus der Camera wäre zweifelsohne gut genug gewesen um den gewünschten Gegenstand scharf auf das Bild zu bringen. Doch diese Kamera hatte – wie viele, wie ich inzwischen las – eine nicht abschaltbare Autofokus-Funktion. Diese Autofokus-Funktion scheint auch in den meisten Fällen ganz passable Ergebnisse zu liefern. Nur eben in diesem einen Fall nicht. Wie schwer wäre es gewesen, die Autofokusfunktion – wenigstens mit etwas Aufwandt – abstellbar zu machen.

Benutzerfreundlichkeit ist es, dem Benutzer Werkzeuge anzubieten, nicht, sie ihm aufzuzwingen!

Damals als VHS noch modern war hatte ich einen Videorecorder und habe gerne mal irgendwelche TV-Sendungen damit aufgenommen. Die Programmierung eines Videorecorders war überaus schrecklich, eine einfache Einstellung „nimm Kanal X von Zeit A bis Zeit B auf“ war zum Beispiel zu viel verlangt, dafür gab es tolle niemals-durchgesetzte Standards wie ShowView. Hier wäre ein wenig mehr Benutzerfreundlichkeit durchaus nett gewesen. Nun, oft habe ich Sendungen aufgenommen während ich sie sah, das sollte ja eigentlich einfach sein, bei Werbeblöcken die sieben Minuten dauern kann dies aber auch gut und gerne mal eine Tortur sein. Vor Allem wenn der Videorekorder so schlau designed ist, dass er sich nach fünf Minuten Pause ausschaltet. Nun, dies mag generell recht gut sein, wenn ich mal vergesse, ihn zu stoppen. Aber bei einem siebenminütigen Werbeblock nach fünf Minuten abzuschalten (es dauert mindestens 3 Minuten bis der Schreibkopf danach wieder auf dem Band ist) ist nervig, und man sollte die Möglichkeit haben, diese Funktionalität abzuschalten. Zwischenzeitlich hackte ich mich um dieses Problem indem ich alle zwei Minuten mal kurz ein paar Sekunden aufnahm (irgendwann ging ich dazu über die Werbung einfach mit aufzunehmen).

Supermoderne Benutzerfreundlichkeit liefern auch die modernen neuen DNS-Defaultpages unter Anderem von T-Online. Bisher war es so, dass der Browser einem sagte, wenn er keine Webseite gefunden hat, die passt. Manch ein moderner Browser leitete einen dann eigens zu Gugel oder Vergleichbarem weiter. Das Gute daran war vor Allem, dass auch andere Software, aber eben auch der Browser, wusste, dass es einen Fehler gab. DNS-Defaultpages hingegen bringen nichts außer einer Werbefläche für das Unternehmen das sie anbietet, und Verwirrung. T-Online muss man wenigstens gutheißen, dass sie theoretisch die Möglichkeit geben, das abzustellen, wobei ich das nicht hingebracht habe, weil man irgendwelche Passwörter braucht, die ich nicht habe – meine Defaulteinstellung ist seitdem einfach 8.8.8.8. Bleibt die Frage, wozu überhaupt DNS-Defaultpages. Idiotenbrowser leiten ohnehin auf Google oder Bing weiter, alle anderen User werden die Fehlermeldung auch so kapieren. Es erzeugt Probleme, weil einige Software berechtigterweise davon ausgeht, zu merken, wenn DNS-Anfragen ins Leere gehen.

Nur um zu zeigen, dass es sich nicht auf die digitale Elektronik beschränkt, will ich von einer Heizung erzählen, ich kenne eine Heizung, die grundsätzlich zu kalt oder zu warm geschaltet wird. Es handelt sich dabei um ein Zimmer das ein etwas größeres Fenster hat, dementsprechend mehr Heizleistung bräuchte. Doch es scheint als würde der Thermostat irgendwie mit den anderen Thermostaten des Hauses zusammengeschaltet sein. Da hat sich wahrscheinlich irgendein Ingenieur stundenlang den Kopf über Thermodynamik zerbrochen, anstatt den User einfach entscheiden zu lassen, wie warm seine Heizung sein soll. Die Hacks damit umzugehen sind auch köstlich. Der Standardtrick im Winter immer wieder mal einen Eiswürfel unter den (am Boden angebrachten) Thermostat zu legen wirkt Wunder.

Ja, und dann gibts da noch die guten alten (bzw. neuen) Heuristiken beim Copypasten. Statt wie früher einfach den Benutzer entscheiden zu lassen ob er Text oder Design kopiert wird heute bei einigen Programmen eine Heuristik erzeugt, ob das Eingefügte eher formatierter Text ist, oder eher blanker Text.

Diese Heuristiken können ganz schön nerven, wenn man zum Beispiel HTML-Code umherkopiert. Sie liegen häufig falsch, aber selbst wenn sie richtig liegen, ich hatte niemals einen wirklichen Vorteil dadurch. Warum werde ich nicht einfach gefragt, als was ich meinen Text einfügen will. Ein Benutzer wird wohl unterscheiden können, ob er formatierten Text, den klartext aus dem formatierten Text, oder den Klartext aus dem Code  haben will. Und das besser als noch so viele Heuristiken.

Ich könnte weitere Beispiele bringen aber ich sehe gerade dass dieser Beitrag zu lang wird.

Nun, jetzt überlege man sich mal, wie viel Arbeit in Obige Benutzerfreundlichkeiten gesteckt wurde. Ich behaupte, viel zu viel. Anstatt dem Benutzer sinnfrei die Arbeit erleichtern zu wollen sollte man lieber gute neue Technik oder echte Benutzerfreundlichkeit entwickeln!

Es gibt ja auch durchaus sinnvolle Entwicklungen: Überlappende Fenster, und selbst Dinge wie Aero und Compiz, die ich ursprünglich für reinen Designschrott hielt, kann man für sinnvolle Dinge benutzen. Die automatische Zuordnung zwischen Dateityp und Defaultanwendung, entsprechende Icons und Vorschaubilder, sind ebenfalls etwas sehr gutes, was lange brauchte um sich durchzusetzen. Höhere Programmiersprachen erleichtern die Programmierung und sorgen so dafür, dass man erheblich schneller programmieren kann – zum Preis von Rechenleistung, dennoch durchaus rechtfertigbar. Journalling-Dateisysteme, Userlevel-Dateisysteme, all das ist im Grunde die reine Benutzerfreundlichkeit.


Die Unkultur des modernen Instant-Messaging

Do, 27 Mai 2010 15:01:05 +0200

Instant Messaging ist eine sehr nette sache gewesen, inzwischen schon fast wieder veraltet, und gerade deshalb eines der wenigen wirklich dauerhaften Internetphänomene, die sicherlich bestehen bleiben. Und in den Anfangszeiten, als der Hauptstrom gerade begann, sich mit ICQ anzufreunden, war es noch von einer relativ relevanten Gesprächskultur begleitet. Man war Online wenn man bereit war angechattet zu werden, Away wenn nicht. Not Available wenn der Rechner merkte dass man seit einer halben Stunde nichts mehr tat. Zur Korrektheit kam dann noch ein Do Not Disturb hinzu, das man setzen konnte, wenn man zwar da war, aber nicht gestört werden wollte.

Ungefähr hier begann, soweit ich mich erinnern kann, aber bereits das Ende dieser Gesprächskultur. Nämlich, als man diesen Status einfach begann zu ignorieren. DND wurde als gleichbedeutend mit Away angesehen, und somit wurde man auch trotz des DND-Status angeschrieben. Clientseitig gab es aber zumindest bei den nichtkommerziellen Clients bald eine Möglichkeit, zumindest die Benachrichtigungen darüber auszustellen.

Das Ignorieren des Status wurde aber auch nicht unbeträchtlich durch die Unkultur gefördert, einfach immer auf Away zu schalten. Es ist nämlich zu schwer seinen Computer auf Auto-Away einzustellen, außerdem ist man wenn man Online ist so … „verwundbar“. Im Online-Status hat man keine Ausrede nicht zu antworten, im Away-Status konnte man immer sagen, man wäre gerade nicht da. Aussagen wie „schreib mich einfach an, ich bin nur Away dass mich die ganzen Nervensägen nicht anschreiben“ waren irgendwie allgemein akzeptiert.

Und das katapultiert uns dann schon fast in die aktuelle Zeit. Wir haben inzwischen Status-Messages. Inzwischen werden diese auch von den meisten Clients unterstützt. Als dies noch nicht so war hatte man als Ersatz kurz mal AutoReply-Bots, die einem so nette Sachen wie „I am not here right now but as soon as I come back I will read your message.“ sagten – zumindest gibt es diese Autoreply-Bots inzwischen kaum noch, weil die meisten Leute kapiert haben, wie nervig und nutzlos sie sind. Dafür hat sich eine andere Unsitte weiter verbreitet: Das Unsichtbar Sein.

Der Invisible-Status ist eine der schlimmsten Erfindungen des Instant Messagings. Es ist der Gedanke, für Andere ausgewählte Personen als Offline zu gelten. Gut, nur für bestimmte Personen Online zu sein ist eine Entscheidung. Doch statt dass die IM-Server im Gegenzug erzwingen, dass man dann auch nichts über den Status seines Gegenübers erfährt, kann man fröhlich den lieben langen Tag invisible sein, und den Online-Status seiner Mitmenschen verfolgen.

In der Realität ist es meist so dass man sein Gegenüber sieht. Man weiß, ob es anwesend ist, ob es einem zuhört. Kontexte in denen dies nicht so ist können theoretisch beim Telefonieren auftreten, ansonsten wären die einzigen Situationen die mir einfielen die in diversen Krimiserien dargestellten Verhöre hinter einer Spiegelwand, ich weiß aber ehrlichgesagt nicht, wie viel da dran ist. Invisible zu sein ist anmaßend, und ich hatte bereits eine Zeit lang die Policy, jeden, den ich dabei erwischte, dass er Invisible war, von meiner Kontaktliste zu kicken. Meine Argumentation war dabei immer, dass ich niemanden anschreibe, wenn er DND ist. „Das ehrt dich ja sehr, aber dann habe ich immernoch 20 andere Kontakte die sich nicht daran halten“ ist eine denkbare Antwort – nun, wer mich anschreibt ohne wirklich triftigen Grund während ich DND bin, der kann auch ziemlich schnell von meiner Kontaktliste fliegen. Im Gegenzug bin ich aber auch nur dann DND, wenn ich wirklich nicht gestört werden will, und nicht nur, wenn ich grad keine Lust habe zu Antworten, aber trotzdem jeden anschreiben können will.

Der Unsichtbarkeitsstatus hat natürlich seinen kleinen Bruder, ich nenne ihn liebevoll ATSSTMIM  für „Always The Same Status To Make It Meaningless“. Menschen, die es nicht fertig bringen, ihrem Rechner zu sagen, er soll nach 20 Minuten Inaktivität auf Away schalten, und somit stundenlang online sind, ohne da zu sein. Oder Leute, die immer Away sind, oder noch schlimmer, DND, denen ich damit also guten Gewissens garnichts schreiben kann. Nun bin ich zumindest bei gewissen Leuten dazu übergegangen, dies auch genau so zu tun, und auch bei wichtigen Dingen auf E-Mails zurückzugreifen und mich zu weigern mit ihnen zu chatten wenn sie nicht auf einen repräsentativen Status (Online oder DND) schalten. Doch bekanntlich setzt sich Unkultur mit allen Mitteln durch, solche Leute gingen bald in den Invi-Status über.

Es handelt sich hier wie gesagt um eine Unkultur. Ein perfides Verhalten, das Informationen konsumiert, ohne bereit zu sein, sie in gleichem Maße bereitzustellen. Aber sich über Google und die anderen bösen Großunternehmen beschweren. Ja – es handelt sich hier eher um eine Lappalie, aber gerade in Lappalien zeigen sich Denkmuster oft sehr gut, und meiner Meinung nach sehen wir in diesem Verhalten eine Facette des Problems, an dem unsere Hochkultur letztlich zugrunde gehen wird.


Get a free PDF Reader

Do, 27 Mai 2010 01:11:55 +0200

Looking for some instructions for mozplugger embedding evince, besides the solution I found here, I also found a nice link to this campaign from the FSF Europe.

It is an appeal to use a free PDF Reader. Well, under Linux and other free systems, there are a lot of them, and they are all mostly good. I actually do not understand why there are still people who prefer the Adobe Reader under Linux. Not only are there a lot of alternatives, they are also mostly much better (faster, easier to use). Few PDFs are not working on them – the ones created with some strange WMF-Tools (M$ for the win) and of course the ones which are encrypted such that explicitly only Adobe Reader can open them. I had this situation exactly twice in my whole life – one time a PDF created with some strange settings from Scientific Workplace, and the other time from a Professor who wasnt allowed to publish parts of its book without encryption. Even commercial pdf-providers usually dont use this, because its basically useless – it is a crude form of DRM, but modern eBook-Formats have much better techniques for that.

Also under Windows, I dont want to use the Adobe Reader, but actually I mostly use (the non-free) Foxit Reader there. The FSE’s list names Evince for Windows – but Evince for Windows was in a Beta-State and I wouldnt have recommended it to normal people. Okular was stable but needed a full-blown KDE-Installation, and KDE for Windows is still no fun. I never tried Sumatra PDF though. I will have to do this.

Well, actually, I dont like PDF much. Many modern PDF-Files are bloated. I liked early versions of PostScript much better. And at the moment, I like djvu very much. At least for ebooks, djvu seems to be a good format. As a comparably simple format, I like SVG. I mean, its bloated with XML-Stuff, but at least the inner structure is simple.

Its a pity that only few pieces of free software work properly under Windows. Windows is still the main platform for most people, and to convince them of free software, it could be a good thing to actually make them work with it under Windows already.


Flying Uxul and Sunset

Mo, 24 Mai 2010 01:00:44 +0200


Phoenix-Runde „Internet außer Kontrolle“ – ein Kommentar

Sa, 22 Mai 2010 03:38:05 +0200

Wäre die Sendung bei Fefe nicht verlinkt gewesen, hätt ich sie mir wohl nicht angesehen: Die „Phoenix Runde zum Thema Internet außer Kontrolle„.

An dieser Stelle erstmal großen Respekt an die öffentlich-rechtlichen, dass man deren Sendungen auch herunterladen kann. Etwas weniger großen Respekt allerdings an deren Webmaster: Ein WMV – über MMS. Und dann auch noch mit einer Latenzzeit und Bandbreite die es unmöglich machte das ondemand sinnvoll anzusehen – zum Glück gibt es mencoder. Damit kann mans vorher runterladen (nur falls jemand die gleichen Probleme haben sollte).

Fefe meinte, das hätte das Zeug zur schlechtesten Sendung des Jahres. Auch wenn es mir schwerfällt jemandem zu widersprechen der bereits ein Krautchan-Meme ist: Wenn das die schlechteste Sendung des Jahres war, dann hat sich das Niveau des Fernsehens weit verbessert seit ich es das letzte Mal freiwillig konsumiert habe.

Nun, aber ich gestehe natürlich, das Konzept der Sendung war etwas gefailed. Erstmal zu den Anwesenden:

Die Moderatorin Anne Gesthuysen sollte man wohl kennen, ich habe aber keine Ahnung wer es ist, auf der Webseite wird eine Vita verlinkt.

Sascha Lobo sollte wohl jedem ein Begriff sein, ist Seinerseits zum Beispiel ebenfalls ein Krautchan-Meme. Jens Seipenbusch ist so wichtig dass sogar die deutsche Wikipedia ihn für relevant hält, er ist Bundesvorsitzender der Piratenpartei, als solchen sollte ich ihn vielleicht kennen, ich hatte aber ehrlichgesagt bis vorhin keine Ahnung wer das ist. Beide gehören zu den Internet-Befürwortern der Sendung, wenn man so will. Letzterer hielt sich mit seinen Aussagen eher zurück, und beschränkte sich im Wesentlichen auf das Darstellen von Gesetzeslagen. Sascha Lobo war eloquenter, und trotz all der Kritik die man über ihn hin und wieder liest, er hat Ahnung, und die Dinge die er sagt haben Hand und Fuß.

Jo, und dann natürlich noch die Internet-KritikerInnen, die allesamt Frauen sind, um alle Klischees auch schön aufrechtzuerhalten. Zuerstmal ist da Julia Klöckner. Laut Phoenix arbeitet sie im Bundesverbraucherschutzministerium, davon find ich aber auf die Schnelle nichts auf ihrer Wikipediaseite. Trotzdem scheint sie in der CDU ein großes Tier zu sein, und Wikipedia sagt, sie wäre Schuld an der Twitter-Affäre gewesen, was in mir durchaus Respekt auslöst – mal jemand der das Zeug über das er Redet auch wirklich benutzt. Generell hat sie zwar das obligatorische CDU-Gebrabbel draufgehabt, aber zumindest in Relation zu vielem Anderen was von dieser Partei schon meinte seine Meinung in die Welt tragen zu müssen fand ich ihre Haltung sehr aufgeschlossen und durchdacht. Jeder der die Sendung mal aufmerksam verfolgen will, soll mal darauf achten: Widerspricht sie eigentlich in irgendeinem relevanten konkreten Punkt Sascha Lobo? Eigentlich sagt sie nur, das was Gugel tat ist unerquicklich gewesen und man muss dafür sorgen dass die Unternehmen in Zukunft nicht einfach so den Datenschutz mit Füßen treten und bla – kurzgefasst sagt sie aber im Grunde auch nur, man müsse halt endlich die Gesetze ein wenig an die Neuzeit anpassen, und sie stimmt sogar Lobo zu bei der Forderung nach einem Schulfach Internetkunde. Große inhaltliche Differenzen habe ich da jedenfalls nicht gesehen, die „Diskussion“ wurde eher künstlich Hochgepusht, weil sich die Leute eigentlich einig waren über das Gesamtkonzept, nur nicht über die Feinheiten.

Wie dem auch sei, die zweite Person, Astrid Herbold, war eine „Internet-Kritikerin“. Diese Person hat sogar eine deutsche Wikipedia-Seite, damit ist sie mindestens so wichtig wie Bauchnabelfussel, und auf jeden Fall wichtiger als Christian Reiher (der hat nur einen Eintrag in der englischen Wikipedia, dieser unwichtige N00b). Ich meine, klar – sie hat ja auch vier (!!!!) Bücher geschrieben, von denen eines (!!!!) mit dem Thema zu tun hat – zeigt mir erstmal einen Bauchnabelfussel, der das von sich behaupten kann.

Und dass man mindestens so wichtig ist wie Bauchnabelfussel reicht natürlich aus, um zu einer Diskussion im Öffentlich-Rechtlichen Fernsehen eingeladen zu werden. Ich bin leider nicht so wichtig wie Bauchnabelfussel. Vielleicht sollte ich „Realitäts-Kritiker“ werden, und ein Buch über „die Lebenslügen der Realitäts-Fagottspieler“ schreiben. Oder „RL – das Schlimmste aller Killerspiele“. Oder „Germanisten die nicht mit Technik zurechtkommen und dafür ins Fernsehen kommen“.

Jedenfalls hielt sie sich ziemlich zurück. Ein paar Kommentare der Qualität „Google ist möglicherweise böse weil es Geld verdienen will“ waren es glaub ich gewesen, soweit ich mich grad erinnern kann.

Die Diskussion war hauptsächlich bla bla. Was mich wenig überrascht, denn das Thema ist eigentlich auch nur bla bla. Gugel hat W-Lan-Paketdaten gesammelt. Und da war halt bei offenen W-Lans auch unverschlüsseltes Zeug dabei. Ich hatte eigentlich erwartet, dass es darum geht, dass Gugel überhaupt W-Lan-SSIDs und whatever sammelt, denn ich persönlich finde dieses Verhalten bereits äußerst diskussionsbedürftig – aber das hat nun irgendwie recht wenig mit dem Internet zu tun. Genauso könnte man die Risiko-Kartographierung Deutschlands durch die Versicherungen als Aufhänger zu einer Diskussion über das Versicherungswesen nehmen. Es ist … beliebig.

Dass Signale, die durch offene W-Lans gehen, auch von jemand Fremdem gelesen und gespeichert werden, nun, das macht die Sache für mich nicht schlimmer. Im Gegenteil, vielleicht lernen die Leute so endlich, dass sie gefälligst ihre privaten W-Lans verschlüsseln, und wenn sie in einem Internetcafe oder so in einem offenen W-Lan sind, Privates, also alles, was nicht sämtliche andere Menschen in der Umgebung auch mitlesen dürften, ebenfalls verschlüsseln. Und wenn Google Street View dazu beiträgt, dann finde ich hat sich die ganze Aktion bereits gelohnt. Denn sorry, aber: Wer nicht verschlüsselt, ist selbst schuld! Es ist ja nicht so als würde man großartige Bildung brauchen um ein verschlüsseltes W-Lan aufzubauen: Die mitgelieferte Software der meisten Anbieter richtet automatisch alles so ein, dass die Verbindung hinreichend verschlüsselt ist. Und wenn man sich nicht sicher ist, ob dem so ist, dann soll man eben bei seinem Anbieter nachfragen.

Vielleicht würden die Leute das ja auch so machen, wenn sie „Internetkunde“ in der Schule gehabt hätten (oder nicht zu faul wären eine Bedienungsanleitung zu lesen oder jemanden zu fragen der sich mit sowas auskennt). Internetkunde – nun, sicher kein Widerspruch von mir, aber es handelt sich hier um ein allgemeineres Problem: Menschen wollen Technik benutzen, ohne sie zu verstehen, und das ad Absurdum. Und die Unternehmen wollen größtenteils, dass das so bleibt, weil man damit seinen Schrott ziemlich teuer los wird. Das macht die Technik dann wiederum komplizierter als sie sein muss. Eine Spirale der Technikentfremdung entsteht, und die müsste man mal stoppen.

Wie dem auch sei. Ich hatte eine Hetzsendung gegen moderne Technik erwartet, und sah ein nettes ungezwungenes Gespräch mit drei Leuten die sich eigentlich einig waren, einer Person die nicht wirklich mitreden wollte, und einer Moderatorin die sich bemüht hat irgendwie eine Kontroverse zu erzeugen in der ganzen Einigkeit. Ich wusste auch noch nicht, dass das Internet für den Friedensnobelpreis vorgeschlagen wurde, wie man dort erfuhr, ich halte dies für Schwachfug, und die Personen in der Diskussionsrunde, so wie ich deren zögerliches Zweifeln interpretiere, eigentlich auch, sie wollten es nur nicht so direkt sagen.

Für mich mag es dennoch keine essenziellen neuen Erkenntnisse gegeben haben, aber man muss solche Sendungen immer mit den Augen eines Wahlzombies sehen, und ich denke, denen hat die Sendung ein wenig die Internet-Angst genommen.


Portal und andere Spiele …

Sa, 22 Mai 2010 00:02:46 +0200

… werden jetzt ja dann wohl in größerer Zahl auf Mac OS Portiert, und damit bleibt zu hoffen, dass man sie dann leichter auf Linux portierbar beziehungsweise emulierbar/virtualisierbar sein werden, denn die Grundlagen beider Systeme sollten doch näher verwandt sein.

Jedenfalls stiefelte ich heute Windows auf meinem neuen Denkblock. Konfigurierte Ubuntu auch gleichzeitig so, dass es virtualisierbar ist unter ebendiesem Windows, sodass nicht nicht mehrere Logs und Feuerfuchsprofile maintainen muss. Lief auch alles wunderbar.

Steam startierte und brauchte lange um Portal herunterzuladen und nachdem es dieses endlich fertiggetan hatte stürzte es erstmal gepflegt ab. Nach einem Neustart und dem versuch, Portal zu starten, klärte es mich auf, dass es meinen Grafikchip nicht kennen würde. Durchaus möglich, es ist nicht der Neueste, und dementsprechend Überrascht war ich, als dann das Spiel doch loslief und ich mit relativ wenigen aber eben immernoch daseienden Rucklern anfangen konnte zu spielen.

Die Ruckler waren nervig, und so wollte ich die Bildqualität heruntersetzen, was zu einem prompten Absturz führte, und vor einem kompletten Systemneustart schaffte ich es auch nicht das Spiel wieder zu starten. Danach stellte ich alles wieder um, in der Hoffnung, danach würde das Spiel wenigstens wieder im vorherigen Zustand sein. Was soll ich sagen, das Spiel hängte sich auf und lastete einen Prozessorkern voll aus, sodass ich mich gezwungen sah, es zu keksen.

Erst dann wurde mir plötzlich klar, was ich da eigentlich gerade tue: Ich versuche ein Windows-Spiel unter Windows zum Laufen zu bringen. Ich, der ich garnicht Windows verwenden will, und Windows nur boote, weil ich ein Spiel spielen will, strenge mich an, damit dieses Spiel funktioniert. Überhaupt gibt es wenig Gründe für mich, ein Windows-System zu starten. Ich habe mein Ubuntu – und wenn mir das nicht mehr gefällt habe ich Arch Linux. Und wenn mir selbst das nicht gefällt werde ich auf Solaris oder ein BSD umsteigen.

Ich muss mich also auch noch anstrengen, damit ein Spiel, das ich zumindest theoretisch gekauft haben könnte, unter einem kooperativen System läuft. Interessant. Selbstverständlich überlege ich mir nun also zweimal, ob ich mir wirklich eines der kostenpflichtigen Spiele kaufe. Ich hatte schon mehrere Spiele im Sinne, oft auch ältere, nur ist bei denen nie so klar ob sie unter Wine wirklich gut laufen – und bei etwas älteren Modellen ist selbst nicht klar ob sie auf einem modernen Windows gut laufen.

Ok, bevor ich gleich damit anfange, was ich am Verhalten der Spielehersteller alles nicht verstehe, erstmal eine Liste mit Dingen die ich verstehe – nur des guten Willens wegen:

  • Ich verstehe, dass sie ihre Spiele – wenigstens am Anfang – nicht Opensourcen. Kopierschutzmaßnahmen werden durch Open Source nahezu unmöglich. Außerdem steckt in einem Spiel mehr Interesse als bloße Software. Es ist ein Gesamtkunstwerk und man will freilich nicht dass Leute es bereits umschreiben bevor sie es überhaupt sinnvoll gespielt haben.
  • Ich verstehe, dass sie DRM-Maßnahmen ergreifen wollen. Ich finde es nicht gut, vor allem, weil die ganzen DRM-Lösungen so beschissen implementiert sind, aber ich verstehe es.
  • Ich verstehe, dass den Spieleherstellern OpenGL ohne diverse Erweiterungen nicht ausreicht.
  • Ich verstehe, dass Spielehersteller nicht die Portierung auf Betriebssysteme bezahlen wollen, die nicht hinreichend verbreitet sind.

Ja, so viel kann ich verstehen. Jetzt kommt dann mal, was ich nicht verstehe:

  • Ich verstehe nicht, dass sie nicht wenigstens Teile ihrer Spiele oder der verwendeten Spieleengines soweit offenlegen, dass die Geeks sich das Spiel entsprechend selbst portieren können. Der Hauptanteil des Unportierbaren sind wohl die direkten Hardwarezugriffe auf den Grafikkartenspeicher, beziehungsweise die niedrigstufigen Aufrufe der Grafikbibliotheken. Diese kann man ersetzen. Man kann jedenfalls der Wine-Community (die immerhin für eine Portierung auf mindestens 4 zusätzliche Betriebssysteme arbeiten würde) die Arbeit erleichtern durch Zusatzangaben.
  • Ich verstehe nicht, warum die ganzen DRM-Maßnahmen so beschissen programmiert sind. Wie wärs mit: Der Maschinencode ist Verschlüsselt und kann nur mit einem entsprechenden Schlüssel entschlüsselt werden. Und das auch nur indem man ihn meinetwegen irgendwo in den heap speichert und dann an eine definierte Speicherstelle springt. Irgendwas von der Form „ich schau regelmäßig im Internet nach ob du mich spielen darfst“ sollte man jedenfalls leichter wegcracken können. Letztendlich kann man alle Kopierschutzmaßnahmen aber irgendwie umgehen, wenn man ein irgendwie offenes System haben will – und damit meine ich nicht Betriebssystem sondern schon sowas von Wegen nicht so einen komplettgeschlossenen Krampf wie das iPhone oder sowas (und selbst das wird gejailbreaked …).
  • Ich verstehe nicht, warum Spielehersteller und Hardwarehersteller Microsoft so dermaßen in den Arsch kriechen, dass sie sich auf DirectX einlassen. Ich sage nicht, dass DirectX irgendwie extrinsisch schlecht ist, aber es ist intrinsisch schlecht weil nicht Portabel. Als Spielehersteller will ich mich doch nicht Abhängig machen von der Grafikbibliothek eines bestimmten Unternehmens, und schon garnicht von dessen Betriebssystem, an dem dieses Unternehmen wild rumbasteln kann ohne mein Einverständnis. Gleichermaßen will ich das doch als Hardwarehersteller nicht. Im Grunde ist der einzige Sinn von 3D-Grafikkarten auf Heim-PCs, dass man mit ihnen Spiele spielen kann. Das heißt, die Spiele wollen im Wesentlichen an die Grafikkarte, die Grafikkarte will im Wesentlichen an die Spiele, Windows ist nur ein Kleber dazwischen, und die Schicht soll möglichst dünn sein. Wieso tun sich nicht die verschiedenen Spiele- und Grafikkartenhersteller zusammen und machen eine eigene Infrastruktur auf – ich meine, sie müssen doch eh Treiber schreiben, so viel mehr Aufwandt kann das doch nicht sein. Vor Allem das Ganze dann einigermaßen Portabel aufzubauen sollte doch gehen. Immerhin ist doch die Rechenleistung selber selten der Flaschenhals, sondern eher die Grafikleistung.
  • Ich verstehe nicht, wieso jemand Spiele auf Macs portieren will. Einen Mac kauft man sich nicht um Spiele zu spielen. Man kauft ihn sich um mit Mac OS X zu spielen.

Jedenfalls werde ich jetzt also weiterhin lieber versuchen, das Ganze unter Wine zum Laufen zu bringen. Ich glaube die Zeit ist sinnvoller investiert. Spielen kann ich eh vergessen im jetzigen Zustand.


Are shared libraries still appropriate?

Do, 20 Mai 2010 18:13:59 +0200

Currently, I am trying to remove some dependencies of Uxul-World. I was thinking of completely kicking LTK – though I like LTK – but as this is just part of the Level-Editor, till now I just thought I should keep it. On the other hand, it produces additional dependencies – lisp-magick right now, maybe I will switch to cl-gd or to my own little ffi-binding. On the other hand, if I did all that stuff directly without LTK, inside SDL, I would just have to use sdl-gfx to stretch and captionize Images.

However, hardlinking with SBCL against ffi-bindings is hard to impossible, and the License of SDL forbids this for free software anyway as far as I remember. Under Linux, SDL may be a default library which is nearly always installed, while under Windows, I dont think so. Under linux, there is no problem with providing a simple package-dependency-list, as long as the packages are not too exotic and can be easily installed. But of course, I also want the game to be playable under Windows, without having to install a whole Unix-Like Environment before. So maybe, under Windows, I should use OpenGL instead. Well, I will see  that.

I am currently not concentrating on portability but on finally getting some playable content into it. In general though, its good to already think about it: I dont want to produce a dependency-hell. I hate dependency-hells. Having a lot of additional dependencies in a software package can really make me sad. Mostly this leads to a lot of strange Download- and Installation-Procedures, since every project has its own policies, and in the end the only thing I have is additional knowledge about small libraries which I didnt even want to know about.

Having libraries like the zlib or libpng linked dynamically is something that really sounds anachronistic to me. Maybe in embedded devices this makes sense, but on every modern PC, the additional memory footprint should be negligibly small. A real dependency-monster depends on thousands of such small libraries, such that the footprint can get remarkable large. When using dynamic libraries, the executable code can be mapped multible times between different processes by the kernel, which needs less memory, and makes the code really „shared“.

But in the end, the only real bottleneck when just hardlinking against everything and deploying large binaries with small dependencies is the Usage of RAM. Neither hard disk space should be an issue nor should the additional needed traffic be.

And again, the solution I would suggest to this could come from deduplication technologies. Assume you download a binary, and execute it. Then the kernel has to read it, and can therefore create an index of checksums of the memory blocks the binary contents. Assuming that mostly the same libraries are hardly linked, and thus, the same or very similar binary code occurs, the kernel will notice that it loaded equivalent blocks into memory already, and can therefore map them together, like it would do with shared libraries. A main difference would be that the pages would have to be mapped as copy-on-write-pages, since some software may change its executable code (willingly or through a bug ). The binary could additionally provide hints for the kernel, for example flags that tell the kernel not to try to deduplicate certain parts of the loaded process image, for it may change or will only be used in extremely seldom cases, or flags telling to what library (and source-file) some memory-pages belonged, so the kernel can optimize the memory-deduplication.

Just to emphasize this – I am not talking about deduplication of all of the RAM-Memory, only about a small procedure run at the start of a new process, which searches for identical pages that are already mapped somewhere. I am sure this would take longer than just softlinking. But it shouldnt take too much additional time, and one could add heuristics for very small process-images not to deduplicate at all to make them load faster.

In any case, I think it would make the work with binaries easier, as well deploying as using, especially outside some package manager. For example it would produce an easier way of maintaining multiarch-systems.

And – imo – it fits more into the world of free software, where you have a lot of chaotic dependencies and a developer cannot keep track of all of these dependencies‘ newest versions and installation procedures, so he would just put everything inside his project directly.

Its basically giving up a bit of infrastructure while getting a new way of solving problems for which this infrastructure was basically created. And it sounds like everything is already there to implement this. Of course, I am not a kernel developer, I cant say how hard it really is. I am pretty sure, in Linux there wont ever be such a thing, but maybe more innovative Operating Systems like Open Solaris could provide it – as Solaris is known for its propensity to new technologies.


Computerprogramm gegen Amokläufer

Mi, 19 Mai 2010 02:01:11 +0200

Lol schon wieder meint irgendwer er hätte eine Möglichkeit gefunden Amokläufe anhand von Verhaltensmustern programmatisch vorauszusagen, schreibt gulli.com – sorry, das hab ich inzwischen einmal zu oft gehört um es wirklich zu glauben. Dass es Profiling-Software gibt die zumindest Anhaltspunkte geben kann ok. Aber dass man damit irgendeinen Amoklauf wirklich verhindern kann, das bezweifle ich stark.

Zum Einen müsste man damit sehr viele Informationen sehr vieler Personen sammeln – ich denke mal, so viel, dass selbst noch so viele Polizeigewerkschaftspressekonferenzen die Bevölkerung nicht mehr davon überzeugen könnten.

Außerdem sehe ich in sowas eine Gefahr. Die Frage die sich mir stellt: Angenommen, so eine Software würde wirklich funktionieren. Und angenommen, sie würde auf irgendeinen Menschen anschlagen, der sich sonst nichts vorzuwerfen hat. Was soll man tun? Soll man ihn zwingen eine Therapie zu machen? Soll man ihn einsperren? Ich bezweifle, dass das noch irgendwie mit rechtsstaatlichen Prinzipien vereinbar wäre, einen Menschen „präventiv“ einzusperren, vor allem nachdem sich der Gesetzgeber schon so schwer mit dem Stalking-Gesetz getan hat.

Imho produziert so etwas drei Dinge, die wir gerade im Moment am wenigsten brauchen: Angst, Misstrauen und Schuldige.

Schuldige vor Allem im Falle eines Amoklaufs. Denn nicht nur der Amokläufer wird schuld sein, sondern etliche Behörden, die nicht rechtzeitig reagiert haben, obwohl deren Profiling den Amokläufer frühzeitig erkannt hätte. Wir haben in letzter Zeit sowieso schon viel zu viele Mitschuldige bei jeder sich bietenden Gelegenheit. Anstatt eines komplizierten Computerprogramms das versucht einzelne Täter herauszupicken sollte man vielleicht eher nach den gesellschaftlichen oder sonstigen Gründen für die – angeblich – gestiegene Anzahl an Amokläufen in der letzten Zeit suchen.

Misstrauen vor Allem gegenüber dem Staat und der Polizei, die noch mehr Daten von uns sammelt, und diese möglicherweise in großen Datenbanken ansammelt, die dann – wie so oft – von irgendwem Gehackt werden, der damit die Persönlichkeitsprofile vieler Menschen hat. Außerdem ist ja nicht auszuschließen, dass die Daten die gesammelt werden fehlerhaft sind, und es ist auch nicht auszuschließen, dass sie wissentlich manipuliert werden. Und, wenn jemand erstmal als potenzieller Amokläufer stigmatisiert wurde, wird er eine sehr schlechte Position haben eine solche wissentliche Manipulation aufzudecken und sich dagegen zu wehren. Das Letzte was wir brauchen ist noch mehr Misstrauen gegenüber dem Staat. Davon gibt es eh schon genug.

Das Schlimmste ist wohl die zusätzliche Angst. Zunächst mal wird die Angst vor Amokläufen dadurch wohl eher verstärkt als geschwächt. „Die da oben“ werden ja schließlich ihre Gründe haben, warum sie so eine Maßnahme einführen. Zusätzlich zu der Angst vor neuen Amokläufen kommt die Angst davor, sich irgendwie auffällig zu verhalten, und selbst fälschlich als potenzieller Amokläufer „erkannt“ zu werden. Man wird von solchen Fällen hören (denn es wird sie sicher geben), und sein Verhalten unbewusst anpassen. Wahrscheinlich wird es dann irgendwann Kurse geben, wie man sich verhalten soll, um nicht erfasst zu werden.

Was ich damit sagen will ist nicht, dass ich eine solche Technik grundsätzlich sinnlos finde. Im Gegenteil, der Einsatz von Computern in der Psychologie ist sowieso etwas was ich ziemlich stark vermisse irgendwie. Ich rate nur zur extremen Vorsicht. Das Wissenschaftsteam wird – wie die meisten guten Wissenschaftsteams – vor Allem Nerds beinhalten, die von ihrer Sache fasziniert sind und dementsprechend diese auch benutzen wollen. Die Politiker werden wie üblich höchstens die Hälfte verstehen aber meinen, es sei ja ihre Aufgabe das Volk mit allen Mitteln vor Gefahren zu schützen. CCC und Konsorten werden das Ding unter die Lupe nehmen, kritisieren und wie üblich erstmal ignoriert werden.

Darum rate ich zur Vorsicht von vorne herein. Ich halte Derartiges für interessant aber auch hochgefährlich.


„Entwicklungsland“ Indien

Mi, 19 Mai 2010 01:15:48 +0200

Das als Entwicklungsland bekannte Indien will offenbar ein eigenes Betriebssystem schreiben, um Unabhängig von speziellen Anbietern und Staaten zu sein.

Damit sind sie schon mal schlauer als unsere Helden mit ihren seltsamen Mautplänen und diversen Wahlcomputern oder dem Verschenken von Volkseigentum.