Technikfeindlichkeit

Fr, 28 Mai 2010 20:16:11 +0200

Ich habe mich ja schon über die „Wichtigkeit“ und Relevanz diverser „Internet-Kritiker“ subtil ausgelassen. Ich will mir demnächst das Buch „Das Große Rauschen“ zulegen, um mich „fulminant, klug und angriffslustig“ über „Die Lebenslügen der Digitalen Gesellschaft“ aufklären zu lassen. Wie es sich für so ein wichtiges Buch gehört kann man es nirgends herunterladen. Bei Amazon ist es aber gebraucht für 7 Euro inklusive Porto erhältlich, so viel bin nich gerade noch bereit zu zahlen – billiger als zwei Packungen dreilagiges Klopapier.

Nun, warum will gerade ich ein solches Buch lesen, was erwarte ich mir davon? Ich erwarte in diesem Buch wenig Überraschungen, ich erwarte eigentlich einen Text der sehr viele Klischees die ich so kenne repräsentiert. Aber ich will ein Objekt haben, an dem ich diese Klischees festmachen kann. Und ich erhoffe mir dadurch, besser zu verstehen, woher die Angst der Bevölkerung gegenüber (für sie) neuen Technologien kommt.

Mir scheint, als hätten wir im Moment neben den immer dagewesenen Kulturpessimisten eine neue Form der Technikfeindlichkeit, die es vorher so noch nicht gab, zumindest nicht in diesem Ausmaß. Die Technikfeindlichkeit entstammt nicht den Kulturpessimisten die sich der Technik verweigern, sondern sie stammt paradoxerweise genau von den Leuten die sie benutzen wollen: Den „Endbenutzern“. Es sind Menschen, die kein Interesse an technischen Hintergründen haben, sie wollen ihr Produkt „einfach nur verwenden“. So habe ich auch von einigen Kritikern des Vorschlags einer Art institutionalisiertem Internet-Führerschein bzw. eines Fachs über Internetkunde oder eines relevanten Faches Informatik, in dem man nicht nur Sekretärtätigkeiten lernt, genau dieses Gegenargument gehört: Die Spezialisten müssten sich einfach darum kümmern, dass die Laien es benutzen können.

Dies ist eine grundsätzlich technikfeindliche Einstellung, die ich noch schlimmer finde als die der Kulturpessimisten. Kulturpessimisten sind dafür, mehr Anstrengungen auf sich zu nehmen um einer bestimmten Entwicklung entgegenzuwirken, diese Einstellung hingegen ist reine Faulheit. Die Technik könnte an allen Ecken und Enden schon weiter seien, wenn nicht irgendein Marketingexperte die „Marktreife“ anzweifeln würde, weil man seinem Kunden nicht sagen kann, er soll doch bitte einen roten Knopf nicht drücken, außer wenn man es ihm sagt.

Die Technisierung ist jedenfalls ein Trend der sicher nicht zurückgehen wird, auch wenn er Zeitweise stagniert (weil es einfach keine relevanten Neuentwicklungen gibt). Und die Technik wird sicherlich nicht einfacher, und schon garnicht benutzerfreundlicher, ohne großen Aufwandt. Es ist nur gerechtfertigt, Schülern entsprechendes Wissen bereits in der Schule zu vermitteln. Ich habe zum Beispiel kaum Wissen über digitale Elektronik, einfach, weil die Bauteile teuer sind, einfach, weil es zu meiner Schulzeit kein schnelles erschwingliches Internet auf der Ländlichen Gegend aus der ich komme gab, und ich somit keinerlei Bezug dazu hatte. Ich hätte sie aber gerne. Und ich bin der Meinung, rudimentäres Wissen darüber ist unverzichtbar, und wichtiger als zum Beispiel Latein.

Auf die praktische Anwendbarkeit von Schulfächern wird ohnehin niemals eingegangen. Einzig die naturwissenschaftlichen Fächer scheinen sich – so war zu Schulzeiten mein Eindruck, und der ist es noch heute – ständig einer kritischen Beäugung von Wegen Praxisbezug unterziehen.

Wo ist zum Beispiel der Praxisbezug im Deutschunterricht? Der Deutschunterricht hat den Vorteil, dass er sich hinter dem Namen „Deutsch“ verstecken kann – doch „richtig sprechen und schreiben“ lernt man dort zumindest ab der fünften Klasse kaum noch. Man liest diverse Lektüren, zum Beispiel Göthe oder Schiller. Ich gebe zu, nicht alle Literatur die ich zu Lesen gezwungen wurde fand ich sehr schlecht, dennoch ist dieses Fach in einer Weise praxisfern wie kaum ein anderes Fach. Statt Rhetorik und Medienkompetenz lernt man das Verstehen anachronistischer Satzkonstrukte, welches ich seitdem niemals mehr nutzte.

Würde man allgemein Literatur mit den selben Kriterien betrachten wie Technik, würden Bücher wie die von Schiller niemals verkauft, weil sie schlichtweg dem Benutzer nicht zumutbar sind. Es wird ein großes Portfolio an Wissen und sprachlicher Begabtheit und Entrauschungsfähigkeit vom Konsumenten abverlangt, der nicht notwendig wäre, denn die getroffenen Aussagen sind meist banal und jedenfalls in wenigen Worten zusammenfassbar. Doch die allgemeine Auffassung ist es, dass sich der Mensch insbesondere als Schüler an die Gegebenheiten der Literatur anpassen muss, bei der Technik jedoch sieht man dies nicht ein, Technik sei ausschließlich zur Anwendung vorhanden, und im Zweifelsfall müsse man die Technik anpassen, nicht den Menschen.

Ich sehe das anders. Der technische Fortschritt erleichtert unser Leben in großem Maße, und er könnte es noch weiter erleichtern, wenn alle Menschen nur ein wenig bereit wären mitzugehen. E-Mails waren beispielsweise ursprünglich schon fast Magie, heute nutzt sie fast jeder, und zumindest hier sind sich die meisten Menschen wohl einig dass es eine effizientere und einfachere Form des Sendens von Informationen ist als der Postale Weg. Doch E-Mails haben Nachteile, beispielsweise die Unsicherheit des Contents. Experten und Leute die Wikipedia-Artikel lesen können haben unlängst zahlreiche Möglichkeiten um die Vertrauenswürdigkeit der E-Mail zu verbessern, und wenn man seinen Benutzern nur ein Minimum an Allgemeinbildung über kryptographische Verfahren zumuten würde wäre ein sehr großes Problem gelöst und man könnte sich wichtigeren Problemen widmen. Es wäre auch ziemlich schnell das Spam-Problem gelöst, denn man könnte Whitelists führen für Signaturen von denen man weiß dass sie kein Spam sind, und das Versenden ansonsten mit einer Challenge versehen.

Im Zusammenhang mit E-Mails fällt mir übrigens ein Paradebeispiel dafür ein, wie Benutzerfreundlichkeit Systeme unnötig kompliziert macht: Das automatische Ausblenden bekannter Dateinamenserweiterungen – meiner Meinung nach eine unglaublich sinnfreie Unidee. Dateien haben Namen, und eine Erweiterung, die etwas über deren Inhalt sagt – damit ist man Jahrzehnte Lang ausgekommen, „die drei Buchstaben hinter dem Punkt“ geben an was es für eine Art von Datei ist, anhand von ihnen kann man normalerweise erkennen, mit welchem Programm die Datei geöffnet wird. Im Grunde eine völlig Banale sache, die man jedem Benutzer zumuten könnte – .doc heißt „irgendwas mit Office“, .bmp/.jpg/.png sind irgendwelche Bilder, .zip/.tgz/.rar/.7z sind irgendwelche Archive, .exe/.com/.dll – vorsicht: das kann gefährlich sein, das sind ausführbare Dateien. Der Benutzer wird dann selbst, wenn er regelmäßig mit seinem Computer arbeitet, erkennen und lernen welche Erweiterungen was bedeuten. Und wenn nicht dann wird er sie wenigstens akzeptieren. Durch das Verstecken kamen schon diverse Viren zum Zug. Nein, das Ausblenden von Dateinamen ist keine Erleichterung, es ist künstliches Verstecken von Technik, das nichts positives bringt, aber viel Negatives.

Eine weitere Unsitte die sich in Windows inzwischen breitmacht ist das Geizen mit Fehlerinformationen. Als Admin hatte man ja schon immer mit Reports der Form „das geht nicht“ zu kämpfen, wenigstens konnte man bisher Rückfragen was denn die Fehlermeldung sei. Windows 7 hingegen scheint es nicht für nötig zu halten, irgendetwas anderes als Fehlermeldungen der Form „das geht nicht“ anzubieten. Weil – äh – ein Fehlercode könnte ja bedrohlich wirken, oh mein Gott, eine Zahl, und das auf einem Computer. Bäääh. Nein, lieber schreibt man freundlich „fragen Sie ihren Administrator“ dazu. Ich kann mir so richtig das hämische Grinsen des Programmierers vorstellen, der diesen Satz verbrochen hat. Der Admin kann nämlich mit einer vollkommen Inhaltslosen Fehlermeldung genausowenig anfangen. Doch das scheint den Nutzern nicht klar zu sein. Und normalerweise gehen alle Anstrengungen eines Admins dahin, dieses in das Bewusstsein seiner Schützlinge zu rufen. Windows hingegen geht den Weg, seinem Benutzer den Admin als „allmächtig und allwissend“ zu verkaufen.

Meiner Meinung nach hat jemand den eine Dateinamenserweiterung oder ein Fehlercode überfordern nichts vor einem Rechner zu suchen! Und eigentlich auch nichts hinter einem Lenkrad – wenn den schon ein Fehlercode irritiert, wie wird er sich dann erst im Straßenverkehr aufführen wenn mal eine Sicherungsleuchte leuchtet (was ja hin und wieder mal passiert). Es sind trotz noch so viel Desktop-Pr0n immernoch Maschinen, die nicht perfekt sind, und die eine große Fülle sehr komplexer Aufgaben übernehmen, und man kann nicht erwarten, dass eine Maschine einem das Denken abnimmt – vielleicht wird das dereinst möglich sein, doch noch ist die KI nicht hinreichend weit fortgeschritten, noch muss man dem Computer sagen was man will.

Eine andere nette Annekdote ist als ein Freund von mir vor Kurzem mit einer nach eigenen Angaben nicht allzu qualitativ hochwertigen Digitalkamera herumhantierte, um einen bestimmten Gegenstand zu fotografieren. Der Focus der Camera wäre zweifelsohne gut genug gewesen um den gewünschten Gegenstand scharf auf das Bild zu bringen. Doch diese Kamera hatte – wie viele, wie ich inzwischen las – eine nicht abschaltbare Autofokus-Funktion. Diese Autofokus-Funktion scheint auch in den meisten Fällen ganz passable Ergebnisse zu liefern. Nur eben in diesem einen Fall nicht. Wie schwer wäre es gewesen, die Autofokusfunktion – wenigstens mit etwas Aufwandt – abstellbar zu machen.

Benutzerfreundlichkeit ist es, dem Benutzer Werkzeuge anzubieten, nicht, sie ihm aufzuzwingen!

Damals als VHS noch modern war hatte ich einen Videorecorder und habe gerne mal irgendwelche TV-Sendungen damit aufgenommen. Die Programmierung eines Videorecorders war überaus schrecklich, eine einfache Einstellung „nimm Kanal X von Zeit A bis Zeit B auf“ war zum Beispiel zu viel verlangt, dafür gab es tolle niemals-durchgesetzte Standards wie ShowView. Hier wäre ein wenig mehr Benutzerfreundlichkeit durchaus nett gewesen. Nun, oft habe ich Sendungen aufgenommen während ich sie sah, das sollte ja eigentlich einfach sein, bei Werbeblöcken die sieben Minuten dauern kann dies aber auch gut und gerne mal eine Tortur sein. Vor Allem wenn der Videorekorder so schlau designed ist, dass er sich nach fünf Minuten Pause ausschaltet. Nun, dies mag generell recht gut sein, wenn ich mal vergesse, ihn zu stoppen. Aber bei einem siebenminütigen Werbeblock nach fünf Minuten abzuschalten (es dauert mindestens 3 Minuten bis der Schreibkopf danach wieder auf dem Band ist) ist nervig, und man sollte die Möglichkeit haben, diese Funktionalität abzuschalten. Zwischenzeitlich hackte ich mich um dieses Problem indem ich alle zwei Minuten mal kurz ein paar Sekunden aufnahm (irgendwann ging ich dazu über die Werbung einfach mit aufzunehmen).

Supermoderne Benutzerfreundlichkeit liefern auch die modernen neuen DNS-Defaultpages unter Anderem von T-Online. Bisher war es so, dass der Browser einem sagte, wenn er keine Webseite gefunden hat, die passt. Manch ein moderner Browser leitete einen dann eigens zu Gugel oder Vergleichbarem weiter. Das Gute daran war vor Allem, dass auch andere Software, aber eben auch der Browser, wusste, dass es einen Fehler gab. DNS-Defaultpages hingegen bringen nichts außer einer Werbefläche für das Unternehmen das sie anbietet, und Verwirrung. T-Online muss man wenigstens gutheißen, dass sie theoretisch die Möglichkeit geben, das abzustellen, wobei ich das nicht hingebracht habe, weil man irgendwelche Passwörter braucht, die ich nicht habe – meine Defaulteinstellung ist seitdem einfach 8.8.8.8. Bleibt die Frage, wozu überhaupt DNS-Defaultpages. Idiotenbrowser leiten ohnehin auf Google oder Bing weiter, alle anderen User werden die Fehlermeldung auch so kapieren. Es erzeugt Probleme, weil einige Software berechtigterweise davon ausgeht, zu merken, wenn DNS-Anfragen ins Leere gehen.

Nur um zu zeigen, dass es sich nicht auf die digitale Elektronik beschränkt, will ich von einer Heizung erzählen, ich kenne eine Heizung, die grundsätzlich zu kalt oder zu warm geschaltet wird. Es handelt sich dabei um ein Zimmer das ein etwas größeres Fenster hat, dementsprechend mehr Heizleistung bräuchte. Doch es scheint als würde der Thermostat irgendwie mit den anderen Thermostaten des Hauses zusammengeschaltet sein. Da hat sich wahrscheinlich irgendein Ingenieur stundenlang den Kopf über Thermodynamik zerbrochen, anstatt den User einfach entscheiden zu lassen, wie warm seine Heizung sein soll. Die Hacks damit umzugehen sind auch köstlich. Der Standardtrick im Winter immer wieder mal einen Eiswürfel unter den (am Boden angebrachten) Thermostat zu legen wirkt Wunder.

Ja, und dann gibts da noch die guten alten (bzw. neuen) Heuristiken beim Copypasten. Statt wie früher einfach den Benutzer entscheiden zu lassen ob er Text oder Design kopiert wird heute bei einigen Programmen eine Heuristik erzeugt, ob das Eingefügte eher formatierter Text ist, oder eher blanker Text.

Diese Heuristiken können ganz schön nerven, wenn man zum Beispiel HTML-Code umherkopiert. Sie liegen häufig falsch, aber selbst wenn sie richtig liegen, ich hatte niemals einen wirklichen Vorteil dadurch. Warum werde ich nicht einfach gefragt, als was ich meinen Text einfügen will. Ein Benutzer wird wohl unterscheiden können, ob er formatierten Text, den klartext aus dem formatierten Text, oder den Klartext aus dem Code  haben will. Und das besser als noch so viele Heuristiken.

Ich könnte weitere Beispiele bringen aber ich sehe gerade dass dieser Beitrag zu lang wird.

Nun, jetzt überlege man sich mal, wie viel Arbeit in Obige Benutzerfreundlichkeiten gesteckt wurde. Ich behaupte, viel zu viel. Anstatt dem Benutzer sinnfrei die Arbeit erleichtern zu wollen sollte man lieber gute neue Technik oder echte Benutzerfreundlichkeit entwickeln!

Es gibt ja auch durchaus sinnvolle Entwicklungen: Überlappende Fenster, und selbst Dinge wie Aero und Compiz, die ich ursprünglich für reinen Designschrott hielt, kann man für sinnvolle Dinge benutzen. Die automatische Zuordnung zwischen Dateityp und Defaultanwendung, entsprechende Icons und Vorschaubilder, sind ebenfalls etwas sehr gutes, was lange brauchte um sich durchzusetzen. Höhere Programmiersprachen erleichtern die Programmierung und sorgen so dafür, dass man erheblich schneller programmieren kann – zum Preis von Rechenleistung, dennoch durchaus rechtfertigbar. Journalling-Dateisysteme, Userlevel-Dateisysteme, all das ist im Grunde die reine Benutzerfreundlichkeit.


Die Unkultur des modernen Instant-Messaging

Do, 27 Mai 2010 15:01:05 +0200

Instant Messaging ist eine sehr nette sache gewesen, inzwischen schon fast wieder veraltet, und gerade deshalb eines der wenigen wirklich dauerhaften Internetphänomene, die sicherlich bestehen bleiben. Und in den Anfangszeiten, als der Hauptstrom gerade begann, sich mit ICQ anzufreunden, war es noch von einer relativ relevanten Gesprächskultur begleitet. Man war Online wenn man bereit war angechattet zu werden, Away wenn nicht. Not Available wenn der Rechner merkte dass man seit einer halben Stunde nichts mehr tat. Zur Korrektheit kam dann noch ein Do Not Disturb hinzu, das man setzen konnte, wenn man zwar da war, aber nicht gestört werden wollte.

Ungefähr hier begann, soweit ich mich erinnern kann, aber bereits das Ende dieser Gesprächskultur. Nämlich, als man diesen Status einfach begann zu ignorieren. DND wurde als gleichbedeutend mit Away angesehen, und somit wurde man auch trotz des DND-Status angeschrieben. Clientseitig gab es aber zumindest bei den nichtkommerziellen Clients bald eine Möglichkeit, zumindest die Benachrichtigungen darüber auszustellen.

Das Ignorieren des Status wurde aber auch nicht unbeträchtlich durch die Unkultur gefördert, einfach immer auf Away zu schalten. Es ist nämlich zu schwer seinen Computer auf Auto-Away einzustellen, außerdem ist man wenn man Online ist so … „verwundbar“. Im Online-Status hat man keine Ausrede nicht zu antworten, im Away-Status konnte man immer sagen, man wäre gerade nicht da. Aussagen wie „schreib mich einfach an, ich bin nur Away dass mich die ganzen Nervensägen nicht anschreiben“ waren irgendwie allgemein akzeptiert.

Und das katapultiert uns dann schon fast in die aktuelle Zeit. Wir haben inzwischen Status-Messages. Inzwischen werden diese auch von den meisten Clients unterstützt. Als dies noch nicht so war hatte man als Ersatz kurz mal AutoReply-Bots, die einem so nette Sachen wie „I am not here right now but as soon as I come back I will read your message.“ sagten – zumindest gibt es diese Autoreply-Bots inzwischen kaum noch, weil die meisten Leute kapiert haben, wie nervig und nutzlos sie sind. Dafür hat sich eine andere Unsitte weiter verbreitet: Das Unsichtbar Sein.

Der Invisible-Status ist eine der schlimmsten Erfindungen des Instant Messagings. Es ist der Gedanke, für Andere ausgewählte Personen als Offline zu gelten. Gut, nur für bestimmte Personen Online zu sein ist eine Entscheidung. Doch statt dass die IM-Server im Gegenzug erzwingen, dass man dann auch nichts über den Status seines Gegenübers erfährt, kann man fröhlich den lieben langen Tag invisible sein, und den Online-Status seiner Mitmenschen verfolgen.

In der Realität ist es meist so dass man sein Gegenüber sieht. Man weiß, ob es anwesend ist, ob es einem zuhört. Kontexte in denen dies nicht so ist können theoretisch beim Telefonieren auftreten, ansonsten wären die einzigen Situationen die mir einfielen die in diversen Krimiserien dargestellten Verhöre hinter einer Spiegelwand, ich weiß aber ehrlichgesagt nicht, wie viel da dran ist. Invisible zu sein ist anmaßend, und ich hatte bereits eine Zeit lang die Policy, jeden, den ich dabei erwischte, dass er Invisible war, von meiner Kontaktliste zu kicken. Meine Argumentation war dabei immer, dass ich niemanden anschreibe, wenn er DND ist. „Das ehrt dich ja sehr, aber dann habe ich immernoch 20 andere Kontakte die sich nicht daran halten“ ist eine denkbare Antwort – nun, wer mich anschreibt ohne wirklich triftigen Grund während ich DND bin, der kann auch ziemlich schnell von meiner Kontaktliste fliegen. Im Gegenzug bin ich aber auch nur dann DND, wenn ich wirklich nicht gestört werden will, und nicht nur, wenn ich grad keine Lust habe zu Antworten, aber trotzdem jeden anschreiben können will.

Der Unsichtbarkeitsstatus hat natürlich seinen kleinen Bruder, ich nenne ihn liebevoll ATSSTMIM  für „Always The Same Status To Make It Meaningless“. Menschen, die es nicht fertig bringen, ihrem Rechner zu sagen, er soll nach 20 Minuten Inaktivität auf Away schalten, und somit stundenlang online sind, ohne da zu sein. Oder Leute, die immer Away sind, oder noch schlimmer, DND, denen ich damit also guten Gewissens garnichts schreiben kann. Nun bin ich zumindest bei gewissen Leuten dazu übergegangen, dies auch genau so zu tun, und auch bei wichtigen Dingen auf E-Mails zurückzugreifen und mich zu weigern mit ihnen zu chatten wenn sie nicht auf einen repräsentativen Status (Online oder DND) schalten. Doch bekanntlich setzt sich Unkultur mit allen Mitteln durch, solche Leute gingen bald in den Invi-Status über.

Es handelt sich hier wie gesagt um eine Unkultur. Ein perfides Verhalten, das Informationen konsumiert, ohne bereit zu sein, sie in gleichem Maße bereitzustellen. Aber sich über Google und die anderen bösen Großunternehmen beschweren. Ja – es handelt sich hier eher um eine Lappalie, aber gerade in Lappalien zeigen sich Denkmuster oft sehr gut, und meiner Meinung nach sehen wir in diesem Verhalten eine Facette des Problems, an dem unsere Hochkultur letztlich zugrunde gehen wird.


Get a free PDF Reader

Do, 27 Mai 2010 01:11:55 +0200

Looking for some instructions for mozplugger embedding evince, besides the solution I found here, I also found a nice link to this campaign from the FSF Europe.

It is an appeal to use a free PDF Reader. Well, under Linux and other free systems, there are a lot of them, and they are all mostly good. I actually do not understand why there are still people who prefer the Adobe Reader under Linux. Not only are there a lot of alternatives, they are also mostly much better (faster, easier to use). Few PDFs are not working on them – the ones created with some strange WMF-Tools (M$ for the win) and of course the ones which are encrypted such that explicitly only Adobe Reader can open them. I had this situation exactly twice in my whole life – one time a PDF created with some strange settings from Scientific Workplace, and the other time from a Professor who wasnt allowed to publish parts of its book without encryption. Even commercial pdf-providers usually dont use this, because its basically useless – it is a crude form of DRM, but modern eBook-Formats have much better techniques for that.

Also under Windows, I dont want to use the Adobe Reader, but actually I mostly use (the non-free) Foxit Reader there. The FSE’s list names Evince for Windows – but Evince for Windows was in a Beta-State and I wouldnt have recommended it to normal people. Okular was stable but needed a full-blown KDE-Installation, and KDE for Windows is still no fun. I never tried Sumatra PDF though. I will have to do this.

Well, actually, I dont like PDF much. Many modern PDF-Files are bloated. I liked early versions of PostScript much better. And at the moment, I like djvu very much. At least for ebooks, djvu seems to be a good format. As a comparably simple format, I like SVG. I mean, its bloated with XML-Stuff, but at least the inner structure is simple.

Its a pity that only few pieces of free software work properly under Windows. Windows is still the main platform for most people, and to convince them of free software, it could be a good thing to actually make them work with it under Windows already.


Phoenix-Runde „Internet außer Kontrolle“ – ein Kommentar

Sa, 22 Mai 2010 03:38:05 +0200

Wäre die Sendung bei Fefe nicht verlinkt gewesen, hätt ich sie mir wohl nicht angesehen: Die „Phoenix Runde zum Thema Internet außer Kontrolle„.

An dieser Stelle erstmal großen Respekt an die öffentlich-rechtlichen, dass man deren Sendungen auch herunterladen kann. Etwas weniger großen Respekt allerdings an deren Webmaster: Ein WMV – über MMS. Und dann auch noch mit einer Latenzzeit und Bandbreite die es unmöglich machte das ondemand sinnvoll anzusehen – zum Glück gibt es mencoder. Damit kann mans vorher runterladen (nur falls jemand die gleichen Probleme haben sollte).

Fefe meinte, das hätte das Zeug zur schlechtesten Sendung des Jahres. Auch wenn es mir schwerfällt jemandem zu widersprechen der bereits ein Krautchan-Meme ist: Wenn das die schlechteste Sendung des Jahres war, dann hat sich das Niveau des Fernsehens weit verbessert seit ich es das letzte Mal freiwillig konsumiert habe.

Nun, aber ich gestehe natürlich, das Konzept der Sendung war etwas gefailed. Erstmal zu den Anwesenden:

Die Moderatorin Anne Gesthuysen sollte man wohl kennen, ich habe aber keine Ahnung wer es ist, auf der Webseite wird eine Vita verlinkt.

Sascha Lobo sollte wohl jedem ein Begriff sein, ist Seinerseits zum Beispiel ebenfalls ein Krautchan-Meme. Jens Seipenbusch ist so wichtig dass sogar die deutsche Wikipedia ihn für relevant hält, er ist Bundesvorsitzender der Piratenpartei, als solchen sollte ich ihn vielleicht kennen, ich hatte aber ehrlichgesagt bis vorhin keine Ahnung wer das ist. Beide gehören zu den Internet-Befürwortern der Sendung, wenn man so will. Letzterer hielt sich mit seinen Aussagen eher zurück, und beschränkte sich im Wesentlichen auf das Darstellen von Gesetzeslagen. Sascha Lobo war eloquenter, und trotz all der Kritik die man über ihn hin und wieder liest, er hat Ahnung, und die Dinge die er sagt haben Hand und Fuß.

Jo, und dann natürlich noch die Internet-KritikerInnen, die allesamt Frauen sind, um alle Klischees auch schön aufrechtzuerhalten. Zuerstmal ist da Julia Klöckner. Laut Phoenix arbeitet sie im Bundesverbraucherschutzministerium, davon find ich aber auf die Schnelle nichts auf ihrer Wikipediaseite. Trotzdem scheint sie in der CDU ein großes Tier zu sein, und Wikipedia sagt, sie wäre Schuld an der Twitter-Affäre gewesen, was in mir durchaus Respekt auslöst – mal jemand der das Zeug über das er Redet auch wirklich benutzt. Generell hat sie zwar das obligatorische CDU-Gebrabbel draufgehabt, aber zumindest in Relation zu vielem Anderen was von dieser Partei schon meinte seine Meinung in die Welt tragen zu müssen fand ich ihre Haltung sehr aufgeschlossen und durchdacht. Jeder der die Sendung mal aufmerksam verfolgen will, soll mal darauf achten: Widerspricht sie eigentlich in irgendeinem relevanten konkreten Punkt Sascha Lobo? Eigentlich sagt sie nur, das was Gugel tat ist unerquicklich gewesen und man muss dafür sorgen dass die Unternehmen in Zukunft nicht einfach so den Datenschutz mit Füßen treten und bla – kurzgefasst sagt sie aber im Grunde auch nur, man müsse halt endlich die Gesetze ein wenig an die Neuzeit anpassen, und sie stimmt sogar Lobo zu bei der Forderung nach einem Schulfach Internetkunde. Große inhaltliche Differenzen habe ich da jedenfalls nicht gesehen, die „Diskussion“ wurde eher künstlich Hochgepusht, weil sich die Leute eigentlich einig waren über das Gesamtkonzept, nur nicht über die Feinheiten.

Wie dem auch sei, die zweite Person, Astrid Herbold, war eine „Internet-Kritikerin“. Diese Person hat sogar eine deutsche Wikipedia-Seite, damit ist sie mindestens so wichtig wie Bauchnabelfussel, und auf jeden Fall wichtiger als Christian Reiher (der hat nur einen Eintrag in der englischen Wikipedia, dieser unwichtige N00b). Ich meine, klar – sie hat ja auch vier (!!!!) Bücher geschrieben, von denen eines (!!!!) mit dem Thema zu tun hat – zeigt mir erstmal einen Bauchnabelfussel, der das von sich behaupten kann.

Und dass man mindestens so wichtig ist wie Bauchnabelfussel reicht natürlich aus, um zu einer Diskussion im Öffentlich-Rechtlichen Fernsehen eingeladen zu werden. Ich bin leider nicht so wichtig wie Bauchnabelfussel. Vielleicht sollte ich „Realitäts-Kritiker“ werden, und ein Buch über „die Lebenslügen der Realitäts-Fagottspieler“ schreiben. Oder „RL – das Schlimmste aller Killerspiele“. Oder „Germanisten die nicht mit Technik zurechtkommen und dafür ins Fernsehen kommen“.

Jedenfalls hielt sie sich ziemlich zurück. Ein paar Kommentare der Qualität „Google ist möglicherweise böse weil es Geld verdienen will“ waren es glaub ich gewesen, soweit ich mich grad erinnern kann.

Die Diskussion war hauptsächlich bla bla. Was mich wenig überrascht, denn das Thema ist eigentlich auch nur bla bla. Gugel hat W-Lan-Paketdaten gesammelt. Und da war halt bei offenen W-Lans auch unverschlüsseltes Zeug dabei. Ich hatte eigentlich erwartet, dass es darum geht, dass Gugel überhaupt W-Lan-SSIDs und whatever sammelt, denn ich persönlich finde dieses Verhalten bereits äußerst diskussionsbedürftig – aber das hat nun irgendwie recht wenig mit dem Internet zu tun. Genauso könnte man die Risiko-Kartographierung Deutschlands durch die Versicherungen als Aufhänger zu einer Diskussion über das Versicherungswesen nehmen. Es ist … beliebig.

Dass Signale, die durch offene W-Lans gehen, auch von jemand Fremdem gelesen und gespeichert werden, nun, das macht die Sache für mich nicht schlimmer. Im Gegenteil, vielleicht lernen die Leute so endlich, dass sie gefälligst ihre privaten W-Lans verschlüsseln, und wenn sie in einem Internetcafe oder so in einem offenen W-Lan sind, Privates, also alles, was nicht sämtliche andere Menschen in der Umgebung auch mitlesen dürften, ebenfalls verschlüsseln. Und wenn Google Street View dazu beiträgt, dann finde ich hat sich die ganze Aktion bereits gelohnt. Denn sorry, aber: Wer nicht verschlüsselt, ist selbst schuld! Es ist ja nicht so als würde man großartige Bildung brauchen um ein verschlüsseltes W-Lan aufzubauen: Die mitgelieferte Software der meisten Anbieter richtet automatisch alles so ein, dass die Verbindung hinreichend verschlüsselt ist. Und wenn man sich nicht sicher ist, ob dem so ist, dann soll man eben bei seinem Anbieter nachfragen.

Vielleicht würden die Leute das ja auch so machen, wenn sie „Internetkunde“ in der Schule gehabt hätten (oder nicht zu faul wären eine Bedienungsanleitung zu lesen oder jemanden zu fragen der sich mit sowas auskennt). Internetkunde – nun, sicher kein Widerspruch von mir, aber es handelt sich hier um ein allgemeineres Problem: Menschen wollen Technik benutzen, ohne sie zu verstehen, und das ad Absurdum. Und die Unternehmen wollen größtenteils, dass das so bleibt, weil man damit seinen Schrott ziemlich teuer los wird. Das macht die Technik dann wiederum komplizierter als sie sein muss. Eine Spirale der Technikentfremdung entsteht, und die müsste man mal stoppen.

Wie dem auch sei. Ich hatte eine Hetzsendung gegen moderne Technik erwartet, und sah ein nettes ungezwungenes Gespräch mit drei Leuten die sich eigentlich einig waren, einer Person die nicht wirklich mitreden wollte, und einer Moderatorin die sich bemüht hat irgendwie eine Kontroverse zu erzeugen in der ganzen Einigkeit. Ich wusste auch noch nicht, dass das Internet für den Friedensnobelpreis vorgeschlagen wurde, wie man dort erfuhr, ich halte dies für Schwachfug, und die Personen in der Diskussionsrunde, so wie ich deren zögerliches Zweifeln interpretiere, eigentlich auch, sie wollten es nur nicht so direkt sagen.

Für mich mag es dennoch keine essenziellen neuen Erkenntnisse gegeben haben, aber man muss solche Sendungen immer mit den Augen eines Wahlzombies sehen, und ich denke, denen hat die Sendung ein wenig die Internet-Angst genommen.


Portal und andere Spiele …

Sa, 22 Mai 2010 00:02:46 +0200

… werden jetzt ja dann wohl in größerer Zahl auf Mac OS Portiert, und damit bleibt zu hoffen, dass man sie dann leichter auf Linux portierbar beziehungsweise emulierbar/virtualisierbar sein werden, denn die Grundlagen beider Systeme sollten doch näher verwandt sein.

Jedenfalls stiefelte ich heute Windows auf meinem neuen Denkblock. Konfigurierte Ubuntu auch gleichzeitig so, dass es virtualisierbar ist unter ebendiesem Windows, sodass nicht nicht mehrere Logs und Feuerfuchsprofile maintainen muss. Lief auch alles wunderbar.

Steam startierte und brauchte lange um Portal herunterzuladen und nachdem es dieses endlich fertiggetan hatte stürzte es erstmal gepflegt ab. Nach einem Neustart und dem versuch, Portal zu starten, klärte es mich auf, dass es meinen Grafikchip nicht kennen würde. Durchaus möglich, es ist nicht der Neueste, und dementsprechend Überrascht war ich, als dann das Spiel doch loslief und ich mit relativ wenigen aber eben immernoch daseienden Rucklern anfangen konnte zu spielen.

Die Ruckler waren nervig, und so wollte ich die Bildqualität heruntersetzen, was zu einem prompten Absturz führte, und vor einem kompletten Systemneustart schaffte ich es auch nicht das Spiel wieder zu starten. Danach stellte ich alles wieder um, in der Hoffnung, danach würde das Spiel wenigstens wieder im vorherigen Zustand sein. Was soll ich sagen, das Spiel hängte sich auf und lastete einen Prozessorkern voll aus, sodass ich mich gezwungen sah, es zu keksen.

Erst dann wurde mir plötzlich klar, was ich da eigentlich gerade tue: Ich versuche ein Windows-Spiel unter Windows zum Laufen zu bringen. Ich, der ich garnicht Windows verwenden will, und Windows nur boote, weil ich ein Spiel spielen will, strenge mich an, damit dieses Spiel funktioniert. Überhaupt gibt es wenig Gründe für mich, ein Windows-System zu starten. Ich habe mein Ubuntu – und wenn mir das nicht mehr gefällt habe ich Arch Linux. Und wenn mir selbst das nicht gefällt werde ich auf Solaris oder ein BSD umsteigen.

Ich muss mich also auch noch anstrengen, damit ein Spiel, das ich zumindest theoretisch gekauft haben könnte, unter einem kooperativen System läuft. Interessant. Selbstverständlich überlege ich mir nun also zweimal, ob ich mir wirklich eines der kostenpflichtigen Spiele kaufe. Ich hatte schon mehrere Spiele im Sinne, oft auch ältere, nur ist bei denen nie so klar ob sie unter Wine wirklich gut laufen – und bei etwas älteren Modellen ist selbst nicht klar ob sie auf einem modernen Windows gut laufen.

Ok, bevor ich gleich damit anfange, was ich am Verhalten der Spielehersteller alles nicht verstehe, erstmal eine Liste mit Dingen die ich verstehe – nur des guten Willens wegen:

  • Ich verstehe, dass sie ihre Spiele – wenigstens am Anfang – nicht Opensourcen. Kopierschutzmaßnahmen werden durch Open Source nahezu unmöglich. Außerdem steckt in einem Spiel mehr Interesse als bloße Software. Es ist ein Gesamtkunstwerk und man will freilich nicht dass Leute es bereits umschreiben bevor sie es überhaupt sinnvoll gespielt haben.
  • Ich verstehe, dass sie DRM-Maßnahmen ergreifen wollen. Ich finde es nicht gut, vor allem, weil die ganzen DRM-Lösungen so beschissen implementiert sind, aber ich verstehe es.
  • Ich verstehe, dass den Spieleherstellern OpenGL ohne diverse Erweiterungen nicht ausreicht.
  • Ich verstehe, dass Spielehersteller nicht die Portierung auf Betriebssysteme bezahlen wollen, die nicht hinreichend verbreitet sind.

Ja, so viel kann ich verstehen. Jetzt kommt dann mal, was ich nicht verstehe:

  • Ich verstehe nicht, dass sie nicht wenigstens Teile ihrer Spiele oder der verwendeten Spieleengines soweit offenlegen, dass die Geeks sich das Spiel entsprechend selbst portieren können. Der Hauptanteil des Unportierbaren sind wohl die direkten Hardwarezugriffe auf den Grafikkartenspeicher, beziehungsweise die niedrigstufigen Aufrufe der Grafikbibliotheken. Diese kann man ersetzen. Man kann jedenfalls der Wine-Community (die immerhin für eine Portierung auf mindestens 4 zusätzliche Betriebssysteme arbeiten würde) die Arbeit erleichtern durch Zusatzangaben.
  • Ich verstehe nicht, warum die ganzen DRM-Maßnahmen so beschissen programmiert sind. Wie wärs mit: Der Maschinencode ist Verschlüsselt und kann nur mit einem entsprechenden Schlüssel entschlüsselt werden. Und das auch nur indem man ihn meinetwegen irgendwo in den heap speichert und dann an eine definierte Speicherstelle springt. Irgendwas von der Form „ich schau regelmäßig im Internet nach ob du mich spielen darfst“ sollte man jedenfalls leichter wegcracken können. Letztendlich kann man alle Kopierschutzmaßnahmen aber irgendwie umgehen, wenn man ein irgendwie offenes System haben will – und damit meine ich nicht Betriebssystem sondern schon sowas von Wegen nicht so einen komplettgeschlossenen Krampf wie das iPhone oder sowas (und selbst das wird gejailbreaked …).
  • Ich verstehe nicht, warum Spielehersteller und Hardwarehersteller Microsoft so dermaßen in den Arsch kriechen, dass sie sich auf DirectX einlassen. Ich sage nicht, dass DirectX irgendwie extrinsisch schlecht ist, aber es ist intrinsisch schlecht weil nicht Portabel. Als Spielehersteller will ich mich doch nicht Abhängig machen von der Grafikbibliothek eines bestimmten Unternehmens, und schon garnicht von dessen Betriebssystem, an dem dieses Unternehmen wild rumbasteln kann ohne mein Einverständnis. Gleichermaßen will ich das doch als Hardwarehersteller nicht. Im Grunde ist der einzige Sinn von 3D-Grafikkarten auf Heim-PCs, dass man mit ihnen Spiele spielen kann. Das heißt, die Spiele wollen im Wesentlichen an die Grafikkarte, die Grafikkarte will im Wesentlichen an die Spiele, Windows ist nur ein Kleber dazwischen, und die Schicht soll möglichst dünn sein. Wieso tun sich nicht die verschiedenen Spiele- und Grafikkartenhersteller zusammen und machen eine eigene Infrastruktur auf – ich meine, sie müssen doch eh Treiber schreiben, so viel mehr Aufwandt kann das doch nicht sein. Vor Allem das Ganze dann einigermaßen Portabel aufzubauen sollte doch gehen. Immerhin ist doch die Rechenleistung selber selten der Flaschenhals, sondern eher die Grafikleistung.
  • Ich verstehe nicht, wieso jemand Spiele auf Macs portieren will. Einen Mac kauft man sich nicht um Spiele zu spielen. Man kauft ihn sich um mit Mac OS X zu spielen.

Jedenfalls werde ich jetzt also weiterhin lieber versuchen, das Ganze unter Wine zum Laufen zu bringen. Ich glaube die Zeit ist sinnvoller investiert. Spielen kann ich eh vergessen im jetzigen Zustand.


Comment Feeds, Please! (and other things about blogging)

Mi, 12 Mai 2010 18:46:05 +0200

Well, there may be a lot of „professional“ and „famous“ bloggers out there who might say what they like or dislike when reading blogs and if you want to create a „professional“ blog rather than a private little blog about the things you are interested in, then you might ask these people better than reading on what I am going to write. Because I will now tell you about a few things I dont like on some Blogs, and reasons why a blog might be thrown out of my RSS-Feed-List.

Have and Maintain a Feed

Yes, there are still people who proudly write their own Blog-Software but dont provide any feed. Even though their site might have interesting content, there are thousands of other sites who provide interesting contents, too, and at least for me, its rather hard to produce something so interesting that I am willing to periodically go to your Site and watch for news.

These times are gone. There are too much people writing their opinion online. I have just counted 439 Newsfeeds in my Feed-Reader, and at least half of them are providing information that interests me, but most of them dont do this often. I cannot manage to watch 439 Websites every time, especially because mostly I am just reading this stuff in my free time, mostly without getting anything out of it I really need, i.e. just for fun.

And something that especially gets on my nerves is when I already subscribed to a feed and then the blogger changes his Software and with it the Feed-URL, without writing a note on the old newsfeed. So I only get notice about it by the error messages of my feed reader. This is annoying!

Ah, and especially: Make it easily findable. Provide feed-links as well as link-tags which Feedreaders can recognize. I dont want to have to „search“ your site for them.

I dont care much about design, just make your site work with as little as possible

Many people like Websites which put great efforts into their site-design. There is nothing wrong with that, except that these efforts often lead to huge requirements of your browser.

In particular: If I go to your site, then dont expect me to activate JavaScript, if there is no explicit reason. If you use jsMath because you cannot use LaTeX on your provider’s Server, or you are writing browser games and therefore need JavaScript, then kindly excuse yourself when I go to your site, and ask me to activate JavaScript, rather than commanding me to do so. JavaScript uses my system resources and might produce additional security vulnerabilities – and if you are just too lazy to provide an Interface that doesnt need JS, without really needing it, I am not willing to give you the trust of letting your code execute on my Computer!

Same for Flash-Animations. Flash is like a cullender when it comes to security. There are a few domains which I trust. For example, I trust large Video-Portals like YouTube, Vimeo or Dailymotion. Because if they would become vulnerable, then they would fix it as fast as they could. I dont want to see Flash on your Website, except when its really necessary. Ok, its still necessary for embedding videos or sound – I hope that these times will go away soon, but there is no other possibility that really works by now. So yeah, I can understand that you might use Flash when its impossible not to do so.

Advertisement-Services also sometimes use Flash. I dont see why they do it, instead of just using GIF-Animations, but well, I can understand that you want to get back the money you pay for your provider, so well, keep your Flash-Advertisements – I will block Flash anyway if you dont give me a reason not to do so.

But as soon as your site has some fancy-looking sidebar or other shit programmed in Flash, I will certainly not use it.

Ah, and dont use Cookies, if there is no reason for it. Some Ad-Services might require them, but I will block them if I dont see a reason to give you the opportunity to save data on my PC!

You might use Cascading Style Sheets, and well, if you really want, you might provide additional functionality using JavaScript and Cookies – yes, these technologies are nice for some purposes, and if I read your website for a long time, I might feel comfortable with giving you the opportunity to save small pieces of data and execute small pieces of code on my PC. But if you try to force me to do so, I will not give an inch.

Oh, and a note on CSS: CSS is made to put design on your site to make it viewable with many technologies. Maybe I want to go to your site using lynx. Then please put the boilerplate-elements below the interesting stuff. I dont want to have to scroll down 5 screens of stupid login-, blogroll- and linklist-information before I finally can get to the content I want to see.

Allow comments to all people

There is a lot of comment-spam so I can understand why you might want to look at the comments I write before publishing them. I can understand when you want me to enter a captcha, I can even understand when you require JavaScript for commenting to prevent spam. But if so, dont just assume I have JavaScript turned on, tell me that comments need JavaScript before producing strange errors (or just doing nothing).

You want my name (or a representative Nickname) and of course an E-Mail-Adress of mine. Maybe you are kindly even adding my Gravatar-Icons. But dont forget to give me the possibility to put some Website-URL of mine on top of my comments. Maybe you are not interested, but other people reading my comment might be interested to get to know more about me – I help you to keep your blog alive, so in exchange you can help me. Fair is fair.

Dont expect me to register anywhere or have an OpenID. Yes, I have an OpenID, and if you kindly ask me to provide one, I might think about it. But requiring to have such a service or even registering on your blog before I can post is arrogant and if you dont give something really awesome to me, I just wont post comments on your site. And if I cannot discuss about what you write, well, your site might get less interesting to me.

Of course I can understand you if you have a blog-provider not allowing this. But well, then you might consider changing the provider. At least WordPress allows comments in general. If a blogging service doesnt allow it, just dont use it.

Have thread-based comment-feeds or at least mailing-notifications

So well, you have managed to make me put a comment on your page. Con grats! Now maybe I expect some reaction by you or some other person. If you are using one of the larger blogging-services like WordPress, the thread I just posted in has a Comment-Feed, telling me about comments given there. Sometimes, Blogs dont provide this, but they provide Mailing-Notifications if some new comments come up. I can live with that (I gave you my mail-adress anyway).

But you have to give me something. Otherwise I will have to keep that tab with the comments open. And since I am working on at least 3 distinct computers, partially with distinct browsers, I will certainly not follow these comments for a long time.

But if I cant follow the reactions on my Comment, I will think twice before posting a comment anyway.

Dont be professional

Except when you are a real journalist who has already worked for newspapers or plans to do something like a newspaper, or you host a science blog, dont be professional. I am sick of all this „professional blogging“ stuff. For me, a weblog must not be professional, except maybe when its about science – if its professional, it becomes an online newspaper, but then, it should be stated as such, and compete with others of its kind. In blogs, I want to read the opinions of many unprofessional people.

Conclusion

Well, thats what you should do if you want me to read your blog. If you are a famous blogger, than you might as well ignore me, because you have so much other followers. But surprisingly, most famous bloggers meet my requirements – a coincidence?

I like private blogs. I like scientific blogs. I like small blogs that dont write much more than once a month, as well as bloggers who write five articles a day. I wouldnt read your blog because its special, I would read it because its one of many.

Always remember that you are unique – just like everybody else.


Besser weniger JavaScript

Do, 06 Mai 2010 01:24:39 +0200

Nachdem ich ja jetzt mein MacBook bei Ebay versteigere (nur um das nochmal anzumerken), hatte ich viel Gelegenheit, das Ebay-Interface zu benutzen.

Eigentlich sollten gerade Unternehmen wie Ebay, Amazon, Microsoft, etc., ein besonders großes Interesse daran haben, dass das Internet „sicher“ wird – zumindest sollen nur die Leute an die Informationen kommen, von denen sie das wollen, z.B. die Werbekunden.

Eine Sicherheitslücke die immer wieder mal ausgenutzt wird wären da zum Beispiel nicht richtig eingeschränkte Cookies. Es ist nicht gut, durch das Internet zu gehen, und alle Cookies anzunehmen. Es gibt gute Cookie-Filter. Wie wäre es zum Beispiel, wenn man einfach „*.microsoft.com“ freigeben müsste, bzw. „*.msn.de“, um sich bei MSN einzuloggen? Können die nicht Subdomains anlegen, die auf ihre Werbekunden weiterleiten?

Noch viel schlimmer als Cookies sind Scripts. Die modernen „AJAX“-Interfaces. Aktuell musste ich mich ja mit dem Interface von Ebay herumärgern. Erstmal wieder das Problem mit Cookies. Es gibt ebay.com und ebay.de – gut, das sei ja verziehen. Dann gibt es aber noch ebaystatic.com, ebayobjects.com, und weiß der Geier was mir jetzt noch alles nicht einfällt. Immer wieder hat irgendwas gefailed, immer wieder wurden meine Formulardaten zurückgesetzt, weil ich nicht wusste, für welche Domains ich Cookies und JavaScript freigeben musste. Die Integration von PayPal war dann nochmal ein riesen Generve. Am Ende hatte ich einem ganzen Haufen von Domains Scripting und Cookies erlaubt. Und ich frage mich: Wofür? Wie wäre es denn stattdessen mit static.ebay.com, de.ebay.com, objects.ebay.com? Dann müsste ich *.ebay.com und ebay.de freigeben, und gut wäre es.

Außerdem verstehe ich bei diesem Interface ohnehin nicht, wozu es JavaScript verwendet. Einzig der HTML-Editor scheint JS wirklich sinnvoll einzusetzen. Ansonsten werden irgendwelche Werte On-The-Fly aktualisiert – klar, das ist möglicherweise „komfortabler“, aber einen „Wert neu Berechnen“-Button zu Clicken sollte man jedem Ebay-Nutzer zutrauen können.

Das Problem hierbei ist: Wo ein komplexes Interface ist, sind auch einen haufen komplexe Bugs. Man hat zum Beispiel die Möglichkeit, in seinen Angeboten HTML-Code anzugeben. Es muss nur irgendeiner der Webmaster irgendwann mal etwas übersehen, und schon können Leute ihre eigenen Scripts einschleusen, und so schlimmstenfalls an Session-IDs und sonstige Daten der Nutzer kommen. Deshalb wäre es eigentlich doch sehr sinnvoll, sein Interface lieber auf IFrames aufzubauen, dem Nutzer ein paar Buttonclicks mehr zuzumuten, und stattdessen diesem zu empfehlen, JavaScript zu deaktivieren, vor Allem, da JavaScript keinen wirklich erheblichen Vorteil liefert.

Aber wenn schon JavaScript, dann bitte doch nur von der selben Domain. Also meinetwegen *.ebay.com. Lediglich den Nutzer-Content kann man in eine eigene Domain packen, für den man dann JavaScript in seinem Browser deaktivieren kann.


Randomly Found Software: finch

So, 02 Mai 2010 04:04:28 +0200

Console-Interfaces tend to have a lot of strange keybindings (mostly not modifiable) and are therefore often hard to use for somebody who is not regularly using a software. That is why I never got used to the midinght commander – it may be a mighty tool, but for everything I needed, either the shell itself or the facilities of emacs were enough for me, so I never quite had the mood to invest time to learn its keybindings.

Of course, emacs is certainly not easier to learn (except that there are modes which make it easier but are not the default), but its simply that I know and use emacs anyway.

Irssi is a bit better. Even newbees can use it, with only little explanation. But on the other hand, irssi might be a versatile software for IRC, but its UI is not very versatile – which is a good thing (there are yet too much blown up interfaces out there), but explains why handling it is easier.

Well, and then there is finch. Finch is a console-based purple-frontend, that is, you can use it with your pidgin-configuration-folder remotely through SSH without having to do x-forwarding. Well, it has a few keybindings which are unusual to the default GUIs, but on the other hand – well, there arent thousands of commands to move the window up, down, left, right and diagonally each, in fact you have to remember two commands to resize and move the windows in there: Alt+m for moving and Alt+r for resizing. The rest can be done with arrow-keys and enter when done with resizing.

Also, you will get a window-list when pressing Alt+w, but you can also iterate through the windows by pressing Alt+n. Essentially, these are the commands you will need. There are a few others, for opening menus, closing windows, etc., but either you will never need them, or you will somehow remember them, for example Alt+c stands for close, which is intuitive.

The windows are not tabbed, they are freely movable (except outside the screen bounds, but I dont care about this, and its certainly not hard to patch it if one really needs this) and overlapping, like in common windowed environments. Getting an intuitive and easy-to-learn interface in the pure console, with software that really can do a lot of down-to-earth things is something that is hard to find.

Unfortunately, it is still a console-application, which means that there is no way of somehow integrating it into the rest of the desktop, which is why I prefer Pidgin when sitting on my local computer.

But the most important thing is that it solves the problem of crappy links when sitting in trains and using mobile internet. Whenever I get disconnected, some problem occurs, for example some messages get lost, OTR is out of sync, etc. – I used to solve this using Pidgin on a remote machine with xpra and NX which are very well done pieces of software, but having a console-ui which I can run inside screen, which produces a lot less traffic and is still easy to handle, is the preferred way for me, especially because I dont have to reconfigure my configuration, finch just takes the pidgin-configuration and uses it.


Warum die Politik mehr Interesse an Netzkompetenz zeigen sollte

Fr, 30 Apr 2010 13:51:50 +0200

Würde ich irgendeinem Fremden auf der Straße meine EC-Karten-PIN sagen? Oder ihm meine Adresse geben? Ihm private Dinge anvertrauen? Oder mich vor ihm ausziehen?

Irgendwie glaube ich, die meisten Leute würden diese Frage trivialerweise mit einem „Nein“ beantworten. Mich wundert es deshalb immer wieder, wieso solche Dinge, die eigentlich jedem klar sein sollten, im Internet so oft keine Anwendung finden.

Alleine die Tatsache, dass Phishing-Mails nach wie vor als „Gefahr“ angesehen werden, obwohl auf den Formularen zum Online-Banking mehrfach dick und fett zu lesen ist, „wir werden Sie niemals zur Angabe ihrer Pin auffordern“.

Nun gibt es wie im RL auch im Internet einen Haufen perverser Leute. Da aber die Meisten ihren gesunden Menschenverstand im Internet offenbar ausschalten, haben Erstgenannte es dort freilich erheblich leichter. Und so kommt es, dass man so schockierende Meldungen liest wie „Mädchen mussten sich ausziehen„.

Als ich die Schlagzeile las dachte ich eigentlich erst an irgendeinen neuen Missbrauchsfall in irgendeiner größeren Einrichtung, von denen ja momentan häufiger berichtet wird. In Wirklichkeit handelt es sich aber um einen Vierunddreißigjährigen der sich als pubertären Jungen ausgegeben hat, und Mädchen online dazu aufgefordert hat, sich vor ihrer Webcam auszuziehen.

Vorweg: Ich bin froh dass sie so jemanden geschnappt haben, dieses Verhalten ist unmoralisch, und soll bestraft werden. Trotzdem will ich – mal ganz ohne moralische Wertung – ein paar Dinge anmerken.

Zum einen, dieser Mensch war offenbar weniger schlau, denn hätte er es dabei belassen, dass sich die Mädels vor ihm ausziehen, wäre er wohl kaum aufgeflogen, laut dem ksta-Artikel ist er dadurch aufgeflogen dass er die Mädels danach erpresst hat, weitere unanständige Dinge zu tun, da er ansonsten ihre Nacktbilder weiterverwenden würde. Warum er nicht einfach auf die zahlreichen Pornoportale zurückgegriffen hat, in der Exhibitionisten ihren Spaß haben können, frage ich mich.

Die Mädels waren aber offenbar auch nicht unbedingt mit Verstand gesegnet. Denn anders als die Schlagzeile es sugeriert, „mussten“ die Mädchen sich laut dem Artikel keineswegs ausziehen, sie haben es freiwillig getan. Ich frage mich, was jemanden dazu bewegt, sich vor einer fremden Person auszuziehen, durch einen offenbar unidirektionalen Sichtkanal. Dass zwei Jugendliche über einen Videokanal chatten und sich beide ob der Befriedigung entkleiden, was man meines Wissens als Sexting bezeichnet, nun, das finde ich zwar durchaus auch bedenklich (unverschlüsselte Videoprotokolle, MITMs, Computerviren, etc.), aber es ist beidseitig. Sich vor einer Person zu der man keinen Sichtkontakt hat auszuziehen, das ist wiederum – entschuldigung – einfach nur dumm.

Als hormongeplagter pubertärer Jugendlicher setzt aber vielleicht der Verstand an der Stelle manchmal aus. Das ist verständlich. Das sollten aber die Eltern betreffender Personen schlichtweg wissen. Und dementsprechend ihre Kinder aufklären. Ich glaube nicht, dass es zu viel verlangt ist, seinem Kind zu erklären, es möge bitte NIEMALS Nacktbilder von sich in irgendeiner Weise im Internet versenden, denn was hochgeladen wird, kann sehr schnell und ohne dass man es merkt in falsche Hände geraten, und was einmal im Internet ist, verschwindet von dort auch nicht mehr so einfach. Zumindest das wollen die meisten Jugendlichen wohl kaum.

Genauso sind hier die Schulen gefragt. Verständnis für Internettechnologien ist hier gefragt. Es gibt genügend Beispiele, und genügend Möglichkeiten, den Leuten zu erklären, wie unsicher eine unverschlüsselte Verbindung ist, und wie leicht es ist, im Internet Identitäten zu fälschen. Und wie schwer und warum es schwer ist, etwas, was einmal im Netz steht, da wieder rauszukriegen.

Klar, man kann durch entsprechende Gesetze versuchen, das Netz möglichst weit zu zensieren, und möglichst viele Täter fassen. Aber das Netz ist groß. Zu groß, als dass es technisch möglich wäre, mit bloßer Technik gegen solche Probleme vorzugehen.


Wieder eine Lappalie, mit der der Bundesgerichtshof zugemüllt wird

Do, 29 Apr 2010 19:00:34 +0200

Ich kenne Personen, die den Bundesgerichtshof als einziges noch funktionierendes Staatsorgan ansehen. Zumindest erfüllt es die wichtige Aufgabe, unsere Politiker in ihre Schranken zu weisen, und in sich durch alle Instanzen hindurch nicht klärenden Streitfällen ein Machtwort zu sprechen.

Ich habe mal gehört, Anwälte müssen eine Gebühr zahlen, wenn sie mit einer Klage vor den Bundesgerichtshof gehen, um zu verhindern, dass man mit jedem Bagatellfall davor zieht.

Leider wird wohl dabei nur kontrolliert, ob es sich um eine Frage handelt, die noch nicht entschieden ist, und nicht, ob diese Frage in irgendeiner Weise sinnvoll ist. Und so konnte ich heute lesen, dass eine Künstlerin Google verklagt, weil die Bildersuche Thumbnails ihrer Bilder zeigt.

Zunächst mal finde ich die Bildersuche eine großartige Sache, und sie hat mir schon oft Dinge erleichtert. Nur um das mal vorweg zu sagen. Und ich verstehe auch nicht, was man als Künstler dagegen haben kann, dass man die eigenen Bilder in der Bildersuche findet. Es sind thumbnails. Vorschaubilder. Mehr nicht.

Desweiteren verstehe ich nicht, warum ein Künstler seine Werke ins Internet stellt, wenn er nicht will, dass diese auch gesehen werden. Ich nehme mal stark an, die betreffende Künstlerin wird so vorgegangen sein – denn befinden sich ihre Bilder im Internet ohne dass sie dazu beigetragen hat, dann war dies sicher nicht Googles Schuld, und sie sollte vielleicht den verklagen, der sie primär ins Internet stellte. Oder handelt es sich hierbei womöglich um das Missverständnis, das Internet sei nur eine große Verkaufsplattform für Inhalte?

Auch Googles Verhalten scheint in dieser Sache seltsam zu sein. Eigentlich kennt man es doch eher so von Google, dass sie Inhalte, die man nicht verlinkt haben will, nicht mehr verlinken, wenn man es ihnen direkt sagt. Um zum Bundesgerichtshof gehen zu dürfen muss man aber doch meines Wissens einige Instanzen durchlaufen. Einzig und Allein könnte ich mir vorstellen, dass Google hier ebenfalls ein Interesse an einer Rechtssicherheit hat. Immerhin: Wenn ein Gesetz draußen ist, müssen sich auch die Konkurrenten daran halten. Wenn nicht, wird Google als führender Anbieter vermutlich mehr Klagen an den Hals bekommen als Andere.

Dann ist natürlich die Frage, darf Google prinzipiell urheberrechtliches Material cachen und Daumennägel davon als Suchergebnisse anbieten, auch wenn der Urheber dies nicht will. Meine Antwort wird jetzt vielleicht manch einen erschüttern, aber dazu ist meine Meinung ganz klar: Nein.

Und nun kommt die für mich entscheidende Frage: Hat der betreffende Künstler Google auch entsprechend geltender Internetstandards mitgeteilt, dass er dies nicht will? Zum Beispiel in Form einer robots.txt, and die sich Google und Andere in der Regel halten? Irgendwie zweifle ich das an, denn sonst würde Google sie kaum anzeigen.

Ich frage mich manchmal ohnehin, ob den Leuten überhaupt bewusst ist, dass bei Google nicht ein paar Millionen Heinzelmännchen im Internet surfen und Suchergebnislisten erstellen. Dass da nicht bei jeder Seite irgendwer das Impressum und die speziellen Vorlieben bezüglich welche Seiten jetzt angezeigt werden dürfen und welche nicht durchgelesen und interpretiert wird, sondern ein Automatismus eine syntaktische und semantische Analyse durchführt und dann dass Zeug indiziert. Kein Mensch ist daran beteiligt.

Mein Vorschlag wäre, den robots.txt-Standard rechtlich festzuschreiben. Webcrawler und Bots sind inzwischen viel zu wichtig für das Internet, als dass man sie in dieser starken Weise einschränken sollte, zumal auch die meisten Künstler auch eher ein Interesse daran haben dürften, gefunden zu werden. Per robots.txt könnte dann jeder, der nicht will, dass seine Inhalte Indiziert werden, dies den Webcrawlern mitteilen, und solange diese sich daran halten, und sie in angemessenen Zeitabständen überprüfen, sollte Rechtssicherheit gelten.

Update: Ich bin froh zu lesen, dass der BGH meine Ansicht teilt. Ich frage mich dennoch, brauchte es dafür wirklich den Bundesgerichtshof? Hätte ein wenig Menschenverstand nicht ausgereicht?