Kostenpflichtiger Inhalt im Web

Sun, 18 Oct 2009 06:39:15 +0000

Vor ein paar Tagen las ich diesen Artikel auf ksta.de. Es geht darum, dass große Zeitungen ein Premium-Modell einführen wollen, sodass man ihren Inhalt zum Teil auch im Netz nur kostenpflichtig beziehen kann.

Ich kann ja verstehen, dass guter Journalismus Geld kostet. Man braucht einen Haufen engagierte Mitarbeiter. Dennoch, ich lese Zeitungen und Zeitschriften hauptsächlich in Wartezimmern von irgendwelchen Ärzten.

Ich bin deshalb früher häufig seltsam angesehen worden, inzwischen ist das anders. Mir ist schlichtweg schon ziemlich früh aufgefallen, dass ich eigentlich immer wenn ich etwas zu einem Thema lese, mit dem ich mich auskenne, den Eindruck habe, der Journalist stellt Tatsachen grob verfälscht dar. Und da liegt dann natürlich die Vermutung nahe, dass das bei Dingen, mit denen ich mich nicht auskenne, ebenfalls so ist, nur dass ich es da nicht merke. Nun, dieser Zusammenhang scheint vielen Leuten schon länger aufgefallen zu sein, aber es scheint sich erst jetzt langsam der Mut durchzusetzen, das auch öffentlich zu sagen. Nun, daher kommt jedenfalls meine grundsätzliche Abneigung gegen bezahlten Journalismus. Wer aus Überzeugung Journalist ist, der hat nur Sekundär einen Gewinn seiner Tätigkeit im Sinne, denke ich. Und wer primär finanziellen Profit im Sinn hat, passt seine Recherchen so an, dass sie maximalen Profit produzieren.

Insbesondere suchen Zeitungen nach diesem Gesichtspunkt die Themen aus, von denen sie berichten. Wenn ich eine Zeitung lese, übergebe ich also freiwillig ein Stück gedankliche Freiheit an jemand Anderen. Das ist nicht unbedingt etwas schlechtes, und in gewissem Maße auch nicht vermeidbar. Und dafür sind Zeitungen gut. Und deshalb bin ich auch nicht dagegen, dass es Zeitungen gibt.

Nun funktioniert das Web aber von Grund auf anders. Der Grundgedanke ist die freie Verfügbarkeit von Informationen, die jeder erzeugen und verlinken kann. Was das Web als solches ausmacht, und den Begriff „Web“ überhaupt erst rechtfertigt, sind die Hyperlinks. Es ist eben keine zusammenhangslose Ansammlung von Informationen. Es gibt Querverweise. Es gibt eine intrinsische Struktur. Und diese Struktur ist, wenn man genau hinschaut, wunderschön. Sie ist ein wichtiger Teil der Netzkultur. Die Verweise passen zumeist thematisch zueinander, sodass man mit einer schwachen KI bereits jetzt semantisch zusammenhängende URL’s ermitteln kann (dies zu vereinfachen und zu perfektionieren ist – wie ich es verstanden habe – das, was sich hinter dem Buzzword „Semantic Web“ verbirgt).

Dies ermöglicht das Erzeugen von Suchalgorithmen, auf denen die heutigen Suchmaschinen basieren. Leider sehe ich darin auch wieder das Verhängnis für das Internet. Durch die Möglichkeit des Gugelns geht das Bewusstsein verloren, dass es keinen zentralen Index aller Informationen gibt und jeder dazu beitragen kann, was einem eigentlich die Möglichkeit gab, auch Informationen zu eher unpopulären Meinungen zu bekommen, etwas, was man in Zeitschriften eigentlich nicht kann. Klar, man kriegt die Meinung jedes Cranks im Netz zu lesen – in Zeitschriften eher selten, bzw. nur wenn die unpopuläre Meinung gerade gelegen kommt. Aber dafür kann ich mir auch selbst eine Meinung bilden – es gibt viele unpopuläre Meinungen, die zurecht unpopulär sind,  aber umgekehrt waren viele revolutionäre Ideen ursprünglich unpopulär. Das Netz bietet den Leuten, die sich darauf einlassen wollen, sich selbst eine Meinung zu bilden, eine Plattform.

Und hier entsteht wieder das ursprüngliche Problem: Es besteht zwar durchaus kein Zweifel, dass der Kommerz das Netz vorangetrieben hat, aber ebendieser zerstört es gerade, da das Netz immer weniger als Netz, sondern immer mehr als Verkaufsplattform angesehen wird. Natürlich ist es nichts verwerfliches, mit dem Internet Geld zu verdienen. Aber anstatt wie die großen erfolgreichen Portale zu versuchen, Geld zu verdienen mit den Eigenarten des Netzes, wollen die Verlage ähnlich der Musikindustrie das Netz an ihre Verkaufsstrategie anpassen.

Nun, zum Einen glaube ich bereits, dass das rein Technisch nicht möglich ist. Ich warte schon auf die ersten Hacks, um sich Inhalte von Zeitschriften auch ansehen zu können ohne zu bezahlen. Und auf die erste private Tauschbörse für Zeitungsartikel. Solche Restriktionen funktionieren nicht. Genausowenig wie DRM wirklich funktioniert. Unternehmen wie Google kennen das Problem und gehen damit richtig um: Sie verbieten bestimmte Dinge zwar, aber letztendlich investieren sie nicht allzu viel in die Infrastruktur, um diese Dinge zu verhindern. Beispiele sind das Herunterladen von YouTube-Videos und das Nutzen von GMailFS und CustomizeGoogle verboten. Google könnte all diese Dinge verhindern. Ich bin mir recht sicher, Google kann ziemlich genau feststellen, ob jemand ein YouTube-Video per Flashclient oder per externer Software herrunterlädt, ob jemand CustomizeGoogle verwendet, und GMailFS sowieso. Es gibt Hinweise die ziemlich eindeutig sind. Und Google könnte Maßnahmen ergreifen, um dies weiter zu erschweren. Google tut das nicht – vermutlich, weil Google erkannt hat, dass das einem Wettrüsten gleichkommt, und noch so gute Programmierer nicht gegen die riesige Horde an Usern ankommt, die sich ihre Software immer so zurechthacken wird, dass sie das machen kann, was sie will.

Zum Anderen bezweifle ich, dass das irgendwer will. Wenn ich schon etwas bezahle, dann will ich auch ein gedrucktes Heft. Außerdem gibt es Portale die auch Nachrichten anbieten – diese Nachrichten mögen sich bisher zwar eher auf den Boulevard-Bereich beschränken, aber wenn eine Nische frei wird, wird irgendwer sie füllen. Welchen Vorteil hat eine Online-Zeitung, wenn ich sie nicht verlinken und mich darüber auslassen kann (wie ich es gerade tue)? Welchen Grund sollte ich haben, sie zu lesen?

Mein Alternativvorschlag wäre eher, die Werbung teuerer zu machen. Die Zeitungen finanzieren sich durch Werbung. Früher reichte weniger Werbung aus. Warum jetzt nicht mehr?

Advertisements

Nerdpoints++: Linux ohne Bildschirm starten

Sun, 18 Oct 2009 06:38:51 +0000

Meinen wunderschönen HP Pavilion dv6010ea hat es jetzt erwischt: Nachdem ich mir mein MacBook zugelegt habe, habe ich ihn zum Desktop-Rechner degradiert. Das hat ihm offenbar nicht gefallen – jetzt ist augenscheinlich das passiert, was man öfters mal von diversen amd-nvidia-Kombinationen hört: Grafikkarte flöten gegangen. Ok, es könnte natürlich auch an den 7 Tagen durchgehender Uptime diese Woche liegen. Der Rechner startet und begrüßt mich mit einem langen und zwei kurzen Pieps, was ungefähr so viel heißt wie „No Graphics. Accept it, Bitch!“.

Genau das hatte ich schon mal. Damals hatte ich noch Garantie. Dieses Mal wird eine Reparatur kaum etwas nützen. Das Erstaunliche ist an diesem Zutand, dass das Betriebssystem booten kann. Zunächst versuchte ich also mein Ubuntu zu starten. Ich vermute mal, der X-Server wird abgestürzt sein, jedenfalls ging das nicht. Dann habe ich – ohne Bildschirm, nur durch „Zählen“ – meine Windows-Partition zum Booten gebracht (ich wollte nur mal sehen was passiert) – nun, zumindest Fehlermeldungs-Sounds gingen noch – das heißt die Soundkarte geht und Booten ist möglich. Wie schön.

Dann habe ich mich daran gemacht den zweiten Punkt in meinem Grub-Menü auszuwählen: Den recovery mode. Da ich nicht mehr die Reihenfolge von Festplatten- und Root-Passwort wusste, probierte ich einfach ein paar mal herum, bis ich „yes | aplay“ ausführen konnte (heißt, bis ich danach einen Ton hörte). Dann zuerst mal ifup eth0, dhclient eth0 (denn NetworkManager unter der Konsole hatte ich noch nicht probiert bis dato). Nun habe ich natürlich aus Sicherheitsgründen bis dato keinen SSH-Server installiert gehabt, das habe ich dann nachgeholt … aptitude install openssh-server eingetippt, enter gedrückt. Dann ein paar mal y-enter (bis ich mir einigermaßen sicher war dass jetzt aptitude keine Fragen mehr haben sollte). Wieder „yes | aplay“. Wunderbar. /etc/init.d/ssh start … und schon konnte ich von außen auf den Rechner zugreifen.

Sobald man mal einen SSH-Login hat, ist der Rest nicht mehr so schwer. Das Wichtigste war mir erstmal, alle Daten von der Platte zu sichern.

Und dann hab ich es mir natürlich nicht nehmen lassen, ein wenig mit VNC und XDMCP herumzuprobieren. Ich habe sogar eine XDMCP-Verbindung hinbekommen, allerdings gehen einige Sachen (hal, dbus, etc.) nicht richtig (zurecht wohl, man will bestimmte Dinge nicht per Remote-Login zugreifbar machen). Bei entsprechender Konfiguration wäre das allerdings eine Möglichkeit, den Laptop noch sinnvoll zu nutzen. Alte Rechner werden einem mehr oder weniger Nachgeschmissen. Die kann man sich in Thin Clients umfunktionieren. Oder sich gleich einen richtigen Thin Client kaufen. Wobei da natürlich auch die Frage ist, ob ein richtiger Tower-Rechner nicht sinnvoller wäre. Natürlich sind Tower-Rechner und alte Rechner Stromfresser, während Thin Clients eher moderaten Stromverbrauch haben, und auch meistens ziemlich leise sind.

Dann gäbe es natürlich die Möglichkeit, die Grafikkarte auszutauschen. Allerdings ist alles andere als Klar, dass es wirklich an der Grafikkarte liegt – die Grafikkarte könnte theoretisch vollkommen in Ordnung sein, aber es könnte sonstwo irgendwas durchgebrannt sein. Wenn sich da nicht kurzfristig ein sehr billiges Angebot auftut, ist das denke ich die unwahrscheinlichste Möglichkeit.

Und dann gibt es natürlich noch externe Grafikkarten, zum Beispiel USB-Grafikkarten. Wenn die nicht zu teuer sind, ist das durchaus eine Überlegung wert. Viel schlechter als ThinClients über XDMCP werden sie wohl auch nicht sein. Allerdings ist natürlich die Frage, ob man diese Grafikkarten schon sinnvoll unter Linux einsetzen kann.

Jetzt bleibt der Rechner jedenfalls erstmal aus. Sobald ich wieder Zeit habe, schraub ich ihn wohl mal auf und werd versuchen den Staub zu entfernen, der sich darin so gesammelt haben dürfte.