Gnome 3

Seit Gnome 3 endlich final erschienen ist benutze ich es. Gnome 3 beobachte ich schon recht lange, vor einiger Zeit hatte ich sogar mal kurz einen pre-alpha built installiert, der zwar nicht stabil war aber wenigstens kurz zeigen konnte, auf was man sich bei der neuen Oberfläche freuen kann 🙂

KDE 4 war zwar „ganz nett“ aber auf dauer war ich irgendwie genervt davon. Es fühlte sich meistens sehr zäh und irgendwie unrund an. Noch dazu machte KDE 4 bei meinen Monitoren nur Probleme im dual Monitor Setup. Ich konnte es zwar aktivieren, nach einem reboot waren aber die einstellungen so defekt, dass sich die Oberfläche auf einen 5cm breiten Streifen erstreckte (mit voller Auflösung) und der Rest schwarz war*. Es dauerte meistens ein bis zwei Tage bis es richtig lief. Gnome 2 war im allgemeinen zwar auch okay aber schon sehr in die Jahre gekommen und mir irgendwann zu langweilig.

Mein Unmut über die aktuellen Desktopumgebungen wurde noch größer, als Ubuntu bzw Canonical anfingen die Oberflächen auf eigene Faust zu „verbessern“. Angefangen mit den Fensterbuttons oben links (oder war das schon der zweite Streich den ich korrigieren musste? Ich weiß es nicht mehr) die einfach aus meiner Sicht dort falsch sind. Direkt über dem Menü den schließen Button anzuordnen war für mich eher ein Bug als ein Feature, viel zu leicht konnte man sich verklicken und das Programm schließen statt das Menü zu öffnen. Das nächste Feature was dann an OS X angelehnt wurde (für mich sieht es jedenfalls sehr danach aus) war das globale Menu in der Leiste am oberen Bildschirmrand. Damit wurden die Fensterbuttons links zwar wieder benutzbarer aber für mich war es trotzdem ein reinfall.

Die Bedienung bei OS X mit der Menüleiste oben ist angenehm und nach kurzer Umstellung hat man sich auch dran gewöhnt. Bei OS X gehört es dazu und ist im System komplett „drin“. Bei Ubuntu dagegen war es nachträglich hinzugefügt und eckt überall an. Es war nicht Einheitlich, manche Programme kamen damit klar, andere hingegen nicht. Am Ende stand man vor einem inkonsistenten Bedienkonzept. Für mich keine Alternative. Dass das Menü ausgeblendet wird wenn es nicht benutzt wird war zwar auch eine nette Idee, ich frage mich aber immer noch: wozu?

Noch dazu konnte Unity nicht sinnvoll mit mehreren Monitoren umgehen. Die Leiste am linken Rand hat mich auch gestört. Meine Meinung nach ist es für Netbooks zwar gut geeignet, aber auf einem 24″ Monitor möchte ich es nicht.

Mit gnome3 wurde in meinen Augen alles besser. Die Bedienung ist durchdacht, die Systemfunktionen sind gut integriert. Wenn eine IM reinkommt, muss ich nicht zwingend das Chatfenster öffnen sondern kann direkt in der Benachrichtigung am unteren Bildschirmrand antworten. Wenn eine verschlüsselte Festplatte angesteckt wird kann ich in der Benachrichtigung über den neuen Datenträger das Passwort eingeben und sie wird eingebunden. Dual Monitor hat bei mir bisher keine Probleme gemacht, es funktioniert einfach.

Es gibt zwar noch ein paar Stellen an denen geschraubt wird (der Netzwerkmanager könnte noch etwas Pflege gebrauchen) aber im großen und ganzen bin ich im Moment sehr zufrieden.

* Nachtrag: Der Fehler hat mich richtig genervt, als ich im September eine SSD geliehen bekommen hatte und Kubuntu darauf installieren wollte. Nach einer Stunde des (erfolglosen) Probierens hab ich dann Windows 7 darauf installiert. Das hat wenigstens funktioniert. Der Fehler war gefühlt nicht von KDE sondern durch die Anpassungen von Canonical. Später hab ich das gleiche mit KDE bei Fedora getestet und hatte den Fehler nicht gehabt. An der Stelle war Kubuntu für mich vorerst gestorben.

SMTP Ports 25 und 587

Wenn man jemandem nach dem SMTP Port fragt ist die Antwort meistens „25/tcp“. Manchmal hört man noch „465/tcp“ für SMTPS. Der Port darf dafür aber eigentlich nicht mehr verwendet werden (seit 1998), stattdessen soll STARTTLS über den normalen SMTP Port verwendet werden.

Seit einigen Jahren wird bei manchen ISPs, wenn man eine Einwahlverbindung (wie z.B. DSL) nutzt, der Port 25 für Verbindungen gesperrt, bekannt hierfür ist unter Anderem die Telekom. Diese Anbieter sperren bei Verdacht auf den Spamversand den Port 25 für ausgehende Verbindungen einzelner DSL Anschlüsse. Wie dies überprüft wird weiß ich nicht.

Als neuer Port für entsprechende Client zu Server Verbindungen wurde der Port 587/tcp definiert. Der Dienst hierzu heißt „Submission“ und sieht laut RFC 2476 die Authentifizierung der User vor. Dies heißt, dass jegliche Server zu Server Verbindungen weiterhin über Port 25 erfolgen, die Clients sich aber auf Port 587 verbinden müssen/sollen.

Wie hier berichtet will Südkorea nun für „Endkunden“ den Port 25 sperren. Sie Planen ähnliche Sperren wie bei der Telekom, die Server zu Server Kommunikation soll weiterhin über Port 25 laufen. Die Sperre soll den Versand von Spamnachrichten erschweren. Hier für muss man sich überlegen wie der E-Mail Versand normalerweise abläuft.

Der Enduser der eine E-Mail versenden will sendet diese z.b. mittels Thunderbird. Thunderbird verbindet sich auf den Mailserver des Anbieters von dem man eine E-Mail Adresse hat (bei mir ist es mein eigener Server), authentifiziert sich mit Usernamen und Passwort und reicht die E-Mail Weiter. Der Mailanbieter ist in dem Fall der Smart Host bzw. das Relay welches die Nachrichten weiterleitet.. Er nimmt die E-Mail an, schaut an wen sie zugestellt werden soll und verbindet sich mit dem Mailserver des Zielanbieters (z.b. gmx, gmail und co). Dieser Server nimmt die E-Mail nun ohne Authentifizierung an, da er für die Zieldomain zuständig ist und stellt die E-Mail nun lokal zu.

Das Grundprinzip ist also: Für Nachrichten die an andere Mailserver weitergeleitet werden sollen sollte man sich authentifizieren. Ist der Mailserver aber für die Zieldomain zuständig ist keine Authentifizierung notwendig und die E-Mail wird direkt angenommen. Meistens werden noch weitere Dinge, wie IP-Adresse und Domain des Absenders überprüft (ob der DNS richtig eingetragen ist) bzw. auch die IP-Adresse mit einer Blacklist abgeglichen.

Welche Wege gibt es nun Spamnachrichten zu versenden:

– Normale, virenverseuchte, PCs die direkt Verbindungen mit des Zielservern herstellen und die Spamnachrichtenversenden

– gehackte/verseuchte Server bzw. fehlerhaft konfigurierte Server, die Nachrichten direkt zustellen

– gehackte Useraccounts bei Mailhostern

Das Sperren von Port 25 greifen effektiv nur bei der ersten Gruppe. User die Einwahlverbindungen benutzen können bei entsprechenden Sperren E-Mails nicht direkt zustellen sondern dafür einen Smart Host verwenden, z.B. den ihres Mailanbieters. Der normale Internetuser macht dies auch so, er würde bestenfalls wahrscheinlich nichts von den Sperren mitbekommen, sofern er seinen E-Mail Client richtig konfiguriert hat und den Port 587 zur SMTP Kommunikation einsetzt. Bietet der Mailanbieter den Versand über den Port 587 nicht an, bleibt nur noch der (veraltete) Port 465 für SSL, welcher meistens auch unterstützt wird. Der Virus auf dem Rechner versucht dagegen die Zielsysteme zum Zustellen der Spamnachrichten direkt zu erreichen und wird durch die Sperre davon abgehalten. Die Kommunikation über Port 587 sollte nicht möglich sein, da auf dem Port grundsätzlich eine Authentifizierung vorgesehen ist. Hier setzen allerdings auch schon DNS Blacklisten an, die häufig entsprechende IP-Adressbereiche die zur dynamischen Vergabe vorgesehen sind bzw. Spamnachrichten versenden listen, wodurch Mailserver unautorisierte E-Mails von entsprechenden IP-Adressen nicht annehmen sollten.

Die zweite Gruppe kann man damit nicht blockieren. Hier hilft nur der Ansatz der DNS Blacklisten, der auch schon bei Gruppe 1 hilft. Falsch konfigurierte Server nehmen von unautorisierten Usern nicht nur E-Mails zur lokalen Zustellung an sondern leiten diese auch ohne Authentifizierung an andere Mailanbieter weiter.

Die dritte Gruppe der Absender kann man als Zielsystem der Spamnachricht bisher nicht effektiv blocken. Für alle Beteiligten ist die Nachricht nicht ohne weiteres von einer legitimen Nachricht zu unterscheiden. Hier ist man auf die Kooperation der Mailanbieter angewiesen, bei denen der gehackte Account registriert ist.

Die RFC für Port 587/tcp sieht ausdrücklich vor, dass auf diesem Port nur von autorisierten Benutzern Nachrichten angenommen werden sollen, eine Server zu Server Kommunikation soll hierüber nicht erfolgen. Ein richtig konfigurierter Mailserver sollte sich hieran auch halten, fehlerhaft konfigurierte Server sind aber immer noch ein Problem. Die Chance, dass ein Admin den Port 587 genauso falsch (also komplett ohne Authentifizierung) konfiguriert wie schon den Port 25 ist durchaus gegeben. Hier helfen also wieder „nur“ Blacklists.

Eine Sperre des Ports 25 für Client zu Server Verbindungen ist nicht selten, von daher auch nicht weiter tragisch. Server zu Server Verbindungen darüber auch zu sperren würde allerdings keinen Sinn machen. Einerseits weil man damit gegen die RFC verstößt, andererseits weil Spammer nicht so unflexibel sind wie manch einer vermutet und rasch auf andere Ports ausweichen würden. Die Server zu Server Verbindung auch mit Passwörtern abzusichern ist nicht machbar. Weitere Sicherungsmaßnahmen zum Authentifizieren des Absenders werden zwar teilweise eingesetzt, meistens funktionieren sie aber nicht richtig oder sind nur halbherzig implementiert wodurch sie größtenteils nutzlos sind. (Oh, ich dachte den Beitrag dazu hätte ich schon veröffentlicht.)

Es bleibt abzuwarten, wie groß der Effekt der Portsperren beim Spamaufkommen sein wird. Ich selbst erwarte mir hiervon keinen merklichen Unterschied. Die meisten der ankommenden Spamnachrichten werden bei mir durch die NiX Spam DNSBL (Infos hierzu). Die wenigen Nachrichten, die es zum Spamassassin schaffen, kommen meistens von gehackten Useraccounts, hier werden die Sperren keinen Unterschied machen.

Nachtrag: Wenn man keine DNSBL verwendet kommt natürlich mehr Spam durch. Es gehen also schon noch einige direkt über Einwahlanschlüsse raus, so gesehen würde durch eine Sperre von Port 25 das Problem schon etwas abgeschwächt werden. Der Großteil der Nachrichten kommt aber eher von falsch konfigurierten Servern und von gehackten Useraccounts.

Android 4.0 und das Galaxy Nexus

Heute wurde von Samsung und Google die neue Android Version 4.0 Icecream Sandwich und das neue Google Handy Galaxy Nexus aka Nexus Prime vorgestellt.

Die neue Android Version sieht sehr schick aus (Heise Artikel dazu). Einige Features wurden bei bisherigen Android Versionen vermisst, wie z.B. Screenshots. Diese funktionieren bisher nur mit Modifikationen der OEM Hersteller (HTC hatte es z.b. Nachgerüstet), mit Root oder mit Custom ROMs. NFC wird auch erweitert und bekommt eine „Beam“ Funktion, um schnell Daten mit anderen Android 4.0 Geräten zu Tauschen.

Steven von MobilityMagazin.de hat hier eine schöne Zusammenfassung der neuen Features.

Das Galaxy Nexus fällt wie erwartet aus: Dual Core, größerer Bildschirm der den Wegfall der Sensortasten kompensiert (sie werden jetzt im Bildschirm angezeigt), LTE, Full-HD Videoaufnahmen (das Nexus S hat nicht mal 720p), 720p HD Display, noch dünneres Gehäuse. Das Curved Design wird beibehalten, was mich persönlich Freut.

Der Heise Artikel erwähnt im Gegensatz zu anderen Seiten nur WLAN b/g/n, das 5Ghz a-Band soll aber auch Unterstützt werden (wird z.B. hier geschrieben). Das a-Band macht an Orten mit starker WLAN Abdeckung Sinn. Die Bandbreite der Luft als Medium ist für jede Frequenz beschränkt. Je mehr WLANs auf einer Frequenz arbeiten, desto weniger Bandbreite bekommt jeder Nutzer. im 2,4Ghz Bereich sind in Städten einerseits schon sehr viele Access Points vorhanden, andererseits gibt es auch ziemlich starke Überlappungen zwischen den 13 nutzbaren Kanälen. Im 5Ghz Bereich ist dagegen noch sehr viel mehr Platz, unter Anderem auch weil es dort mehr verfügbare Kanäle gibt.

Ich persönlich bin sehr auf das Galaxy Nexus gespannt. Ich werde es mir zwar nicht kaufen, will aber Wissen wie die Verarbeitung ausfällt. Samsung hat sich in meinen Augen in letzter Zeit nicht mit Ruhm bekleckert. Zu viel Plastik, zu viel Knarzen und Knacken im Handy. Mein Nexus S gefällt mir zwar von den Funktionen her ganz gut (NFC z.B.), die Verarbeitung ist bei HTC Geräten aber meiner Meinung nach besser. Dazu kommt noch, dass ich den GPS Empfang von meinem E71 gewöhnt war, was Nokia deutlich besser hinbekommen hat (dazu kommt wahrscheinlich noch ein Beitrag irgendwann). Ich persönlich finde den Namen Galaxy Nexus auch unglücklich gewählt. Nexus Prime wäre passender und schöner, die Galaxy Serie ist in meinen Augen zu negativ Vorbelastet. Einerseits weil mir persönlich Galaxy S und S2 nicht gefallen, andererseits durch den Patentstreit mit Apple, bei dem es in erster Linie um Geräte der Galaxy Reihe geht. Auch „erwartet“ der Käufer bei Galaxy Geräten die Samsung TouchWiz Oberfläche, die beim Nexus ja (imho zum Glück) fehlt. Andererseits kann man auch sagen „Namen sind Schall und Rauch“, es kommt auf die Funktionen und die Hardware an. Gespannt bin ich auch auf die Dicke und Haptik des Gerätes, das Galaxy S2 ist gefühlt zu Dünn geraten, abwarten 🙂

Nicht ganz so Lange werde ich (hoffentlich) für Android 4.0 warten müssen. Ich gehe davon aus, dass das Update noch vor Weihnachten kommt. Root sollte dann auch recht schnell verfügbar sein.

Was ist eure Meinung zum neuen Nexus und zu Android ICS?

Nachtrag: Wie Heise berichtet soll das Android 4.0 Update für das Nexus S wohl im Dezember kommen. Demnach habe ich garnicht so schlecht geschätzt, dass es vor Weihnachten kommt. Wann das Update aber per OTA hier in Deutschland angeboten wird ist so eine Sache. Google rollt das Update immer nach und nach aus, wobei man das Update auch manchmal von Hand machen konnte.

Fritz!Box Capture

Weil ich es immer und immer wieder google und mir nie merken kann:

Unter http://fritz.box/html/capture.html kann man bei einer Fritz!Box einen Paketmitschnitt starten. Dieser erfolgt in einem Format, welches direkt mit Wireshark geöffnet werden kann. Man kann zudem noch auswählen auf welcher Ebene man die Pakete mitschneiden möchte (DSL, WLAN, LAN und mit/ohne spezieller DSL Header). Beachtet bei einem Mitschnitt aber die Rechtslage in dem entsprechenden Land 😉

Bin dann mal ein paar Daten auswerten.

Interessanter Traceroute

Manchmal sind genutze Routen im Internet „interessant“ (gekürzt auf die wesentlichen Informationen):

<lokales gateway>
Frankfurt1.Level3.net
London1.Level3.net
<Telekom Hop ohne reverse DNS Eintrag>
MA.DE.NET.DTAG.DE

Zu anderen DSL Anschlüssen ging es direkt nach dem frankfurter Level3 Hop zur DTAG, ohne einen Umweg über UK zu machen.

Kann ja mal vorkommen, trotzdem Seltsam 😀

Ein Monat mit WhatsApp

Etwas mehr als einen Monat benutze ich jetzt schon WhatsApp.

Meine größte Befürchtung, dass es die Akkulaufzeit meines E71 deutlich verkürzt weil es die Internetverbindung dauerhaft aktiv hat, hat sich zum Glück nicht bestätigt. Die Akkulaufzeit hat sich gefühlt kaum verändert, eventuell ist eine dauerhafte Internetverbindung sogar Stromsparender als das regelmäßige auf- und abbauen selbiger (reine Spekulation, nachgemessen hab ich das ganze nicht).

Ein (nicht unwichtiger) Teil meines Freundeskreises setzt selbst WhatsApp ein (tendenz steigend), hier spart es SMS Kosten, wenngleich man durch die „Flatrate“ dazu neigt mehr Nachrichten zu versenden 😀

Alles in Allem bin ich sehr zufrieden, vor allem bin ich damit auch Erreichbar wenn ich gerade keinen Mobilfunk- aber WLAN Empfang habe (z.B. in meinem Zimmer). Die nächsten 11 Monate werde ich WhatsApp vermutlich weiter benutzen, danach werde ich mir das Preismodell wieder ansehen und entscheiden ob es sich ein Kauf (bzw bei Symbian und Android sind es jährliche Gebühren) für mich lohnt oder nicht.

Meine Erfahrungen mit VoIP / SIP

Egal wo man ist oder mit wem man redet, kaum jemand hat eine gute Meinung von Voice over IP.

Viele sagen, die Gesprächsqualität sei schlecht, abgehackt oder gar nicht zu gebrauchen, was ich aber nur eingeschränkt bis gar nicht bestätigen kann.

Ich benutze seit über 5 Jahren ausschließlich VoIP (über 1&1 und Sipgate) und habe bisher kaum schlechte Erfahrung gemacht.

Es gibt in der VoIP-Welt verschiedene Protokolle: SIP ist der quasi-Standard bei den Festnetzersatzlösungen der meisten Anbieter. Oft kann man die Zugangsdaten auch in eigenen Endgeräten eintragen um den Anschlus unterwegs zu nutzen (so z.B. bei 1&1, Sipgate und co), es gibt aber auch Anbieter bei denen es nicht der Fall ist. Daneben sehr Verbreitet ist Skype, ein eigenes Programm und Protokoll welches (im gegensatz zu SIP) nicht offen ist, aber auch eher zum Einsatz am PC gedacht ist bzw dort meistens genutzt wird. Weitere Protokolle sind IAX und H.323.

In diesem Artikel möchte ich mich mit SIP beschäftigen, Skype ist den meisten bekannt und auch nicht mit so vielen negativen Vorurteilen belastet. Im Idealfall gilt:

VoIP hat einen großen Vorteil gegenüber konventioneller Telefonie: Man ist nicht an einen Standort gebunden sondern kann den Anschluss „mitnehmen“. Wo man sich selbst aufhält kann man sich (in der Regel) bei seinem VoIP Provider einloggen und seine zugewiesene Telefonnummer von zu Hause benutzen, vorausgesetzt man hat eine Internetverbindung die schneller als ISDN ist (also DSL oder UMTS). Dazu kommt, dass man eventuell Netzwerktelefone einsetzt (bzw. einsetzen will) was die Verkabelung im Haus einfacher macht, man muss keine separaten Telefonleitungen legen bzw. beschalten. Einige Telefone können heutzutage Power over Ethernet, wodurch sie nur in eine Netzwerkdose gesteckt werden, ein Netzteil entfällt wie bei ISDN und Analogtelefonen auch. Voraussetzung dafür ist ein PoE fähiger Switch.

Die Sprachqualität hängt natürlich von mehreren Faktoren ab:

  • Welchen Anbieter benutze ich
  • Welche Telefone benutze ich
  • Welche Bandbreite habe ich zur Verfügung

Bei den Telefonen gibt es (wie bei Analoggeräten auch) große Qualitätsunterschiede, aber auch die verfügbaren Sprachcodecs unterscheiden sich. Relativ neu ist HD-Telefonie. Dabei ist die Qualität deutlich besser als bei normalen Telefonaten, der abgedeckte Frequenzbereich als auch die Abtastrate sind bei diesem Codec (G.722) deutlich höher als bei den Bisherigen und kommen an die eines natürlichen Gesprächs (ohne Telefon) sehr Nah heran. Um dies nutzen zu können müssen beide Gesprächspartner, als auch der Provider diesen Codec unterstützen.

Die Bandbreite ist (selbstverständlich) ein sehr wichtiges Kriterium, sie kann die Sprachqualität direkt beeinflussen. Um VoIP nutzen zu können sollte man DSL haben. Es funktioniert zwar auch per UMTS (sofern es der Mobilfunkanbieter erlaubt), die Verbindungsqualität kann aber je nach Protokoll und Datennetz sehr unzufrieden ausfallen. Die (teilweise nur sehr eingeschränkte) Nutzung von VoIP bei UMTS sehe ich aber keinesfalls als Argument gegen VoIP an, mit konventionellen Anschlüssen hat man überhaupt keine Chance die Nummer auch Unterwegs zu nutzen (nicht ohne Tricks).

Bei DSL sollte man auch beachten, dass große Downloads die Bandbreite stark einschränken können und dies unter manchen Umständen die Sprachqualität beeinträchtigen kann, einige Router priorisieren die Telefoniedaten um eine durchgehend hohe Sprachqualität sicher zu stellen. Selbst bei einem DSL-light Anschluss mit nur 384 kbit/s im Downstream (und dementsprechend magerem Upstream) habe ich brauchbare VoIP Verbindungen zustande bekommen und auch ausschließlich genutzt.

An „regulären“ DSL Anschlüssen (>1 MBit/s) sehe ich persönlich keine Nachteile gegenüber Analogen oder ISDN Anschlüssen, die Sprachqualität kann sogar besser sein.

Meine „beste“ Erfahrung bisher war ein HD Gespräch in die USA. Das ist eigentlich eher ausversehen zustande gekommen (falsche Taste im Telefon gedrückt als ich mit einer VoIP Telefonanlage gespielt hab) aber die Qualität war hervorragend. Die Latenz hielt sich sehr in Grenzen und die Sprachqualität war astrein, deutlich besser als bei vielen „anderen“ inländischen Verbindungen.

Sehr schade finde ich, dass viele NGN Anschlüsse so abgeschottet sind, dass man sie ausschließlich mit dem Endgerät nutzen kann welches vom Anbieter gestellt wird. Am schlimmsten finde ich persönlich hierbei KabelDeutschland. Sofern man eine Fritz!Box bestellt und auch benutzt ist die Verbindung echtes SIP. Hätte also sehr viel Potential für unterwegs (Android, Symbian und andere Handy Betriebssysteme unterstützen SIP), sofern KabelDeutschland a) Die Zugangsdaten herausgeben würde und b) Logins von außerhalb erlauben würde. Beides war bei meinem letzten Versuch und Test im Frühjahr 2010 nicht gegeben wodurch man an den Anschluss „gefesselt“ war und Unterwegs nichts davon hatte. Ob sich das Heute geändert hat kann ich nicht beurteilen, ich bezweifel es aber (wenn doch bin ich über jeden Hinweis dankbar 😉 ). 1&1 dagegen gibt die Zugangsdaten heraus, Sipgate sowieso da sie keine eigenen Anschlüsse verkaufen.

Viele Firmen stellen mittlerweile ihre Interne Telekommunikationsstruktur auf VoIP (mit SIP) um, weil es oft günstiger ist. Andere hingegen „schwören“ auf ISDN weil die Sprachqualität iherer Meinung nach besser ist. Ich (persönlich) werde auch weiterhin auf SIP setzen, von Nachteilen merk ich „zu wenig“ und die Vorteile überwiegen – bei mir – deutlich.

 

Wie sind eure Erfahrungen mit SIP? Setzt ihr es ein, oder habt ihr es eingesetzt?

TweetDeck unter KDE (2)

Vor etwa 3 Wochen schrieb hier ich ein paar Zeilen zu TweetDeck unter KDE und damit auch Linux.

Fast gleichzeitig kündigte Adobe in einem ihrer Blogs an, ihre Plattform AIR fortan nicht mehr für Linux zu Entwickeln. (Kurzer (deutscher) Artikel hierzu bei Pro-Linux)

Ich finde das sehr schade. Lange Zeit hatte ich keine Desktopapplikation für Twitter. Alles was ich unter Linux ausprobiert habe hat mir nicht zugesagt weil es entweder zu viele Bugs oder mir zu wenig Funktionen enthielt. TweetDeck kann alles was ich will, vor allem kommt es direkt mit meinem URL shortner klar. Bald wird TweetDeck wohl wieder von mir weichen müssen, dann wenn es eine neurere AIR Version benötigt als es für Linux gibt. Ich Arbeite ja schon viel mit virtuellen Maschinen, aber für TweetDeck extra eine Windows VM zu benutzen würde dann doch zu weit gehen :-D.

Die Chrome Implementierung von TweetDeck sagt mir bisher noch nicht zu, ein paar mir wichtige Funktionen fehlen leider noch (mein Link shortner z.B.).

Ich hoffe, dass es einen würdigen Ersatz oder eine andere Möglichkeit AIR Aplikationen auf Linux auszuführen geben wird. Eventuell könnte wine hilfreich sein.

TweetDeck unter KDE

Mit Ubuntu 11.04 bin ich wieder von Gnome weg, zurück zu KDE (erwähnte ich ja schon bereits an anderer Stelle)

Als Desktop Twitterclienten benutzte ich in letzter Zeit ganz gerne TweetDeck, unter Anderem weil dieser direkt mit meinem Linkshortner zurecht kommt.

TweetDeck zu installieren ist das kleinste Problem, wenn Adobe AdobeAIR 64-bit Pakete für Linux schnüren würde wäre es zwar noch einfacher, aber immerhin stellen sie auf ihrem Blog eine Anleitung bereit, wie es doch geht: http://blogs.adobe.com/flashplatform/2010/10/install-adobe-air-on-64-bit-ubuntu-10-10.html

Durch den Wechsel von Gnome zu KDE musste ich noch das Schlüsselbund Problem lösen (Gnome verwendet den gnome-keyring, KDE kwallet: http://kb2.adobe.com/cps/492/cpsid_49267.html), danach lief TweetDeck.

Ubter Gnome würde es so gehen, bei KDE bleib aber ein kleines Problem: Links wurden nicht geöffnet.

Link anklicken -> nichts passiert.

Rechtsklick -> ‚Verknüpfung öffnen‘ -> nichts passiert.

Systemeinstellungen gecheckt: Standartbrowser ist Firefox, interessiert TweetDeck aber nicht. Ich kannte das Problem zwar schon von meinem Laptop (bereit vor ein paar Wochen umgestellt), wollte es jetzt aber endlich lösen.

Ich wusste: sobald ich konqueror installiere geht es, aber warum?

Ein einfacher Symlink von /usr/bin/konqueror auf /usr/bin/firefox half nicht, nun war meine Neugierde komplett geweckt.

Was macht TweetDeck um Links zu öffnen??

Nach einiger Zeit der Suche habe ich rausgefunden woran es liegt (mittels alter Bugreports, ähnlicher Probleme…):

Es gibt in KDE eine art Mittelsmann um Links zu öffnen: kfmclient

kfmclient ist ein Programm welches von konqueror automatisch mitinstalliert wird, bei Kubuntu aber nicht von Haus aus installiert ist (evtl weil rekonq Standardbrowser ist und dieser kfmclient nicht bereitstellt).

Einzeln ist es in den Kubuntu Repositories aber nicht vorhanden, die einzige Möglichkeit kfmclient zu installieren ist, konqueror zu installieren.

Ruft man ‚kfmclient openURL http://blog.vthadden.de‘ auf der Konsole auf, wird mein Blog geöffnet, vorausgesetzt man hat konqueror installiert, es wird sogar der Browser verwendet, den man als Standard gesetzt hat, in meinem Fall also Firefox. Vom konqueror selbst bekommt man also nichts mit, er ist lediglich vorhanden man muss ihn aber nicht benutzen.

TweetDeck nutzt (leider) auch kfmclient um Links zu öffnen. Sofern dieser nicht installiert ist passiert halt nichts. Es gibt kein Fallback oder eine sonstige Lösung.

Will man das TweetDeck Problem also lösen: konqueror installieren.

Ich gehe davon aus, dass kfmclient in AdobeAIR eingetragen ist und nicht im TweetDeck, nutze aber im Moment keine anderen AIR Applikationen und kann es von daher nicht definitiv sagen.

 

Von daher ein „Aufruf“ an die Kubuntu Entwickler und an Abode (bzw TweetDeck, wo auch immer der kfmclient als Referenz eingetragen ist):

Es wäre schön wenn „kfmclient“von Haus aus installiert ist, unabhängig von konqueror (kfmclient als eigenes Paket wäre durchaus Praktisch)

Und es wäre schön wenn TweetDeck nicht ausschließlich kfmclient sondern mindestens /usr/bin/www-browser als Fallback nutzen würde.

Das würde mir und Anderen die Fehlersuche ersparen.

Die Überbleibsel des Qualitätsjournalismus

In den letzten Jahren standen bekannterweise Google News und ähnliche Portale stark in der Kritik.

Von Verlegern hieß es, Google und Co würden ihnen Einnahmen klauen, da sie ihre Nachrichten (wenn auch nur auszugsweise) online präsentieren und verlinken.

Diese Diskussion ist mir im Moment relativ egal, darüber geht es in diesem Blogeintrag auch nicht, doch ein Begriff ist in diesem Zusammenhang oft gefallen: „Qualitätsjournalismus“, welcher „gerecht entlohnt“ werden will.

Doch was ist Qualitätsjournalismus? Was ist davon noch übrig geblieben?

Heute wurde uns wohl bewiesen, was der Qualitätsjournalismus in Deutschland ist:

Es ist das Tickern von DPA Nachrichten. Blindes Vertrauen, dass die DPA wohl keine Fehler macht. Und so kommt des, dass innerhalb von einer halben Stunde über 500 Nachrichtenseiten (so viele Suchergebnisse hat die Headline jedenfalls im Moment) die Meldung „Viele EHEC-Tote werden nicht mehr ganz gesund“ tickerten.

Ich kann verstehen, dass die Zeitungen auch Sonntags versuchen die Leser auf dem Laufenden zu halten. Ich kann auch verstehen, dass Sonntags wohl nicht so viele Redaktionsmitarbeiter am Arbeiten sind, wie unter der Woche.

Aber wieso merkt das denn niemand??

Nicht nur, dass niemand den Fehler bemerkt und den Artikel löscht, es werden sogar immer mehr Suchergebnisse. Kann denn niemand diese DPA Meldung „zurückholen“? Oder wenigstens zeitnah revidieren? Irgendwer hat den Text doch geschrieben, derjenige muss doch merken, dass die Headline anders besser gewählt worden wäre (wenngleich sie nicht 100% falsch ist, die EHEC-Toten werden nur halt nicht „nicht mehr ganz gesund“, sondern sie sind tot, von Gesundheit kann da keine Rede mehr sein).

Und da wundern sich die Verleger, wieso viele Zeitungen wenig Zuspruch „aus dem Internet“ bekommen und die Internetuser auch keine allzu große Bereitschaft zeigen, für Onlinezeitungen zu zahlen. Wofür soll ich denn bezahlen? Dass blind DPA Meldungen getickert werden? Selbst wenn 3 Zeitungen dafür Geld verlangen würden, gibt es doch immer noch 500 Weitere, die es kostenlos anbieten. Oder soll ich dafür zahlen, dass Falschmeldungen selbst nach einer halben Stunde noch online sind? Klar, es ist Sonntag, das rechtfertigt aber nicht, dass deswegen die Nachrichten eine schlechtere Qualität haben (besser keine Nachrichten sonntags, dann macht man auch weniger Fehler).

Ich habe kein Problem damit, für guten Journalismus zu zahlen. Doch scheint sich das „gut“ in den letzten Jahren zu verschieben, mindestens aber werden die „guten“ Beiträge durch leider immer häufiger auftretende Schlechte „unterwandert“. Qualität sticht Quantität, lieber sonntags weniger veröffentlichen, dafür einen höheren Standard gewährleisten.

In dem Zuge der Entlohnung kommt flattr sicher nicht ungelegen.

Ich bin gespannt wie lange die Meldung wohl noch kursiert, bis sie revidiert bzw. geändert wird.

P.S.: Ich will mit diesem Beitrag niemandem auf die Füße treten, es gibt in den klassischen Medien durchaus gute Journalisten, es zählt dafür zu sorgen, dass diese nicht durch falsches Management bzw. Falschmeldungen untergehen.

Nachtrag: Kurz vor dem Veröffentlichen habe ich nochmals gegoogelt, „nur“ noch knapp 400 Ergebnisse, die Ersten scheinen es wohl zu merken. Immerhin. Wobei andere gerade nochmals nachlegen, die Zahlen schwanken gerade sehr stark zwischen 400 und 750.

Nachtrag(2): Lars Wienand (Mitarbeiter der Rheinzeitung) hat ein paar Worte dazu geschrieben. Ich wollte mit meinem Beitrag den Qualitätsjournalismus nicht per se abwerten, ich frage mich aber: Braucht man wirklich 24/7 Ticker? Ich (als Leser) kann es durchaus verstehen, wenn mal keine bzw weniger Nachrichten auf einer Nachrichtenseite erscheinen, weil gerade Nacht oder Wochenende ist. Braucht man Ticker, die zu Hunderten im Internet, die gleiche Meldung posten? Ließt die denn wirklich jemand aufmerksam? Ich für mich eher nicht, ich habe zwar schon das ein oder andere Mal in Ticker geschaut, aber fehlen würde er mir wahrscheinlich nicht. Andere Journalisten hingegen bekommen die DPA Nachrichten wahrscheinlich sowieso, sind also auch nicht auf den Ticker angewiesen.

Ist der Mehrwert von einem Ticker im Internet heute noch so groß?

Ich will damit nicht sagen, dass es keinen Qualitätsjournalismus mehr gäbe (auch wenn es so klingen mag). Guter Journalismus hat (finde ich) nicht viel mit automatisierten Ticker zu tun, sondern damit, dass man sich vom Rest abhebt. Mit Qualität. (Nein, das heißt jetzt nicht, dass jeder Tickeranbieter keinen guten Journalismus liefern kann 😉 ). Ich will damit nur die Sinnhaftigkeit automatischer Ticker in Frage stellen, nicht die der Journalisten.

P.P.S.: Und ja, der Titel ist etwas ungünstig gewählt 🙁