Gnome 3

Seit Gnome 3 endlich final erschienen ist benutze ich es. Gnome 3 beobachte ich schon recht lange, vor einiger Zeit hatte ich sogar mal kurz einen pre-alpha built installiert, der zwar nicht stabil war aber wenigstens kurz zeigen konnte, auf was man sich bei der neuen Oberfläche freuen kann 🙂

KDE 4 war zwar „ganz nett“ aber auf dauer war ich irgendwie genervt davon. Es fühlte sich meistens sehr zäh und irgendwie unrund an. Noch dazu machte KDE 4 bei meinen Monitoren nur Probleme im dual Monitor Setup. Ich konnte es zwar aktivieren, nach einem reboot waren aber die einstellungen so defekt, dass sich die Oberfläche auf einen 5cm breiten Streifen erstreckte (mit voller Auflösung) und der Rest schwarz war*. Es dauerte meistens ein bis zwei Tage bis es richtig lief. Gnome 2 war im allgemeinen zwar auch okay aber schon sehr in die Jahre gekommen und mir irgendwann zu langweilig.

Mein Unmut über die aktuellen Desktopumgebungen wurde noch größer, als Ubuntu bzw Canonical anfingen die Oberflächen auf eigene Faust zu „verbessern“. Angefangen mit den Fensterbuttons oben links (oder war das schon der zweite Streich den ich korrigieren musste? Ich weiß es nicht mehr) die einfach aus meiner Sicht dort falsch sind. Direkt über dem Menü den schließen Button anzuordnen war für mich eher ein Bug als ein Feature, viel zu leicht konnte man sich verklicken und das Programm schließen statt das Menü zu öffnen. Das nächste Feature was dann an OS X angelehnt wurde (für mich sieht es jedenfalls sehr danach aus) war das globale Menu in der Leiste am oberen Bildschirmrand. Damit wurden die Fensterbuttons links zwar wieder benutzbarer aber für mich war es trotzdem ein reinfall.

Die Bedienung bei OS X mit der Menüleiste oben ist angenehm und nach kurzer Umstellung hat man sich auch dran gewöhnt. Bei OS X gehört es dazu und ist im System komplett „drin“. Bei Ubuntu dagegen war es nachträglich hinzugefügt und eckt überall an. Es war nicht Einheitlich, manche Programme kamen damit klar, andere hingegen nicht. Am Ende stand man vor einem inkonsistenten Bedienkonzept. Für mich keine Alternative. Dass das Menü ausgeblendet wird wenn es nicht benutzt wird war zwar auch eine nette Idee, ich frage mich aber immer noch: wozu?

Noch dazu konnte Unity nicht sinnvoll mit mehreren Monitoren umgehen. Die Leiste am linken Rand hat mich auch gestört. Meine Meinung nach ist es für Netbooks zwar gut geeignet, aber auf einem 24″ Monitor möchte ich es nicht.

Mit gnome3 wurde in meinen Augen alles besser. Die Bedienung ist durchdacht, die Systemfunktionen sind gut integriert. Wenn eine IM reinkommt, muss ich nicht zwingend das Chatfenster öffnen sondern kann direkt in der Benachrichtigung am unteren Bildschirmrand antworten. Wenn eine verschlüsselte Festplatte angesteckt wird kann ich in der Benachrichtigung über den neuen Datenträger das Passwort eingeben und sie wird eingebunden. Dual Monitor hat bei mir bisher keine Probleme gemacht, es funktioniert einfach.

Es gibt zwar noch ein paar Stellen an denen geschraubt wird (der Netzwerkmanager könnte noch etwas Pflege gebrauchen) aber im großen und ganzen bin ich im Moment sehr zufrieden.

* Nachtrag: Der Fehler hat mich richtig genervt, als ich im September eine SSD geliehen bekommen hatte und Kubuntu darauf installieren wollte. Nach einer Stunde des (erfolglosen) Probierens hab ich dann Windows 7 darauf installiert. Das hat wenigstens funktioniert. Der Fehler war gefühlt nicht von KDE sondern durch die Anpassungen von Canonical. Später hab ich das gleiche mit KDE bei Fedora getestet und hatte den Fehler nicht gehabt. An der Stelle war Kubuntu für mich vorerst gestorben.

PDFs miteinander „verzahnen“ mit pdftk

Ich hatte heute ein Problem: Ich wollte einen Stapel Blätter scannen, farbig, hatte aber nur einen Einzugsscanner zur hand der kein Duplex kann (immerhin Einzug, von daher kein Problem).

Also als erstes alle Vorderseiten gescannt, danach den Stapel umgedreht (nicht umsortiert) und die Rückseiten gescannt.

Ich hatte also 2 Dateien: vorderseiten.pdf und rueckseiten.pdf. Wer mitdenkt wird merken: durch das Umdrehen des Stapels war die rueckseiten.pdf genau falsch sortiert. Die letzte Seite ist die erste und vice versa. Dazu müssten die Dateien wie ein Reißverschluss „verzahnt“ werden.

Zum ändern von PDF Dateien gibts das freie, kleine Programm pdftk. Unter Ubuntu in den Quellen, für andere Betriebssysteme übers Netz zu beziehen. Ob die Befehle unter Windows genau gleich sind weiß ich nicht, ich nutz es nur unter Linux. Eine kleine „Warnung“ vorab: hier passiert alles auf der Konsole.

Das Umsortieren der Seiten ist schnell gemacht:

pdftk rueckseiten.pdf cat end-1 output rueckseiten_reverse.pdf

erstellt eine neue pdf „rueckseiten_reverse.pdf“, welche die Seiten in genau umgekehrter Reihenfolge enthält.

Nun möchte man aber noch die beiden Dateien zusammenfügen, abwechselnd eine Datei der „vorderseiten.pdf“ und der „rueckseiten_reverse.pdf“. Auch hier hilft wieder pdftk, nur dieses Mal kommt noch ein kleinwenig bash scripting dazu 🙂

Als erstes teilen wir die beiden PDF Dateien auf:

pdftk rueckseiten_reverse.pdf burst

macht aus jeder Seite eine eigene pg_xxxx.pdf (wobei xxxx die Seitenzahl angibt).

jetzt diese Dateien umbenennen (damit sie nicht mit den gleich folgenden Vorderseiten überschrieben werden):

for f in pg_*.pdf; do mv $f rueck_$f; done;

Nun heißen die Dateien rueck_pg_xxxx.pdf und wir können (analog zur Rückseite) die vorderseiten aufteilen:

pdftk vorderseiten.pdf burst

Nun liegen in dem Ordner in dem wir uns befinden neben den rueck_pg_xxxx.pdf auch die vorderseiten pg_xxxx.pdf

Das Zusammenfügen ist nun ein „Kinderspiel“:

a=““; for f in pg_*.pdf; do a=“$a $f rueck_$f“; done; pdftk $a output alleseiten.pdf

Das wars schon. nun haben wir eine „alleseiten.pdf“, die (wenn alles richtig gemacht wurde) alle Seiten, in der richtigen Reihenfolge beinhaltet.

Viel Spaß beim Basteln.

P.S.: Wer die Blätter auf dem Kopf stehend gescannt hat, kann sie mit pdftk auch einfach Drehen

pdftk in.pdf cat 1-endS output out.pdf

Neues 64-bit Flashplugin für Linux

Adobe hatte im Frühjahr ein 64-bit Flashplugin (beta) für Linux herausgebracht, dies aber nach einiger Zeit vom Netz genommen. Lange Zeit passierte dann wieder nichts, bis heute:

Adobe hat heute eine neue (experimentelle) Version des Flashplugins  unter dem Codenamen „Square“ herausgegeben: für Linux, Windows und Mac OS X – jeweils 32-bit und (ganz wichtig für mich:) 64-bit.

Eigentlich ist die bessere Performance schon Grund genug es zu benutzen, das Argument schlechthin ist mir eben erst aufgefallen:

Bisher hatte ich mit dem (bei Ubuntu mitgelieferten) Plugin in Verbindung mit Compiz Desktopeffekten starke „klick“ Probleme. Buttons und sonstige Links in Flashvideos (oder Webseiten, ganz egal) konnte ich in den meisten Fällen nicht anklicken. Pausieren ging oft nicht, eingebettete Videos konnte ich nicht starten und solche „Späße“.

Manchmal half ein „wildes“ Geklicke um Glück zu haben, manchmal auch einfach nichts.

Mit dem (alten) 64-bit Plugin hatte ich das nicht, mit dem aktuell bei Ubuntu mitgelieferten Plugin (bzw über apt-get install flashplugin-installer installierbaren) Plugin aber schon und nicht zu knapp.

Nun eben das neue 64-bit Plugin installiert, Probleme weg.

Falls noch jemand (außer mir) das Bedürfnis hat, es auszuprobieren:

Einfach auf der Adobe-Labs Webseite herunterladen.

Für 64-bit Linux wäre es folgene Datei: Flashplugin 64-bit Linux

Die folgenden Schritte nun am Besten auf der Konsole ausführen:

tar -xzvf flashplayer_square_p1_64bit_linux_091510.tar.gz

mv libflashplayer.so ~/.mozilla/plugins/

Wer keine Konsole will kann es auch im Nautilus (oder dem Dateimanager deines Vertrauens) machen.

Normalerweise sollte das ~/.mozilla/plugins/ Verzeichnis existieren, falls nicht einfach anlegen.

Falls noch jemand die Klickprobleme hat: sind sie nun (wie bei mir) weg?

Nun ist Flash (bei mir) endlich wieder deutlich Stress-freier zu verwenden 🙂

Was wäre wenn…

… es meine Lieblingsdistribution nicht mehr geben würde?

Diese Frage könnte ich deutlich einfacher beantworten, wenn ich eine Lieblingsdistribution hätte. Ich hatte in den letzten Jahren Debian (bei Servern) und Ubuntu (bei Desktops und Laptops) eingesetzt. Ich habe viel darüber nachgedacht Ubuntu auch auf Servern einzusetzen, es bisher aber nicht getan weil ich keinen Vorteil dabei erkennen konnte.

Ubuntu wird bessere Kompatibilität zu neuer Hardware nachgesagt, ob das noch so stimmt kann ich im Moment nicht sagen, spielt bei Servern aber eine untergeordnete Rolle.

Was würde nun Passieren wenn Ubuntu nicht mehr existieren würde?

Ich würde auf Desktops entweder Debian oder Fedora einsetzen. Debian wäre die „schnelle“ Lösung, weil ich es schon kenne. Fedora hingegen noch nicht, wodurch viel „neues“ da wäre, die Entscheidung würde von meiner Laune, „Spieltrieb“ und Zeit abhängen.

Suse hatte ich früher mal gehabt, gefällt mir aber irgendwie nicht und käme von daher nicht in Frage.

(via)

Jabber Voice Calls mit Psi in Ubuntu 10.04

Jabber/XMPP kennt die sogenannte „Jingle“ Erweiterung, sie macht es möglich mit dem Gegenüber nicht nur zu Schreiben sondern auch zu Reden. Google Talk unterstützt dies schon seit langer Zeit, in anderen Clients ist es aber noch relativ Neu und von vielen noch nicht bemerkt worden.

Unter Linux gibt es mehrere Clients die die Funktion beinhalten: Psi, Pidgin, Empathy und (sehr wahrscheinlich) noch weitere.

Ich selbst benutze Psi und Pidgin. Pidgin ist ein Multimessanger der vieles kann, bei Jabber aber ein paar Lücken hat (die aber normal nicht stören) und Psi ist ein reiner Jabberclient der mit sehr vielen Funktionen aufwarten kann.

Pidgin unterstützt Voice und Video, Psi im Moment nur Voice. Um Voice nutzen zu können, wird „psimedia“ benötigt, welches zwar über die Paketverwaltung leicht zu Installieren ist, aber (bei Ubuntu) nicht funktioniert.

Wenn man jemanden Anruft stürzt Psi ab, kommentarlos. Startet man Psi über die Kommandozeile stürzt es mit folgendem Fehler ab:

psi: symbol lookup error: /usr/lib/psi/plugins/libgstprovider.so: undefined symbol

Das Problem liegt im psimedia Paket und wurde auch behoben, in den Ubuntu Repositories ist aber eine zu alte Version.

Eine neuere Version hat Debian in ihren Repos:

Hier einfach die für deine Architektur benötigte Version herunter laden (auf die Versionsnummer achten)

Wenn man gerade schon am manuellen Aktualisieren ist: Die Psi Version in Ubuntu ist auch veraltet (0.13, aktuell ist 0.14) und kann genauso ersetzt werden (muss man aber nicht, psimedia funktioniert auch mit der Alten), genauso hier herunterladen.

Nach dem Download einfach Installieren (Doppelklick auf die datei 😉 ).

Diese Meldung wegklicken, wenn die Version in den Repos neuer wäre müsste man nichts von Hand machen

Nun kann man im Psi mittels Rechtsklick auf einen Kontakt den Punkt „Voice Call“ auswählen, in dem kleinen Fenster auf „Call“ klicken und schon Telefoniert man.

Bei Pidgin funktioniert es von Anfang an, man muss nichts dafür tun. Aber wie immer: Es gibt Dinge die kann Pidgin besser und es gibt Features, die nur Psi hat. Genau diese benötige ich von Zeit zu Zeit.

P.S.: Psi unterstützt Anrufe auch auf anderen Plattformen, bringt dort aber alle benötigten Bibliotheken direkt mit.

Erfahrungen mit fglrx + Ubuntu 10.04 + Dual Monitor

Als ich im Herbst letzten Jahres mit meinen neuen PC zusammengestellt habe, entschloss ich mich vorerst eine OnBoard Grafikkarte zu nehmen und da ich einen AMD Prozessor wollte wurde es eine ATI Radeon HD 4200.

Da der radeon Treiber bei dieser Karte und unter Ubuntu 9,10 noch kein Compositing (Compiz) unterstütze, musste ich (wohl oder übel) den proprietären fglrx von ATI nehmen. Zu meiner Überraschung funktionierte mit diesem alles Problemlo , Suspend-to-Disk genauso wie Suspend-to-Ram.

Danach kam irgendwann das Update auf Ubuntu 10.04 und es lief auch weiterhin alles.

Vor ein paar Wochen nun gesellte sich zu dem (bisher verwendeten) 17″ TFT ein deutlich größerer TFT hinzu und da meine Grafikkarte 2 Anschlüsse besitzt wollte ich auch 2 Monitore gleichzeitig nutzen. Nun kamen die Probleme: Suspend funktionierte nicht mehr. Der PC ist zwar „eingeschlafen“, beim „aufwachen“ allerdings fror der PC ein.

Ein schönes Feature des neuen Monitores ist, dass im Fuß ein Gelenk eingebaut is um den Monitor hochkant zu betreiben. Dieses Feature nennt man Pivot (bzw Pivot-Funktion) und ist beim Lesen von längeren Texten, Feeds und vergleichbarem sehr angenehm. Der Spaß daran wurde mir aber schnell genommen weil der Bildaufbau sehr Ruckelig war und beim scrollen starke Streifen aufwies (diagonal, oben rechts angefangen im 45° Winkel nach unten gehend). Ich dachte, dass dies an der Leistung der OnBoard Grafikkarte hängt.

Dieses Problem beschloss ich vorerst zu ignorieren, das Suspendproblem wollte ich aber lösen.

Xorg[1201]: segfault at c801f88d10 ip 00007ff93806a2d9 sp 00007fff9501aa90 error 4 in fglrx_drv.so[7ff937db5000+6d7000]

Diese Zeile wird nach dem Suspend in die Syslog geschrieben, der Rechner wacht auch normal auf, ist per LAN pingbar nur eben die Monitore bleiben schwarz. Sobald nur ein Monitor angeschlossen ist funktioniert alles.

Nun habe ich gelesen, dass der radeon Treiber in Ubuntu 10.04 meine Grafikkarte unterstützen soll, startete also schnell ein Live Ubuntu (bevor ich mir mit den Tests mein normales Ubuntu zerschieße) und alles lief: Dual Monitor funktioniert, Compositing geht und Suspend auch, wohlgemerkt mit dem freien radeon Treiber. Die Umstellung war dadurch beschlossene Sache und musste nur noch in die Tat umgesetzt werden.

Ein Flottes „apt-get remove fglrx“ sollte zum Erfolg verhelfen, eigentlich…

Es kam nur ein Fehler zurück, gut dachte ich, fglrx wird ja noch verwendet und wollte dafür sorgen, dass beim nächsten Start der Treiber nicht geladen wird. Im restricted-manager deaktivieren war nicht möglich und brach immer mit einem nichtssagenden Fehler ab (bestenfalls, dass dpkg einen Fehler zurückgegeben hat).

Kurz im /etc/modprobe.d/ Verzeichnis geschaut und siehe da: radeon steht auf der Blacklist (angelegt von fglrx), diesen von dieser genommen und „zur Sicherheit“ fglrx hinzugefügt, damit er auf keinen Fall geladen wird. Diese Entscheidung sollte sich aber noch rächen also NICHT nachmachen, großer Fehler.

Nach dem hinzufügen auf die Blacklist der obligatorische Neustart, damit auch das „neue“ Modul verwendet wird. Schwarzer Bildschirm, nichts ging mehr. Gefreut, dass Ubuntu eine Rettungskonsole mitbringt (zweiter Punkt im Grub) und diese gestartet, doch auch diese brachte nur einen schwarzen Bildschirm. Der Spaß ging also erst richtig los. Wie „rettet“ man ein System an diesem man keine Monitore verwenden kann?

Ein live Linux vom Stick oder CD ist dein Freund und Helfer.

Live CD wieder rein, dort dann meine Festplatte gemountet und ein chroot auf diese gemacht, wodurch ich „normal“ arbeiten konnte wie im eigentlichen (eben etwas zerstörten) System, auf der Konsole wohlgemerkt.

Vorher muss  aber /proc, /dev und /sys angelegt werden, dies geht mit

mount -t proc proc /media/pfad_zur_platte/proc

mount -t sysfs sysfs /media/pfad_zur_platte/sys

mount –bind /dev /media/pfad_zur_platte/dev

In der chroot-Umgebung dann ein „apt-get purge fglrx“ ausgeführt, wieder ein Fehler:

Entferne fglrx ...
dpkg-divert: Keine Übereinstimmung mit Paket
  beim Entfernen von »diversion of /usr/lib32/libGL.so.1.2 to /usr/lib32/fglrx/libGL.so.1.2.xlibmesa by fglrx«
  »diversion of /usr/lib/libGL.so.1.2 to /usr/lib/fglrx/libGL.so.1.2.xlibmesa by xorg-driver-fglrx« gefunden
dpkg: Fehler beim Bearbeiten von fglrx (--remove):
 Unterprozess installiertes post-removal-Skript gab den Fehlerwert 2 zurück

Kurz gesucht und auf den folgenden Befehl gestoßen

dpkg-divert --remove /usr/lib32/libGL.so.1.2

Danach funktionierte  auch das Entfernen von fglrx.

Kurz kontrolliert ob die Blacklist der Kernelmodule wieder stimmt und dann der nächste Neustart, von der Live-CD ins normale System, toi toi toi.

Nach einem Login (juhu, der X11 funktioniert wieder) präsentiert sich Gnome in gewohnter Optik. Dual Monitor funktioniert weiterhin, genauso auch Compositing. Kurz Suspend-to-Ram getestet und siehe da: funktioniert auch endlich (wieder).

Beim Surfen dann den Monitor nochmals kurz gedreht und keine Streifen mehr gesehen, Pivot funktioniert nun auch. Der Bildaufbau ist im Hochformat genauso schnell wie im Querformat, sogar das lag am fglrx und nicht wie zuerst gedacht an der Grafikkarte.

Also: regelmäßig überprüfen ob es eventuell bessere Treiber für die eingesetzte Hardware gibt (und nicht nur neue Versionen des eingesetzten Treibers) welche besser funktionieren.