Manjaro: Applying Updates while shutting down the system

I really like Manjaro. The combination of always up-to-date software packages and the high stability, thanks to the Manjaro team (especially Philip Müller), really ensure a stress-free workflow.

I use the stable channel (that’s the default) and am still happy to get very fresh packages (latest and stable). With very few exceptions, there are problems but these are minor. I can also confirm those issues have been decreasing lately.

Meanwhile, I have recommended it to other people and they also are using it.

The big advantage of Manjaro’s updates is that they are applied in small increments. So there is not really a distinction between updates (small security patches) and upgrades (major changes). Talking about ongoing updates; Unlike Windows or distros such as Ubuntu, where both terms are kept apart and the upgrades are jumps with added pain.

But Manjaro has a disadvantage that always strikes. You can work with the system, run the updates (when else should you do it?), but the system changes in the background and the user notes that at one point or another. This of course leads to an experience that is not nice.

However, with Manjaro, major updates are incorporated in less time. This can be annoying for a normal user.

So why not keep the updates running while system is shutting down? It has two advantages:

1.- The user does not have to worry about updates all the time.

2.- Since the updates do not run in the background, but only at the shutdown process, the user does not have to tackle messed up situations.

By the way, distros like Fedora and Ubuntu do it, but with certain bigger updates. The computer is subsequently booted up, updates are applied and shut down immediately.

Here’s how to extend this functionality in Manjaro. It should be noted that this process has often been criticized by the Manjaro community. The expectation is to always take time for the updates and also to read news about the packages (Similar to Arch Linux). But I can understand that some people do not want to do that. I’ve been using Manjaro for over three years and believe these automatic shutdown updates are not a problem. I’ve never broken my system with Manjaro updates.

However, it is not excluded that something would go wrong. Therefore I recommend a snapshot backup with timeshift, so you can quickly restore an old state in cases of failure.

Thanks to Systemd (installed by default) this is not a big problem. Under the directory /usr/lib/systemd/system-shutdown/ a script can be created, which executes the updates automatically. All we have to do is make sure that the package manager Pacman runs.

sudo nano /usr/lib/systemd/system/unattendedUpdates.service

Now we fill the file with content like this:

[Unit]
Description=Unattended Updates

[Service]
ExecStop=/usr/bin/pacman -Syuq --noconfirm
RemainAfterExit=yes
TimeoutStopSec=7200
KillMode=process
Killsignal=SIGINT


[Install]
WantedBy=multi-user.target

Save (with ctrl + o, ctrl + x) and activate it in systemd:

sudo systemctl daemon-reload
sudo systemctl start unattendedUpdates
sudo systemctl enable unattendedUpdates  

By the way: The value 7200 corresponds in seconds to the maximum time given to the updater. In that case, the process will take a maximum of 2 hours. This is a lot of time. On my system, larger updates take about 10 minutes (with SATA SSD). Such process should not take longer. With that strategy if the updater stalls for some reason, the machine still gets to shut down.

Now all updates (except AUR) should be applied at shutdown. Good luck!

Mozilla Thunderbird als vollwertige Office-Lösung?

Erstmal Euch allen ein frohes neues Jahr und viel Erfolg und Gesundheit im frischen 2019!

Einleitung

Wenn es um Produktivität geht, stehe ich des Öfteren vor der Debatte, ob für die allgemeine Organisation Microsoft Outlook es Wert ist einzusetzen.

Als Software finde ich MS Outlook nicht schlecht. Als Teil der Office-Komponenten und Groupware-Lösung ist es in Ordnung. Ich sehe nur zwei große Nachteile:

1.- Kein CalDav, CardDav oder GroupDav Support. Zumindest lässt sich das mit Plugins, wie https://caldavsynchronizer.org , beheben. Warum ich das als Problem sehe, hängt mit dem propietären MS Exchange zusammen. Zahlreiche Firmen investieren in die Weiterentwicklung von Plugins, um manche Probleme zu umgehen und am Ende ist die Qualität eher im Mittelmaß. Es ist für Entwickler viel schwieriger Wünsche anzupassen, wenn die Software geschlossen ist.

2.- Läuft nicht unter Linux. Da ich Windows meide, ist das ein Problem für mich und alle Linux User. Zwar kann man dem mit Virtueller Maschine oder Wine Abhilfe schaffen, doch ich habe diese Programme lieber nativ, denn ich sehe Sie als Hauptarbeitswerkzeuge. Sie müssen ohne Kompromisse oder Umwege effizient laufen.

Thunderbird als Ersatz?

Thunderbird ist eigentlich nur ein Mail-Client. Es gibt viele Mail-Clients und MS Outlook bietet einiges mehr als nur Emails, denn es handelt sich um eine Groupware-Anwendung, welche zusätzlich Kalender und Addressbücher zur Verfügung stellt. Alles so schön integriert, dass man dort Kundenkontakte, Mailing und Terminverwaltung wunderbar managen kann. Um Outlook in einer Firma zu vernetzen wird i.d.R Microsoft Exchange eingesetzt.

Allerdings ist Mozilla Thunderbird genauso wie Firefox mit einen Addon-System ausgestattet. Über die Jahre ist das Addon „Lightning“ entstanden und hat sicher immer enger in das TB-Ökosystem integriert. Beim Download von Thunderbird ist es direkt mit dabei. Man kann also nicht nur Mails schreiben, sondern Termine organisieren. Durch die Unterstützung von Caldav, kann ein Kalendar-Server mit-eingebunden werden. Ich nutze dafür die Nextcloud, denn sie bietet genau dieses Feature. Für Unternehmer würde ich doch noch SOGo nehmen, denn es bietet eine komplexere Verwaltung der Terminberechtigungen an.

Auch ist ein Addressbuch dabei, doch diesem fehlen einige Features, wie bspw. eine Carddav-Verbindung zu einem Server. Nextcloud und SOGo bieten in gleicher Weise Carddav an.

Sie können übrigens mit Apple Geräten oder Android diese Protokolle einsetzen. Die Opensource-App-Vielfalt ist in den letzten Jahren wirklich groß geworden. Ich nutze für mein Handy https://www.davx5.com. Egal ob ich Termine oder Kontakte am Handy oder am Rechner hinzufüge, es wird alles von allem über die Nextcloud synchronsiert.

Zurück zum Thema Addressbuch in Thunderbird: Das Einzige Thunderbird-Addon, was ich noch installiere ist https://addons.thunderbird.net/de/thunderbird/addon/cardbook. Damit ist aus meiner Sicht die Suite komplett und steht dem Outlook nichts mehr nach.

Installationsvorgang

Im Thunderbird geöffnet, lässt es sich komfortabel suchen. Dabei Klicken Sie auf das Sandwich-Menü

Wählen Add-ons und in der Verwaltung tippen Sie „cardbook“ ein. Dort wird es dann hinzugefügt:

Starten Sie Thunderbird neu, und schon haben Sie ein paar neue Knöpfe in der Werkzeugleiste:

Achten Sie nur darauf, das alte Addressbuch von TB ist immer noch vorhanden. Ich würde den Knopf für diesen entfernen. Das geht indem Sie mit rechter Maustaste in die Werkzeugleiste klicken und auf „Anpassen“ gehen:

Nach der Installation des Add-ons haben Sie bereits drei Vorteile:

1.- Die Adressbücher werden in gleicher Weise, wie der Kalendar, in einem Reiter angezeigt. Ich finde das viel übersichtlicher. Auch die Schnellsuche in Kontakten bei der Verfassung einer Email, gehen Hand in Hand. Lästiges Browsen im Adressbuch entfällt komplett.

2.- Die Einstellmöglichkeiten an den Kontakten ist viel größer. Sie können sogar Geburtstagserinnerungen anzeigen lassen, wenn Thunderbird gestartet wird.

3.- Sie können sich mit einen CardDav-Server verbinden und die Kontakte synchronisieren.

Verbindung mit einem CardDav-Server

Wie auch bei Caldav, benötigen sind einen Link. Dabei müssen Sie im Reiter „CardBook“ ein neues Adressbuch hinzufügen und wählen „Im Netzwerk“:

Jetzt gehen Sie auf den Nextcloud-Server und holen sich die URL des Addressbuchs:

Im Thunderbird Cardbook-Assistenten zurück-gewechselt, fügen Sie die URL ein:

Natürlich müssen Benutzername und Password vom Nextcloud-Account eingetragen werden.

Sollte der Test des Accounts bestehen, wird im Cardbook ein neues Adressbuch mit den Einträgen vom Nextcloud-Server angezeigt.

Fazit

Ich bin immer offen für Alternativen. Gnome Evolution ist eine weitere Anwendung, die dem Outlook sehr nahe kommt und ebenfalls Termine und Kontakte verwaltet.

Mir persönlich gefällt der Umfang von Thunderbird bisschen besser und ich kann bestätigen, dass zahlreiche Firmen und Lehrstühle das Produkt erfolgreich einsetzen ohne etwas einzubüßen.

Da die Addons von Thunderbird in Javascript entwickelt werden, kann jeder mit bisschen Programmiererfahrung eigene Add-ons bauen und evtl. so spezielle Bedürfnisse einer Firma entgegen kommen.

Das CardBook Addon nutze ich jetzt seit fast einem Jahr und bin damit sehr zufrieden. Das Addon wird von der Gemeinschaft gepflegt, so dass bei TB-Updates auch dieses mit aktualisiert wird.

Screen Tearing unter Manjaro Linux Gnome

Screen Tearing ist ein Effekt den man gut erkennt, sobald im Bild viel Bewegung stattfindet. Man erkennt es nicht immer bzw. nicht immer sofort, wenn man mit statischen Fenstern auf einem Desktop System arbeitet.

Quelle: Wikipedia https://de.wikipedia.org/wiki/Screen_Tearing

Zum Testen eignet sich das Abspielen eines Videos. YouTube hat auch ganz nette Testbilder, wie folgendes:

Stellen Sie dieses Video auf Vollbild und dann erkennen Sie den Effekt, sofern Sie überhaupt von dem Problem betroffen sind.

Unter den Linux Distros gibt es viele Lösungen und es ist stark von der Hardware abhängig. In diesem Artikel zeige ich, was unter Manjaro getan werden kann, sobald es auftaucht.

Achtung: Hier handelt es sich um eine Nvidia Grafikkarte. Mit AMD/Intel Graphik-Chipsätzen gibt es andere Lösungen.

 

Lösung unter Manjaro

Der Große Vorteil bei Manjaro mit propiertären installierten Treiber ist, dass man ohne Neustart das Tearing sofort loswird. Allerdings bleiben die Einstellungen nicht permanent und System-übergreifend. Folgendes Video zeigt, wie man die Einstellung permanent bekommt:

Auch wenn man Screen Tearing durch einfaches Fensterschieben nicht wahrnimmt, sollte man testen ob das Problem vorhanden ist. Das Gehirn nimmt im Unterbewusstsein einiges mehr wahr. Solche Artefakte zu entfernen machen das Arbeiten am Bildschirm deutlich angenehmer.

Qt 5.12 und Web Assembly

Wer als C++ Entwickler sich schon immer gefragt hat, wenn wir sowieso Anwendungen im Web laufen lassen, warum muss es fast immer mit Javascript entwickelt werden? Desktop-Anwendungen gibt es viele und warum nicht diese einfach ins Web portieren? In der heutigen Zeit der  Cloudbasierten IT-Infrastruktur macht dieser Ansatz auf jeden Fall Sinn.

Dank der Web Assembly Technologie (WASM) ist es möglich aus bereits bestehenden C++ Code Webanwendungen zu bauen. In Kombination mit Qt können fensterbasierte Anwendungen ins Web integriert werden.

Möchten Sie also etwas grafisches, sehr dynamisches komplett im Web zeigen? Soll es von der Performance sehr gut laufen? Es ist C++ Code? Dann ist WASM das richtige!

Hier werde ich zeigen, wie unter dem Ubuntu 18.04 Derivat Linux Mint 19 mit Qt eine fensterbasierte Anwendung ins Web integriert werden kann.

Weitere Info zu der Technologie hier:

https://webassembly.org/

Emscripten

Um WASM Anwendungen zu bauen, brauchen wir Emscripten. Ich habe es heruntergeladen unter

https://kripken.github.io/emscripten-site/

ausgepackt und dann im Ordner folgendes ausgeführt:

./emsdk update
./emsdk install latest
./emsdk activate latest

Vor dem Bauen der Qt 5.12 habe ich die Shell-Umgebung so gesetzt, dass emscripten Befehle global eingesetzt werden:

export PATH=$PATH:/<pathtoemsdk>/emscripten/1.38.20

Kann man wie folgt testen, ob es geklappt hat:

echo $PATH

em++ --version

Qt 5.12 Sources

Hier empfiehlt es sich, die aktuellste Qt Version zu nehmen, auch wenn sich diese in der Beta-Phase befindet:

git clone https://github.com/qt/qt5.git
cd qt5/
git checkout origin/5.12.0

./init-repository
./configure -xplatform wasm-emscripten -nomake examples -prefix $PWD/qtbase
make

Und schon werden die Bibliotheken für WASM erstellt.

Projekt erstellen

Ich würde eine einfache Qt Anwendung bauen, sowas wie ein einfaches Hello World.

./qmake <yourAppCodeDir>

make

Jeweils eine HTML-, JS- und WASM-Datei werden generiert.

Programm im Browser starten

Ganz einfach einen Simplen Webserver starten

python -m SimpleHTTPServer
emrun --browser=firefox BandwidthCalculator.html

und auf die URL gehen, wo sich die HTML Datei befindet. Viel Spaß beim ausprobieren!

Fazit

Ich war begeistert, wie gut es geklappt hatte. Ich musste keinen C++ Code anpassen. Leider lassen sich noch nicht alle Qt-Bibliotheken kompilieren, doch es wird sicherlich noch Updates geben. Das ist nur eine Frage der Zeit.

Simulationen mit OpenFOAM auf einem Banana Pi M64

OpenFOAM auf einem Banana Pi M64?

OpenFOAM ist eine offene Ansammlung von Bibliotheken, mit denen Strömungsmechanische Simulationen durchgeführt werden können. Das ist eines der größten Anwendungsgebiete, aber noch lange nicht das einzige:

https://openfoam.com/

Open Field Operation And Manipulation steht dafür, dass der Entwickler eine Differentialgleichung aufstellen kann und diese durch OpenFOAM lösen lässt. Das klingt nach einem Universaltool, aber ganz so einfach ist es dann doch nicht. OpenFOAM benutzt ein eigenes C++, mit dem einige sogenannte „Solver“ geschrieben wurden. In diesen „Solvern“ ist das Differentialgleichungssystem mit einem speziellen C++-Dialekt geschrieben, der von den OpenFOAM-Bibliotheken erkannt wird. Im Code als auch in der gebauten Executable sind einige bekannte Methoden und Parameter einzustellen, damit letztlich die Rechnung ordnungsgemäß abläuft. OpenFOAM bringt einige Solver und zahlreiche Tutorials im Paketumfang mit, welche ohne großen Aufwand eingesetzt werden können.

Banana Pi M64 ist ein kleiner Computer wie das Raspberry Pi, allerdings mit wesentlich mehr Arbeitsspeicher, 64-Bit Architektur, eMMC (Auf der Platine integrierter Speicher) und einem höher getakteten Prozessor:

http://www.banana-pi.org/m64.html

Der große daran Vorteil ist: es ist klein, leise und verbraucht wenig Strom. Vergangene Versuche mit OpenFOAM auf dem RaspberryPi hat es schon in der Vergangenheit gegeben:

https://www.cfd-online.com/Forums/openfoam-installation-windows-mac/146433-openfoam-embedded-systems-pi-pi2-edison-bbb.html

Jetzt starte ich einen neuen Versuch und schaue wie gut die Performance ausfällt. Da man mit OpenFOAM mehrere Rechner zusammenschalten kann um parallele Rechnungen durchzuführen, kann man damit wunderbar seine Infrastruktur skalieren. Hier ist meine Hardware:

Einmal zusammengebaut sieht es dann so aus:

Und im Betrieb:

Ein weitere Rechner (Desktop-System) nutzt folgende Spezifikationen:

Ich werde die Rechenzeiten des BPi gegen diesen Desktop-Rechner vergleichen. Natürlich ist dieser schneller, aber der Faktor interessiert mich. Grund ist, dass man sich die Frage stellen kann, ob mehrere BananaPi Geräte vielleicht doch einen i5 dieser Klasse ersetzen kann. Wie viele das wären und welcher Platz (Serverraum Volumen) benötigt wird um diese Rechenleistung ernsthaft einzusetzen, habe ich abgeschätzt. Allerdings wurde dafür ein einfacher Fall genommen und dieser rechnet jeweils auf beiden Systemen mit einem einzigen Kern.

Betriebssystem für BananaPi

Zur der Zeit dieses Artikels gibt es ein Ubuntu 16.04 Image für das Gerät. Ich habe mir die Zeit genommen und es auf das eMMC aufgespielt:

http://www.banana-pi.org/m64-download.html

Leider gab noch kein Image mit Ubuntu 18.04, also habe ich 16.04 genommen und ein Upgrade gefahren

sudo apt update && sudo apt dist-upgrade && sudo apt autoremove
sudo apt-get install update-manager-core
sudo do-release-upgrade -d

Das lief auch wunderbar durch:

cat /etc/lsb-release

DISTRIB_ID=Ubuntu
DISTRIB_RELEASE=18.04
DISTRIB_CODENAME=bionic
DISTRIB_DESCRIPTION="Ubuntu 18.04.1 LTS"

Grund dafür ist, dass die Aktualität einer Ubuntu LTS (Long-Term-Release) in der Regel dafür sorgt, dass man in weniger Fehler hinein-tritt. Das gilt allerdings nur für LTS. Der Grund dafür ist, dass die Entwickler solcher Tools größtenteils auf den Ubuntu LTS Versionen testen und davon immer aktuellste (Meine persönliche Erfahrung).

OpenFOAM aus den Repos installieren

Ursprünglich wollte ich es aus dem Quellcode kompilieren, doch leider gab es zu viele Fehler und ich habe dann die Repo-Version genommen:

apt install libopenfoam openfoam-examples

Auf dem i5 habe ich OpenFOAM 4.1 dann selber gebaut.

Einfacher Versuch – PitzDaily

PitzDaily ist so ziemlich das erste Beispiel, was man unter OpenFOAM simulieren kann. Der Fall ist sehr schnell gerechnet.

Das Ergebnis von beiden mit sehr kleinen Abweichungen sieht als Auswertung dann wie folgt aus:

Bild: Hier ist ein kleiner Kanal zu erkennen, in dem Luft oben links mit einer Geschwindigkeit von 10 m/s durchgeblasen wird. Am unteren Teil des Kanals sieht man durch die Vektoren (schwarze Pfeile), dass ein induzierter Wirbel entsteht. An den Farben erkennt man das Geschwindigkeitsprofil.

Rechenzeiten

Urteil der Rechenzeiten folgt. Am Ende der Logs kann man die Simulationszeit für die Iterationen ablesen.

Auf dem BPI-M64:

    ...
    smoothSolver: Solving for Ux, Initial residual = 0.00013831, Final residual = 9.28001e-06, No Iterations 6
    smoothSolver: Solving for Uy, Initial residual = 0.000977894, Final residual = 6.73868e-05, No Iterations 6
    GAMG: Solving for p, Initial residual = 0.000761591, Final residual = 6.02052e-05, No Iterations 5
    time step continuity errors : sum local = 0.00284907, global = -0.000320399, cumulative = 1.21783
    smoothSolver: Solving for epsilon, Initial residual = 0.000117283, Final residual = 7.16786e-06, No Iterations 3
    smoothSolver: Solving for k, Initial residual = 0.000211639, Final residual = 1.2388e-05, No Iterations 4
    ExecutionTime = 126.81 s ClockTime = 129 s


    SIMPLE solution converged in 298 iterations

    streamLine streamlines write:
    seeded 10 particles
    Tracks:10
    Total samples:10809
    Writing data to "/home/gerstrong/pitzDaily/postProcessing/sets/streamlines/298"
    End

Auf dem i5:

smoothSolver:  Solving for Ux, Initial residual = 0.000117166, Final residual = 1.15333e-05, No Iterations 5
smoothSolver:  Solving for Uy, Initial residual = 0.000974057, Final residual = 6.71236e-05, No Iterations 6
GAMG:  Solving for p, Initial residual = 0.000753183, Final residual = 6.40228e-05, No Iterations 5
time step continuity errors : sum local = 0.00305484, global = -0.000240797, cumulative = 1.02849
smoothSolver:  Solving for epsilon, Initial residual = 0.000118496, Final residual = 6.83101e-06, No Iterations 3
smoothSolver:  Solving for k, Initial residual = 0.00021769, Final residual = 1.35326e-05, No Iterations 4
ExecutionTime = 7.31 s  ClockTime = 8 s


SIMPLE solution converged in 283 iterations

streamLine streamlines write:
    seeded 10 particles
    Tracks:10
    Total samples:10885
    Writing data to "/mnt/common/Simulations/Software/OpenFOAM-v1806/tutorials/incompressible/simpleFoam/pitzDaily/postProcessing/sets/streamlines/283"
End

Komischerweise konvergierten die Rechnungen unterschiedlich (283 zu 298). Unterschiedlich, und zwar sehr, sind auch die Rechenzeiten der Geräte. Der i5 war nach 7,31 Sekunden fertig, während der BananaPi ganze 126,81 Sekunden brauchte! Damit sind wir bei einem Faktor von 17,35!

Also kann man sagen mit 18 BananaPi-Geräten und etwas Interprozess-Parallelisierung oder mehreren Rechenfälle z.B. für Parameterstudien, könnte sich eine Anschaffung dieser Art doch lohnen.

Raumausfüllung

Mein i5 mit Gehäuse hat folgende Dimensionen in cm:

42x35x17 ergibt 24.990 cm³

7,5×10,5×3,0 ergibt 236,25 cm³

Ich kann also mit ca. 100 BananaPi-Geräten den Platz des i5 Rechners ausfüllen. Aus dieser Sicht ist der Faktor 17,35 doch nicht so schlecht, bedenkt man die Größe BPi.

Fazit

Klein aber Oho! Wie erwartet, ist das BananaPi zwar schwächer als ein i5, berechnet man es aber auf die Raumausfüllung des Geräts, sieht das ganze gar nicht mehr so schlecht aus. Für stark parallelisierbare Rechenfälle ist die Anschaffung eines kleinen Pi-Clusters für wissenschaftliche oder industrielle Anwendungen vielleicht doch keine schlechte Idee.

IoT vs. IoP oder wie kleine Geräte große Pannen verhindern

Internet Of Things ist keine Neuheit mehr; Einschränkung aufzuheben, dass nur Desktop-Geräte, Laptops, Tablets und Smartphones mit dem Internet verbunden werden. Immer mehr Geräte wie z.B. SmartTVs oder Lösungen für SmartHome werden angeboten und verbinden sich mit dem großen Netzwerk. Das eröffnet viele neue Möglichkeiten für den Benutzer, denn er kann von überall mit seinem Smartphone diese „inteligenten“ Geräte bedienen. Mit Geräten wie Amazon Alexa geht es sogar noch weiter. Plötzlich sprechen Sie mit Ihrem Haushalt und befehlen das Licht einzuschalten oder die Heizung herunterzuregeln.

IoP

Was ist also IoP? Die vom Author selbst erfundene Abkürzung steht für Internet of PCs. Es ist eigentlich das, was wir hatten, bevor das Konzept Internet Of Things entstanden ist. Hier möchte ich einschlagen, denn ein PC kann schnell zu einem „Thing“ werden um die Aufgabe eines „Internet of Things“-Gerät zu erfüllen.

Da IoT-Geräte im Vergleich zu einem modernen PC wesentlich weniger Leistung bringen, könnte man schnell denken, warum nicht einen alten Rechner nehmen? Klar kann man das machen, nur dann sollte man über folgende Punkte nachdenken:

  1. Stromverbrauch: Ältere Rechner, je nach Modell, schlucken mehr Strom. Möchte man also ein Gerät im Haushalt oder Unternehmen einsetzen, dass die Aufgaben rund um die Uhr erfüllt, sollte man an die Stromkosten denken.
  2. Lautstärke: Ein vollwertiger Rechner hat meistens einige Lüfter eingebaut. Wie in Punkt 1 erwähnt, verbrauchen diese ebenfalls elektrischen Strom und sind zudem laut. Gerade ältere Lüfter machen auf Grund der verschlissenen Welle (Massenträgheitsmoment) noch mehr Krach. Geräte ohne Lüfter haben dieses Problem nicht.
  3. Platzbedarf: Ein Raspberry Pi von der Fläche gerade mal so breit und tief wie eine Scheckkarte im Vergleich zu einem ATX-Gehäuse ist halt kleiner.

Wenn die Aufgaben des IoT-Geräts jedoch rechenintensiver sind, die Stromkosten keine Rolle spielen und ausreichend Platz zur Verfügung steht, wäre es eine Überlegung wert. Ist es dann ein IoT-Gerät oder vielleicht doch nur ein einfacher Computer, der mit dem Internet verbunden ist?

Die o.g. Aussagen mögen banal klingen, doch im unternehmerischen Umfeld wird häufiger alte Hardware eingesetzt, als oftmals angenommen wird.

PCs everywhere?

Woran erkennt man also, ob ein Gerät eher ein verstaubtes System oder die perfekte Harmonie zwischen Hardware und Software darstellt?

Man erkennt es am besten, wenn eine Fehlermeldung an diesem Gerät auftaucht. Hier ein typisches Beispiel:

Quelle: https://dev.scoutman.at/2015/05/der-geldautomat-mit-dem-bluescreen/#more-560

Dieser Bluescreen-Fehler kommt von Windows XP. Vielleicht fällt Ihnen jetzt schon auf, dass dieses Bild von Mai 2015 stammt. Seit dem Jahr 2014 wurde Windows XP offiziell von Microsoft abgekündigt.

Aufgaben eines IoT-Gerätes

Ist ein Bank-Automat überhaupt ein IoT-Gerät? Schwer zu sagen. Für mich ist es ein Gerät mit einer begrenzten Zahl an Aufgaben. Windows XP mag zwar trotz des Alters mit zusätzlicher Software die Aufgaben abdecken, aber es kann viel mehr! Wahrscheinlich lässt sich sogar Counter Strike installieren, aber wozu?

Ein System mit mehr „Features“ ist in der Regel anfälliger. Windows XP ist für solche Aufgaben nicht ausgelegt. Es ist ein Desktop-System für Benutzer, womit verschiedene bürobezogene Aufgaben abgewickelt werden. Zu seiner Zeit hat es dies halbwegs gut abgedeckt.

Der „XP-Zombie“ lebt also noch mind. bis 2019 weiter, weil sämtliche Banken und Regierungen Geld an Microsoft gezahlt haben, damit es am Leben gehalten wird, statt eine moderne Lösung in Betracht zu ziehen.

Im Folgendem eine Anleitung für XP Nutzer, die wieder Updates haben möchten. Der Update-Kanal, der von diesen Institutionen finanziert wurde, kann von Orthonormal-Nutzern mitangezapft werden:

https://www.youtube.com/watch?time_continue=37&v=BVDkorPtWms

Das ist in unserer Gesellschaft mit den heutigen Geräten ein riesiges Problem. Windows wird heutzutage für so gut wie alles eingesetzt und seitdem haben die Systemfehler heftig zugenommen. Ist Microsoft an der schlechten Qualität der Software schuld? Nein, es ist schlichtweg das falsche Betriebssystem für solche Geräte.

Falls Sie glauben, dass sich das speziell auf Bankautomaten beschränkt, hier noch ein Beispiel aus dem Digital Signage-Bereich:

https://www.dotkam.com/2007/05/03/windows-xp-screensaver-on-time-square-nyc/

Quelle: Dotkam

Leider habe ich dazu keine Bilder zum zeigen, aber beim Rewe-Markt und am Frankfurter Flughafen Terminal 2 habe ich vor kurzem Bluescreens gesehen. hier ist noch ein Video:

https://www.youtube.com/watch?v=bmnWBcrfl24

Quelle: DJLaunchStar

Es ist unglaublich wie Windows die ganze Welt der Geräte um uns herum beherrscht. Warum machen das die Firmen so? Es gibt Systeme für genau bestimmte Anwendungen, aber warum immer mit Windows?

Die Antwort liegt in der IT-Ausbildung. Wer irgendwie in der Informationstechnolgie-Branche eine Ausbildung macht, bekommt sozusagen beigebracht, dass die IT-Welt hauptsächlich Windows ist. Inzwischen ist das nicht mehr so dramatisch wie vor 10 Jahren, aber es existiert eine große Menge an Menschen, die in der EDV nie über den Tellerrand geschaut haben. Diese sitzen heute in Firmen und entscheiden über die IT-Infrastruktur, nicht immer zum Vorteil der Firma. Für Jemanden, der sich mit der Informationstechnologie beschäftigt, ist das ein riesiges Defizit, denn alternative Betriebssysteme mit neuen Konzepten sind groß im Kommen. Dank Linux sind Alternativen wie Android entstanden, die inzwischen einen großen Marktanteil beherrschen.

Was sollte man also machen, um ein smartes Gerät zuverlässiger zu gestalten und was hat IoT damit zu tun?

Aufgaben eines IoT-Gerätes

Geräte die ein paar kleine Aufgaben ausführen, brauchen nicht die Leistung eines Heimrechners. Man sollte also analysieren, was man von der Hardware-Seite wirklich braucht. Hat man dies ermittelt, kommt im zweiten Schritt das Betriebssystem mit der Software.

Kommen wir nochmal auf das einfache Beispiel Digital Signage zurück. Wir haben ein Gerät, was auf einer großen Tafel Werbung anzeigen soll. Es muss diese einfach nur flüssig abspielen. Es gibt also keine Interaktion mit den Zuschauern, was dieses Auslegungsbeispiel sehr einfach macht.

Ein kleiner Computer, der HD-Inhalte abspielen kann, sehen Sie unter folgendem Link:

https://www.raspberrypi.org/products/raspberry-pi-3-model-b/

und ein großes robustes Display wie dieses hier:

https://eneo-security.com/de/vm-uhd55m.html

Noch ein HDMI-Kabel und schon haben Sie die Hardware. Jetzt brauchen Sie nur noch Software, die solche Inhalte abspielt.

Software für IoT

Das schöne an dem Prinzip Unix ist, dass die damals geschriebenen Programme wirklich nur eine Aufgabe hatten und diese besonders effizient erfüllten. Linux profitiert auch heute noch von diesen Tools. So kann man mit OpenSource-Software ein Betriebssystem bauen, was für genau eine kleine Handvoll von Aufgaben geeignet ist. Das ist auch der Grund für die Vielfalt an Linux-Distros. Man kann etwas ganz neues bauen oder was ähnliches nehmen, reduzieren oder erweitern. Da gibt es keine Grenzen.

Zurück zum Digital Signage Beispiel: Man nimmt ein Raspbian als Betriebsystem und installiert den Video Looper von Adafruit:

https://www.raspberrypi.org/downloads/

https://learn.adafruit.com/raspberry-pi-video-looper/overview

Und man hat mit dem Raspberry Pi ein Gerät, was man an das Display anschließt und mit einen USB-Stick mit Videos versorgt. Bei dem OS gibt es nur ein Terminal, bei dem nicht mehr eingegriffen werden muss. Es existiert kein Desktop und keine Möglichkeit Counter Strike zu installieren. 🙂

Das ist ein Beispiel von einem IoT-Gerät, was nur eine Aufgabe, aber ordentlich, erfüllt. Es hat wenig Software, verbraucht dadurch weniger Energie und ist weniger anfällig als ein vollwertiger PC mit einem reisigen komplexen OS.

Und so könnte es auch bei Bankautomaten aussehen: Ein OS was nur Hardware steuert, die Geld ausgibt und das Handy auflädt. Kann es nicht mehr, können ungebrauchte Komponenten keinen Ärger anrichten.

Fazit

Unsere Welt ist im Umbruch. Statt Hardware auf großen Computern zu bündeln, übernehmen kleinere Geräte alte und neue Aufgaben, die das Leben des Menschen einfacher und schöner machen. Natürlich kann nicht alles mit IoT gelöst werden. Desktop-Rechner, Laptops, Smartphones, Tablets und Server wird es weiterhin geben. Doch die clevere Auslagerung der Aufgaben um Geräte „smarter“ zu machen ist im Gange.

Durch eine effiziente Auslegung der Hardware- und Software-Komponenten werden in Zukunft unsere Geräte noch effizienter, zuverlässiger und „smarter“.

Help, my Linux Desktop hangs!

This might not happen often nowadays but sometimes the desktop gets frozen and you have no idea how to unfreeze it. It is especially frustrating when you have unsaved work and you see no other option than to restart losing on things you were working on.

Depending on what software runs with Linux there are different things you can do.

What about Windows?

Of course there is the task manager where you can dive in. When a program does something weird, just kill it. I usually right-click on the taskbar and select „Task Manager“. If that does not work just press CTRL+ALT+DEL and select „Task Manager“ from there. If that does not work anymore, so to say you have no access to these options, you might have to restart the system. I don’t know about any other method on Windows. Maybe you have an idea.

Now let’s get to Linux, there you can do a lot more.

Different strategies

First of all, if your system suffers often under such problems and you bother with it, you might want to try a different Distro or maybe even another operating system. Remember, there exist more stable distros and more experimentational ones. Of course Linux is not for everyone and not the only option.

Also software developers should be accustomed to the fact that operating systems might eventually break, because some performed operations yet to become stable in the being developed code have still a way there. If you have unprotected access somewhere to the hardware because you require it to be so, you should not be surprised if the operating system doesn’t take it that nicely.

Knowing different methods

I consider it useful to have a mix of different methods you can try out for some more confident usage. The goal of this article is to show what different things you can do under Linux when your system does not react anymore.

Know your Desktop Environment

Personally I like to have a quick access to something like a Process Manager, where I am able to kill processes that might become problematic.

If you use Ubuntu, Linux Mint or something with the Gnome Desktop it is called gnome-system-monitor what gives the control over the processes being executed. I also recommend having a watch over the system resources always visible so you can react fast enough by opening the system monitor and killing the process whenever required. Under Gnome I use this extension:

Gnome system monitor

By opening the menu and just clicking on System Monitor… I get it opened. Also this extension has a lot of customization options, highly recommended.

For KDE Plasma there exist similar tools and the KSystemGuard does a good job there. You can also use it on Gnome but it is not recommended. It really belongs to KDE Plasma.

No reaction if I click on something

That situation might many people lead to give up, but there is a lot more you can try out. If only Gnome shell is frozen maybe other programs still run fine. There is a keystroke, try ALT+F2 and put the letter ‚r‘ into the box displayed. This restarts the gnome shell entirely, but the running programs remain open. It brings the system back into a more stable state.

Nothing in the Desktop Environment works anymore

If you cannot click on elements and the keystroke with ALT+F2 leads to no reaction, then you might need to get deeper. Linux is not all about desktop environments. The programs might be running in the background and if only a small component is hindering the process we only might have to kill it and go back.

Try to change the TTY (Terminal TYpe). That means, change to a console where you can type commands. Don’t worry, there not much typing to be done. On most systems you have the graphical interface (X or maybe Wayland) opened which is where you are now, mostly TTY2 (or TTY7 on older systems). Let’s change to TTY3 with CTRL+ALT+F3. You might be greeted with Login. Type in your username and password so you get a prompt.

If you have not done already, install htop. Under Ubuntu-like Systems (also Mint) you do this with

sudo apt install htop

Let it install if not done already and start that process manager with just typing

htop

and you will see something like a console based windows which can be controlled using the arrows keys and the functional keys (F1-F10) for commands. Above the list you see how much load you have on your cores and how much memory is used in total.

With F9 you can kill the currently selected process. The processes at top of the list are those which take most of the CPU. You can sort the list differently or even show process trees. High CPU is a good indication where to look at, if your system behaves funny. Selecting the suspicious process (yes, it can even be Firefox if you have a cryptomining site with strange JS code running) and pressing F9 will open a list of signal to send. If you want to kill the process radically, you can choose 9 – SIGKILL and the kernel will kick this process out of the ecosystem.

Now if you see that the CPU or memory consumption lowered and you think it might have been the process making the desktop get frozen, you might want to switch back to the graphical interface. You can do that by just pressing CTRL+ALT+F2 (or CTRL+ALT+F7 on older systems).

If you were right the Desktop might be responsive again. If that did not help you can go back pressing (CTRL+ALT+F3) and will see that the htop instance still running and usable. Just continue looking what it could be and kill more problematic processes.

If everything is back to normal, you should consider that the TTY3 is a second session you opened. By quitting htop (Pressing F10) and typing exit as command the console session gets closed. I like to forget that session afterwards and when the PC is being shutdown later on you might get a message asking you if the other session should be closed also. Nothing to worry about.

No Reaction even after Switching TTY

I have no idea what to do then. Sometimes SSH can help if the kernel is active using another computer in the same network but if you are not even able to login, that might not work. In such cases you might have to really reboot the machine even cold hearted turning it off.

I do not remember having such situation under Linux but I know it can happen. I had kernel panics with hardware which was defective but only when booting. Still though such freezes can happen when the system is already running and at bad state somehow.

What else?

Here is a nice discussion and more hints by other developers:

https://askubuntu.com/questions/455301/how-to-restart-gnome-shell-after-it-became-unresponsive-freeze/496999

Conclusion

If I debug into certain breakpoints in some application code which uses Qt libraries using the QtCreator as debugger frontend, I sometimes manage to freeze my desktop. But everything else really is running. The problem is mostly that sometimes Qt lib tries to pull all my events, so I cannot do a thing anymore using the Desktop Environment. This a situation where changing the TTY and killing the GDB instace stabilizes the Desktop back again. QtCreator gets a bit weird, but after some seconds it finds out GDB was killed and everything is fine again. You can continue working normally… 🙂

There is no perfect system but it is incredible what CPU power houses we have today. I hope these small hints help you having your system under control even in those infamous situations.

 

Office in der Cloud: Eine Reklamekritik

Ein Link für die Analyse:

https://cloud.telekom.de/de/software/office-365

Falls sich der Link und Meinung der Magenta-Firma ändert hier ein kleiner Auszug (Stand Juni 2018):

Office 365 gehostet in Deutschland

Das Office-Komplettpaket inklusive Top-Kundenservice der Telekom

  • Immer die aktuellste Version von Word, Excel, PowerPoint & Co. (1)
  • Mit einer Lizenz auf allen Endgeräten nutzen (2)
  • Mit Profi E-Mail, Online-Kalender und sicherem Online-Speicher (3)
  • Professionelle Beratung und Microsoft-zertifizierter Support inklusive (4)
statt 11,95 / Benutzer / Monat
6 Monat(e) für 9,95 € / Benutzer / Monat
(30 Tage kostenlos testen)

Meine Kommentare:

Zu (1): Wird eine Anwendung in einer Cloud ausgeführt, muss nur diese aktualisiert werden. Das ist ein Vorteil wenn alle Kunden das nutzen. Nur eine Instanz muss aktualisiert werden. Das ist ein Vorteil durchaus. Kann aber mit einer eigenen Cloud gemacht werden und ist heutzutage sogar sehr einfach durch einen Klick oder ohne Intervention möglich.

Zu (2): Stimmt nicht ganz denn weiter unten steht:

Eine Lizenz für alle Endgeräte

Mit Microsoft Office 365 erwerben Sie mit einer Lizenz das Recht, die Office-Anwendungen auf allen ihren Endgeräten zu nutzen (bis zu 5 PCs/Macs, 5 Tablets und 5 Smartphones pro Nutzer). Damit richten Sie effizient Komplett-Arbeitsplätze ein – für höchste Produktivität im Büro, unterwegs und im Homeoffice.

Bei Nextcloud gibt es keine Einschränkungen, bzw. es ist nur von Ihrer Hardware abhängig und die Anforderungen sind nicht groß. Natürlich ist 5 Geräte pro User in der Regel ausreichend. Trotzdem passt die Aussage nicht ganz.

Zu (3): „Profi E-Mail“? Was ist das? Gibt es auch Amateur E-Mail? Nein, hier kommt es auf die Software an. Eine eigene Cloud kann bei Bedarf mit Roundcube oder SoGO betrieben werden. Professioneller geht es nicht und die Standards sind zudem offen. Gefällt Ihnen ein System nicht, können Sie einfach umziehen. Microsofts Exchange ist leider nicht offen, also kann der „Online-Kalender“ nur schwierig mit anderer Software betrieben werden. Online-Speicher ist nicht sicher, weil die Daten nicht bei Ihnen sind. Wir wissen, dass Microsoft sich bei der NSA weiterhin beteiligt. Das macht den Speicher unsicher.

Zu (4): Zertifikate sind schön, noch schöner ist es, wenn die Leute wirklich Ahnung von IT haben und sich nicht bloß auf dem Microsoft Universum beschränken. Das ist nur ein kleiner Teil der EDV, es existiert noch viel mehr, vor allem gibt es Firmen in der Branche, die wertvoller sind und einiges mehr an Innovation in den letzten Jahren beigetragen haben.

Nun, ist das billig? Bei 100 Personen zahlen Sie 995 € im Monat und verlassen sich darauf, dass Microsoft mit Ihren Daten ordnungsgemäß umgeht. Nachdem NSA-Skandal im Jahre 2009, sehe ich allerdings nicht, wieso das einer machen sollte. Muss es wirklich MS Office sein? Es gibt genug Software, die mit Word-Dateien umgehen kann. Schauen sie mal hier:

https://kopano.com/?lang=de

oder hier:

https://www.onlyoffice.com/de/

Mit einer Lösung, wo Sie Ihrer Firma einen Server spendieren und die Software von wirklich professionellen IT Spezialisten einrichten lassen, sparen Sie viel Geld, haben keine Lizenzkosten und das Beste daran ist, die Daten sind bei Ihnen. Ziehen Sie die Festplatte vom Server ab und schon stehen diese dem Internet nicht mehr zur Verfügung.

Lassen Sie sich nicht Monopolen verführen. Es gibt in Deutschland genug Dienstleister, die Ihnen eine deutlich bessere Lösung bieten. Auch für Integration kann oftmals eine alternative Lösung gefunden werden. Lassen Sie sich beraten.

Microsoft bought Github, is this the end of Linux and Open Source?

A lot of media has been talking about Microsoft’s acquisition of Github, happened some days ago.

I’m not that happy about it and moved my Commander Genius repo to Gitlab: https://gitlab.com/Dringgstein/Commander-Genius

What the media talks about it is mostly neutral and the company promised to leave Github as is so it can grow further. I wonder why to buy it then. I don’t trust this company and you also should not. I believe it is more about embrace, extend and extinguish strategy they applied in the past. The media should get on this point and also remind the readers of how this company monopolized its landscape. Yes, time has passed, Billy and Monkey boy are no more; Satya is a nice guy, blah blah blah. There still are traces and implemented strategies found in their software which show their goal of monopolization. Do not get fooled by them. Windows spies on you, Exchange still does not support CardDav (since 2006) or CalDav (since 2008) which makes it harder using other clients like Mozilla Thunderbird with their services.

Github was the biggest service of git repositories in the internet. Now Microsoft has the power to watch even into the private repositories. I feel bad for people who where paying for such advantages. And here I see the reason for some self-hosting. People, don’t trust big companies and mighty clouds! Better build your own cloud or trust someone who did not defraud you. There are much better alternatives out there: NextCloud, Zarafa, SoGO just to mention a few. Of your data is stored to media that is physically accessible by yourself you won’t run into such risks. It is your data after all.

Regarding Open Source and Linux It is not the end! Many projects like mine moved to Gitlab or Bitbucket. The Kernel was hosted at github, but this was more as a fork. The real repo always has been here: https://git.kernel.org/  no big deal.

People like me who really love open source and do not pretend to like certain companies will keep up the good work.

Nothing against Microsoft. You pay for their software, you use it, their employees get paid. That is fine. What is not fine is trying to sabotage the competition instead of making their products better, which really is required.

The update manager of Windows 10 is a big mess and seems to be worse compared to the one of Windows 7. Debian like other distros solved the problem of package dependencies in 1993 and today provide a very smart and fast update manager which also updates your installed software as a whole. And the best thing about it: I can decide when or when not to update. I can also decide which software is installed on my system. My two cents…

 

 

Mein Ubuntu MATE 18.04 test

Ich hatte vor kurzen noch ein System mit dem schönen blinkenden Manjaro Deepin:

Nachdem dieses System länger nicht mehr benutzt wurde (2 Monate) und ein Update durchgeführt werden sollte, ging es mit den Problemen los. Wir merkten zuerst nicht, dass Updates fehlten. Das Problem kam eigentlich hoch, als wir neue Software aktualisieren wollten. Der Paketmanager blockt alles, wenn etwas nicht stimmt. Ich habe dann ein Terminal geöffnet und den Paketmanager per Hand laufen lassen. Die Updates wurden angewandt, aber nach einem Neustart fuhr das System nicht mehr hoch.

Ich kann solche Probleme beheben, aber eigentlich habe ich keine Lust mehr dazu. Nach vielen Distro-Tests muss ich zum Entschluss kommen, dass Linux für Umsteiger von Windows oder Mac nur dann gut ankommen, wenn solche Probleme nicht auftreten.

Ein System muss nach ein paar Jahren Nicht-Benutzung immer noch zuverlässig laufen. Leider sehe ich Manjaro noch nicht in dieser Kategorie. Das liegt zum Teil am Rolling-Release-Konzept. Man bekommt Updates viel früher, aber diese können auch Dein System brechen. Allerdings kommt es auf die Art und Weise an, wie und welche Updates genau eingespielt werden. Manjaro hat dieses Problem gut im Griff. Allerdings muss man Updates regelmäßig anwenden. Ich nutze auf dem Hauptsystem Manjaro Gnome und habe seit Jahren keine Probleme. Allerdings verpasse ich keine Update-Gelegenheit. Sind Updates da, werden Sie sofort angewandt. Manjaro Deepin ist allerdings eine Community-Spin. Evtl. liegt es daran. Die offiziellen Versionen liefern XFCE, KDE und GNOME.

Dem ausgefallenen System habe jetzt Ubuntu MATE 18.04 verpasst, denn ich möchte mal die alte Desktop-Metapher mit den neuen Features testen. Mate erinnert ein bisschen an die Zeit, wo Netbooks hip waren, wo Windows Vista nicht so gut bei den Leuten ankam:

Linux war damals mit Gnome 2 eine tolle Desktop-Oberfläche. Das Update zu Gnome 3 hat mir im Prinzip gut gefallen, aber es war etwas ganz anderes. Diese Umstellung führte dazu, dass sich die Gemeinschaften der Linux-Distros noch mehr gespalten haben. Ubuntu machte sein eigenes Ding (Unity), genauso wie Linux Mint (Mate und Cinnamon). Smartphones kamen auf den Markt und stellten Bedienkonzepte auf den Kopf. Auch Microsoft hat mit Windows8-Versuchen und komischen Windows10-Paradigmen darunter gelitten.

Mate mag auf dem ersten Blick konservativ wirken, allerdings ist es eher als eine Verbesserung anzusehen und zwar von Dingen, die damals wirklich gut waren.

Ich kenne einige Menschen, die mit Gnome 2 zufrieden waren, aber dann Linux verlassen haben, als Ubuntu auf Unity umstieg. Vielleicht wäre es besser gewesen, wenn man Gnome 2 einfach im Konzept weiterentwickelt hätte (Inzwischen hat man Unity auch für tod erklärt). Man kann die Zeit nicht zurückdrehen und sollte es auch nicht, aber man kann Mate nutzen. Das ist das Schöne an einer Community, gute Ideen sterben nicht so einfach aus. Mir gefällt am besten der Datei-Manager Caja. Das aktuelle Nautilus von Gnome 3 verliert immer mehr Features, weil die Entwickler es einfacher machen wollen. Es schränkt jedoch Power-User ein, die gerne klicken. Und das habe ich schon oft beobachtet. In der nächsten Release von Gnome soll man mit Nautilus keine ausführbaren Dateien mehr starten können:

https://www.omgubuntu.co.uk/2018/05/nautilus-remove-ability-launch-binaries-apps

Zum Glück kann man einen anderen Dateimanager verwenden. Ich nutze Caja unter Gnome 3, kein Problem. Gute Integration ist damit ebenfalls möglich.

Der Mate-Desktop kommt bei neuen Benutzern sehr gut an. Egal ob von Windows-Einfleischten oder Menschen die noch nie einen PC genutzt haben. Das Desktop-PC Konzept ist sauber verankert und wer Smartphone Integration braucht (Keine Apple Geräte, leider), kann das mit Extra-Anwendungen tun (KDE-Connect):

https://www.omgubuntu.co.uk/2017/01/kde-connect-indicator-ubuntu

Sogar die Layouts von Windows, MacOS und andere Metaphern können mit einen Klick aktiviert werden und schon hat man etwas Gewohntes.

Ich denke Ubuntu und somit auch Linux Mint haben bis heute das beste Update System. Es ist schade, dass es nicht Rolling Releases abbildet, dafür geht ein System seltener kaputt, was ich für meine Kunden bevorzuge. Der einzige Nachteil an einer Nicht-Rolling Release ist die nicht ganz so aktuelle Software im Kern. Dafür ist diese meistens stabil und Software, die man aktuell braucht, kann man auch mit weiteren Maßnahmen nachinstallieren. In 2-5 Jahren sollte man aber ein Upgrade wagen, denn auch dadurch wird der Support des Entwicklers verlängert.

Zu Ubuntu auch auch Ubuntu MATE gibt es alle 6 Monate eine neue kleine Release (Mit 9 Monaten Support jeweils) oder halt alle 2 Jahre die LTS-Variante (Mit 5 Jahren Support jeweils). Also ist man nicht wirklich hinterher. Upgraden zwischen verschiedenen Ubuntu Releases läuft in der Regel glatt ab. Daten sollte man dennoch sichern und manchmal muss man doch vorab installierte Software erneut installieren. Kleiner Geheimtipp, Timeshift hilft bei Backups and Restores, sollte etwas schief gehen:

https://github.com/teejee2008/timeshift

Was macht also dieses Ubuntu Mate so besonders? Ich habe mal einige Stichpunkte zusammengefasst:

  • Ordner-Embleme: Im Dateimanager kann man jeder Datei oder Ordner ein Emblem verpassen. Das ändert nichts an den Dateien, sondern soll für eine gute Übersicht sorgen, wenn man navigiert.
  • Ordner einfärben: Auch wieder eine Maßnahme um seine Dateien zu organisieren und zwischen Ordner etwas schneller zu finden.
  • Datei-Vergleich wenn etwas überschrieben wird. Der Manager kann bei Text anzeigen, wo die Unterschiede sind, bevor man etwas überschreiben lässt.
  • Access Control List. Kennt man unter Windows und versteht man unter „Erweiterten Berechtigungen“. Ich mag dieses Konzept nicht, aber es gibt viele Windows Netzwerke unter uns, aber weniger Datei-Manager, die das unterstützen. Hier haben wir eine Lösung mit dabei.
  • Signieren/Verschlüsseln von Dateien.
  • Umbenennen von vielen Dateien mit Hilfe eines Musters.

Manche Optionen bleiben trotz übersetzten Systems teils in Englisch. Dieses OS liefert eigentlich nur ein paar vorinstallierte Plugins mit. Man kann das in anderen Systemen nachrüsten. Allerdings muss man sich dann mit der Materie näher befassen. Hier wird es direkt mitgeliefert.

Die Performance ist super. Man kann mit Hilfe der Compiz-Software einstellen, dass beim Schließen der Fenster, diese wegbrennen :-D. Also viele Spezialeffeke sind möglich. Als Vista herauskam, konnte man die Leute damit beeindrucken. Ich finde das nicht mehr so interessant, ist aber Geschmackssache. Man kann es auch sein lassen und hat dafür ein flottes Ressourcensparendes System.

Ich glaube immer noch an das Rolling Release Model. Manjaro setzt das wirklich gut um, aber das Risiko eines kaputten System ist immer noch zu hoch. Der eigentliche Vorteil von Rolling Releases ist man installiert einmal und nie wieder, wenn alles gut läuft. Die Ubuntu Upgrades kann man schon als Neu-Installationen zum Teil betrachten. Schon alleine der Tatsache zu schulden, dass manuell angelegte Software-Quellen deaktiviert werden. Eigene Daten bleiben schon erhalten. Ich denke aber in die richtigen Rolling Release müssen wir gehen, aber mit einer höheren Zuverlässigkeit.