Datum
Kommentare Keine

Ich bin ein großer Freund quelloffener Software. Ich nutze Linux, seit mittlerweile mehr als einem Jahrzehnt. Trotzdem kann ich den Schritt der Münchner Stadtverwaltung nachvollziehen. Ein, meiner Meinung nach, großartiges und richtungsweisendes Projekt geht damit zu ende. Das Thema ist bereits ausgiebig diskutiert worden, die Bandbreite der thematisierten Gründe für das “Scheitern” dieses Projektes reicht von Unwissen der Entscheidungsträger (LINK) über zu große personelle und technische Aufwände bis hin zu einer gelenkten Entscheidung, forciert durch den Nutznießer Microsoft.

Betrachten wir die Entwicklung aber einmal losgelöst von idealistischen Standpunkten, erkennt man, dass es im Kern nicht um ein bestimmtes Betriebssystem geht. Vielmehr kommt zum Tragen, dass es im Jahr 2017 nicht möglich zu sein scheint, plattformübergreifend zu Arbeiten. Blicken wir zurück, war eines der Ziele des LiMux Projektes eine systemübergreifende und plattformunabhängige Infrastruktur zur schaffen.

Diese Zielsetzung ist absolut erstrebenswert, aber mit Blick auf in der Praxis verfügbare Lösungen, nicht ohne massiven Aufwand erreichbar. Anwendungen im betrieblichen, wie behördlichen Bereich, werden in erster Linie für Systeme mit Windows-Betriebssystemen entwickelt. Dies ist, auch wenn es für viele eingefleischte Open-Source-Freunde nicht akzeptabel ist, eine betriebswirtschaftliche Entscheidung. Die meisten Entwickler von Software müssen auf irgendeine Art und Weise Ihren Lebensunterhalt verdienen. Software, die produktiv genutzt werden soll und gewisse Qualitätsstandards erfüllen muss, erfordert Entwicklungs- und Testaufwand. Anbieter, die diesen betreiben, wollen und müssen mit Ihrer Arbeit Geld verdienen. Dies funktioniert am besten, wenn man den potentiellen Absatzmarkt nicht künstlich einengt. Die logische Konsequenz daraus ist natürlich, das eine Software für das marktführende Betriebssystem entwickelt wird.

Idealismus hin- oder her, bei Entwicklungen, die sich an alternative Betriebssysteme mit verschwindend geringen Marktanteilen im Desktop-Bereich richten, lässt sich ein Gewinnziel bei geringen Absatzmengen nur durch entsprechend hohe Preise erzielen. Das hat aber nichts mit Unternehmen wie Microsoft oder Abnehmern, wie eben der Stadt München zu tun, sondern mit einem kranken und letzten Endes kaputten Wirtschaftssystem, in dem wir alle nur mitschwimmen.

Wenn ich hier wieder auf die technische Ebene beschränke, scheitert die Interoperabilität grundlegend an nicht standardisierten Datenformaten. Moritz Förster hat es in seinem Kommentar auf den Punkt gebracht:

Wenn alle Welt Microsofts Formate für Dokumente verwendet und man in der bayerischen Landeshauptstadt dann mühsam die Informationen herausklauben muss, interessiert sich der Sachbearbeiter nicht für das Ideal freier Software. Quelle

Damit Linux auf dem Desktop eine Chance hat, müssen sich Entwickler von Ihren idealen lösen. LibreOffice ist ein gutes Stück Software. Open Document Formate sind toll, wenn Sie aber nicht flächendeckend unterstützt werden, werden sie sich nicht durchsetzen. Microsoft als Anbieter von eigener Bürosoftware hat seine eigenen Formate am Markt etabliert. Das ist schade, aber verständlich. Anstatt nun aber zu lamentieren, wie ungerecht die Welt ist, wäre es zielführender die Unterstützung auch für proprietäre Formate zu verbessern. Solange aber ein ein in Word erstelltes Textdokument nicht ohne Aufwand in LibreOffice weiterbearbeitet werden kann (und umgekehrt) lassen sich Anwender nicht zu einem Wechsel bewegen. Die oft kritisierte Usability beschränkt sich nicht nur auf Benutzeroberflächen, sondern fängt – aus Nutzersicht – schon bei der Datei an.

Wenn es schon bei den Grundlagen hapert, dann muss man sich nicht wundern, wenn Nutzer nicht auf den Zug aufspringen wollen. Entwickler freier Software leisten hervorragende Arbeit.

Um nochmal auf Moritz Förster zu verweisen:

Aber Microsoft hat bewiesen, dass es kein Interesse daran hat, seinen Nutzern die Kontrolle über ihre Systeme zuzugestehen […] Der Konzern will die Zügel selbst in der Hand halten, wenn es um das Wohl der Endnutzer geht. Quelle

Natürlich will der Konzern (Microsoft) genau das. Apple tut genau das. Für Verfechter freier Software ist das ein Graus, aber schaut man über den Tellerrand, erkennt man, dass diese Strategie aus Sicht der Anwender nicht per se schlecht ist. Software ist komplex. Die Zeiten von kleinen hilfreichen Programmen auf “einfachen” Rechnern ist vorbei. Man darf nicht vergessen, dass ein Großteil der Nutzer von Rechnersystemen ANWENDER sind. Die Bezeichnung allein impliziert, das die Benutzung im Fokus steht. Die wenigsten Anwender von Alltagsgegenständen (Toaster, Kaffeemaschine, Kühlschrank, Auto etc.) kämen auf die Idee diese zu zerlegen und in den technischen Eingeweiden herumzufuhrwerken oder hätten das notwendige Fachwissen dazu. Warum sollte es also bei Software anders sein? Als Anwender möchte ich nicht an der Software herumbasteln müssen. Möglichkeiten für individuelle Anpassungen sind lobenswert, sind Anpassungen aber notwendig, um die Software effizient nutzen zu können, haben die Entwickler am Bedarf vorbei gearbeitet.

Professionelle Anwender haben eine Tätigkeit auszuführen, für die der Rechner ein Werkzeug ist. Produktivität und Benutzbarkeit ist an dieser Stelle sicherlich höher einzustufen als Idealismus. Ich denke, jeder, der sich beim Versuch, eine festsitzende Schraube mit einer klapprigen Zange zu lösen, die Finger geklemmt hat, wird einsehen, das ein passender Schraubenschlüssel das geeignetere Werkzeug für diese Aufgabe ist. Ebenso verhält es sich mit Software. Wenn ein Produkt für einen bestimmten Einsatzzweck ungeeignet ist, wird eine besser geeignete Alternative verwendet. In diesem Fall bedeutet das leider, dass ein proprietäres System für den Einsatzzweck besser geeignet ist.


Datum
Kommentare Keine

Jetzt hat es doch glatt nach vielen Jahren meiner Tastatur das Lebenslicht ausgehaucht. Schuld war eine Ladung Kaffee, der unsachgemäßerweise den Weg über die Tastatur genommen hat.

Nun hatte ich dieses Microsoft Natural Keyboard 4000 schon seit einigen Jahren, soweit ich das im Kopf habe seit etwa 2008 oder 2009. Da auch einige Tasten mittlerweile gelegentlich nur noch im zweiten Anlauf funktioniert haben, war ich nicht so traurig, daß die Tastatur jetzt hinüber ist. Allerdings habe ich mich sehr schwer getan einen Ersatz zu finden.

Letzten Endes habe ich mich für die schnurlose Sculpt Tastatur von Microsoft entschieden. Diese ist, mehr oder weniger der Nachfolger des Natural Keyboards. Etwas kleiner und mit einem anderen Layout muss man sich doch erstmal an die Tastatur gewöhnen. Die Tasten sind, entgegen der gewohnten “Rubberdome” Ausführung, Notebooktastaturen nachempfunden. Kurzer Tastenhub und ein präziser Anschlag machen das Tippen aber sehr angenehm. Überrascht hat mich das vergleichbar hohe Gewicht. Im direkten Vergleich zum Natural Keyboard ist das Sculpt unerwartet schwer. Die Verarbeitung ist erwartungsgemäß gut. Auch die kleinen Details sind durchdacht. So schliesst das Batteriefach nicht mit einem einfach Schnappverschluss, der irgendwann abbricht, sondern magnetisch.

Skeptisch war ich, was den separaten Ziffernblock angeht. Dieser gleicht einem Taschenrechner und ist von der Tastatur getrennt. Das stört im ersten Moment, aber wenn man nicht zu häufig mit Zahlenreihen hantiert, kann man sich daran gewöhnen. Durch die Trennung von Tastatur und Ziffernblock liegt die Maus, bzw. in meinem Fall der Trackball deutlich näher an der rechten Hand, so daß man schneller umgreifen kann, ohne den ganzen Arm bewegen zu müssen.

Nachem ich nun seit einger Zeit diese Tastatur benutze muss ich sagen, daß das Tippen sehr angenehm ist. Allerdings habe ich den Eindruck, daß die Handstellung etwas anders und, im Vergleich zum “alten” Natural Keyboard etwas weniger ergonomisch. Ich merke nach einiger Zeit ein Ziehen im Unterarm. Mal sehen, ob das verschwindet, wenn man die Tastatur intensiver nutzt.

Fazit

Nun, ich kann die Microsoft Sculpt guten Gewissens weiterempfehlen. Allerdings würde ich bei Vielschreibern eher zum klassischen Natural Keyboard raten. Das macht optisch zwar weniger her, aber es ist deutlich größer und lässt sich meiner Meinung nach noch komfortabler nutzen. Gleichzeitig ist es mit einem Preis von 40-50 Euro deutlich günstiger als das Sculpt, das (ohne Maus) mit min. 90 Euro zu Buche schlägt.


Kategorie(n)


Datum
Kommentare 2

Und es hat zooom gemacht. Fast genau 10 Jahre nachdem meine XBox 360 vom Montageband gerollt ist, hat sie sich heute verabschiedet. Nachdem sie in den letzten Monaten gelegentlich mit einem sog. Red Ring of Death aufgefallen ist, der aber jedesmal nach einem Neustart wieder verschwand, war das Bild heute merkwürdig verzerrt. Nach einem Neustart war dann gar kein Bild mehr zu sehen.

Ich nehme an, daß irgendentwas im Bereich des VRam auseinandergeflogen ist. Schade, insbesondere vor dem Hintergrund der vergleichweise geringen Menge von Spielstunden. Ich werde das Ding bei Gelegenheit wohl mal zerlegen und schauen, ob es einen offensichtlichen Defekt hat, den man reparieren kann.

Sicherheitshalber habe ich aber direkt Ersatz geordert. Für 30 Euro kann man nicht viel falsch machen und das Ersatzgerät hat dann auch einen HDMI-Ausgang.


Kategorie(n) ,


Datum
Kommentare Keine

So, nach langer Zeit mal wieder ein kleines Lebenszeichen hier im Blog :)

Durch einen glücklichen Zufall bin ich an ein paar ganz brauchbare Überwachungskameras gelangt. Da es in der Nachbarschaft gelegentlich Probleme mit Randalierern gibt, hatten wir sowieso seit einiger Zeit vor uns einen Satz zuzulegen. Nun hatte ich zwar Kameras, aber keine Möglichkeit die Bilder auch entsprechend aufzuzeichnen.

Also ab zu Ebay und mal geschwind gesucht und für wenig Geld erstmal einen sehr billigen DVR geordert. Diese Dinger gibts zwischen 30 und 50 EUR. Dabei handelt es sich dann um generische Modelle ohne echten Hersteller. Gemeinsam haben die alle, daß die Handelsbezeichnung “DVR264” enthält. Unser Model ein ein KKMOON S388B-EU mit Anschlüssen für insgesamt vier Kameras. Zum Testen soll das erstmal reichen.

Diese Billig-DVRs werden im Normalfall ohne Festplatte geliefert. Da ich hier noch eine 160GB Samsung rumliegen hatte, war das aber weniger das Problem. Also schnell mal die Platte reingeschmissen und Gerät gestartet. ABER: NIX! Festplatte nicht erkannt. Super. Also Festplatte raus, an einen USB zu SATA Adapter und an den Rechner gehängt. Die Platte selbst ist ok. Also rumprobieren. Partitionen gelöscht -> Kein Ergebnis. Platte formatiert (NTFS, FAT) -> kein Ergebnis. Mist.

Bleibt wohl nur ein Firmwareupdate. Dummerweise musste ich hier feststellen, daß es keinerlei Softwareunterstützung vom “Hersteller” gibt. Der Verläufer war zwar bemüht, stellte einen Download zur Verfügung, aber das war auch nur die Software, die auf der CD schon dabei war.

Beleibt also nur umtauschen übrig… ODER man hat ein bisschen Langeweile und probiert mal ein bisschen rum. Da das Gerät eine Netzwerkuntstützung hat und per Weboberfläche erreichbar ist, habe ich mir erstmal die IP besorgt. Nach in bisschen Recherche war klar, daß ein Telnet-login wohl möglich ist. Also versucht und es klappt wirklich!

Erstmal ein bisschen stöbern. Die Kiste läuft also auf Linuxbasis, das ist erstmal nicht weiter überraschend. Die Logs waren weniger auschlussreich und boten nicht mehr Info, als man auch direkt in der Benutzeroberfläche bekommen hat. Doof.

Aber, es gibt ein schönes kleines Tool namens dmesg

ata1: SATA link down (SStatus 1 SControl 310) ata1: EH complete ata1: exception Emask 0x10 SAct 0x0 SErr 0x4000000 action 0xe frozen ata1: irq_stat 0x00000040, connection status changed ata1: SError: { DevExch } ata1: limiting SATA link speed to 1.5 Gbps ata1: hard resetting link

Ok, also der SATA Controller selbst ist also funktional oder zumindest nicht komplett tot. Also vielleicht doch das Kabel? Das hatte ich zwar schon zweimal getauscht, aber ein drittes mal schadet sicher nicht. Also ein fabrikneues Kabel ausgepackt und angeschlossen;

ata1: SATA link up 1.5 Gbps (SStatus 113 SControl 300) ata1.00: HPA detected: current 312579695, native 312581808 ata1.00: ATA-7: SAMSUNG HD160JJ, ZM100-41, max UDMA7 ata1.00: 312579695 sectors, multi 0: LBA48 NCQ (depth 31/32) ata1.00: configured for UDMA/133 ata1: EH complete scsi 0:0:0:0: Direct-Access ATA SAMSUNG HD160JJ ZM10 PQ: 0 ANSI: 5 sd 0:0:0:0: [sdb] 312579695 512-byte logical blocks: (160 GB/149 GiB) sd 0:0:0:0: [sdb] Write Protect is off sd 0:0:0:0: [sdb] Mode Sense: 00 3a 00 00 sd 0:0:0:0: [sdb] Write cache: enabled, read cache: enabled, doesn't support DPO or FUA sd 0:0:0:0: Attached scsi generic sg1 type 0 sdb: unknown partition table sd 0:0:0:0: [sdb] Attached SCSI disk

ES LEBT! Nach einem Neustart wird die Festplatte sauber formatiert. Schon witzig. Die bisher benutzten SATA Kabel funktionieren im Rechner, als auch am USB/SATA Adapter problemlos, im DVR aber nicht. Klingt komisch, ist aber so. Da ich aber kein 1.5m langes SATA Kabel in dem Mini-DVR benutzen will, hab ich erstmal Nachschub geordert.


Datum
Kommentare Keine

… zugegeben, wir schauen wenig TV und das ist auch gut so. Nun haben wir, leider muss ich sagen, seit einigen Monaten einen von diesen neumodischen Flachbild-Fernsehern, nachdem sich im Frühsommer unsere gute alte Röhre mit Rauchentwicklung in die ewigen Kathodenstrahlröhrenjagdgründe verabschiedet hat :(

Unsere Wahl fiel auf einen Sony Bravia, welches Modell das genau ist, kann ich aber nicht sagen. Nun hat dieser zwar ein ordentliches, wenn auch nicht überragendes Bild (ich sehe z.B. keinen signifikanten Unterschied zu unserer Röhre ausser in der kräftigeren Farbdarstellung), und einen abgrundtief miesen Ton, wie man es bauartbedingt, mangels Volumen, nicht anders erwarten würde. Sind das Dinge, mit denen man noch gut leben kann, gibt es aber Sachen, die einfach nur nerven.

Zum einen lässt sich das Teil manchmal nicht einschalten, der Bildschirm bleibt dunkel. Gelegentlich ist, sofern man versucht eine DVD abzuspielen, immerhin Ton vorhanden. Erst ein Trennen vom Stromnetz behebt das Problem, natürlich hat das Ding keinen Netzschalter, so daß man den Stecker ziehen muss. Im dümmsten Fall vergisst das Ding dann aber alle gespeicherten Sender, also heisst es dann ersmal eine halbe Stunde Sendersuchlauf, der im übrigen nicht der Schnellste ist.

Wenn ich fies veranlagt wäre, würde ich vermuten, daß hier die Software der Kiste nicht ganz ausgereift ist. Ich habe schon den Rat bekommen ein Firmwareupdate zu machen, aber ehrlich gesagt, ist das bei einem Fernseher nicht meine Aufgabe und dazu habe ich auch keinen Nerv.

Zweiter großer Nervpunkt ist die Anbindung des DVD-Spielers. Wir haben hier ein, schon etwas betagtes, Gerät von LG, daß per Scart angeschlossen ist. Unschön ist, daß einige DVDs nicht mehr korrekt dargestellt werden, daß Bild ist “zerhackt”, man könnte meinen, daß hier ein Kopierschutz Amok läuft. Da wir besagte DVDs mit dem gleichen DVD-Spieler und gleichen Scart-Kabel schon an unserer Röhre geschaut haben und ein Ersatzgerät das gleiche Bild zeigt, liegt der Fehler offensichtlich irgendwo an dem Sony TV-Gerät. Eine Wiedergabe ist nur über den Umweg eines separat angeschlossenen tragbaren Rechners möglich, umständlich! Lösungsvorschläge reichen hier wieder von einer Aktuaisierung der Firmware bis Austausch des DVD-Spielers mit einem Blu-Ray-Gerät.
Gute Idee. Wieder Geld ausgeben um Geräte zu erstezten, die nicht defekt sind? Abgelehnt.

Es gibt aber auch Positives. Der eingebaute DVB-S Empfänger ist richtig nett, so entfällt der zusätzliche externe Empfänger, immerhin.

Insgesamt überwiegen für mich aber die Nachteile. Ich bin vom Gerät nicht überzeugt und ärgere mich, hierfür Geld ausgegeben zu haben. Im Nachgang wäre es warhscheinlich besser gewesen, die Röhre nochmal instand zu setzen, auf den ersten Blick war nämlich nur ein Elektrolytkondensator geplatzt…


Kategorie(n)


← Älter Neuer →