Kundenservice – Media Markt vs. Amazon

Ich hatte beim Kauf unserer DVB Sat Receiver kein Glück. Fürs Wohnzimmer habe ich einen Kathrein UFS 922 bei Amazon gekauft (mit eingebauter 500 GB Festplatte für Timeshift und Aufnahmen) – Preis im November 2011 402,- EUR. Für das Schlafzimmer genügte ein einfacher Receiver ohne Aufnahmefunktion. Ich bin einfach in den Media Markt gegangen und habe den günstigsten Receiver mit Unterstützung für die ORF Smart Card gekauft – Marke Top Field, Preis 119,- EUR im Jänner 2012.

Im Sommer, nach ca. einem halben Jahr, hat der Top Field Receiver im Schlafzimmer plötzlich angefangen Probleme beim Lesen der Smart Card zu machen (keine Karte gefunden, kann Karte nicht lesen …). Also haben wir das Gerät zum Media Markt gebracht. Nach ein paar Tagen auf Reparatur konnten wir es wieder abholen. Soweit so gut, kann ja mal sein. Als das selbe Problem allerdings nach ein paar Wochen wieder auftrat, wurde die Stimmung schon deutlich schlechter.

Also haben wir das Gerät wieder zum Media Markt gebracht und die Situation geschildert. Das Gerät wurde wieder eingesendet und dieses Mal bekamen wir ein Ersatzgerät für die Zwischenzeit. Nach ein paar Tagen bekamen wir ein komplett neues Austauschgerät, und wir dachten, damit sollte es sich jetzt erledigt haben. Dachten wir … als das Problem auch beim Austauschgerät nach ein paar Wochen auftrat war für uns klar: wir wollen keine Reparatur oder Austauschgerät mehr, wir wollen unser Geld zurück.

Doch das gestaltete sich nicht so einfach. Beim Media Markt hat man uns erklärt, dass man dem Hersteller 3 Mal die Chance geben muss den Fehler zu beheben, bevor man das Geld zurück fordern kann. Also noch mal einsenden, eine Woche warten, wieder Austauschgerät bekommen – nach ein paar Wochen wieder das selbe Problem.

Beim vierten Mal erst haben wir unser Geld vom Media Markt zurückbekommen. Nach insgesamt mindestens 3 Stunden Zeit die wir an der “Information” bei Media Markt verbracht haben, unzähligen Problemschilderungen für verschiedenen Mitarbeitern und zwei Gesprächen mit dem Filialleiter.

Als kurz nach Weihnachten beim Receiver im Wohnzimmer zweimal ein Problem aufgetreten ist, bei dem ich alle Aufnahmen löschen musste bevor er wieder normal Starten konnte, habe ich Amazon eine Mail geschrieben – 2 Stunden später bekam ich eine Antwort, in der stand, ich solle das Gerät zurücksenden und der volle Kaufpreis würde mir erstattet.

Ich hab mir dann gleich bei Amazon das Nachfolgemodell bestellt, den alten Receiver in die Schachtel des neuen eingepackt und zurück gesendet – 3 Tage später kam von Amazon die Bestätigung via Email dass mir die 402,- EUR auf der Kreditkarte gutgeschrieben wurden (15 EUR mehr als der neue Receiver gekostet hat).

Fazit: Als Techniker verstehe ich, dass solche Geräte Probleme haben können – auch wenn ich über die Qualität von Sat Receivern allgemein nicht begeistert bin nach diesen Erfahrungen. Was ich aber nicht verstehen kann, ist wie man als Media Markt seinen Kunden so eine Erfahrung bei Reklamationen zumuten kann. Man bekommt das Gefühl man sei ein “schlechter Kunde” weil man ein Gerät haben will das funktioniert. Jeder “Servicemitarbeiter” vom Media Markt gibt einem zu spüren, dass man nach dem Kauf des Geräts eigentlich nichts mehr mit dem Kunden zutun haben will.

Ich habe den Filialleiter darauf angesprochen und er meinte, “man halte sich nur an die gesetzlichen Vorschriften für Reklamationen” – ich kann mir nicht vorstellen dass man gegen ein Gesetz verstösst wenn man dem Kunden sein Geld zurück gibt. Man geht nur das Risiko ein, das Geld nicht vom Hersteller zurück zu bekommen – dieses Risiko geht Amazon ein, um seinen Kunden ein gutes Service zu bieten.

Mir haben diese Dinge auf jeden Fall wieder gezeigt, wie wichtig gutes Kundenservice ist. Für mich als Kunde bleibt eine positive Erinnerung an das Kundenservice von Amazon, die mehr wiegt als das Problem mit dem Kathrein Receiver. Im anderen Fall bleiben nur negative Erinnerungen – an das Produkt und an den Händler.

akostart meetup

Heute Abend war ich beim akostart meetup in der Humboldtstraße in Linz. Die Beschreibung des akostart meetups aus dem facebook-event-about:

Die Akostart Meetups sind regelmäßige Treffen von Gründern und Gründungsinteressierten zum Informationsaustausch. Die ungezwungene Umgebung im Coworking Space schafft die optimalen Voraussetzungen zum Präsentieren, Diskutieren und Zuhören. Spannende Ideen, Businesspläne, Impulsvorträge und Lessons-Learned stehen im Vordergrund. Selbstverständlich darf das Netzwerken nicht zu kurz kommen.

Ich bin wieder mal begeistert von den Aktivitäten, die in letzter Zeit, im linzer Raum, in der Kreativwirtschaft stattfinden! Nachdem heuer das Technologieplauscherl gestartet ist und das Cocoaheads Chapter Linz die ersten Treffen durchgeführt hat zeigt sich wieder mal, was für eine super Location Linz für Software Entwicklung ist.

Beim akostart meetup heute waren wieder Leute dabei, die ich auf den anderen Veranstaltungen noch nicht getroffen habe und man ist schnell ins Gespräch gekommen. Natürlich waren auch wieder ein paar bekannte Gesichter der “üblichen Verdächtigen” dabei ;-)

Im heutigen Gastvortrag hat Michael Hurnaus über seine Arbeit bei Amazon erzählt und ein wenig Einblick in die Strukturen und Vorgehensweisen solcher großen amerikanischen Konzerne gegeben. Mir hat das einige Denkanstösse gegeben wie man diese Dinge in kleineren Firmen anwenden kann.

Mal schaun, ob sich das nächste meetup wieder ausgeht, bei so vielen coolen Veranstaltungen im IT Umfeld in Linz werden die Abende knapp.

Sort algorithm changes in Java 7

I just got the info from one of out customers that an error in the export function of a Grails application happend. The stacktrace looked like:

Error Details

Error 500: Executing action [export] of controller [ExportController] caused exception: Runtime error executing action
Servlet: grails
URI: /app/grails/export/export.dispatch
Exception Message: Comparison method violates its general contract!
Caused by: Comparison method violates its general contract!
Class: ExportPrintController
At Line: [105]
Code Snippet:
Stack Trace

java.lang.IllegalArgumentException: Comparison method violates its general contract!
at java.util.TimSort.mergeHi(TimSort.java:868)
at java.util.TimSort.mergeAt(TimSort.java:485)
at java.util.TimSort.mergeCollapse(TimSort.java:408)
at java.util.TimSort.sort(TimSort.java:214)
at java.util.TimSort.sort(TimSort.java:173)
at java.util.Arrays.sort(Arrays.java:659)
at java.util.Collections.sort(Collections.java:217)
at com.troii.app.web.ExportController$_closure2.doCall(ExportController.groovy:105)
at java.util.concurrent.ThreadPoolExecutor.runWorker(ThreadPoolExecutor.java:1110)
at java.util.concurrent.ThreadPoolExecutor$Worker.run(ThreadPoolExecutor.java:603)
at java.lang.Thread.run(Thread.java:722)

I did some web search and came up with this interesting discussion on stackoverflow. Which links to the compatibility information page of JDK7 and a specific change they made in Java 7: changing the default sort algorithm from MergeSort to TimSort in the java.util.Arrays.sort method.

So a quick workaround for this issue was to add -Djava.util.Arrays.useLegacyMergeSort=true to the tomcat JVM environment – which forces the app to use the old algorithm.

To really fix the issue I had to make a change to the code because it really violated the Comparable contract. Our code looked like:

int compare(ExportTerm e1, ExportTerm e2) {
  if (e1.sortLabel == null) {
    return -1
  }
  if (e2.sortLabel == null) {
    return 1
  }
  return collator.compare(e1.sortLabel, e2.sortLabel)
}

which is wrong, because if you compare two elements where the sortLabel is null on both, the return value would be -1 or 1, depending on the order you compare them – which violates the contract.

Correct it has to look like:

int compare(ExportTerm e1, ExportTerm e2) {
  if (e1.sortLabel == e2.sortLabel) {
    return 0
  }
  if (e1.sortLabel == null) {
    return -1
  }
  if (e2.sortLabel == null) {
    return 1
  }
  return collator.compare(e1.sortLabel, e2.sortLabel)
}

Technologieplauscherl am 22.11.2012 bei netural

Ich war heute endlich wieder mal auf einem Technologieplauscherl. Das hat heute in den Räumlichkeiten von netural stattgefunden – vielen Dank dafür, die Verpflegung war erstklassig! (Gösser Radler und Brötchen von Jindrak)

Beim heutigen Plauscherl handelte es sich um eine “Book Edition!” – Hauptthema waren also Bücher.

Als Ausreisser aus der “Book Edition” hat Bernhard Wurm TypeScript demonstriert – eine interessante Sprache von Microsoft die nach (tatsächlich schönem, lesbaren) JavaScript compiliert wird. Aus dieser Präsentation ist eine ganz interessante Diskussion über Sprachen mit ähnlichen Ansätzen entstanden, wie zB CofeeScript und Dart.

Es war wieder mal ein super Abend: Bier, Snacks und Geeks mit denen man über interessante Themen diskutieren und ranten kann ;-)

Self made Fusion Drive


After reading @jollyjinx posts on tumblr about his experiments with Fusion Drive on older Macs I wondered if this might be possible with my configuration too. Some more googeling brought up this post of Tomasz Korwel who created a bootable Fusion Drive on his MacBook Pro Late 2010 – which me made me very sure that it would work on my MacBook Pro 15″ Mid 2010. An Austrian iOS developer colleague trying it too on his iMac and blogging about it finally convinced me that I have to try it myself.

The most interesting part of Fusion Drive for me was, that is just a Software feature – it does not depend on any specific hardware. When Apple announced that their new iMacs would have the option for a Fusion Drive, I though it would be a special harddisk containing an SSD and a spinning disk in one case. But in fact you can create a Fusion Drive out of any disks in you Mac by using features of the built in CoreData storage system.

Why would you want a Fusion Drive?
For not having to think about where to put which file.

What does that mean?
I am using my MacBook Pro with a 160 GB Intel X-25 SSD and a Toshiba 500 GB harddisk since I bought it in May 2010. When I bought the MacBook I moved the SSD over from the Dell notebook, I was using before, and put the Toshiba Hardisk into an Optibay while removing the DVD drive. I put almost everything on my SSD: operating system, application, documents, source code. I used the harddisk only for “big data” like movies, music, pictures, virtual machines, downloads, disk images. This setup works great until one of the disks gets full and the other one has space, you start to move things around, you need the changes paths or make links – this is ugly.

How to get a Fusion Drive?
First I made a backup of my two disk with Carbon Copy Cloner to two partitions on an external drive, this way I did not have to reinstall my system.

I booted from a USB thumb drive containing the Mountain Lion installer and went into the Terminal app. There I executed the command

diskutil list

to list all my drives:

The list showed me that my SSD was disk0 and the Toshiba harddrive was disk1 so I ran the following command:

diskutil cs create FusionDrive disk0s2 disk1s2

which created a Logical Volume Group out of the two disk:

On this Logical Volume Group I could created a filesystem by running the command

diskutil cs createVolume E8E5214B-BD8D-4023-839E-99E42FA63485 jhfs+ FusionHD 650GB

Finished. After leaving the Terminal the new FusionHD showed up with 650 GB capacity in the Mountain Lion installer. I did not install the system but restarted and booted from the external disk containing the clone I made before. I restored the backup of my SSD to the newly created FusionHD and was immediately able to boot from the Fusion Drive.

The last step was to copy back my media files from the backup of my harddisk wich went smooth to. Everything is running fine so far and I got enough space on my combined two disks again.

This is how the output of

diskutil cs list

now looks like:

What are the drawbacks of this?
You will have to take more care about backups, because now, if one of two disks fails, you will have a problem. I am used to this because I worked on a striped disk array for a long time and I already have a good backup strategy in place.

iPhone 5 Telefonie

Nachdem ich seit zwei Tagen das iPhone 5 benutze, muss ich kurz mal was zum Thema “Telefonieren” schreiben. Über dieses Thema schreiben die meisten Blogs und Newsseiten recht wenig, wenn sie über das iPhone berichten.

Seit dem “Antennagate” im iPhone 4 ist es komischerweise recht still um das Thema geworden. Natürlich hebt Apple selbst nicht hervor, dass das neue iPhone einen besseren Empfang hat, weil das alte offiziell ja keinen schlechten hatte – was soll man also verbessern.

Ich telefonieren nicht viel (vielleicht 15 Gespräche pro Woche, maximal 3 Stunden pro Monat), deshalb ist für mich die Gesprächsqualität eher nebensächlich. Aber das iPhone ist nunmal ein Telefon und es hat sich bei der Telefonie was getan.

Ob es am besseren Empfang (die Antennen liegen ja jetzt innen, hinter Glas, nicht aussen herum), den 3 Mikrofonen (statt bisher 2), die Umgebungsgeräusche besser filtern oder dem Wideband Audio liegt – Telefonate mit dem iPhone 5 klingen deutlich besser als mit meinem alten iPhone 4.

Wideband Audio kann man nur nutzen wenn der Provider das unterstützt – meiner, die A1 hat Wideband Audio (oder HD Voice wie sie es nennen) bereits 2011 eingeführt. Dadurch hat man mehr als den doppelten Frequenzbereich für Sprache zur Verfügung und meiner Meinung nach ist das hörbar besser.

The case of the OS X filesystem HFS+ and git

Yesterday I stumbled across a problem when renaming files in a git repository by just changing the case of some characters. I wonder why I did not come across that earlier, maybe I did care about naming conventions for Java classes enough.

We renamed a Java class in IntelliJ from ProjectDao.java to ProjectDAO.java. After committing and pushing the changes, a colleague had a problem, compiling the code. The reason was, that the file name in his repository still was ProjectDao.java, but it contained a class called ProjectDAO – which does not compile in Java.

So I did a little research on why this happened. First I found posts about a git setting called core.ignorecase which (as the name says) tells git to ignore the case. I checked my configuration and found that the setting was not configured so the default value false used.

Another post on stackoverflow hinted that renaming the files via git mv with the option -f would track the change. I tried the command

git mv -f ProjectDao.java ProjectDAO.java

and that did the trick, my git repository recognized the change as a renamed file:

After trying again in IntelliJ IDEA, I saw that the renaming operation did not work correct there, so I filled a bug in their issues tracker.

I always thought, after switching to Mac OS, I would not have to deal with those weird case problems, we always had when working in mixed teams with Windows an Linux and other source code management systems like Subversion or CVS. So I was shocked when I became aware of this issue.

After digging even deeper, I found this blog post and this post on apple stackexchange telling me that HFS+, the default file system on OS X, is not case sensitive but only case preserving. For me it was always clear that the underlying Unix of OS X uses a filesystem that is case sensitive – but no. I checked my disks with diskutil info and had to see the following:

Which means that my disk was formatted case insensitive. When creating a partition in the diskutil you can select case sensitive , but the installer did not do that per default. There are ways to change the system to case sensitive with a third party tool like iPartition but I hesitate to make such a big change.

For now I guess I have to wait for IntelliJ to fix that issue and in the meanwhile do the renaming via the git command in the terminal.

btw: I checked with Eclipse and egit to – they already handle this correct!

Internetzugang in Österreich die Zweite

Nachdem ich vor ein paar Wochen schon mal was zum Thema Internetzugang in Österreich gepostet habe, muss ich noch was ergänzen.

Da der Ort Weichstetten, in dem wir seit fast einem Jahr wohnen, keine Vernünftige Internetanbindung via Kabel hat (siehe letzter Post), und ich mit Internet via UTMS von Drei nicht auf Dauer glücklich werde, habe ich nach Alternativen gesucht … und eine gefunden (zumindest eine theoretische).

Die Energie AG bietet seit einiger Zeit unter den Namen PowerPrimeNet und Energie AG Data Internetzugänge für Firmen an. Da nicht weit von unserer Wohnung ein Umspannhaus der Energie AG steht, habe ich dort mal nachgefragt, ob man so einen Zugang auch privat haben kann. Daraufhin hat mich ein netter Herr zurückgerufen, und mir erklärt, wie das aussieht

Die gute Nachricht ist, dass direkt vor unserem Haus eine Glasfaserleitung der Energie AG liegt (wie in sehr vielen anderen Orten auch). Die schlechte Nachricht ist, dass die Tarife der Energie AG nicht für private geeignet sind. Man bekommt nur dediziert fixe Bandbreite, die man sich mit niemand teilen muss (was ja prinzipiell eine gute Sache ist). Dafür muss man natürlich auch die Bandbreite direkt bezahlen und die Kosten werden nicht, wie bei anderen Anbietern, auf 20 andere Anschlüsse aufdiviert.

So würde z.B. eine 4MBit synchron Anbindung ca. 300 EUR pro Monat kosten – was für einen Privaten natürlich zu teuer ist. Das liegt auch daran, dass die Herstellungskosten für die Energie AG ca. 3500 EUR betragen, weil da ein Bautrupp die Leitung richtig ins Gebäude reinlegen muss (Betonbohrung).

Da liegt es nun also, das Glasfaserkabel direkt vor der Haustüre und ich hab nichts davon. Alle reden immer vom Ausbau des Glasfasernetzes – wenn das so aussieht können sie das vergessen. Es müssen dann auch Pakete für Consumer geschnürt werden. Die Telekom Austria/A1 baut ja derzeit auch ihr Giganetz aus – wobei keiner so genau weiß, was das heißt und ab wann es das wo geben wird.

Fiber to the curb wird angestrebt – wir hätten das schon hier und können es nicht nutzen. Ist es notwendig ein zweites Glasfaserkabel irgendwann in den nächsten 10 Jahren hier her zu legen damit “nicht-Firmenkunden” das nutzen können?

Auch die Wirtschaft schein noch nicht ganz verstanden zu haben wieso es wichtig ist auch Privathaushalten einen guten Internetanschluss zu bieten. Abgesehen vom Konsum (Onlineshops) werden die Anforderungen an Mitarbeiter, sich via Internet weiterzubilden, immer mehr. Podcasts, Webinare und Schulungsvideos online setzen dabei eine bestimmte Bandbreite voraus.

In den letzten zwei Jahren seit ich von Google in Brüssel eingeladen wurde, um vor EU Abgeordneten über die wichtige Rolle von Internetzugängen für kleine und mittlere Unternehmen zu sprechen, hat sich da nicht viel geändert. Was müssen wir tun, und an wen müssen wir uns wenden, um die Situation in den Griff zu bekommen?

Mobilfunk in Österreich

Nachdem ich im letzten Post über Internetzugänge in Österreich geranted habe, muss ich auch noch was zum Thema Mobilfunk in Österreich schreiben.

Zum Thema Sprache sollte es eigentlich nicht viel zu sagen geben – sollte! Die Abdeckung ist zwar ganz gut, es gibt aber Stellen an denen man nicht wirklich vernünftig telefonieren kann. Hier sieht es ähnlich aus wie bei den Internetanbindungen – im Ballungsraum besser, am Land schlechter. Leider gilt das genau für die Plätze, an denen ich mich privat am öftesten aufhalte. Ich kann auch hier aus Erfahrung sagen, dass sich daran in den letzten 3 Jahren nichts geändert hat. Es fühlt sich so an, als ob der Netzausbau für die Verbesserung des Sprachtelefonate komplett eingestellt wurde.

Man stellt sich natürlich die Frage ob daran auch die Geräte schuld sind – moderne Smartphone scheinen nicht mehr so gut für Gespräche geeignet zu sein wie die alten, klassischen Nokia/Ericsson Telefone. Ob das wirklich damit zutun hat, oder an der zunehmende Last im Mobilfunk, kann ich nicht sagen. Tatsache ist, dass ich auch mit dem iPhone ohne Problem telefonieren kann wo die Netzabdeckung sehr gut ist.

Bei den Datenverbindungen sieht es ähnlich aus. In den Bereichen in denen es kein gutes Netz für Sprachtelefonie gibt, gibt es meistens nur GPRS/EDGE und kein UMTS. Kunden die in solchen Gebieten wohnen einen “Breitband” Internetzugang via UMTS USB Stick zu verkaufen ist eine Frechheit! Auch hier wurde in den letzten Jahren kein UMTS ausgebaut wo noch keines ist.

Zum Teil Schuld daran ist sicherlich, dass Österreich zu den Ländern mit den niedrigsten Mobilfunktarifen gehört. Die Margen für die Provider sind so gering, dass sie nicht gewillt sind in den Netzausbau zu investieren. Stattdessen versuchen sie mit horrenden Roaminggebühren (vor allem für Daten) und Kosten bei Überschreitung von Limits noch etwas zu verdienen – darüber könnte man einen eigenen Post schreiben (vielleicht tue ich das auch noch).

In den letzten Monaten kommt noch der Kauf von Orange durch Drei ins Spiel. Die Bundeswettbewerbsbehörde prüft den Deal schon seit längerem. Am 28. Juni hat sie bekannt gegeben, dass der Sub-Deal, bei dem A1 die Billigmarke yesss! kaufen will, von einer Kommission in Brüssel geprüft werden muss. Das verzögert alles wieder um ein halbes Jahr. In der Zwischenzeit passiert kein Netzausbau und es werden keine weiteren Frequenzen versteigert.

Gerade das versteigern der 800 MHz Frequenz für LTE wäre ganz wichtig, damit der Ausbau von LTE am Land durchgeführt werden kann. Die vor zwei Jahren versteigerte 2,6 GHz Frequenz ist nur für Ballungsräume verwendbar. Nur mit der niedrigen 800er Frequenz lassen sich grössere Distanzen abdecken.

Ich habe erfahren, dass zumindest die Mobilfunkprovider ihre Sendemasten schon mit LTE ausrüsten und diese dann nur mehr aktivieren müssen, wenn die Frequenzen ersteigert wurden. Hoffentlich verzögert sich das nicht mehr zu lange, LTE könnte eine Übergangslösung sein bis eine Versorgung mit Glasfaser vorhanden ist.

Internetzugang in Österreich

Seit 1997 nutze ich das Internet. Anfangs hat man sich über 56k Modems eingewählt – das surfen auf diversen Webseiten und das gelegentlich Herunterladen von ein paar Megabyte großen Dateien funktionierte ganz passabel. Wer etwas mehr wollte hatte ISDN mit 64 kBit.

Später kam ADSL und Österreich war ziemlich früh ziemlich gut versorgt 512 kBit bzw. 768 kBit hat für die ersten 2000er Jahre auch genügt. Diverse Kabelanbieter haben begonnen Internet über  Kabel TV Leitung anzubieten – auch das eine feine Sache. Internet via Kabel TV hat in den letzten Jahren Internet über die Kupfer Telefonleitungen abgehängt und bietet weit mehr Bandbreite auf größere Entfernungen – UPC und Liwest zb. bieten erschwingliche 100 MBit Anschlüsse.

Als neueste Lösungen für den Internetzugang gibt es verschiedene wireless Varianten wie UMTS und LTE. Das ist eine nette Sache um mobil auf das Internet zuzugreifen, aber meiner Meinung nach nicht für die Anbindung eines Haushalts, geschweige denn eines Arbeitsplatzes geeignet (obwohl uns die Provider das einreden wollen)

Bis vor ein paar Jahren hat das alles ganz gut mit den Anforderungen, die an eine Internetleitung gestellt werden, mit skaliert. In letzter Zeit scheint allerdings eine Lücke zwischen dem Bedarf und der verfügbaren Bandbreite zu klaffen. In Ballungszentren ist die Versorgung ok, aber wenn man etwas aufs Land hinauskommt sieht es katastrophal aus.

Ich bin selbst vor einem Jahr von Linz nach Weichstetten aufs Land gezogen. Dort gibt es kein Kabel TV und damit kein Internet via Kabel. Das nächste Wählamt ist mehr als 4 km entfernt und damit liefert ADSL, wegen der Dämpfung auf der Kupferleitung, weniger als 1 MBit. UMTS gibt es nur von einem Anbieter (Drei), was dazu führt, dass wahrscheinlich ca. die Hälfte der Haushalte des Dorfes diese Variante gewählt haben.

Hier zeigt sich deutlich dass UTMS nicht geeignet ist – auch wenn man zu mancher Tageszeit ganz passabel damit surfen kann so ist es in der Stosszeit (Abends und am Wochenende) unbrauchbar, da total überlastet. Was auch klar ist, denn wie dick kann die Leitung sein, die Drei für ihren UMTS Masten bei A1 angemietet hat? 100 MBit ist optimistisch geschätzt – dividiert durch mehr als 100 Haushalte bleibt da nichts mehr übrig.

Aktuelle Anforderungen an einen Internetanschluss sind:

  • Internetradio und sonstige Musik ohne Verzögerung streamen
  • HD Video über Dinge wie Youtube, Apple TV und iTunes streamen
  • Videotelefonie via Skype und Facetime
  • Betriebsystem Updates in Größenordnungen von mehr als 4 Gigabyte innerhalb von 2 Stunden laden
  • Gigabyteweise Daten auf ein Onlinebackup zu speichern

Viele Menschen stellen diese Anforderungen vielleicht jetzt noch nicht an ihre Internetverbindung, aber ich bin mir sicher sie werden es bald.

Woran liegt es, dass Österreich seine einstige Vorreiterposition bei der Internetanbindung verloren hat? Eine Mitschuld tragen sicher auch die Konsumenten. Österreich ist immer schon eines der Länder mit den niedrigsten Gebühren für Telefonie und Internet gewesen und das fällt uns jetzt auf den Kopf weil kein Geld mehr für den Netzausbau da ist. Mit den geringen Margen der Provider müssen sie versuchen Kunden vie Roaming und Überschreitung von Transferlimits abzuzocken um noch was zu verdienen.

Auf Seiten der Konsumenten sehe ich ein Henne-Ei-Problem. Ihnen ist noch nicht bewusst was sie mit einer besseren Internetanbindung für Dienste nutzen können und deshalb genügt ihnen die verfügbaren Varianten (zum täglichen facebook check reichts ja). Auch sind wenige bereit mehr als 20 EUR pro Monat für Internet auszugeben – aber für Sky geben sie 70 EUR pro Monat aus.

Anderswo (in Kansas City) bietet Google demnächst Google Fiber an – eine Gigabit Anbindung für zuhause (1 Gigabit = 1000 Megabit). Da kommt dann HD TV und alle restlichen Medien über die Internetleitung, on demand, dann wenn ich was sehen oder hören will. Parallel reissen die Gerüchte über einen Fernseher von Apple nicht ab – ich glaube nicht, dass der Satelliten oder Kabel TV anzeigen wird, da geht es auch ganz stark Richtung Fernsehen über die Internetleitung.

Es muss sich etwas ändern damit wir an diesen zukünftigen Entwicklungen teilnehmen können!

Weiterführende Links: