13 Tage lang ist das Nexus 4 jetzt in meinem Besitz. Und ich habe in diesen 13 Tagen versucht, all das zu tun und einen ähnlichen Grad der Produktivität zu erreichen wie auf meinem iPhone. Dies alles natürlich in der Hauptsache mit dem Augenmerk auf die Zugänglichkeit für mich und andere Blinde. Hier folgen jetzt nochmals die wichtigsten Punkte und am Ende das Ergebnis meines Versuchs.

Die Hardware 🔗

An der Hardware des Nexus 4 ist kaum etwas auszusetzen. Es liegt gut in der Hand, fühlt sich stabil an und hat auch einen Akku, der nach meinem Empfinden und meinem Nutzerverhalten adäquat lang durchhält.

Einziges großes Manko, welches ich in dieser letzten Woche entdeckte, ist die stark eingeschränkte Unterstützung des 802.11N-Standards im 5-GHZ-Band. Wie ich feststellen musste, kann weder das Nexus 4 noch das ältere Galaxy Nexus, mit dem ich Firefox für Android auch teste, sich z. B. mit einer auf Kanal 100 funkenden Basisstation verbinden. Sie wird einfach nicht gefunden. Das HTC One der Herzdame hat hingegen keinerlei Probleme, sich zu verbinden.

Auch ansonsten scheint der WLAN-Support in Android 4.2.x in Verbindung mit dem Nexus 4 eine wackelige Angelegenheit zu sein, wie man z. B. in diesem Ticket im Android-Projekt nachlesen kann. Ich hatte seit ein paar Tagen mit miserablen Downloadgeschwindigkeiten oder sogar Abbrüchen zu kämpfen, die andere Geräte im gleichen WLAN nicht hatten. Nach einigem herumspielen und dem Löschen und Neuanlegen der AccessPoint-Verbindung waren diese dann zumindest vorübergehend behoben. Da es schon mal rund lief, steht zu befürchten, dass sich Android wieder verschluckt und das Spiel von vorn losgeht. Eine solche Unzuverlässigkeit kenne ich von meinem iPhone her nicht.

Beim Telefonieren klingt sowohl die Stimme aus dem Lautsprecher als auch meine Stimme recht dumpf. Mein bester Freund, der eine Hörschädigung hat, versteht mich mit dem Nexus 4 deutlich schlechter als mit anderen handys. Und auch ich habe den Eindruck, dass der Sound beim normalen Telefonieren sehr muffelig klingt.

Der Lautsprecher auf der Rückseite ist recht kläglich, fällt definitiv auch hinter den des iPhones zurück. Außerdem verdeckt er sehr leicht, wenn man das Nexus auf eine Oberfläche legt. Die Sprachausgabe ist dann kaum noch zu verstehen.

Die Grundfunktionen 🔗

Ja, ich kann mit dem Nexus 4 telefonieren. Ich kann auch mit der Kontakte-App arbeiten und daraus Nummern anrufen. Ich kann auch SMS senden und empfangen.

Aber ein Smartphone kann ja noch viel mehr Grundsätzliches. So habe ich Schwierigkeiten mit dem Kalender, der immer noch nicht richtig funktioniert. Es werden viele Dinge einfach nicht gesprochen, die bei iOS selbstverständlich funktionieren. Und trotz intensiver Forschung und Nachfragen in der Eyes-Free Community wurde mir keine gute Alternative unterbreitet.

Ich mache mit dem Smartphone seit Jahren erfolgreich Fotos. Ich verarbeite sie nicht kommerziell, aber die Fähigkeit hat mir schon in vielen Lebenslagen weitergeholfen, und sei es nur, dass ich das Foto mit der Frage „was steht da drauf?“ o. ä. in ein soziales Netzwerk gepostet habe. Fotos machen kann ich mit dem Nexus 4 auch. Auf sie zugreifen jedoch nicht. Die Gallerie ist komplett nicht zugänglich. Wie im 3. Teil schon erwähnt, ist dies unter iOS seit jeher ein Selbstgänger.

Auch beim Machen von Fotos gibt es deutliche Einschränkungen. So sagt mir die Kamera-App auf dem Nexus 4 nicht an, ob die Kamera sich focussiert hat. ich kann hinterher nicht feststellen, ob das Bild im Hoch- oder Querformat aufgenommen wurde. Fotografiere ich eine Person, sagt mir VoiceOver an, wenn die Kamera-App ein Gesicht erkannt hat, wo sich dieses im Bildausschnitt befindet, so dass ich das iPhone zentrieren und so eine gute Aufnahme des Gesichts der Person hinbekommen kann. Bei Panoramaaufnahmen werden mir nicht die Richtung und die Geschwindigkeit angesagt, wie ich das Telefon halten und mich dabei drehen soll. VoiceOver auf dem iPhone 4S und 5 gibt Anweisungen wie „höher“, „tiefer“, „langsamer drehen“ oder „schneller drehen“. So sind schon sehr schöne Panoramen entstanden, die ich mit dem Android so nicht hinbekommen habe.

Karten und GPS sind gar nicht bis sehr mangelhaft unterstützt. Es gibt zwar eine Richtungsansage ähnlich wie beim geführten Fahren in einem Fahrzeug, aber dies funktioniert längst nicht so zuverlässig wie mit der Karten-App von iOS 6 oder Alternativen wie Ariadne. Auch wer schon mal in einer dieser Apps die Umgebung mit dem Finger erforscht hat, wird sich schwer tun, diese Unabhängigkeit und diesen Zugriff wieder freiwillig aus der Hand zu geben. Nichts von dem ist unter Android möglich, und GPS-Lösungen für Blinde sind unter Android im Moment noch auf dem Stand von Forschungsprojekten im Anfangsstadium in Universitäten, also längst nicht marktreif.

Apps & Co 🔗

Ergänzend zu den in Teil 2 und Teil 3 beschriebenen Erfolgen und Problemen bei Apps und der Tastatur haben sich noch folgende neue Erkenntnisse ergeben:

Ein Versuch, mit dem ABBYY TextGrabber für Android ein brauchbares Texterkennungsergebnis hinzubekommen, schlug komplett fehl. Mit dem iPhone hatte ich in wenigen Schritten ein Ergebnis, das mich zumindest erfassen ließ, was in dem von mir gescannten Schreiben stand. Die Qualität war nicht so gut wie unter einer Desktop-OCR, aber brauchbar genug. Unter Android konnte ich zwar ein Bild machen, aber nicht kontrollieren, ob das Schriftstück im Hoch- oder Querformat erfasst wurde. Die Hälfte der Versuche schlug mit der Fehlermeldung fehl, dass die Vorlage zu schlecht und eine Erkennung daher nicht möglich wäre. Die restlichen 50% lieferte die Erkennung völlig unbrauchbare Ergebnisse.

Ich nutze auf dem iPhone den LookTel Money Reader, eine App zum Erkennen von Geldscheinen vieler verschiedener Währungen. Gerade US-amerikanisches und kanadisches Geld zeichnet sich dadurch aus, dass es keine Größenunterschiede zwischen einer 1-Dollar- und einer 100-Dollar-Note gibt. Diese App funktionierte bisher zu 100% zuverlässig, egal welche Währung ich ihr vor die Kamera hielt. Unter Android gibt es von Ideal Accessibility einen Currency Recognizer, der lediglich US-amerikanische Geldscheine erkennen kann. Eine andere Lösung habe ich auch nach längerer Suche nicht finden können. Damit ist dieses Problem für mich unter Android nicht lösbar, da ich oft genug in Kanada bin und diese Funktion für mich daher unverzichtbar ist.

Das leidige Thema scrollen 🔗

Ja, ich muss darauf nochmals zurückkommen, da dies für mich ein extrem wichtiger Punkt ist. Selbst mit den Gesten zum seitenweisen Scrollen bin ich in Apps wie einem Twitter- oder App.net-Client deutlich weniger effizient als unter den Entsprechungen unter iOS. Selbst mit dem alternativen Screen Reader Spiel, der das Scrollen beim Wischen in manchen Apps unterstützt, geht dies nicht viel besser, weil Spiel diese Funktionalität nicht in allen Apps anbieten kann. Hinzu kommt, dass ich TalkBack nicht allein aus- und Spiel einschalten kann. Denn die Geste zum Starten der Sprachausgabe kann nur TalkBack starten. Sobald es aus ist, muss ein sehender Spiel für mich starten. Das ist eine inakzeptable Lösung! Dies ist ein absoluter Produktivitätskiller.

Auf Spiel als dauerhafte TalkBack-Alternative umzusteigen ist auch keine Lösung, da dieser noch weniger Möglichkeiten zum Editieren von Text bietet als TalkBack und außerdem keine Sounds bei der Navigation abspielt. Gerade beim Erforschen des Bildschirms irritiert mich das zu sehr als dass ich auf Dauer flüssig damit arbeiten könnte.

Fazit 🔗

Android ist in der aktuellen Version für mich weiterhin keine Alternative zum iPhone im Produktiveinsatz. Es fehlen einfach zu viele Dinge, die unter iOS selbstverständlich sind wie der umfassende Zugriff auf eBooks (siehe Teil 3), das zuverlässige Erstellen und das Verwalten von Bildern und Videos, Kartennavigation und Fußgängerunterstützung, vernünftige Eingabe von Umlauten (siehe Teil 3), und die doch sehr weit verbreiteten fehlenden Texte für nur bebilderte Buttons in Benutzeroberflächen sind zu große Hinderungsgründe. Auch die Tatsache, dass ich den DB-Navigator nicht benutzen kann, weil die Datumseingabe nicht funktioniert, ist ein absoluter K.O.-Faktor.

Ich bleibe also auch in Zukunft iPhone-User. Ich werde das Nexus 4 aber aller Wahrscheinlichkeit nach behalten, um zeitnah neue Entwicklungen bei Android 5.0 ausprobieren zu können. Ich werde zu gegebener Zeit auch darauf eingehen, was sich gegenüber 4.2.x verbessert haben wird.

Die gesamte Benutzeroberfläche von Android hat in den letzten Jahren große Fortschritte gemacht und viel weniger den Bastelcharakter, der Android früher anheftete. Im Bereich der Zugänglichkeit jedoch macht das alles einen sehr akademischen Eindruck: Es geht im Prinzip bzw. in der Theorie, in der Praxis fehlen aber viele Dinge, die „ein Blinder ja wahrscheinlich eh nicht braucht“. Unter iOS ist der Ansatz ein anderer: Hier ist ein Feature, und alle sollen es nutzen können. Bestes Beispiel sind die schon beschriebenen Features in der Kamera-App, die selbstverständlich auch für blinde VoiceOver-Nutzer funktionieren, weil alle anderen die Funktion ja auch nutzen können.

Hier muss sich bei Google eine grundlegende Änderung der Haltung vollziehen, um diesen Level der Inklusion zu erreichen, wie wir ihn von Apple gewohnt sind und den – und das muss man so sagen – kein anderer Hersteller bisher erreicht hat.