Apple veröffentlicht am 19. September die größten Updates für iOS, WatchOS, MacOS und TVOS seit langem. Auch bei den Bedienungshilfen, speziell VoiceOver, hat sich eine Menge getan. Hier ist meine Zusammenfassung für iOS und iPadOS.

Prominentere Platzierung 🔗

Die Bedienungshilfen sind in den Einstellungen jetzt auf der Hauptebene platziert. Sie sind nicht mehr unter dem Punkt „Allgemein“ vergraben, sondern direkt aus dem Hauptbildschirm, kurz unterhalb von Allgemein, zugänglich. Dies zeigt, dass diese Funktionen, die ja allen helfen, ihre iOS-Geräte für ihre Bedürfnisse anzupassen, für Apple immer wichtiger werden.

VoiceOver 🔗

Eines der größten Updates erhält in dieser Version von iOS und iPadOS 13 die Bedienungshilfe VoiceOver. Waren die Erweiterungen in Version 11 und 12 des Betriebssystems eher gering, legt Apple in iOS 13 mal wieder richtig vor und lässt die Konkurrenz weit hinter sich zurück.

Unterstützung der Wischtastatur 🔗

Die in iOS 13 neu eingeführte Eingabe durch Wischen, von Apple Path Typing genannt, wird auch von VoiceOver unterstützt. Hiermit ist die Eingabe von Text, sogar mehrsprachig, erheblich beschleunigt. Um die Eingabe einzuleiten, legt man den Finger auf den ersten Buchstaben des Wortes, das man eingeben möchte und wartet standardmäßig eine Sekunde, bis ein Ton und eine Vibration erfolgen und wischt dann in die Richtung der Buchstaben, die man eintippen möchte. Dies alles tut man, ohne den Finger anzuheben.

Um das Wort „Guten“ wie in „Guten Morgen“ zu schreiben, legt man also den Finger aufs G. Trifft man nicht sofort, den Finger einfach zum richtigen Buchstaben ziehen. Nun wartet man eine Sekunde, bis das iPhone leicht vibriert, und wischt dann schräg nach rechts oben zum u, danach gerade nach links zum t, weiter zum e und dann schräg nach rechts unten zum n. VoiceOver spricht währenddessen das, was es zu erkennen geglaubt hat. Durch Anheben des Fingers wird das Wort eingegeben.

Um ein weiteres Wort einzugeben, braucht man nun kein Leerzeichen einzugeben, sondern legt den Finger auf den ersten Buchstaben des nächsten Wortes, in unserem Beispiel also das M. Die Bewegung ist dann schräg nach rechts oben zum o, gerade nach links zum r, leicht nach unten rechts zum g, schräg hoch links zum e und wieder schräg nach rechts unten zum n.

Die Zeit, die VoiceOver warten soll, bis es das Schreiben per Wischen aktiviert, kann man unter den VoiceOver-Einstellungen im Bereich Eingeben einstellen. Der Punkt heißt „Interaktionszeit der Tastatur“.

Gesten anpassen 🔗

Eine Änderung, die viele Nutzer von Android aus TalkBack schon länger kennen, ist die Fähigkeit, die Gesten von VoiceOver anzupassen. Diese Funktion hat Apple in iOS und iPadOS 13 neu hinzugefügt. Die Funktion findet sich in den VoiceOver-Einstellungen unter dem Punkt „Befehle“.

Man bekommt nun einen Bildschirm präsentiert, in dem man entweder alle Befehle nach Kategorien durchstöbern und die aktuelle Zuordnung ansehen kann, oder man passt Berührungsgesten, Tastaturbefehle, oder Befehle während aktiver Handschrift- oder Brailleeingabe an. Es steht eine ganze Fülle von Befehlen zur Verfügung. Selbst Siri Kurzbefehle lassen sich auf VoiceOver-Gesten legen. Oder man erfindet sich Gesten für das Gehen zum Home-Bildschirm oder den App-Umschalter, wenn man die seit dem iPhone X und im iPad Pro vorhandenen Wischgesten vom Bildschirmrand nicht mag.

Dabei kann man fast alle Gesten, die mit einem bis zu fünf Fingern ausführbar sind, umbelegen. Lediglich die Geste für das einmalige und doppelte Tippen mit einem Finger, also das Vorlesen bzw. Aktivieren von Elementen, sind nicht veränderbar.

Und wenn man sich völlig vergaloppiert hat, kann man mit einem Schalter auch alle VoiceOver-Befehle auf die Standardeinstellungen zurücksetzen. Weiterhin hat Apple diesen Einrichtungsbildschirmen dankenswerterweise eine Suchfunktion spendiert, so dass man nicht durch die über 100 zur Verfügung stehenden Befehle scrollen muss, um eine Neuzuweisung vorzunehmen.

Mit dieser Erweiterung bekommt VoiceOver für iOS und iPadOS endlich das, was der Mac schon länger hat, nämlich eine sehr weitreichende Anpassbarkeit der Gesten an die eigenen Bedürfnisse. Auch die Rotorumschaltung kann man ändern, wenn man die Drehgeste nicht mag oder ausführen kann. Das ist wirklich eine sehr sinnvolle und überfällige Erweiterung.

Aktivitäten 🔗

Auch eine andere sehr sinvolle Funktion, die bisher der Mac-Version von VoiceOver vorbehalten war, kommt endlich aufs iPhone, iPad und den iPod Touch, nämlich die Aktivitäten. Man definiert hiermit einen Satz von Einstellungen für VoiceOver, z. B. die Ausführlichkeit der Satzzeichen, das Sprechtempo, eine andere Brailletabelle o. ä., und speichert sie entweder einfach als einen Satz ab, eine sogenannte Aktivität, die dann über einen neu hinzugekommenen Rotor per Hand ausgewählt werden kann. Oder man weist die Aktivität bestimmten Apps oder Kontexten zu, so dass sie immer aktiv wird, wenn die gewählten Apps aktiv sind oder der besondere Kontext vorherrscht. So ein Kontext kann z. B. Textverarbeitung, Programmierung, Konsole (also Kommandozeile), Social Media, Messaging oder Erzählung, also Vorlesen, sein.

Das Potential dieser Aktivitäten ist enorm, bedeutet es doch eine erhebliche Erleichterung täglicher Arbeitsabläufe und immer die gewünschten Einstellungen in der jeweiligen Situation. Bravo, damit macht VoiceOver nochmal viel mehr Spaß!

Für Entwickler ist die Schnittstelle zum Definieren eigener Kontexte in iOS 13 bereits freigegeben. Sie müssen einen UIAccessibilityTextualContext für ihre View setzen, damit VoiceOver die richtigen Aktivitäten laden kann. Es steht zu hoffen, dass möglichst bald viele App-Entwickler die richtigen Kontexte für ihre Apps implementieren, damit die Aktivitäten schnell überall genutzt werden können.

Haptisches Feedback und Sounds 🔗

In den Einstellungen für Audio gibt es oben einen neuen Schalter „Töne und Haptik“. Dahinter verbirgt sich nicht ein Shortcut zur gleichnamigen Option des Hauptbildschirms der Einstellungen, sondern ein eigener Bereich, in dem man das neue haptische Feedback (ab iPhone 7) und die VoiceOver-Sounds für jedes Ereignis ein- und ausschalten kann. Den abzuspielenden Sound kann man nicht anpassen, aber für jedes Ereignis separat an- oder abschalten. Auch die Intensität des haptischen Feedbacks kann eingestellt werden. Ist einem das Feedback also zu stark, kann man es runterdrehen. Standardmäßig steht es auf 100%.

Es gibt einen zentralen Umschalter für dSounds und Haptik. Man kann also auch beides getrennt komplett abschalten, wenn man dies möchte.

Neuerungen in Braille 🔗

Auch bei der Brailleunterstützung hat sich einiges getan. Zum einen kan man jetzt die Tastenentprellungsdauer einstellen. Hinter diesem sperrigen Begriff verbirgt sich schlicht die Zeitspanne, nach der auf einer Brailletastatur erfolgte Tastendrücke als ein Tastendruck für eine Brailleeingabe gewertet werden. Werden also versehentlich zwei Tasten gleichzeitig gedrückt, wird dies nicht sofort als Brailleeingabe gewertet.

Weiterhin liefert Apple jetzt auch alle Tabellen des Open-Source-Projekts Liblouis mit, das unter anderem auch die Brailleanzeige in NVDA oder Orca ermöglicht. Neben den hauseigenen Tabellen von Apple hat man jetzt also für deutsch weitere Kürzungs- und Teilkürzungstabellen zur Verfügung. Hierfür gib es eine eigene Rotoroption, mit der man die Tabellen schnell wechseln kann. Oder man bestellt für bestimmte Aktivitäten jeweils andere gewünschte Tabellen ein. In einer App, von der man weiß, dass man nur auf englisch kommunziziert, kann man hier also eine englische Tabele zur Eingabe vorgeben und so sofort in englischer Kurzschrift o. ä. los schreiben.

Erkennung von Daten 🔗

Eine weitere Neuerung in VoiceOver ist die Erkennung von Datensätzen, wie sie z. B. in Diagrammen verwendet werden. Ist ein Diagramm entsprechend den Richtlinien codiert, kann VoiceOver den Verlauf und die Art des Diagramms (Kurve, Balken o. ä.) beschreiben, eine Tonfolge, die den Verlauf repräsentiert, abspielen, oder man kann durch doppeltippen und halten und dann über den Bildschirm bewegen die Grafik mit Tönen erfühlen. Die Höhe der Töne zeigt den Kurvenausschlag oder ähnliche Charakteristika an. Der Rotor bekommt hier kontextbezogen einen Satz neuer Optionen hinzu, mit dem man die Ausgabeart oder den Beschreibungstyp wählen und durch Doppeltippen auslösen kann.

Beispiele für solche Grafiken sind zum einen die grafische Darstellung der Batterienutzung in den Einstellungen und zum anderen der Verlauf einer Aktie oder eines Aktienindexes in der Aktien-App. Auch in der Health-App sollen die Diagramme für die Gesundheit auch schon zugänglich sein, da habe ich allerdings bisher keines finden können.

Diese Erweiterung ist jedenfalls mal wieder ein zeichen dafür, mit wie viel Liebe zum Detail Apple hier agiert. Dass diese Grafen auch für Blinde interessant sein können, würde so manch anderen gar nicht erst in den Sinn kommen. Die Erfahrung erinnert mich sehr daran, wie spannend ich es fand, in iOS 6.0 zum ersten mal die Karten quasi fühlbar unter dem Finger zu haben.

Automatische Erkennung von Bildern 🔗

In iOS 13 erkennt VoiceOver Bilder automatisch, wenn man zu ihnen navigiert, ohne dass man erst mit drei Fingern einmal tippen muss, um die Bilderkennung anzuwerfen. Dies klappt auch in Safari auf Webseiten und bei manchen unbeschrifteten Buttons, die eine Grafik als Beschriftung haben. Dies entbindet natürlich die Entwickler nicht von der Pflicht, ihre Apps ordentlich zugänglich zu machen, erleichtert aber die Bedienung in solchen Apps, wo diese Entwickler das eben noch nicht getan haben.

Neuerungen fürs iPad 🔗

Apple hat iOS fürs iPad so aufgebohrt, dass diese Betriebssystemvariante dies jetzt auch durch einen eigenen Namen kenntlich macht, nämlich iPadOS. Apple hat angekündigt, dass dieses am 30.09. in Version 13.1 erstmalig für alle erscheinen wird, also losgelöst vom iPhone und iPod Touch, welche die Version 13.0 von iOS bereits am 19.09. bekommen und am 30.09. die Version 13.1 als Update erhalten werden.

Neben den Neuerungen für alle, wie einen Safari, der sich wie ein Desktop-Browser verhält, erweiterte Tastatursteuerung, die neuartige Tastatur zur Eingabe durch Wischen, die man auch noch modifizieren kann, damit man sie auch mit einer Hand bedienen kann, und dem Fenster-Management, bringt das iPadOS auch in VoiceOver Unterstützung für all diese Funktionen mit. So ist es mit den bekannten Vorgehensweisen, die ich schon anderweitig beschrieben habe, jetzt natürlich auch möglich, dieselbe App in mehreren Fenstern zu öffnen. Auch die Spaces, also Sätze von zwei miteinander dargestellten Apps oder App-Fenstern, sind über den App-Umschalter zugänglich. Auch die Spaces schließt man wie jede andere App, indem man mit drei Fingern nach oben wischt oder die Schließen-Aktion aus dem Rotor wählt. Ein kleines Manko besteht allerdings darin, dass bei zwei geöffneten Fenstern derselben Anwendung die Aktionen des Trenners nicht ansagen, welches der beiden Fenster man jetzt erweitern oder verkleinern würde, wenn man diese Aktion auslöst.

Eine Änderung betrifft das Dock, wenn man multitasken möchte: Man wischt jetzt wie beim iPhone X aufwärts mit einem Finger vom unteren Rand, bis man den zweiten von drei Tönen hört und wischt dann wieder leicht nach unten, um das Dock einzublenden. Das ganz leichte Wischen vom unteren Rand mit zwei Fingern funktioniert zumindest auf meinem iPad Air 3 nicht mehr. Auch der Sound zum Anzeigen und Verstecken des Docks hat sich von dem zischenden Sound in einen auf- oder absteigenden „Whopp“-Sound geändert.

Der Safari und VoiceOver arbeiten in iOS und iPadOS 13 zuverlässiger zusammen, Apple hat jede Menge weiterer Standards-Unterstützung für dynamische Webanwendungen hinzugefügt.

Sprachsteuerung 🔗

Eine große Neuerung in iOS, iPadOS und MacOS ist die Steuerung des Systems per Sprache. Diese Funktion ist zu diesem Zeitpunkt noch nicht auf deutsch verfügbar, es steht aber zu erwarten, dass die Unterstützung anderer Sprachen außer Englisch nicht lange auf sich warten lässt. So ist es möglich, sich durch sämtliche Elemente zu navigieren, sie zu fokusieren und aktivieren. Man kann in den Einstellungen das Vokabular anpassen, die Befehle finetunen, einstelen, wie das Feedback erfolgen soll (ja, auch mit eingeschaltetem VoiceOver ist eine Steuerung per Sprache möglich) usw. Die Schnittstellen, die die Sprachsteuerung nutzt, sind dieselben, die auch VoiceOver und die Schaltersteuerung nutzen. Ein richtiges Zugänglichmachen von Apps ermöglicht also automatisch die Benutzung durch eine weitere Bedienungshilfe. Eine Demo hiervon hat Apple auf der 2019er Entwicklerkonferenz WWDC gezeigt.

Weitere Änderungen 🔗

Es gibt weitere Änderungen in den Bedienungshilfen, die vorhandene Features weiter anpassbar machen. Da viele davon visueller Natur sind und ich deren Auswirkung nicht beurteilen kann, gehe ich nicht weiter darauf ein, sondern überlasse es der geneigten Leserschaft, diese selbst auszuprobieren.

Fazit 🔗

Apple hat nach mehreren Jahren nur kleiner inkrementeller Verbesserungen, abgesehen vom Multitasking in iOS fürs iPad, in iOS und iPadOS 13 wieder mächtig nachgelegt und einige sehr begeisternde neue Funktionen eingeführt. Hiermit wird VoiceOver zu einem immer ausgereifteren und anpassbareren Screen Reader, der in Benutzerfreundlichkeit und Variabilität seinesgleichen sucht.

Ich jedenfalls bin von diesen Änderungen sehr angetan und freue mich schon darauf zu sehen, was Entwickler mit den Aktivitäten und anderen Features an neuen Möglichkeiten schaffen werden.