Usability First - Handyplex

Direkt zum Seiteninhalt

Hauptmenü:

Magazin

Usability First

Komplexität ist der natürliche Feind des Bedienkomforts? Das muss nicht sein!

Ein bekannter Werbespot trällert: „Voll bepackt mit tollen Sachen, die das Leben leichter machen…“ Neben Sahnejoghurt würde dieses Liedchen auch einen Großteil der aktuellen Handymodelle passend bewerben. Die meisten Geräte sind tatsächlich voll bepackt mit Sachen, die man nicht immer benötigt; ja manchmal nicht mal bedienen oder gar finden kann. Es ist längst kein Geheimnis mehr, dass etlichen Menschen – mit steigendem Lebensalter –viele Funktionen eines modernen Handys verschlossen bleiben. Während die Telefon- und Textnachrichtfunktionen dank Anleitungsstudium noch problemlos zugänglich sind, werden Terminkalender oder das mobile Internet erst mit CSI-Methoden gefunden. Letzteres manchmal sogar unbeabsichtigt.

Keine Raketenwissenschaft

Dieses Problem ist nicht neu. Wer sich an den Start des Heimcomputers erinnert, dem wird bewusst sein, dass der Commodore 64 von einem Großteil seiner Besitzer schlicht zur Daddelmaschine degradiert wurde. Dass damit schon deutlich komplexere Dinge möglich waren, wurde gleichgültig ignoriert. Das Lesen komplizierter Bedienungsanleitungen empfinden Menschen oftmals als Zumutung. Mit Recht. Das PC-Bedienproblem blieb bis Mitte der 90er Jahre bestehen. Erst eine grafische Bedienoberfläche katapultierte den PC in den Massenmarkt. Eindeutige Symbole, eine Tastatur und eine Maus rissen Barrieren nieder. Aus Kontaktscheu wurde Neugier. Der Computer wurde als das erkannt, was er eigentlich schon immer war: ein äußerst vielseitiges Gerät.

Usability total: Datenschubsen



Hin und her per Handbewegung

Sie glauben, heutige Standards zur kabellosen Datenübermittlung seien ausgereift? Dann lesen Sie mal, was Sony Ericsson schon 2008 plante.
Datenübertragung sollte per einfacher Handbewegung möglich werden. Daten sollten einfach in Richtung eines anderen Handys „geschubst” werden. Erkennen sollte das ein Sensor, der auf dem Bluetooth-Standard basiert. Wie das genau funktionieren sollte, wollte Sony Ericsson bisher natürlich genauso wenig verraten, wie die Frage nach der Datensicherheit...

Der Handymarkt wiederholte diese Fehler in geringerem Umfang. Hier wurde die Anwenderfreundlichkeit deutlich früher ins Auge gefasst. Zwar erinnerten die ersten Motorola-Knochen anno 1992 mehr an Trainingshanteln als an Prototypen der Kommunikationsrevolution, doch die Menüführungen waren bereits relativ gut durchdacht. Kunststück: Mehr als telefonieren und wenig später Kurznachrichten schreiben konnte man ohnehin nicht tun. Erst Ende der 90er Jahre kamen mit steigenden Absatzzahlen quasi monatlich neue Features hinzu. Die Technologisierung des Mobiltelefons schritt mit Siebenmeilenstiefeln voran. Mit zwei Menüpunkten alleine konnte niemand mehr Herr werden über SMS, MMS, Terminkalender, Fotofunktionen, Videokamera und Menstruationszyklusprogrammen. Alle großen Hersteller setzen auf eigene Menüführungen, die trotz Farbdisplay und grafischer Benutzeroberfläche höchst eigen waren und immer komplizierter wurden. Der Umstieg eines ehemaligen Siemens-Nutzers auf Nokia-Menüs wurde zu einem mittleren Kulturschock, in seiner Wirkung nur von der Bedienungsanleitung übertroffen.

Es war und ist vor allem die Generation 50plus, die Umfragen zufolge regelrecht vor der technologischen Überdosis kapituliert. Denn was für Designer meist offensichtlich war, stellte den herkömmlichen Nutzer vor große Probleme. Steve Krug, Autor der Usability-Bibel „Don’t make me think“, beschreibt das in Designerkreisen weit verbreitete Problem sehr charmant: „Wenn der erste Proband eine Funktion nicht findet, ruft man ihm noch zu, dass ihn der Menüpunkt doch geradezu anspringt. Findet es aber auch der zweite, dritte und vierte nicht, beginnt man als Entwickler einzusehen, dass unbedarfte Anwender doch anders sind als man selbst.“

Problem erkannt, Problem gebannt?

Das Problem war offensichtlich: Die Softkeys unter dem Display wechselten notgedrungen ständig ihre Funktionen, um allen mittlerweile implementierten Funktionen gerecht zu werden. Eine beachtliche Kundenzahl verweigerte oder ignorierte technische Neuerungen. Die erste Industriereaktion bestand darin, den Komplexitätstrend 2004 mit einem Gegentrend zu attackieren. Das Einsteigersegment hatte man zunehmend aus den Augen verloren. Zwecks Markterweiterung fanden sich in den Läden vermehrt Einsteigermodelle, die auf Basisfunktionen reduziert waren.

Auf der CeBit 2006 trieb die fitage GmbH die Sache vorläufig auf den Höhepunkt. Unter dem Namen „Katharina die Große“ präsentierte man das erste Senioren-Handy, das durch große Tasten und ein geräumiges Display älteren Menschen die Bedienung so leicht wie möglich machen sollte. Ohne allzu großen Erfolg. Das Problem mit diesen Geräten war zum einen, dass man sich damit ungern sehen ließ, und zum anderen, dass die Industrie damit recht wenig Geld verdienen konnte. Auch mit gut getesteten Nachfolgemodellen wie dem Big Easy 2 sollte der Markt für solche Spezialhandys noch lange eine Nische bleiben.

Steve Krug: Don't make me think günstig bestellen bei amazon.de!

Usability last: Serenata



Das Gegenteil von benutzerfreundlich...

Wie zu beherzte Designerei Usability ruinieren kann, zeigte das in Zusammenarbeit mit Bang & Olufsen entstandene Samsung Seranata. Immerhin wurde im Gegensatz zum Designvorgänger Serene auch ein Touchscreen verbaut. Beide Geräte setzten aber auf eine Drehscheibe, die beim SMS schreiben zur Geduldprobe wurde. Jeder Buchstabe musste einzeln angewählt werden. Natürlich wirkt eine Drehscheibe eleganter als eine Tastatur, aber für die praktische Anwendung ist eine solche Lösung ungenügend.

Die Verkomplizierung schritt unterdessen stetig voran. Mitte 2006 war selbst der eine oder andere Fachmann mit der Bedienung eines Multimedia-Handys überfordert. Nokia wich mit der N-Serie sogar von der Bezeichnung Mobile Phone ab und ließ verlautbaren, es handele sich um Multimedia Computer. Um die teuren Geräte an den Mann zu bringen, mussten völlig neue Bedienkonzepte her. Dass die alteingesessenen Hersteller zu nahe am Projekt waren, bewies Apple. Der Branchenneuling setzte mit dem iPhone als erster medienwirksam auf ein reines Touchscreen-Modell. Eindeutige Icons, die man nur berühren musste, sollten unmissverständlich klar machen, was gedrückt werden muss, um zum Ziel zu gelangen. Die Idee und Definition der Usability, nämlich die Eignung eines Produktes bei Nutzung in dem bestimmten Kontext, ein vorgegebenes Ziel effektiv zu erreichen, wurde in eine völlig neue Richtung gelenkt: Den Screen zu berühren machte vielen Menschen mehr Spaß und wurde als leichter empfunden, als Knöpfe zu drücken.

Kontextintensive Tasten

Das iPhone
als Usability-Revolution? Jein. Wer einige Zeit mit dem optisch schönen Gerät verbrachte, der fand zwar recht fix alle Funktionen, stieß aber schnell auf Einschränkungen anderer Art. Zum Verfassen von SMS beispielsweise eignet sich die virtuelle Tastatur auf dem Display alles andere als optimal. Vielen Nutzern fehlt der gewohnte Druckpunkt, der es ermöglicht, SMS auch blind zu schreiben. Eines war nach dem iPhone aber sicher: Hochwertige Handys der Zukunft besaßen einen Touchscreen. Vor allem Smartphones mit Windows Mobile-Betriebssystem sollte so der Schrecken genommen werden.

Prominentes Beispiel war das HTC Touch Cruise. Ging früher vielen Nutzern bei der Vielfalt an Einstellungsmöglichkeiten und den technikorientierten Menüs irgendwann Geduld und Muße aus, sollte die HTC-Home-Screen-Benutzeroberfläche zu ausgedehnten Reisen durch die Gerätefunktionen einladen. Das Gerät ließ sich sogar durch Gestensteuerung bedienen. Ein klarer Schritt nach vorn.

Rückseiten-Interface



Die dunkle Seite des Handys

Was ist eigentlich mit der Rückseite eines Handys? Hier liegt potentielle Bedienungsfläche weitgehend brach. Das erkannte auch Apple. Inspiriert durch den Anspruch, kleine MP3-Player mit Touchscreen zu bauen, meldeten die Kalifornier ein Patent an, das ein Gerät mit normalem Display auf der Frontseite und einer virtuellen Tastatur auf der Rückseite beschreibt. So entlastet man das Frontdisplay und nimmt Fettflecken auf der präsentablen Front den Schrecken; die sind dann vornehmlich auf der Rückseite zu finden.

Anzeige

Die Zukunft

Wird die vereinfachte Benutzung eine Einladung für noch mehr Funktionen und Komplexität sein? Wird das Bedienkonzept dadurch erneut als veraltet gelten? Eine präventive Lösung läge in einer Idee, gegen die sich die Industrie derzeit noch zur Wehr setzt: das Handy im Baukastenprinzip. Ein Mobiltelefon, das sich konkret nach den Wünschen des Nutzers richtet. Aktuell passiert das schon durch LED-Technik, die automatisch die Display-Helligkeit regelt. Wäre es aber nicht besser, nur die Komponenten in einem Handy vorzufinden, die man wirklich braucht und somit auch versteht?

Ideen dazu gibt es. Erst im Dezember 2007 stellte Peter Semmelhack von Bug Labs ein Konzept vor, das auf dem Steckkastensystem eines PCs basiert. Dreh- und Angelpunkt ist die so genannte Bugbase, ein kleiner Computer. Um diesen herum können verschiedene Module, beispielsweise eine Kamera, ein GPS-Modul, ein Bewegungssensor oder einen Touchscreen gebaut werden. Wie weit diese Idee künftig gehen soll, zeigt uns Nokia mit der Zukunftsvision „Morph“. Morph ist eine Kooperationsentwicklung zwischen den Finnen und der Universität Cambridge. Anfang März wurde Morph anlässlich der Ausstellung „Design and the Elastic Mind” im Museum of Modern Art in New York per Video vorgestellt.

Nanotechnologie als Lösung

Die Idee für Morph basiert auf Nanotechnologie. Zu sehen ist eine junge Frau, die mit einem Handy telefoniert. Zuerst hält sie es in der Hand, dann zieht sie ein Headset direkt aus dem Gerät und legt den Geräterumpf auf einem Tisch. Nach dem Gespräch kann sie das Handy auf dreifache Größe aufziehen, was ein transparentes Display samt virtueller Tastatur zum Vorschein bringt. Sie verfasst eine Nachricht und klappt es wie ein dreifach gefaltetes Blatt Papier wieder zusammen. Später absorbiert sie per Zuwedeln den Geruch eines Apfels mit den Sensoren, lädt es per Solarzellen auf und verändert das Design durch das Abfotografieren ihrer Handtasche. Sofort ändert das Gerät seine Farbe von giftgrün auf rotgeblümt.

Selbstredend sind alle Touchscreentasten auf dem Gerät kontextintensiv. Abschließend rollt sie sich das Gerät elastisch um ihr Handgelenk. Durch einen Touchscreenschiebemechanismus aktiviert sie eine Funktionssperre und zieht lächelnd von dannen. Vielleicht stimmt sie auch ein Liedchen an: „Voll bepackt mit tollen Sachen, die das Leben leichter machen…“

Usability pur: Nintendo Wii



Mit Simplifizierung zum Erfolg

Anfangs wurde Nintendo für diesen Schritt belächelt. Statt sich auf das Wettrüsten mit Sony und Microsoft einzulassen, widmete man sich der Usability. Während etliche PlayStation 3- und Xbox-360-Besitzer bis heute nicht wissen, was ihre Konsole eigentlich kann, ist das bei der Wii offensichtlich. Steuerung durch Bewegung.

Die Idee, möglichst wenige Knöpfe drücken zu müssen, ermöglichte eine enorme Zielgruppenerweiterung. Vor allem Menschen, denen es bisher vor all den Knöpfchen auf Gamepads graute, greifen beherzt zu. Ein Vorbild für den Handymarkt? Vielleicht. Allerdings dürfte die Umsetzung eines vergleichbaren Konzepts angesichts der Funktionsfülle moderner Smartphones nicht ganz einfach zu realisieren sein.

 
Zurück zum Seiteninhalt | Zurück zum Hauptmenü