21.11.2019

User Interfaces bei Paranor – eine Zeitreise

Bei der Gründung von Paranor im Jahr 1978 waren Command Line User Interfaces das gängige User Interface. Grafische User Interfaces brachten es erst in den 80er-Jahren zu Popularität und zum Mensch-Maschinen-Interface Nummer 1. Heute haben wir ein ganzes Spektrum an Möglichkeiten für die Interaktion mit einem Computer: Sprache, Vibration, Gestik etc. Paranor hat in den 41 Jahren ihres Bestehens viele User Interfaces gebaut. Wir schauen zurück und wagen einen Ausblick.

Erste User Interfaces bei Paranor

Ab den 60er-Jahren wurde das Command Line Interface populär und experimentelle grafische User Interfaces (GUI) wurden Ende der 60er-Jahre vorgestellt. Mit dem Xerox Alto kam 1973 erstmals ein Computer auf den Markt, der die heute noch üblichen Inputgeräte (Maus und Tastatur) mit einer entsprechenden Ausgabe (Bildschirm) verknüpfte. Bis zum kommerziellen Durchbruch solcher Computer dauerte es jedoch bis Mitte der 80er-Jahre, als 1984 der Apple Macintosh und 1985 Windows 1.01 auf den Markt kamen. Seit diesen Tagen ist die Technologie regelrecht explodiert. Heute interagieren wir wie selbstverständlich per Maus, Finger, Sprache und Gesten mit einer Vielzahl von elektronischen Geräten.

Paranor hat ihre ersten Projekte Ende der 70er-Jahre noch vor der allgemeinen Popularität von grafischen User Interfaces gebaut. Die Software lief auf DEC-Computer und das User Interface bestand aus einem Command Line Interface. Das erste grafische User Interface hat Paranor in den 80er-Jahren entwickelt – für die Armee und auf DEC-Rechnern. Die Zeit von X-Window-System-Technologie und Motif hatte begonnen. Auf dieser Basis hat Paranor GUIs für mehrere Tausend gleichzeitige Benutzer gebaut – so unter anderem die GUIs für die Zahlungsverkehrsplattform der PostFinance AG. Zu Beginn der 00er-Jahre gewann Java zunehmend an Popularität und die Ära der Rich Client Plattformen startete. Paranor hat sich sehr früh für Java entschieden und so wurden in etlichen Projekten Rich Clients mit den für diese Zeit typischen Werkzeugen gebaut, so zum Beispiel Eclipse RCP.

Auf zu neuen Ufern

Bereits Mitte der 00er-Jahre begann die Popularität von Rich Clients deutlich zu sinken, da die Verteilung und Installation dieser clientseitigen Software aufwändig waren. Die Web-Technologien steckten zu diesem Zeitpunkt nicht mehr in den Kinderschuhen und auf jedem Gerät war ein Browser installiert – die Zeit der Web User Interfaces war gekommen. Diesem Trend verschloss sich auch Paranor nicht und implementierte Web UIs mit Ruby on Rails, GWT (Google Web Toolkit), JSP/Java, Angular, React etc.

Heute sind responsive Web UIs immer noch der Standard. Paranor setzt hierfür die zwei derzeit populärsten Frameworks ein: Angular und React.

Die Entwicklung geht weiter. Durch die kontinuierliche Miniaturisierung von Computern entstehen seit einigen Jahren Geräte, welche kleine Abmessungen aufweisen, aber mit einem leistungsfähigen Computer ausgestattet sind. Smart Glasses und Smart Watches sind nur zwei Beispiele. Diese tragbaren Geräte erweitern das Spektrum der User-Interface-Gestaltung, an die Stelle eines grossen Bildschirms treten kleine Bildschirme und Hologramme. Im Gegenzug verfügen diese Geräte über ganz andere Möglichkeiten im Bereich der Input- und Output-Gestaltung. Bewegungen, Sprachbefehle und zukünftig auch Gedanken werden erkannt. Und die bisherige audiovisuelle Ausgabe lässt sich mit Vibrationen, Hologrammen und Gerüchen erweitern. Ein gutes Beispiel für den Bereich Augmented Reality ist das Produkt Microsoft HoloLens.

Paranor ist seit 2015 im Bereich der Augmented Reality aktiv. So haben wir für Google Glass eine Indoor-Positionierung und -Navigation entwickelt, welche mithilfe des Erdmagnetfeldes die Position des Brillenträgers ermittelt – ohne dass Beacons installiert werden müssen. Als Input dienen einerseits die Sensoren und andererseits Sprachbefehle. Der Output wird optisch im Glasprisma dargestellt, zusätzlich kann der Benutzer mittels Vibrationen und Sprachausgabe geführt werden.

Die Entwicklung geht laufend weiter und Benutzer müssen sich zukünftig nicht mehr nach den Vorgaben der Computer richten. Die Computer werden in der Lage sein, unsere natürliche Sprache, Bewegungen und Gedanken als Eingabebefehl zu interpretieren und die Ausgabe in der von uns bevorzugten Art und Weise zu liefern. Für User-Experience-Designer und -Entwickler brechen also noch spannendere Zeiten an.