Erschienen am: 25.02.2014, Ausgabe SPS-MAGAZIN 3 2014

Testanforderungen für Gestensteuerung

Intuitive Steuerung über Handy- Bedienoberflächen

Die Bedienbarkeit von Maschinensteuerungen wird immer mehr zum kaufentscheidenden Differenzierungsmerkmal. Gerade im Maschinenbau stellen 'Human Machine Interfaces' einen nicht zu unterschätzenden Teil der Produktentwicklung dar. Ein Paradebeispiel für intuitive Bedienbarkeit liefert das Smartphone. In einer Machbarkeitsstudie entwickelte Berner & Mattner eine Gestensteuerung für einen Mehrachsgreifarm. Dabei wurde auch untersucht, welche Testanforderungen solche Projekte mit sich bringen.

Autor: Dr. Michael Sturm, Assystem Germany GmbH.


Smart Multi-Axis Control

In der Machbarkeitsstudie Smart Multi-Axis Control wurden bis auf Smartphone und Mehrachs-Demonstrator alle Komponenten von Berner & Mattner entwickelt - von der Smartphone-App über den Java-basierten Server, die Controller des Roboterarms bis hin zu Messina, der Plattform für das modellbasierte Testen von Steuergeräten und HiL-Echtzeitanwendungen. Die App gibt die Sensordaten und Benutzereingaben über WLAN an den Server zur Sensorikvorverarbeitung. Hier wird die Semantik der Befehle (zum Beispiel 'fahre zur Position yxz') gebildet, die dann an das Echtzeitsystem Messina gehen. Dieses führt die inverse Kinematik, die Umrechnung von Koordinaten des Greifers in Winkel der einzelnen Gelenke durch. Hieraus leiten die Embedded-Systeme des Demonstrators die Servobefehle ab.

Anleihen aus Bedienkonzepten von Smartphones und Tablets werden künftig auch die Entwicklung von Human Machine Interfaces (HMIs) zur Steuerung industrieller Maschinen und Anlagen prägen. Gestensteuerungen auf Touchdisplays oder Bewegungssensoren von Mobiltelefonen eröffnen die Möglichkeit, die Bedienung von Maschinen intuitiver also leichter erlernbar zu machen. Als praktische Umsetzung eines industriellen 'Bring Your Own Device' (BYOD) zeigte Berner & Mattner bereits auf Messepräsentationen, wie sich Standardhardware als Basis für eine intuitiv bedienbare Mensch-Maschine-Schnittstelle nutzen lässt. Was auf den ersten Blick spielerisch wirkt, dient vor allem dazu abzuleiten, wo entwicklungsbegleitende Teststrategien erforderlich sind, um neue Konzepte der Interaktion zwischen Menschen und Maschinen abzusichern. Denn intuitiv verständliche HMIs - noch dazu unter Verwendung von Consumer-Hardware - zu entwickeln, ist deutlich komplexer als die Entwicklung klassischer Gerätesteuerungen.

Hand-Auge-Koordination intuitiv einsetzen

Durch Projekte wie die Tablet-Steuerung für Prüfgeräte der Firma Omicron oder die Machbarkeitsstudie 'Smart Multi-Axis Control', die hier als Beispiel dienen soll, werden Entwicklungsmethoden verfeinert, um diese Komplexität zu beherrschen. Die Kreisel- und Beschleunigungssensoren eines iPhones sollten verwendet werden, um unter Ausnutzung der Hand-Auge-Koordination eine möglichst intuitive Bedienung eines Greifarms zu realisieren. Um für diese Idee zunächst ein Bedienkonzept zu entwickeln, veranstaltete das Entwicklerteam einen Workshop, bei dem die Teilnehmer mit dem Handy in der Hand die Bewegungen des Greifarms gestikulierend erklärten. Damit die Steuerung des Greifarms intuitiv in der Hand-Auge-Koordination funktioniert, muss man sich praktisch in ihn 'hineinversetzen' können. Bereits das Bedienkonzept muss mit einer möglichst heterogenen Gruppe von Testanwendern überprüft werden, um zu verifizieren, dass die Steuerungsgesten intuitiv erfasst werden. Es zeigte sich, dass etwa die Rotation des Handys um die Längsachse für alle Anwender das Drehen der Greifzange bedeutete. Es zeigte sich aber auch eine Fehleinschätzung: Die Bewegungen waren zunächst auf ein Koordinatensystem im Raum bezogen, das seinen sichtbaren Ausdruck später in dem um den Demonstrator errichteten Plexiglaskasten fand. Die Entwickler mit ihrem ausgeprägt mathematischen Denken konnten die Bewegung mühelos entlang der Achsen umsetzen. Das intuitive Herangehen ist allerdings ein anderes. Die große Mehrheit der Testpersonen verstand die Bewegungsrichtungen aus Sicht des Roboterarms - das Bezugssystem muss sich also mit dem Arm drehen.

Anzeige

Anforderungen an Signalqualität und Betriebssicherheit

Ein weiterer Bereich der Entwicklung, der von Tests begleitet werden muss, ist die Evaluierung der Sensorik des Eingabegeräts. Im Fall der Bewegungssensoren des Handys zeigte sich, dass keine eindeutigen Signale erzeugt werden konnten. Das Rauschen musste über verschiedene Filterstufen eliminiert werden. Die Beschleunigungssensoren erwiesen sich sogar als ungeeignet für die Bestimmung der Raumposition. Das Vorstrecken und Zurückziehen des Arms hätte den Roboterarm entsprechend ausrichten sollen, doch hier musste das Bedienkonzept modifiziert werden. Das Strecken des Arms wurde mit einem Schieberegler auf dem Display gelöst. Ein anderer Aspekt der Signalübermittlung ist die für die Betriebssicherheit wichtige Frage der Funkverbindung. Es muss gründlich getestet werden, wie das System mit Latenzen und Abbrüchen der Funkverbindung umgeht. Ebenfalls in den Bereich der Safety gehört die Verhinderung von unzulässigen Bewegungen des Zielsystems durch fehlerhafte Eingaben. Eine Totmannschaltung stellt zunächst auf Seiten des Eingabegeräts sicher, dass die Signale auf bewussten Eingaben beruhen - in diesem Fall muss der Finger auf dem Touchdisplay sein und der Benutzer bekommt über eine kurze Vibration das Feedback, dass die Steuerung aktiv ist. Damit nun das Zielsystem und dessen Umgebung keinen Schaden nehmen, werden Regeln zur Kollisionsvermeidung erstellt. Dies geschieht am besten anhand eines errechneten 3D-Modells der Anlage. Dieses ist auch die Basis einer Simulation für den modellbasierenden Test.

Modellbasierte Tests so früh wie möglich einbinden

Diese Tests, die beispielsweise in der Entwicklung sicherheitskritischer Embedded-Systeme die Kosten für SiL-, HiL- und Produkttests senken, wurde auch hier angewandt: Anstelle der Hardware des Demonstrators wurde zunächst ein Matlab-Simulink-Modell über die Bewegung des iPhones gesteuert. Dass man dabei auf das Problem der wenig intuitiven Bewegung in einem Koordinatensystem stieß, zeigt, dass das modellbasierte Testen gar nicht früh genug in einem komplexen Projekt eingeführt werden kann.

Anzeige

Teststellungen zwischen Mensch und Maschine

Eine Gestensteuerung kann man als eine Kette von Übergabepunkten für Signale verstehen, und jede Übergabe ist eine potenzielle Fehlerquelle und muss im Modell sowie am fertigen System getestet werden. Das fängt wohlgemerkt schon beim Menschen an und mit der Frage, ob er das, was er der Maschine sagen will, auch 'richtig rüber bringt'. Folgende Fragen sind zu beantworten:

  • • Sind die Gesten verständlich und erlernbar?
  • • Erlauben sie präzise Befehle?
  • • Auf welche Fehler des Bedieners muss das System vorbereitet sein?
  • • Welche Qualität haben die Signale der Sensorik?
  • • Welche Qualitätsschwankungen können beherrscht werden?
  • • Wird die Funkübertragung inklusive ihrer Unterbrechung beherrscht?
  • • Funktioniert die Übersetzung in semantische Befehle?
  • • Funktioniert die inverse Kinematik? Funktionieren Kollisionsvermeidungen und Notabschaltungen?

Die Gestensteuerung beispielsweise mit einer Handy-App - wie von Berner & Mattner für einen Anwender entwickelt - ist sicher eine Spezialanwendung, um zum Beispiel einen Quadrocopter mit Messgeräten zu bedienen. Doch der Entwicklungs- und Testaufwand wird nicht wesentlich geringer, wenn sich die Gestensteuerung auf Touchdisplay-Wischgesten auf einem Tablet beschränkt. HMIs modellbasierend und entwicklungsbegleitend zu testen, ist daher in jedem Fall ein empfehlenswerter Ansatz.

Anzeige