Springers Einwürfe: Freundliche Maschinen

Neu eingeführtes Gerät wird nicht automatisch überall freudig aufgenommen. Die Akzeptanz ungewohnter Technik will klug vorbereitet sein, meint Spektrum-Kolumnist Michael Springer.

Ob ich mir die Zähne mechanisch oder elektrisch putze, betrachte ich als reine Geschmacks­sache. In einem selbstfahrenden Auto wäre mir allerdings mulmiger als in einem herkömmlichen. Und angesichts einer unbekannten Internetseite schwanke ich unsicher zwischen Neugier und Furcht vor Datenklau.

Längst agieren wir in enger Symbiose mit techni­schen Apparaten. Dieses Zusammenleben ist nicht reibungslos; es weckt gemischte Gefühle. Am wohlsten ist uns, wenn wir das Gerät ganz und gar »beherrschen«, es routiniert gebrauchen können, als wäre es ein passives Werkzeug.

Doch oft besitzt das Instrument ein Eigenleben. Wir lassen uns auf ärztlichen Rat in eine laute Röhre schieben, die medizinische Daten über unser Körper­inneres sammelt. Das geschieht immerhin aus freien Stücken. Wir nehmen mehr oder weniger unwillig hin, dass Videokameras unser Wohlverhalten im öffentlichen Raum kontrollieren.

Wehe, wenn sie losgelassen

All das und noch viel darüber hinaus fällt unter den Ober­begriff Mensch-Maschine-Interaktion (MMI). Ein Forschungszweig mit ebenjenem Namen untersucht, wie Individuen mit Computern, autonomen Geräten und virtueller Realität zurechtkommen. Selten wird dabei berücksichtigt, dass die digitale Technik auf eine höchst heterogene, nach Einkommen, Geschlecht und ethnischer Zugehörigkeit ausdifferenzierte Gesellschaft trifft.

An diesen für die Akzeptanzforschung wichtigen Umstand erinnern Tahira Reid und James Gibert, die an der Purdue University im US-Bundesstaat Indiana Maschinenbau unterrichten. Wie sie betonen, wird beim Entwickeln und Einführen neuer Technik stillschweigend eine Welt unterstellt, die aus wohlhabenden weißen Stadtbewohnern besteht.

Das beginnt schon damit, dass man bei akademischen oder privatwirtschaftlichen MMI-Untersuchungen als Testpersonen meist Studenten oder Firmenangestellte heranzieht. Daraus resultiert der Irrtum, ein Apparat der nächsten Generation würde ausnahmslos gut situierten Kunden und gebildeten Nutzern begegnen.

Algorithmische Vorurteile

Wozu das führen kann, illustrierte 2016 der Spielfilm »I, Daniel Drake« von Ken Loach. Ein älterer Brite auf Jobsuche kommt mit dem volldigitalisierten Arbeitsamt überhaupt nicht zurecht. Als ihm jemand rät, doch einfach das richtige Symbol anzuklicken, presst er die Maus gegen den Bildschirm.

Im Fall der Gesichtserkennung per Video führt die ethnisch exklusive Auswahl des Testpersonals zum »algorithmischen Vorurteil«: Der Algorithmus identifiziert zwar Weiße ganz ausgezeichnet, irrt sich aber öfter bei Schwarzen und Asiaten. Übrigens gilt das auch umgekehrt. Eine in China oder Südkorea entwickelte Videoüberwachung liegt bei weißen Gesichtern häufiger falsch. Das ist die digitale Version des Satzes »Für mich sehen die alle irgendwie gleich aus«.

Die MMI muss insbesondere dort fehlschlagen, wo versäumt wird, die Menschen auf eine eigens für Konfliktsituationen entwickelte Maschine vorzubereiten. Die New Yorker Polizei begann 2020 in mehreren Stadtteilen einen Roboter einzusetzen, den sie digitalen Hund, kurz Digidog, nannte. Er wurde beispielsweise vorgeschickt, um vor einer möglichen Schießerei die Lage zu erkunden. Das künstliche Wesen sah gruselig aus, es glich eher einer vierbeinigen Giftspinne als einem mechanischen Haustier. Nach einem Jahr wurde das kostspielige Experiment eingestellt, da es, statt zu Entspannung kritischer Situationen beizutragen, Entsetzen und Wut verbreitete.

Die Professorin und der Professor für Maschinenbau – nicht zufällig Afroamerikaner – fordern deshalb, künftig spezielle Gremien einzurichten, die Leitlinien für eine sozial und ethnisch sensibilisierte Mensch-Maschine-Interaktion erarbeiten.

Leave a Reply

Your email address will not be published.