Trust Design und Cyber Physical Things


Vo
n Peter Wippermann und Maria Angerer.

Vertrauen beginnt, wo die Kontrolle aufhört. Unsere Welt hat eine Komplexität erreicht, die Kontrolle unmöglich macht. Das hat das vergangene Jahrzehnt deutlich gezeigt.

Die Folgen unseres Handelns lassen sich immer weniger nachvollziehen oder vorhersagen. Die Dynamik unserer Welt verändert ständig unsere Ausgangssituation. Es gibt keinen einen richtigen Weg mehr, vielmehr sind Alternativen und situative Intelligenz gefragt. Vertrauen ist das effektivste Mittel gegen die unangenehmen Nebenwirkungen der überbordenden Komplexität, Volatilität, Unsicherheit und Ambivalenz unserer Zeit.

In der Ökonomie ist Vertrauen zum entscheidenden Kostenfaktor geworden. Wie teuer mangelndes Vertrauen kommt, zeigten die Milliarden Euro, die in der Krise in das Bankensystem gesteckt worden sind. Wo Vertrauen fehlt, wird Handeln unmöglich. In dieser Situation werden Partner essentiell, die verlässlich auch morgen mit uns an einem Strang ziehen – in welcher Form auch immer.

I. VERTRAUEN IN DER TECHNIK

Der Technik liegt das Misstrauen zugrunde. Ein großer Teil ihrer Bemühungen betrifft die Sicherheit und Kontrollierbarkeit ihrer Systeme: zu unzuverlässig ist der Mensch. Ganze Sparten der IT-Branche leben davon, Sicherheit in Form von Funktionsfähigkeit, Datensicherheit und Zugangskontrolle aufrecht zu erhalten. Usability und User Experience lassen Nutzer auch fühlen, dass sie den Systemen trauen können. Im Internet of Things gibt es keine bewusste Nutzung mehr. Services geschehen von selbst. Über kontextsensitive Funktionen lernt das Netz den User kennen, weiß, was er will und was nicht, und bringt ihn seines Zielen näher – im Idealfall.

Tatsächlich verbreitet die gigantische Black Box auch Besorgnis vor Fremdbestimmung und Instrumentalisierung. Die Perfektion und der allumfassende Anspruch machen Angst: Alles sehen, wissen und vorherbestimmen – das konnte bislang nur Gott. Kontextsensitive Funktionen stehen darüber hinaus vor einem weiteren Dilemma: Wird der Mensch tatsächlich über Algorithmen berechen- und vorhersehbar, fühlt er sich in seinem Narzissmus gekränkt. Funktioniert es nicht, fühlt er sich in seiner Freiheit beschränkt. Das Internet of Things stellt die Werte unserer Gesellschaft wie Freiheit und Sicherheit vor eine grundsätzliche Neuverhandlung. (Das zeigt auch der Werte-Index 2012 für das Internet.) Eine zunehmend kritische, vernetzte Zivilgesellschaft fordert ihre Teilnahme in solche Veränderungsprozesse. Im Zeitalter von Peak Everything ist außerdem der Spielraum für fehlerhafte Entwicklungen eng geworden.

Auch die Technik ist mit der Herausforderung konfrontiert, dass es heute nicht mehr um die Lösungen oder Systeme selbst geht, sondern um Beziehungen. Das Soziale steht im Fokus. Wo eine Beziehung funktioniert, ist Vertrauen. Dort braucht es keine eine richtige Lösung. Dort kann jede Lösung richtig sein. Verbleibende Unsicherheit oder Ambivalenz werden durch Vertrauen kompensiert. Die Technik hat in puncto „Beziehung“ bislang in den Dimensionen der Mensch-Maschine-Interaktion gedacht. Usability und User Experience sind die Resultate. Im Pervasive Computing gibt es keine Anwendungen mehr, vielmehr wird die Umwelt selbst verändert. Es gibt keine Nutzer mehr, vielmehr muss der Mensch in all seinen Lebenskontexten berücksichtigt werden. Dafür greifen sowohl user-orientierte Ansätze als auch technikorientierte Ansätze zu kurz. In Zukunft geht es um tragfähige Beziehungen zwischen Technik, Gesellschaft und dem Einzelnen: zwischen Machern und Treibern technischer Lösungen auf der einen Seite, und den Betroffenen und Stakeholdern auf der anderen Seite. Es geht nicht um technische oder ästhetische Perfektion, sondern um Trust Design: eine gemeinsame Vorstellung eines guten Lebens und die Zuversicht, diese gemeinsam umsetzen zu können.

II. WAS BEDEUTET TRUST DESIGN FÜR DIE TREIBER DES INTERNET OF THINGS?

1. Klare Werthaltungen. Wer klare Werthaltungen konsequent lebt, genießt Vertrauen.

Die Folgen der ausschließlichen Orientierung an Profit und Effizienz stürzte das kapitalistische System in die Krise. Wachstum ist keine heilige Kuh mehr. Ein zukunftsfähiger Kapitalismus basiert auf der Gleichstellung sozialer und ökologischer Profite mit monetären Gewinnen. Werte und Moral werden nicht in eine CSR-Abteilung ausgelagert, sondern fest im Geschäftsmodell selbst integriert. Dort stellen sie eine produktive Kraft dar, keinen bloßen Kostenfaktor.

Auch das Selbstverständnis der Technik basiert bislang vornehmlich auf dem exponentiellen Wachstum ihrer Leistungsfähigkeit. In Zukunft reicht das nicht mehr aus. Die Technik und ihre treibenden Akteure müssen ihre Werte kennen – welche Ziele sie mit ihrem Handeln für Mitarbeiter, Gesellschaft und die Welt verfolgen. Diese Aufgabe können nicht außenstehende Ethikräte übernehmen. Werte müssen in der DNA der Unternehmen, ihrer Mitarbeiter und ihrer Produkte festgeschrieben sein. Ethische Direktiven müssen sich als Must-have-Requirements in den technischen Pflichtenhefte niederschlagen.

2. Andersartigkeit willkommen heißen. Wer den Anderen respektiert, genießt Vertrauen.

Wenn Beziehungen im Vordergrund stehen, gilt es, den Anderen kennenzulernen, sich mit ihm auseinandersetzen, seine konträren Interessen zu respektieren und bereit sein, diese in das eigene Handeln zu integrieren. Grundlage dafür ist, verschiedene Perspektiven als bereichernd anzusehen und in einen Dialog auf Augenhöhe zu treten.

In der Technik ist Heterogenität nichts Wünschenswertes. Kompatibilität ist entscheidend. Standardisierte Schnittstellen lassen unterschiedliche Maschinen miteinander kommunizieren. Die Kommunikation mit dem DAU (Dümmsten Anzunehmenden User) wird an die FAQs ausgelagert. In der Welt des Sozialen muss Dialogfähigkeit erarbeitet und ständig neu hergestellt werden. Sie folgt keinen Regeln, sondern basiert auf Empathie und Anpassungsfähigkeit aller Beteiligten. Dann wird Andersartigkeit zur Basis gemeinsamer Innovationen.

Cyber-physical Systems sind keine Tools mehr, vielmehr Lebensbedingung. Als Infrastruktur unserer Gesellschaft beeinflussen sie unsere kollektive und individuelle Zukunft fundamental. Dennoch ist die Gestaltung von Aufbau, Abläufen und Regeln einer Elite vorbehalten. Zu hoch scheinen die Anforderungen an Bildung und Involvement für einen Dialog zu sein. Dass es trotzdem geht (oder gehen muss), zeigte Stuttgart 21. Dazu braucht es die Kompetenz, Informationen erfolgreich zu kommunizieren, Dialoge konstruktiv zu steuern und Widersprüche gewinnbringend für alle Seiten aufzulösen.

3. Verbündete suchen, Überprüfungen standhalten. Wer Allianzen pflegt, genießt Vertrauen.

Wir sind nur so gut, wie uns andere wahrnehmen. Wir vertrauen dem, den wir kennen. Oder dem, den einer kennt, den wir kennen. Allianzen, in denen die Beteiligten für einander einstehen, demonstrieren, dass auf sie Verlass ist. Die Referenz außenstehender Dritter zeichnet unsere Vertrauenswürdigkeit doppelt heraus. Solche Third Parties können Zertifizierungen oder Audits sein. Der stärkste Vertrauensbeweis geht aber von unseren Peers, Freunden und Nachbarn aus, die einem Unternehmen Integrität und Lautbarkeit bescheinigen.

4. Transparenz, Offenheit und Einfluss zulassen. Wer Entscheidungen Menschen überlässt, genießt Vertrauen.

Elektrischer Strom ist lebensgefährlich. Aber die Steckdose macht uns keine Angst – weil per Sicherung der Stromkreis unterbrochen werden kann. Die Finanzkrise 2008 zeigte der Öffentlichkeit, dass die Kurse des „Marktes“ nicht tatsächliche Angebot und Nachfrage der Menschen widerspiegeln, sondern das globale Zusammenspiel von An- und Verkaufs-Algorithmen von Finanz-Software. Hier fehlt die Sicherung. Hier weiß niemand, wo, wie und mit welchem Ergebnis Einfluss geübt werden kann.

Unsere Lebensbedingungen werden zunehmend durch die Bewertung von Software fundamental beeinflusst, sei es indem sie die Kreditwürdigkeit bewerten oder Shopping-Angebote vorschlagen. Gegen unser Einverständnis behaupten sie, uns zu kennen. Fehlerhafte Einschätzungen bleiben unerkannt und können verheerende Schäden verursachen. Wer keinen Einfluss üben kann, fühlt sich ausgeliefert. Im Zweifelsfall ist der Nutzer – nicht der Algorithmus – gezwungen, sich zu ändern. Hier beginnt Instrumentalisierung und Manipulation. Daher gilt es, diese Black Boxes auszuleuchten und zu demonstrieren, dass an ihnen auch geschraubt werden kann. Offenheit und Transparenz sind dafür grundlegend. Der Menschen muss letztendlich mehr Vertrauen genießen als die Maschine.

5. Selbstwirksamkeit erfahren lassen. Wer enabled, genießt Vertrauen.

Für den Einzelnen ist schließlich das Vertrauen in sich selbst entscheidend. Selbstvertrauen entsteht durch die Erfahrung von Selbstwirksamkeit – die Tatsache, dass die Umwelt auf die eigenen Handlungen so reagiert wie intendiert. Sie ist die Grundlage von individueller Freiheit. Wer den Menschen darin unterstützt, beweist, dass er an seinem nachhaltigen Wohlergehen interessiert ist. Das impliziert auch, Kontrolle und Macht aus der Hand zu geben, auf Abhängigkeiten zu verzichten und autonome Bestrebungen des Gegenübers zu respektieren. Wer so Vertrauen spendet, wird Vertrauen ernten. Das zeigen OpenData-Projekte, in denen Städte vormals geheime Datensätze zur öffentlichen Verwendung freigeben. Nicht nur eigenständige Innovationsprojekte entstehen, auch vom entstandenen Vertrauen profitieren alle Beteiligten gleichermaßen.

III. WIE ORGANISIERT MAN VERTRAUEN IN BEZUG AUF KONTEXTSENSITIVE DATEN?

Kontextsensitive Systeme können kein Vertrauen genießen, wenn ihre Treiber und Macher kein Vertrauen genießen.

Trust Design bedeutet, dass nicht mehr die konkrete Implementierung im Fokus steht. Die Identität der dahinterstehenden Unternehmen und die Beziehungen zu den Stakeholdern sind gleichwertige Komponenten, wenn es um den Aufbau von Vertrauen geht.

A) IDENTITÄT

Werte identifizieren. Technologie-Unternehmen müssen ihre Identität, Werte und Ziele klar definieren und leben. Grundlage dafür ist ein Rollenverständnis, das über die technische Lösungskompetenz hinausgeht. Googles „Don’t be evil.“ reicht nicht aus, weil es die Definiton von „being good“ offen lässt. Es ist erforderlich, zu definieren, wofür man steht und welche Verbesserung man für die Welt bedeuten will.

Gesellschaftliche Rolle leben. Wenn Werte und Rolle klar sind, gilt es diese zu leben. Technologie-Unternehmen sind gefordert, ihre gesamtgesellschaftliches Rollenbild auch nach außen zu präsentieren. Es gilt, nicht mehr Ansprechpartner für technische Probleme zu sein, sondern für Lösungen für die Gesellschaft. Feigenblätter wie die Teilnahme der Vorstandsvorsitzenden an Podiumsdiskussionen zu ethischen Themen reichen nicht aus. Ziel muss sein, dass jeder Mitarbeiter sich der gesellschaftlichen Rolle bewusst ist und seine technische Kompetenz für diese übergeordneten Ziele einsetzen will.

Selbstbeschränkung als Befreiung sehen. In der Technik ist alles möglich. Das macht Angst. Akteure der Technologie müssen wie Mediziner und Genetiker ihre eigenen Potentiale auf ihre ethische Legitimität und praktische Sinnhaftigkeit überprüfen. Wer seinen Werten treu bleibt, muss sich zwangsläufig in Selbstbeschränkung üben. „Anything goes.“ gilt nicht mehr. Dafür wird er Vertrauen genießen, das es ihm erlaubt, in anderen Bereichen freier zu agieren.

B) BEZIEHUNG

Beziehungen aktiv pflegen. Grundlage für funktionierende Beziehungen ist die Bereitschaft auf Augenhöhe zu interagieren. Darüber hinaus ist es wichtig, dass Dialog und Austausch nicht an einzelne Departments wie das Marketing oder die „Wissenschaftskommunikation“ ausgelagert werden. Jeder Mitarbeiter, jeder Forscher sollte daran interessiert sein, mit seiner Disziplin und Tätigkeit anschlussfähig mit der restlichen Welt zu bleiben. Es geht darum, sich nicht als Teil einer technischen Lösung oder einer Nerd-Community zu verstehen, sondern als Teil der Gesellschaft.

Gemeinsame Sprache sprechen. Wer Dialoge führt, muss eine gemeinsame Sprache sprechen. Der Begriff „Cyberphysische Systeme“ flößt mit Sicherheit Respekt ein, aber kein Vertrauen. Die Wissenschaft sollte den Abschied vom Elitarismus nicht als Risiko, sondern als Chance für ihre Disziplin sehen: die wissenschaftliche Arbeit gewinnt an Relevanz in der Mitte der Gesellschaft; der Austausch von Perspektiven und Lösungsvorschlägen ist inhaltlich bereichernd. Zur gemeinsamen Sprache gehört auch die Transparenz: Um darüber reden zu können, müssen die Black Boxes der eigenen Systeme offengelegt werden –  sei es in Form technischer Spezifikationen (für Nerds) oder aber auch, indem z. B. offengelegt wird, wo und welcher Form Sensor-Daten aufgezeichnet werden (für die Öffentlichkeit).

Kritikfähigkeit beweisen. Kritik ist nicht nur eine Chance, sich selbst zu verbessern. Kritik stärkt auch Beziehungen und lässt sie reifer und tragfähiger werden. Das ehrliche Interesse an Feedback von Community und Publikum erfordert die entsprechende Organisation auf Seiten des Unternehmens. Nur dann können Verbesserungsvorschläge auch entsprechend umgesetzt werden. Für die Steuerung konstruktiver Dialoge und die Auflösung von Widersprüchen wird Technologie-Unternehmen zukünftig auch Mediatoren-Kompetenz abverlangt.

Verbündete suchen. Gemeinsam lassen sich die meisten Ziele besser erreichen. Es gilt daher, Allianzen mit Gleichgesinnten zu bilden. Gleichgesinnte finden sich in allen Branchen und gesellschaftlichen Bereichen. Auch User, Communities, „analoge“ Unternehmen, Politik, NGOs oder Künstler können dazu gehören. Was zählt, ist der gemeinsame Werte-Nenner. Solche interdisziplinären Verbindungen schaffen Vertrauen, weil Außenstehende für die eigene Glaubwürdigkeit einstehen. Im operativen Betrieb können sogenannte Third Parties als Außenstehende die Werte-Integrität von Unternehmen und Prozessen kontrollieren und bestätigen.

C) LÖSUNG

Kompromisslose Qualität, klare Benefits. Ein sicherer Weg, Vertrauen zu gewinnen, ist durch Qualität und Vorteile zu überzeugen. Kontextsensitive Systeme bringen die besten Voraussetzungen mit, punktgenau die Bedürfnisse des Menschen zu erfassen und bedienen. Entscheidend dafür, ist die reibungslose Funktionsfähigkeit, die Korrektheit der Analysen und Vorhersagen, die Qualität der gebotenen Services. Und einen tatsächlichen Mehrwert, wie sie z. B. Echtzeit-Pricing-Systeme oder intelligente Shopping Assistenten leisten können.

Transparenz und Freiwilligkeit gewährleisten. Sichtbares genießt Vertrauen. Wer Einfluß üben will, braucht entsprechende Hebel dazu. Kontextsensitive Systeme der Zukunft müssen den User als Mensch mit seinem Bedürfnis nach individueller Freiheit und Autonomie respektieren. Dazu gehört, ihm volle Verfügungsgewalt über sein Involvement in computerisierten Umgebungen zu geben. Seine Teilnahme und Interaktion dürfen nicht erzwungen sein, sondern müssen auf dem Vertrauen in die Systeme und die Erwartung tatsächlicher Benefits basieren.

Systematische Erneuerung traditioneller Produkte. Kontextsensitive Services können vom Vertrauen profitieren, die traditionelle Produkte schon genießen. Das Smartphone hatte keine Schwierigkeiten akzeptiert zu werden, weil es einerseits zwei gelernte Technologien (Telefon, Computer) vereint, andererseits das urmenschliche Bedürfnis der Kommunikation bedient.

Lernfähigkeit und Flexibilität gewährleisten. Angst verbreiten ambiente, kontextsensitive Systeme vor allem, wenn Fehler passieren. Entscheidend für solche Systeme ist also, sie lernfähig und flexibel zu halten: Systemdesigns, in denen die Folgen von Fehlern in kleinem abgegrenzten Rahmen bleiben, sind die Basis dafür. Wenn Fehler passieren, sollte deren Meldung transparent erfolgen, ebenso der Verlauf der Behebung sowie mögliche Work-Arounds. In die Behebung von Fehlern können auch die User oder (spezifische) Crowds einbezogen werden. Automatisch erfasste Daten können durch den Abgleich mit alternativen Datenquellen oder dem qualitativen Input von Usern verlässlicher werden.