„Wir dürfen der technischen Entwicklung nicht nur hinterherrennen.“

799px-terminator
Verkörperung von Technikangst: Der Terminator aus dem gleichnamigen Spielfilm | Foto Stephen Bowler (Lizenz CC BY 2.0)

Ein Dialog über die Risiken moderner Technologien und falsche Auffassungen von der Digitalisierung mit Katja Evertz (Teil 2/2)

Im ersten Teil unseres Dialogs hat Katja Evertz mir geantwortet, Technik müsse man vor allem verstehen lernen, dann schwinde auch die Angst vor ihr. Aber stimmt das wirklich? Gibt es nicht hochriskante Technologien, die auch oder gerade dann Angst machen können, wenn man sie verstanden hat? In der Fortführung unseres Gesprächs stellen wir fest: Es muss nicht nur erklärt, sondern auch mehr nachgedacht und diskutiert werden.

Andreas Schiel Das war jetzt eine Menge Text, über den ich eine Weile nachdenken musste. Und zwischendurch habe ich noch in ein richtig gutes Buch geschaut, wie ich das für mein Blog arbeit:morgen öfter mache. Jetzt versuche ich es mal mit einer Antwort.

Ich finde erst einmal viele Übereinstimmungen mit Dir. Pauschale Ablehnung und Angst vor Technik erscheint ja zunächst einmal ziemlich dumm. Die kann man durch Erklärungen – und wahrscheinlich weit wichtiger – praktische Erfahrungen ausräumen. Das kann, um ein Extrembeispiel zu wählen, die Angst des aus einer ländlichen Region Afrikas stammenden Menschen beim Anblick einer Rolltreppe sein (wurde mir mal genauso berichtet). Es kann aber auch die Angst vor der ersten Benutzung einer grundsätzlich bekannten und als bewährt geltenden Technologie sein – z.B. des Flugzeugs. Ich denke mal, da werden bestimmte ‘Urängste’ wach, die durch klassische Aufklärung, sei sie theoretisch, sei sie praktisch, meistens ausgeräumt werden können.

Weil Technik bisher ja auch ganz überwiegend nicht autonom von uns handelt – da sind wir natürlich gerade in einem Prozess, der die Dinge nicht gerade einfacher machen wird – ist es ja in vielen Fällen sogar schlichter Blödsinn, die Technik selbst als Bedrohung zu werten und sich vor ihr zu fürchten.

Das wissen aber auch die allermeisten Menschen – und es ist somit nicht das eigentliche Problem. Das Problem besteht meiner Ansicht nach darin, dass Mensch und Technik und damit auch Technik und menschliches (Fehl)handeln heute nicht mehr voneinander zu trennen sind. Wenn Du sagst: Auf der technischen Seite besteht eigentlich kein Grund zur Beunruhigung, aber auf der menschlichen durchaus, dann klingt das auf den ersten Blick stimmig. Aber auf den zweiten?

Hochrisikotechnologien sind eine (relativ) neue Bedrohung

Das gute Buch, in das ich geschaut habe, heißt “Das Prinzip Verantwortung”. Geschrieben hat es in den 1970er Jahren der Philosoph Hans Jonas. Er hat damals darauf aufmerksam gemacht, dass wir in der technologischen Moderne ganz anders über Technik und deshalb eben auch über Verantwortung, über Ethik also nachdenken müssen als zuvor. Früher galt, sagt Jonas, dass der Mensch mit seiner Technik eigentlich nie viel ausrichten konnte. Einen vorübergehenden Eingriff vielleicht in die Kräfte der Natur, der aber langfristige kaum Nachwirkungen hatte, nach einer Generation schon wieder verschwunden und vergessen sein konnte. Technik, meint er, war zwar schon immer eine Art Markenzeichen des Menschen, aber bis vor recht kurzer Zeit konnte er damit kaum dauerhafte Spuren hinterlassen.

Jetzt hat sich das natürlich geändert. Unsere Art der Energiegewinnung zum Beispiel hat angefangen den Planeten grundsätzlich in seinem Zustand zu beeinträchtigen und vielleicht sogar unsere Lebensgrundlagen zu gefährden. Das gilt für Nuklearenergie ebenso wie für die Verbrennung fossiler Rohstoffe. Die durch Nutzung von Nuklearenergie möglich gewordene atomare Bewaffnung bedroht sogar ganz grundsätzlich und allumfassend jegliches Leben auf dem Planeten. Heruntergebrochen heißt das, schon ein Fehler ohne böse Absicht kann buchstäblich das Ende bedeuten. Zum Beispiel, als man sich bei der Entwicklung der ersten Atombombe nicht gänzlich sicher war, ob die Atomexplosion in einer molekularen Kettenreaktion nicht zum Abbrennen der gesamten Erdatmosphäre führen könnte. Versuch machte hier klug, und wir können froh sein, dass die Forscher, die sich für die Durchführung des Versuchs aussprachen, wohl richtig gerechnet bzw. gemutmaßt haben. Um eher triviale, unwissenschaftliche Herausforderungen ging es dann während des Kalten Kriegs, wo mehrmals, etwa durch Fehlfunktionen der wechselseitigen Überwachungstechnologien ein heißer Atomkrieg hätte ausgelöst werden können, wenn Menschen nicht – entgegen den Hinweisen der Technik – anders entschieden hätten.

Das bedeutet letzten Endes: Ein kleiner Fehler eines Einzelnen, der vielleicht schon lange zurückliegt, oder zunächst gar nicht weiter auffällt kann unter den Bedingungen riskanter Großtechnologien einer ganzen Gesellschaft den Garaus machen, sei diese noch so wunderbar organisiert, harmonisch strukturiert und hochanständig. Und das bedeutet im Extremfall: Schon die Erfindung und Bereitstellung einer bestimmten Technologie kann ein beachtliches Risiko in die Welt setzen. Da ist Technik dann nicht mehr neutral. Sondern erinnert eher an eine Schusswaffe, die entsichert irgendwo herumliegt.

Auch dieses Faktum müsste man miterklären, wenn man denn schon erklärt. Ich finde das richtige Erklären, soweit man denn überhaupt dazu befähigt ist, weil man tatsächlich einen Wissens- oder zumindest Verständnisvorsprung hat, auch immer wichtig, weil es dabei helfen kann, viele Ängste zu zerstreuen. Für die Angst aber vor Hochrisikotechnologien gibt es durchaus handfeste Gründe. Und die kann man zwar relativieren, nie aber gänzlich ausräumen. Denn da gibt es zumeist einen erheblichen Anteil des Nichtwissens, den man nur sichtbar machen, aber eben nicht zur allgemeinen Beruhigung wegerklären kann.

Deshalb finde ich: Es muss nicht nur mehr erklärt werden – es mangelt auch oft an Offenheit und Ehrlichkeit. Und auch an Erkenntnisbereitschaft seitens derjenigen, die ihr Heil, ob beruflich, finanziell oder einfach nur aus purer Begeisterung in einer Technologie suchen und dann nur noch Fortschritt brüllen und alle Bedenken – selbst die berechtigsten – beiseite schieben. Auf so einer Basis aber entsteht kein Vertrauen in diejenigen, die sich mit Technologie jeweils ‘auskennen’. Dabei ist Vertrauen, würde ich sagen, das Einzige, das Ängste vor komplexen und somit unüberschaubaren Risiken beruhigen könnte. Und dafür bedarf es oftmals eben etwas mehr als ein paar Erklärungen.

Katja Evertz Was Hochrisikotechnologien betrifft, stimme ich Dir voll und ganz zu.

Allerdings haben die wenigstens von uns ja tatsächlich damit zu tun. Und die meisten Ängste, denen ich bisher begegnet bin, drehen sich nicht um derartige Technologien, sondern haben vielmehr mit dem Thema Digitalisierung zu tun. Und da sehe ich häufig, dass aus einer diffusen Angst heraus gesagt wird: “Das ist doch alles Unsinn. Das braucht kein Mensch. Damit müssen wir uns nicht beschäftigen.” – Und so, wie die reine Fortschrittsgläubigkeit ein Problem ist, ist die Verweigerungshaltung ebenfalls eines.

Hinzu kommt in meinen Augen, dass viele Digitalisierung als bloßes Infrastruktur-Thema begreifen. Das führt einerseits dazu, dass man meint, mit der Investition in die Technik alles Notwendige getan zu haben. (Aufhorchen sollte man z. B. immer bei dem Satz: “Wir sind da jetzt gut aufgestellt.”) Anderseits führt das auch dazu, dass Digitalisierung vollkommen vorbei an den Bedürfnissen und Gewohnheiten der Menschen umgesetzt wird. (Da gibt es den schönen Satz: “Wenn man einen Scheiß-Prozess digitalisiert, hat man am Ende einen Scheiß digitalen Prozess.”)

Digitalisierung ist mehr eine Frage der Menschen als der Technik

Digitalisierung ist zuallererst eine Frage der Menschen, nicht der Technik. Und da müssen wir in meinen Augen ansetzen – und viel besser darin werden, da stimme ich Dir zu, Vertrauen zu schaffen. Aber nicht so sehr Vertrauen in einzelne Technologien oder Anbieter, sondern vielmehr Vertrauen in uns selbst, diese Alltagstechnik verantwortungsbewusst einzusetzen – seitens der Endnutzer, seitens der Anbieter, aber auch seitens staatlicher Akteure.

An dieser Stelle haben wir wichtige Debatten zu lange nicht bzw. nur in unseren kleinen Filterblasen geführt, nicht aber gesamtgesellschaftlich. Und jetzt haben wir den Salat: Mit Hacker-Angriffen und Bots, die eben nicht nur große komplexe Infrastrukturen (wie z. B. das Stromnetz) bedrohen, sondern inzwischen maßgeblich auch unsere Kommunikation prägen.

An dieser Stelle hilft es nur, wenn wir erst einmal einen Schritt zurückgehen, und uns fragen: Wie wollen wir eigentlich leben? Welche Werte sind uns wichtig? Und welches Verhalten finden wir als Gesellschaft im digitalen wie im realen Raum (nicht) akzeptabel?

Das ist kompliziert. Das kostet uns Energie, weil die Antwort dieser Fragen nicht immer eindeutig und leicht zu finden ist. Deshalb werden diese Debatten auch so selten in der Öffentlichkeit geführt – und vielleicht auch, weil eine Antwort auf diese Fragen ja noch keine Herausforderung direkt löst.

Allerdings glaube ich, dass wir diese Antworten brauchen. Gewissermaßen als Fundament, auf dem wir aufbauen können, auf dem wir unsere Entscheidungen begründen können. Dann können wir vielleicht auch besser einschätzen, ob eine neue Entwicklung wirklich sinnvoll ist – oder uns etwas verspricht, das wir eigentlich gar nicht wollen oder brauchen.

Es braucht Orientierungswissen

Und ich glaube, das ist – neben dem Vertrauen, das Du erwähnt hast – eine weitere wichtige Säule, um die Angst vor Veränderungen zu nehmen: Orientierung.

Und in den nächsten Jahren werden wir uns nicht nur fragen müssen, wie wir mit automatisierten Kommunikationsmöglichkeiten, die auch für Propaganda genutzt werden können, umgehen wollen. Oder welche Verantwortung die Hersteller autonom fahrender Autos haben. Wir müssen uns auch fragen, wie wir langfristig eine funktionierende Gesellschaft sicherstellen können, in der immer mehr Arbeiten automatisiert von Robertern erledigt werden können und in der sich Einkommensmöglichkeiten radikal wandeln. Oder wir müssen uns fragen, unter welchen Bedingungen Nanotechnologie eingesetzt werden soll. Oder Bio-Engineering. Oder wer entscheidet, welche Daten von jedem von uns durch immer mehr vernetzte Geräte und Plattformen gesammelt werden dürfen, wie diese gespeichert werden müssen, welche Kontrolle ich persönlich darüber haben kann und muss.

Auf die meisten dieser Fragen reagieren wir nur, weil wir von der technischen Entwicklung einfach überrollt werden. Wenn wir aber immer nur hinterherrennen, sehen wir gar nicht, welche neuen Probleme durch neue Technologien auftauchen können – und rennen dann immer weiter hinterher.

Wir brauchen deshalb viel mehr Denker, Skeptiker und Menschen, die keine Angst haben, Fragen zu stellen, auf die sie die Antworten nicht kennen. Diese eher leisen, nachdenklichen Töne scheinen aber leider aus der Mode gekommen zu sein.

Andreas Schiel Liebe Katja, vielen Dank für Deine ausführlichen, kompetenten und hochinteressanten Antworten! Was Deinen letzten Punkt betrifft, ist es uns beiden in diesem Dialog, glaube ich, ganz gut gelungen, gegen die Mode anzuarbeiten.

***

katja_evertzKatja Evertz arbeitet als Digital Strategist bei FleishmanHillard. Nach Stationen im Agenturbereich und an der Universität St.Gallen trieb sie bis März 2016 das Thema Social Media im Bundesamt für Bevölkerungsschutz und Katastrophenhilfe voran. Sie beschäftigt sich seit Jahren auch mit den Themen Social Media Monitoring und Analytics. Sie twittert unter @katjazwitschert.

Kommentar verfassen

Trage deine Daten unten ein oder klicke ein Icon um dich einzuloggen:

WordPress.com-Logo

Du kommentierst mit deinem WordPress.com-Konto. Abmelden /  Ändern )

Facebook-Foto

Du kommentierst mit deinem Facebook-Konto. Abmelden /  Ändern )

Verbinde mit %s