15.02.2024
Erschienen in: newbusiness.at, von Rudolf Felser
Wie schafft man es, Digitalisierung und die europäischen Werte des Humanismus unter einen Hut zu bringen? Und das am besten auch noch so, dass sich daraus Wettbewerbsvorteile für Europa ergeben?
Georg Krause beschäftigt sich schon lange mit den Auswirkungen der Digitalisierung auf den Menschen und die Gesellschaft. Nicht nur als CEO der msg Plaut AG mit Verantwortung für das Lösungs- und Beratungsgeschäft der msg Gruppe in Österreich, CEE & CIS. Ende vergangenen Jahres wurde das Buch „Die Praxis des Digitalen Humanismus: Welchen Beitrag Unternehmen dazu leisten und wie sie davon profitieren können“ präsentiert, bei dem er als Herausgeber fungierte. Darin hat er 22 Autor:innen aus der heimischen Politik, Wirtschaft und Wissenschaft versammelt, die über ihren Zugang zum Thema sowie konkrete Umsetzungserfahrungen erzählen. NEW BUSINESS sprach mit ihm unter anderem über die Idee des Digitalen Humanismus und welche Rolle sie auch für die Zukunft Europas spielen kann.
Was verstehen Sie unter Digitalem Humanismus?
Es ist ein Begriff, der aus der philosophischen Idee des Humanismus abgeleitet ist, die uns gerade in Europa ja nicht fremd ist, und bringt die Digitalisierung in Einklang mit dem Humanismus, den humanistischen Werten. Wir beschäftigen uns beim Digitalen Humanismus damit, wie wir dafür sorgen, dass humanistische Werte in der digitalen Welt abgebildet, berücksichtigt und nicht verletzt werden.
Es geht darum, welche Auswirkungen Technologie und Technologieeinsatz auf unser Leben, auch auf Demokratie, auf Gleichberechtigung und andere Werte haben, und es geht darum, dass diese Auswirkungen bei jeder Lösung, die ich entwickle, die ich zum Einsatz bringe, die ich einsetze, auch entsprechend Beachtung finden. Das ist das Grundprinzip.
Wurden diese Gedanken in einer Art Technologie-Euphorie in den vergangenen Jahrzehnten vernachlässigt?
Ich glaube, es ist eine normale Entwicklung, die sich zum Beispiel mit der Industriellen Revolution vergleichen lässt. Immer dann, wenn Technologie einen wesentlichen Einfluss auf unser Leben hat, muss man genauer hinsehen. Wo sind Risiken, die unsere Rechte, unsere Werte, unser Verständnis, wie wir zusammenleben wollen, einschränken?
Das ist keine Kritik, dass man etwas verabsäumt hätte. Die Digitalisierung hatte vor 40 Jahren noch keinen wesentlichen Einfluss auf unser Leben. Ob ich eine Rechnung auf Papier mache oder mit Excel, verändert nicht grundlegend unser Leben. Aber in den letzten zehn Jahren, vielleicht auch schon ein bisschen länger, hat das zugenommen. Technologie hat heute Einfluss darauf, wie wir uns informieren, wie wir Medien konsumieren, welche Informationen wir aufnehmen, wie wir einkaufen oder wie wir im Spital behandelt werden. Es gibt inzwischen kaum einen Bereich, der davon nicht erfasst wird, und daher ist es wirklich wichtig, darauf zu achten.
In der Industriellen Revolution kam es zum Beispiel am Anfang auch zu Ausbeutung und ähnlichen Auswüchsen. Diese wurden durch entsprechende Vorgaben, durch Regulatorik eingeschränkt. Man hat gelernt, wie man das Gute nutzen kann, ohne diese Auswüchse dafür in Kauf nehmen zu müssen. Wir stehen jetzt vor derselben Frage.
Dr. Georg Krause, CEO msg Plaut © RNF
Die Industrialisierung wird gerne mit der Digitalisierung verglichen. Sind sich diese Entwicklungen wirklich so ähnlich?
Grundsätzlich kann man die Analogie gut heranziehen. Im Detail gibt es natürlich viele Unterschiede. Aber ich sehe auch viele Parallelen. Eines ist wichtig, gerade im Zusammenhang mit EU-Regulierungen wie dem AI-Act: Oft wird gewarnt, dass wir in Europa nicht noch mehr regulieren dürfen. Ich glaube schon, dass wir regulieren müssen, aber eben mit Augenmaß. Auch im Zuge der Industriellen Revolution wurde ja nicht die Innovation abgetötet. Es ging und geht uns nach der Industriellen Revolution viel besser als vorher, und wir profitieren bis heute von den Errungenschaften.
Gleichzeitig haben wir aber eben einen Rahmen geschaffen, in dem wir uns bewegen. Niemand will bei der Digitalisierung die Innovation verhindern, ganz im Gegenteil. Wir wollen Innovation fördern, aber dafür müssen wir einen Rahmen schaffen. Genau das ist der Punkt des Digitalen Humanismus. Er hilft, ein Bewusstsein dafür zu schaffen. Keine Einzelmaßnahmen, sondern ein Gesamtgebäude.
Das ist der Vorteil einer Philosophie, dass es ein Gebäude gibt. Viele Maßnahmen der EU, wie der AI-Act, gehen genau in diese Richtung. Der Digitale Humanismus ist sozusagen das verbindende Element darüber, das Gedankengebäude, das dem zugrunde liegt und das die EU lebt. Denn Humanismus liegt in den Genen der EU, und in den Gründungsdokumenten der EU sind diese Werte auch verankert.
Europa steht im Wettbewerb mit anderen Regionen, wie den USA oder China, die sehr stark in der Digitalisierung sind, ein bisschen anders an das Thema Regulierung herangehen und auch zum Teil andere Wertesysteme vertreten. Können wir mit denen mithalten, wenn wir uns selbst regulieren?
Ich würde das sogar umdrehen. Wir sind im globalen Digitalisierungswettbewerb der großen Regionen inzwischen das Schlusslicht. Die USA dominieren nach wie vor massiv, Asien, und hier vor allem natürlich China, liegt auf Platz zwei und Europa ziemlich abgeschlagen auf Platz drei. Das heißt, wir sind hier nicht in einer Frontrunner-Position, wir sind in einer Nachzüglerposition. Wir müssen wieder auf die Überholspur kommen.
Der Digitale Humanismus ist eine unserer wenigen Chancen, um wieder vorn dabei zu sein. Nicht, um zu überholen, dazu sind wir zu weit hinten, aber um vorn dabei zu sein und wieder bei den Großen mitspielen zu können. Weil wir es dadurch schaffen können, einen neuen, europäischen Weg zu finden, der nachhaltig ist. Wenn wir Dinge entwickeln, die auf den Menschen ausgerichtet sind, ist das ein Vorteil für den mündigen Konsumenten. Der spürt den Unterschied. Das ist für uns in Europa gut, aber auch für Exportzwecke.
Man sieht das beispielsweise auch an der Datenschutzgrundverordnung. Man kann über sie diskutieren, aber sie wird in manchen Staaten, beispielsweise in den USA, mehr oder weniger kopiert. Und auch die KI-Regulierung wird in Amerika derzeit diskutiert. Wir schaffen es hoffentlich wieder, zu einem Vorreiter zu werden, der diese Leitplanken definiert. Wer Standards definiert, kann das meistens auch wirtschaftlich erfolgreich umsetzen. Wenn wir also diese Standards in Europa definieren, haben wir einen Wettbewerbsvorteil gegenüber den anderen Regionen.
Ich glaube, dazu kommt auch noch eine politische Dimension. Durch das Schaffen dieser Prinzipien unterstützen wir auch die europäischen Werte wie Pluralismus, Demokratieverständnis und Ähnliches. Denn natürlich birgt Digitalisierung eine hohe Gefahr des Missbrauchs. Vor allem in China sieht man mit Social Scoring und ähnlichen Dingen Ansätze, die wirklich antidemokratisch sind und die deswegen auch im AI-Act bewusst explizit als verboten deklariert werden.
Also der bürgerzentrierte Ansatz in der Digitalisierung als Alternativmodell, um über den Weg der mündigen Konsumenten in anderen Märkten erfolgreich zu sein?
Zumindest in demokratischen Staaten, ja. Wir haben in der realen Welt seit vielen Jahrzehnten einen Wettstreit der Ideologien, und den haben wir auch in der digitalen Welt, das muss man akzeptieren. Gerade deswegen müssen wir unseren europäischen Weg auch in der digitalen Welt abbilden, sonst übernehmen wir eine andere Ideologie – eine eher kapitalistisch unternehmenszentrierte oder eine staatlich zentrierte.
Solange wir in Europa wirtschaftlich stark genug sind, können wir das auch durchsetzen. Der europäische Markt ist auch für amerikanische und chinesische Unternehmen relevant. Deswegen ist es wichtig, dass wir als Europa zusammen agieren. Solche Prinzipien allein in Österreich durchzusetzen, ist aussichtslos. Aber als Europa haben wir diese Macht.
"Wir beschäftigen uns beim Digitalen Humanismus damit, wie wir dafür sorgen, dass humanistische Werte in der digitalen Welt abgebildet, berücksichtigt und nicht verletzt werden."Dr. Georg Krause, CEO msg Plaut |
Kommen wir von Philosophie und Geopolitik zur Praxis. In dem Buch „Die Praxis des Digitalen Humanismus“, das Sie herausgegeben haben, geht es genau darum. Was sind für Sie die größten Learnings aus den vielen Gesprächen, die sie geführt haben?
Die allermeisten, mit denen ich sprechen durfte, sind sich klar darüber, dass die Abbildung unserer menschlichen Werte in der digitalen Welt unser Ziel sein sollte. Da gibt es wenig Gegenrede. Die Herausforderung ist, wie sie abgebildet werden. Mein Fazit ist, dass viele Unternehmen schon sehr viel tun und ein sehr hohes Bewusstsein dafür entwickelt haben, worauf sie achten sollten und müssen, damit sie diese Werte respektieren.
Die A1-Gruppe zum Beispiel beschäftigt sich sehr intensiv damit, wie sie Diskriminierung im Kundenservicecenter vermeidet – ein Riesenthema bei zigtausend Anrufen jeden Tag. Ein anderes Beispiel ist das Ethik-Board von SAP, das überprüft, ob ihre Anwendungen in kritischen Bereichen verwendet werden können, und dann allenfalls auch gewisse Anwendungen oder Funktionen nicht zulässt, wenn sie gewissen Werten widersprechen. Hier passiert schon sehr viel. Wir wollen mit dem Buch auch anderen Unternehmen Ideen und Impulse liefern, was man alles tun kann und wo man hinschauen soll.
Was wir neben den Beispielen und Role-Models aber auch brauchen, und das war die Idee hinter dem Buch, ist eine Systematik. Wir brauchen eine Herangehensweise, mit der sich dieses Thema organisieren und aufsetzen lässt. Das Buch bietet viele Beispiele, und es gibt auch schon erste Standards. Der wichtigste derzeit ist IEEE 7000 für Value-Based Engineering, also werteorientierte Softwareentwicklung, der inzwischen auch von der ISO-Organisation und von der IEC übernommen wurde.
Es ist wichtig, dass man neben dem Gesamtmanagementbild auch konkrete Tools hat, die man im Unternehmen einsetzen kann. Dieser Standard ist relativ neu, es gibt ihn seit zwei Jahren. Wir haben ein Team entsprechend ausgebildet und sind in einem ersten Projekt dabei, das mit einem Kunden und in direktem Kontakt mit der IEEE-Organisation umzusetzen. Wir sind europaweit unter den ersten Anwendern dieses Standards, lernen jeden Tag dazu und teilen unsere Erkenntnisse mit anderen Interessierten.
Das heißt, der Digitale Humanismus ist quasi die übergeordnete Vision, und es stehen jetzt auch erste Frameworks zur Verfügung, um es Unternehmen zu erleichtern, sich zu orientieren, und damit sie nicht alles neu erfinden müssen?
Genau. Das ist ähnlich wie das Qualitätsmanagement. Dieser Begriff ist vor 20, 30 Jahren sehr groß geworden. Dann sind Normen gefolgt. Es ist wichtig, sich im ersten Schritt des Themas bewusst zu werden und eine eigene Governance in der Organisation aufzusetzen. Die Herausforderung bei der Umsetzung ist, alle diese Dinge gesamthaft zu lösen. Viele Unternehmen betten diese Überlegung in das ESG-Thema ein, das auch vom Digitalen Humanismus betroffen ist. Das ergibt Sinn. Ich glaube nicht, dass es notwendig ist, eine eigene Organisation dafür zu schaffen. Es geht um die Herangehensweise.
Wir sehen aus den ersten Projektphasen bei der Umsetzung des IEEE-7000-Standards, dass das nicht zu einem massiven Mehraufwand führt. Wir führen dieses Projekt mit unserem Kunden Ibis Acam durch, einem der größten Schulungs- und Trainingsanbieter in Österreich. Bei einem Teil der Lösung, die wir entwickeln, wird KI eingesetzt.
Bei der Auswahl des KI-Tools wurden im Sinne des Value-Based Engineering zusätzlich zu den technischen, funktionalen, kommerziellen und sonstigen Kriterien auch ethische Kriterien ergänzt. Ja, das ist ein bisschen Mehraufwand, aber an dieser frühen Stelle im Projekt ist das vernachlässigbar. Und deutlich weniger Aufwand, als wenn man hinterher draufkommt, dass man eine KI-Software ausgewählt hat, die diesen Kriterien nicht entspricht und die man deswegen auswechseln muss.
Manchmal hört man, auch im Zusammenhang mit dem ESG-Thema, von den Unternehmen, dass sie ohnehin schon so viel zu beachten haben. Und jetzt kommt schon wieder etwas dazu.
Da muss man den Unternehmen die Angst nehmen. Das sieht man auch an den Beispielen in dem Buch. Es sind selten Dinge, die einen wesentlichen Mehraufwand verursachen. Aus meiner Sicht ist das Wichtigste, den Blick dafür zu schärfen und sich das Thema bewusst zu machen. Da hilft auch der AI-Act der Europäischen Union, in dem das sehr gut beschrieben ist und in dem man sogar negative Beispiele findet.
Es ist interessant zu beobachten, wie unterschiedlich Digitalisierung – und speziell künstliche Intelligenz – in der Öffentlichkeit wahrgenommen, aber auch über Medien transportiert wird. Einerseits euphorisch als Heilsbringer und dann wieder voller Angst, KI könnte die Weltherrschaft übernehmen, zugespitzt gesagt. Damit werden die Gefühle der Menschen beeinflusst, und das hat wiederum Auswirkungen auf Politik und Co.
Ein ganz zentrales Thema in diesem Zusammenhang, und auch ein Teilaspekt des Digitalen Humanismus, sind die digitalen Kompetenzen. Das ist wahnsinnig wichtig, und ich beschäftige mich seit vielen Jahren damit, auch als Vorstand im Verein fit4internet, wo es um digitale Kompetenzförderung in Österreich geht.
Damit der Digitale Humanismus greifen kann, ist es wichtig, digital kompetente und mündige Bürger zu haben, die diese Dinge beurteilen können. Wenn ein gewisses Grundverständnis und Grundwissen vorhanden sind, sieht man, dass diese Gefahr nicht sehr real ist. Die Demystifizierung der Digitalisierung ist wichtig, damit man sich nicht von solchen Angstgespenstern leiten lässt.
Einerseits gibt es also diese, sagen wir vielleicht, „Hollywood-Risiken“ von Digitalisierung und KI, wie die Übernahme der Weltherrschaft, die objektiv unrealistisch sind. Aber es gibt auch reale Risiken. Welche sind für Sie die größten?
Darauf wird auch im AI-Act eingegangen. Ein großes Risiko ist die massive Beeinflussung von ganzen Bevölkerungsgruppen durch Blasenbildung. Also Echokammern oder Filterblasen, in denen den Leuten selektierte Informationen, womöglich noch vermischt mit Fake News, eingespielt werden. So kann man heutzutage relativ gut und leider auch relativ einfach Menschen sehr stark beeinflussen.
Auf einer höheren Ebene, und auch das ist im AI-Act enthalten, gibt es auch die Gefahr der unterschwelligen Beeinflussung von Menschen, beispielsweise mit Geräuschen, die von KI-Algorithmen entwickelt werden könnten. Da sehe ich ein großes Risiko, nicht für den Einzelnen, aber für die Gesellschaft, dass es zu anti-demokratischen Entwicklungen kommt, die unser Gesellschaftssystem gefährden können.
KI wird auch nicht immer nur in den Händen von wohlwollenden Staaten und Unternehmen liegen. Egal, ob das jetzt im Kriegseinsatz ist oder zur Erstellung von Cyberattacken. Wie schützt man sich dagegen? Da wird man sicher viel Zeit und Geld aufwenden müssen. So, wie man es auch in der physischen Welt tut, mit Geheimdiensten oder dem Militär, wird man auch in der digitalen Welt Einrichtungen benötigen, um sich zu schützen.
Im kleineren Rahmen, auf der wirtschaftlichen Ebene, gibt es eine Menge Themen. Prekarisierung zum Beispiel, wenn Plattformen mit großer Marktmacht dazu genutzt werden, um gewisse Teilnehmer auszubeuten. Ein großes Risiko in jeder Form ist natürlich auch Überwachung. Das kann am Arbeitsplatz sein, an öffentlichen Plätzen, in der Gesellschaft etc. Das sind Riesenthemen, die alle im AI-Act Erwähnung finden.
Sie haben kürzlich in einem Beitrag von einer „digitalen Schwimmweste“ geschrieben. Was hat es mit diesem Begriff auf sich?
Im Gesamtkontext stellt sich die Frage, wie man all diesen Risiken begegnen kann. Meiner Meinung nach gibt es drei Ebenen, und es ist wichtig, auch in der öffentlichen Diskussion, dass man diese drei Ebenen bewusst sieht.
Der äußerste „Ring“, sozusagen, sollte die Regulatorik sein, die den Rahmen vorgibt. Sie soll natürlich nicht zu einschränkend, nicht zu komplex etc. sein, und sie muss Spielräume lassen. Der zweite Ring wäre dann die Selbstverpflichtung von Unternehmen. Egal, ob die Firmen das ESG oder Digitaler Humanismus nennen, geht es dabei um eigene Regeln oder Wertesysteme, die Unternehmen für sich selbst festschreiben. So, wie sie es etwa auch bei Compliance-Themen tun. Die gesetzlichen Anforderungen sind immer die Basis, auf denen aufbauend dann die Konkretisierung in den Unternehmen erfolgt.
Und die dritte Ebene ist die Technologie. Auch die muss man weiter ausbauen und kann man gar nicht hoch genug ansetzen, weil natürlich auch Technologie hilft, viele Probleme zu lösen, beispielsweise bei der Identifizierung von Fake News. Wir werden sehr viel Technologie brauchen, um gewisse Dinge einzudämmen, weil sie vielleicht nicht unseren Gesetzen und Normen entsprechen, oder auch, weil die Normen eine gewisse Bandbreite zulassen. Aus diesen drei Ebenen besteht diese „Schwimmweste“, und wir werden sie brauchen, um uns gut über Wasser zu halten.
Dr. Georg Krause, CEO msg Plaut © RNF
Sie verfolgen bei msg Plaut seit Jahren die Prinzipien des Digitalen Humanismus und setzen sie auch in die Praxis um. Haben Sie Tipps für Unternehmen, die sich noch nicht eingehend damit auseinandergesetzt haben? Wo kann man anfangen?
Wir sind selbst Suchende. Wir haben uns auf den Weg begeben und sind uns dessen sehr bewusst, dass wir nicht am Ziel, sondern auf dem Weg sind. Aber ich glaube, ganz wichtig ist, dass das Thema von ganz oben kommt – den Eigentümern, Vorständen, der Geschäftsführung, den obersten Führungskräften. Die Unternehmensleitung sollte sich damit beschäftigen, weil es um das Bewusstsein und die Umsetzung der eigenen Werte im Unternehmen geht. Ein guter Startpunkt könnte sein, sich das eigene Wertesystem anzuschauen und zu überlegen, wie man es in der digitalen Welt, bei allen internen und externen Digitalisierungsbemühungen, umsetzen kann.
Das Zweite ist, sich einzulesen, um zu verstehen, worum es überhaupt geht, und diese Sichtweise bewusst wahrzunehmen. Es gibt inzwischen sehr viel Literatur dazu, und auch eine der Zielsetzungen unseres Buches war, den Leuten verschiedene Perspektiven und Ideen zu liefern.
Es ist auch wichtig, offen im Unternehmen darüber zu diskutieren. Was mich sehr überrascht hat, als wir begonnen haben, den breiteren Führungskreis mit einzubeziehen, war, dass die meisten von ihnen sich schon mit dem Thema beschäftigt haben. Wir haben offene Türen eingelaufen.
Da können auch unangenehme Fragen aufkommen, denen man sich dann stellen muss und auf die es keine schnellen Antworten gibt. Das Thema ist sehr komplex, gerade wenn es um ethische Fragestellungen geht. Es gibt keine Null/Eins-Antworten, sondern es ist eine Frage des Ermessens und der Einschätzung. Wir haben inzwischen gelernt, dass es wirklich hilfreich ist, intern ein interdisziplinäres Gremium – ein Ethik-Board – aufzusetzen. Sonst ist man verleitet, schnelle Entscheidungen zu treffen, und das ist bei diesen Fragen nicht gut.
Noch eine Empfehlung wäre es, je nachdem, in welchem Bereich man tätig ist, auch in eine entsprechende Ausbildung zu gehen. Wir haben zum Beispiel mit Value-Based Engineering sehr gute Erfahrungen gemacht.
Das Wichtigste ist immer der erste Schritt, sich damit zu beschäftigen und idealerweise mit anderen auszutauschen, die sich schon damit beschäftigt haben. Was wir gemacht haben, ist, dass wir uns die Wirkung unseres Handels einmal nicht durch die kritische, sondern durch die positive Brille angeschaut haben, um zu sehen, welche positiven Auswirkungen wir auf die Gesellschaft haben. Was bewirken die Projekte, die wir mit unseren Kunden umsetzen, im positiven Sinne? Wo haben wir einen positiven Impact auf die Gesellschaft, und worauf sind wir stolz? Dieser positive Zugang hat einiges bewirkt und uns geholfen, anders über unsere Projekte und deren Auswirkungen nachzudenken.
Sehen Sie die Zukunft im Zusammenhang mit der Digitalisierung, trotz aller Herausforderungen und Risiken, optimistisch?
Ich glaube, wir sind in Europa insgesamt auf einem guten Weg. Eine der vier Säulen der EU in der Dekade zwischen 2020 und 2030, der sogenannten digitalen Dekade, ist Digitalisierung. In ihrem Zentrum stehen ganz klar die Prinzipien des Digitalen Humanismus.
Man sieht das an der im Dezember 2022 verabschiedeten „Europäischen Erklärung der digitalen Rechte und Grundsätze“ und auch an der Gesetzgebung der EU der vergangenen Monate und Jahre, wie schon vor längerer Zeit an der DSGVO, an dem Digital Services Act oder jetzt dem EU-AI-Act. Das war relativ dicht, weil jetzt auf den Boden gebracht wird, worüber in den letzten Jahren diskutiert und verhandelt wurde. Die Grundintention geht absolut in die richtige Richtung.
Natürlich kann man darüber diskutieren, ob etwa die DSGVO nicht auch einfacher sein können hätte. Aber nur, weil etwas in der Umsetzung noch nicht perfekt ist, heißt das nicht, dass die Richtung nicht stimmt. Die Herausforderung ist es, die Einflüsse auf Europa von außen, von anderen Philosophien und Weltbildern, an unsere Werte anzupassen – salopp formuliert. Da ist die EU-Regulatorik hilfreich.
Von dem her sehe ich es grundsätzlich positiv, und ich bin vorsichtig optimistisch. Ob es uns gelingt, dadurch wieder nach vorn aufzuschließen? Sagen wir mal so: Ich glaube, es ist momentan die vielversprechendste Option. (RNF)