10.11.2023
Technologie hat in den letzten Jahren große Sprünge gemacht. Sie beeinflusst und berührt immer mehr Lebensbereiche. Über digitalen Humanismus und europäische Werte als wertvolles Gut in der IT-Welt spricht Georg Krause, Geschäftsführer von msg Plaut.
Welche Veränderungen und damit auch Herausforderungen entstehen durch das Wachstum von Informationstechnologie in unserer Gesellschaft?
Georg Krause: Es gibt die Aussage, dass Technologie vor einigen Jahrzehnten noch werteneutral war. Wenn ich mit einer Buchhaltungssoftware Abläufe automatisiere, verändert das typischerweise nicht das Wertesystem von Menschen. Es hat keinen dramatischen Einfluss auf unser Leben. In den letzten Jahren hat sich hier etwas verändert – Technologie rückt immer näher an den Menschen und nimmt auf ihn Einfluss. Es ist nicht werteneutral, wenn beispielsweise Algorithmen über den Erhalt von Informationen in Social-Media-Kanälen entscheiden. Im beruflichen Umfeld können sich die Möglichkeiten von Technologie auf Kontroll- und Überwachungsthemen auswirken. Oder Technologielösungen erlauben, massenhaft private Daten zu sammeln.
Humanismus hat sich über eine lange Zeit von Jahrhunderten in Europa entwickelt. Er stellt die Würde des Menschen in den Mittelpunkt. Das sollte auch in der digitalen Welt gelten. Wir sehen, dass Länder wie die USA und China von anderen Werten und Ideologien geprägt sind. Diese finden aber weltweit in Apps und datenbasierten Services Einzug. Das passt nicht zu unseren europäischen Wertevorstellungen. Daher ist es ein Gebot der Stunde, dass wir die Art und Weise, wie wir unsere Gesellschaft gestalten, nicht anderen überlassen.
Sie sprechen hier auch von Vertrauen in Technologie?
Krause: Wir sind als Konsument*innen und Bürger*innen gewohnt, in einer sehr sicheren Umgebung zu leben. Wir können davon ausgehen, dass uns der Staat nicht verfolgt, dass wir ein faires und gut funktionierendes Gesundheitssystem haben, es Sicherheit im öffentlichen Raum gibt. Dieses Vertrauen ist Teil unserer Lebensqualität und unserer Kultur in Europa – und wir müssen diese Selbstverständlichkeit nun auch im digitalen Raum anstreben.
Sind das Überlegungen, die von Unternehmen und der Verwaltung in Projekten mit der IT-Branche eingefordert werden? Oder bringen Sie diese Themen aktiv zu Ihren Kund*innen?
Krause: Beides ist der Fall, man muss hier aber unterscheiden: Der Begriff digitaler Humanismus ist noch nicht stark verbreitet. Die Ausprägungen davon sind es sehr wohl. Das beginnt auf EU-Ebene im Rahmen der »digitalen Dekade«, in der digitale Rechte und Grundsätze für Europa festgelegt worden sind. Sehr konkret ist das Thema natürlich auch bei Unternehmen, die sich mit künstlicher Intelligenz – etwa in Chatbots angewendet – beschäftigen. So setzt sich zum Beispiel das Unternehmen A1 intensiv mit dem Thema »Bias« (Anm. Voreingenommenheit) bei seinen Lösungen und Services auseinander. Man möchte sicherstellen, dass Anrufe im Call Center diskriminierungsfrei serviciert werden. Und es gibt viele weitere Beispiele in der Wirtschaft. Und ich bin mir sicher, dass der Begriff wie ein Gütesiegel in Europa sein wird. Menschen werden sich so auf Services im Digitalen ebenso verlassen können, wie sie es hinsichtlich Konsumentenschutz und Bürgerrechten in der physischen, realen Welt gewohnt sind.
Welche möglichen Ausprägungen gibt es aufgrund von diskriminierenden Prozessen bei Produkten oder Services? Wo sehen Sie konkret Gefahren im Alltag?
Krause: In erster Linie widersprechen auch Monopole in der digitalen Welt den Prinzipien des Humanismus – insbesondere, wenn diese zum Missbrauch einer Marktmacht führen. Denken Sie nur an marktdominierende Plattformen, die Lieferanten und Partner ausbeuten. Ein anderes Beispiel ist das Thema Datenmissbrauch, wenn Daten ohne Zustimmung und Kenntnis der User zur Kommerzialisierung oder noch Schlimmeren verwendet werden. Dann auch Manipulation, gezielte Einflussnahme etwa auf Wahlen – eines der ersten medial sehr präsenten Beispiele war Cambridge Analytica. Es gibt aber Manipulation auch im Kleinen, wenn mit Algorithmen bewusst auf Plattformen wie TikTok ein Konsum-Suchtverhalten bei jüngeren Nutzern provoziert wird. Eine Steigerung all dieser Manipulationen ist dann die wachsende Flut an Fake News, die ja stets mit einem Ziel in Umlauf gebracht werden. Wir sehen aktuell Technologien die – Stichwort »Untrustworthy AI« – nichtbelegbare Inhalte produzierten, bei ChatGPT spricht man von Halluzinationen. Allgemein geht unser Sicherheitsgefühl verloren, wenn wir uns nicht mehr auf Anwendungen im Alltag verlassen können.
Ich sehe die Möglichkeiten mit IT zur Überwachung besonders kritisch. Dort, wo sie sinnvoll, gesellschaftlich und rechtlich zulässig ist, nutzen wir Überwachungstechnik bereits seit Jahren. Durch den Hebel der Digitalisierung hat Überwachung aber insbesondere durch Staaten enorm zugenommen, zur Spitze wird das mit Social Scoring in Asien getrieben. Es gibt aber auch Unternehmen, die ihre Mitarbeitenden auf Schritt und Tritt im Arbeitsalltag monitoren. Wir haben schon Systeme gesehen, die die durchschnittliche Antwortgeschwindigkeit von Nutzer*innen bei E-Mails vergleichen. Das alles sind große Themen, die bei Beachtung der Prinzipien eines digitalen Humanismus vermieden werden können. Die IT ist politisch geworden.
Sehen Sie die Notwendigkeit einer stärkeren Regulierung der Branche und eines klaren Rechtsrahmens etwa bei KI? Welche Probleme können daraus ergeben?
Krause: Wenn in einer Gesellschaft Umbrüche entstehen, braucht es einen Rahmen für Neues – das wird immer so sein. Eine Regulierung soll aber immer verhältnismäßig sein, wir müssen eine gute Balance finden. Es darf nicht passieren, dass wir durch Regulierung unsere Innovationsfähigkeit in Europa einschränken. So bietet die Datenschutzgrundverordnung über weite Strecken sehr klare, sinnvolle Richtlinien, ist teilweise aber überbordend.
Auch ist manche Regulierung gar nicht notwendig, wenn wir über technische Lösungen verfügen, um Missbrauch zu erkennen. So überprüfen wir mit einem Tool unseres Partners Aleph Alpha Lösungen auf die Einhaltung der von der EU formulierten Prinzipien fairer und transparenter KI. Es werden auch abgegrenzte Räume außerhalb geltender Rechtsrahmen sinnvoll sein, um neue Technologien und Produkte in einem geschützten Rahmen ausprobieren zu können.
Ein schönes Beispiel ist auch Gaia-X, das eine technische und wirtschaftliche Grundlage in Europa bildet, um Daten im großen Stil anonymisiert und sicher anderen zur Verfügung stellen zu können. Wir werden Riesenmengen an Daten brauchen, um IT-Systeme zu trainieren und Innovation im KI-Umfeld zu ermöglichen.
Sehen Sie sich und Ihre Mitarbeiterinnen und Mitarbeiter hier in einer besonderen Verantwortung gegenüber ihren Kunden in der Wirtschaft und der Verwaltung?
Krause: Auf jeden Fall. Jedes einzelne Unternehmen hat die Verantwortung, auf diese Prinzipien zu achten. msg Plaut ist für viele Unternehmen und Organisationen tätig, deshalb multipliziert sich diese Verantwortung klarerweise. Unser Ziel ist, unsere Kundinnen und Kunden auf kritische Fragen in Projekten aufmerksam zu machen. Je früher die Risiken in einem Setup erkannt werden, desto besser finden wir die richtige Balance. Wir haben begonnen, standardisierte Prozesse aufzusetzen und ein Ethik Board einzurichten. Denn ethische Fragestellungen sind selten trivial – es ist immer ein Abwägen. Ein erstes Team bei msg Plaut ist nun geschult worden, Projekte so umsetzen zu können, dass diese nach ethischen Fragestellungen bei Projekt- und Softwareentwicklung zertifiziert werden (Anm. ISO/IEC/IEEE 24748-7000).
Ist das für jüngere Generationen am Arbeitsmarkt wichtig?
Krause: Viele junge Menschen wählen heute ihren Arbeitgeber anhand von gelebten Werten, die nicht nur die Höhe des Lohns betreffen. »Purpose« gewinnt an Bedeutung. Trotz unserer Größe von über 10.000 Mitarbeitenden sind wir ein eigentümergeführtes Unternehmen, nicht börsennotiert, und können langfristig denken und agieren. Das Thema des digitalen Humanismus passt gut zu uns, es ist fast genetisch.
Erschienen: report.at, 6.11.2023