von Jan-Sebastian Möller
von Jan-Sebastian Möller

KI-Anwendungen nehmen Menschen immer öfter Entscheidungen ab. Doch das Misstrauen in Künstliche Intelligenz ist durch verschiedene Vorfälle bereits sehr hoch. Für eine breite Akzeptanz der Technologie müssen Entwickler:innen von KI-Systemen das Vertrauen wiederherstellen. Denn nur, wenn wir uns sicher seien können, dass KI-Anwendungen unvoreingenommen sind und sensibel mit unseren Daten umgehen, lässt sich künftig eine breite Nutzung schaffen. Wir sagen Ihnen, wie wir KI-Anwendungen vertrauen können und welche Chancen sich daraus für Unternehmen ergeben.

KI-Anwendungen können fremdenfeindliche oder diskriminierende Ansichten beinhalten

Anwendungen künstlicher Intelligenz gehören längst zum Alltag. Algorithmen entscheiden über Kredite, führen Bewerbungsverfahren durch, erkennen Krankheiten und identifizieren Verdächtige. Allerdings gibt es immer wieder Fälle, bei denen KI-Anwendungen Menschen aus den verschiedensten Gründen diskriminieren. Das Problem sind die Daten, anhand derer die Algorithmen lernen. Ist die Datenbasis bereits vorurteilsbeladen, manifestiert sich dies in den Entscheidungen der KI. Denn KI-Anwendungen können bewusst oder unbewusst fremdenfeindliche oder diskriminierende Ansichten durch die Programmierer:innen beinhalten.

Um eine Diskriminierung der Nutzer:innen durch KI-Systeme zu verhindern, müssen die Entwickler ihre Programme von unabhängigen Stellen kontrollieren lassen. Eine firmeninterne Ethikkommission oder externe Berater:innen kommen hier zum Einsatz. Gleiches gilt für den Datenbestand zum maschinellen Lernen. Auch hier ist eine genaue Prüfung von vorneherein essentiell. Doch neben den Datenbanken müssen auch die Softwareentwickler:innen, die die Algorithmen erstellen, ethische und moralische Grundsätze berücksichtigen.

Unsere Kinder erwarten in Zukunft eine vorurteilsfreie Technik, der sie vertrauen können.


Vorurteilsfreie KI: Das sind die wichtigsten Treiber

Die gegenwärtige KI-Skepsis ist ein starker Treiber, der für eine höhere Sensibilität bei der Entwicklung von KI-Anwendungen sorgt. Schon jetzt hinterfragen Nutzer:innen die zugrundeliegenden Mechanismen von KI-Systemen in der Alltagsanwendung. Sie üben beispielsweise Kritik an den Resultaten von digitalen Assistenten und verlangen Aufklärung. Diese Haltung übertragen sie auch auf ihre Kinder, die sogenannten AI Alphas. Dabei handelt es sich um die Generation, die mit KI wie selbstverständlich aufwächst. Die Kinder und Neugeborenen von heute erwarten in Zukunft eine vorurteilsfreie Technik, der sie vertrauen können.

Auch die Forschung spielt eine wichtige Rolle bei der Verbreitung vertrauenswürdiger KI-Systeme. Denn Kritiker warnen schon lange vor den negativen Auswirkungen, die KI-Anwendungen haben können. An Universitäten, in Thinktanks und unter Regierungsberatern versuchen Wissenschaftler:innen, den Herausforderungen einer Black Box zu begegnen.

Wenn Nutzer:innen in Algorithmen vertrauen können, weil sie richtige Ergebnisse liefern, steigt die Kundenbasis.


Unternehmen tragen eine Mitverantwortung für Entscheidungen durch KI

Zwar stehen die Entwickler von KI-Anwendungen vor der Aufgabe, ihre Anwendungen vertrauenswürdiger zu designen. Doch auch Unternehmen, die Programme mit Künstlicher Intelligenz einsetzen, tragen eine Mitverantwortung für einen vertrauensvollen Umgang. Wenn KI-Anwendungen beispielsweise Kredite an Gründer:innen verweigern, ohne den gesamten Kontext der Unternehmensplanung zu berücksichtigen, leidet nicht nur der Ruf des Finanzdienstleisters, sondern auch seine Profitabilität. Erst, wenn Nutzer:innen in die Algorithmen vertrauen können, weil sie richtige Ergebnisse liefern, steigt die Kundenbasis.

Noch gravierendere Auswirkungen können falsche Entscheidungen durch KI in der Medizin und allgemein im Gesundheitsbreich haben. Denn Patient:innen, Ärzt:innen und Pflegepersonal bilden ein hochsensibles Umfeld. Mangelhaftes Datenmaterial führt zu Fehldiagnosen und kann gar tödliche Folgen haben. Eine vertrauenswürdige KI, die Ärzt:innen bei ihren Entscheidungen unterstützt und sämtliche Gegebenheiten berücksichtigt, kann hingegen zu einer echten personalisierten Behandlung von Patient:innen führen.

AI Trustability und weitere Trends auf einem Blick in unserer Mega-Trend-Map

AI Trustability ist einer von insgesamt 120 Macro-Trends aus unserem aktuellen Trenduniversum, das sich übergreifend in 17 Mega-Trends unterteilt. Mit unserer kostenfreien Mega-Trand-Map erhalten Sie eine Übersicht unseres gesamten Trenduniversums, inklusive Erläuterungen und Einschätzungen zur Mainstream-Adaption durch unsere Analyst:innen.

Expert:in

Ist davon überzeugt, dass technologiegetriebene Innovation und ein stärkeres Bewusstsein für unsere Umwelt nicht im Widerspruch zueinander stehen, sondern sich wechselseitig ergänzen.

Jan-Sebastian Möller

newsletter

Über innovative Micro-Trends, informative Hintergrundstories, digitale Innovationstools
und kostenlose Webinare & Trend-Termine informieren wir Sie einmal im Monat per Newsletter

Weitere Artikel

>