Künstliche Intelligenz (KI) beschreibt ein System, welches menschliche Fähigkeiten wie Kreativität und Selbstverbesserung nachbildet, so dass es in komplexen, sich verändernden Umgebungen autonom funktionieren kann. In unseren vergangenen Recherchen haben wir die Entwicklungsmöglichkeiten1 und den aktuellen Stand von KI-Anwendungen an den Finanzmärkten2 recherchiert. Wie bei allen anderen Entwicklungen auch, birgt die Anwendung von KI-Systeme auch Gefahren für Anleger und Finanzmärkte.
Der Vorteil bei vielen KI-Systemen ist, dass sich die Systeme selbstständig auf die Suche nach Strukturen und Mustern in Datensätzen machen können und der Anwender die kausalen Zusammenhänge nicht mehr explizit vorgeben muss. Die von einem System gefundenen Zusammenhänge müssen nicht notwendigerweise einer für den Menschen nachvollziehbaren Kausalität entsprechen, können aber dennoch zum gleichen Ergebnis führen. Beispielsweise kann ein KI-System so aufgesetzt werden, dass es einen Hund oder ein Kind erkennt, ohne dass das System weiß, was für einen Menschen ein Hund oder ein Kind ausmacht. Die Tatsache, dass ein KI-System eine Lösung zu einem Problem finden kann, bedeutet nicht automatisch, dass das System die Mechanismen enthält, die in der Praxis erforderlich sind, um die Lösung des Problems zu finden.3
Dies ist aber nicht ausschließlich als Nachteil oder Risiko aufzufassen. Bei bahnbrechenden wissenschaftlichen Erkenntnissen wird häufig zuerst ein Muster identifiziert und erst dann nach den Gründen gesucht. An prominentester Stelle sei hier die Geschichte von Isaac Newton und dem Apfel erwähnt. Zuerst stand die Beobachtung, dass ein Apfel stets senkrecht fällt, und anschließend wurde das Verständnis für Schwerkraft entwickelt.
Stellen wir uns nun einmal ein KI-System vor, welches Muster in Finanzmarktdaten erkennen soll, die auf einen Preisanstieg am Aktienmarkt hinweisen. Je nach Komplexität der Datenmuster, heißt dies nicht notwendigerweise, dass der Anwender die Umstände nachvollziehen kann, die zu steigenden Märkten führen. Dies kann beispielsweise auftreten, wenn die Anzahl der erklärenden Faktoren zu hoch ist und diese aufwendig miteinander verknüpft werden müssen. Zwar mag bekannt sein, wie das KI-System aufgestellt ist, es kann jedoch für den Anwender nicht nachvollziehbar sein, warum ein bestimmtes Ergebnis erzeugt wird. In solchen Fällen spricht man von einer mangelnden Erklärbarkeit eines Systems.4 Der Anwender muss sich dann unabhängig von dem KI-System ein ökonomisches Modell zurechtlegen, warum ein Preisanstieg am Aktienmarkt gegeben der Daten zu erwarten sein. Wegen der mangelnden Erklärbarkeit kann er sich dabei nicht auf die Resultate des Systems berufen.
Erschwerend kann noch hinzukommen, dass die zum Training oder als Anwendung genutzten Daten nicht die notwendigen Informationen beinhalten müssen, um informierte Entscheidungen für zukünftige Preisentwicklungen zu treffen. In solchen Fällen werden Muster in Datensätzen identifiziert, die einem falsch-positivem Ergebnis entsprechen. Auf Grund der mangelnden Erklärbarkeit und gegebener Komplexität kann eine Überprüfung schwer bis unmöglich sein.
In Netzwerken wie Facebook/Instagram, LinkedIn oder Twitter lernen KI-Systeme welche Themen und Meinungen für Nutzer relevant sein können basierend auf dem, was das System über sie gelernt hat. Das System identifiziert anschließend neue Beiträge, denen es eine hohe Wahrscheinlichkeit zuordnet, dass sich die Nutzer dafür interessieren. Durch die Auslegung der Algorithmen können sich die Nutzer in einer Art virtueller Echokammer befinden, in der sie regelmäßig ihre eigene Meinung hören.5 Das Narrativ, dem die Nutzer Glauben schenken, verfestigt sich immer weiter, da die Auswahl an dargestellten Informationen eingeschränkt bzw. verzerrt ist. Es kommt zu einem sogenannten Bestätigungsfehler.6
Da es in den sozialen Medien einen nicht unerheblichen Anteil an falschen oder mindestens irreführenden Informationen gibt, festigen sich so auch angebliche Zusammenhänge, die einer faktischen Überprüfung nicht Stand halten können. Besonders häufig war dieser Prozess während der Covid-19 Pandemie zu beobachten, als es nur wenig verlässliche Informationen gab und sich so virtuelle Echokammern gebildet haben, die zu einer Polarisierung im öffentlichen Meinungsbild geführt haben und auch nach Erscheinen der relevanten Informationen nicht aufgelöst werden konnten.7
Für die Anhänger der klassischen Portfoliotheorie (Mean-Varianz-Optimierung nach Markowitz) und des CAPM (Capital Asset Pricing Model) bieten KI-Systeme neue Wege Anlagestrategien zu erstellen. Da es äußerst anspruchsvoll ist, in einem Datensatz voller Rauschen die relevanten Abhängigkeiten zwischen einzelnen Wertpapieren zu bestimmen, führt einen die klassische Statistik schnell in eine Sackgasse oder liefert fragile Ergebnisse. KI-Systeme bieten hier die Möglichkeit in breiten Datensätzen robuste Abhängigkeiten (bspw. Korrelationen) zu identifizieren, die ansonsten im Rauschen der Daten untergehen würden. Die identifizierten Abhängigkeiten werden anschließend genutzt, um Portfolios nach Markowitz aufzustellen.8
Das entscheidende Problem bei diesem Vorgehen ist nicht der neue Weg der Umsetzung, sondern die Annahme, dass die unterliegende Theorie der richtige Weg sei. Findet ein KI-System einen komplexen Zusammenhang, der für den Menschen nicht ersichtlich ist, kann dieser nicht als Beleg für die zugrundeliegende Annahme der Gültigkeit der Theorie verwendet werden. In der Praxis mag dies gang und gäbe sein, es entspricht aber nicht dem wissenschaftlichen Prinzip der Falsifizierung. So sieht der für Forschung und Anwendung von KI-Systemen bekannte Professor Macros López de Prado, dass künstliche Intelligenz wissenschaftlich gestützt das Finanzwesen beherrschen wird und dadurch Investieren kein Glücksspiel mehr sein wird.9 Diese Erkenntnis kann jedoch nur wahr sein, wenn auch die wissenschaftlichen Erkenntnisse das passende Fundament zum Investieren liefern.
KI-Systeme können Informationen generieren, welche die ökonomischen Narrative der Anwender verstärken. Der so entstandene Bestätigungsfehler kann in systematischen Fehlentscheidungen im Anlageprozess enden. Der Gedanke liegt nicht fern, dass so unbewusst und unbemerkt Risikopositionen eingegangen werden können.
Diese Vorstellung erinnert an die Jahre vor der Finanzkrise, in denen häufig Portfolios anhand der Risikokennzahl Value-at-Risk gesteuert wurden, welches eine Scheinsicherheit erzeugt hat. Dabei hatte die Risikokennzahl in zahlreichen Fällen keine Möglichkeit die damaligen Markteinbrüche der Finanzkrise zu prognostizieren.10 Der Rest ist hinreichend dokumentierte Geschichte.
An anderen Ecken können gar systemische Risiken lauern. Wenn das Entscheiden und Handeln an Finanzmärkten zunehmend in die Hand von künstlicher Intelligenz gerät, werden die verfügbaren Informationen (bspw. Preise) zu einem bedeutenden Anteil selbst von den KI-Systemen durch ihre Empfehlungen und Entscheidungen erzeugt. Da anschließend KI-Systeme mit den Informationen trainiert werden, die bereits unter Mithilfe von KI-Systemen entstanden sind, kann dies in einem selbstverstärkenden Prozess enden. Greg Jensen, CO-CIO der Hedgefonds-Hauses Bridgewater Associates, der selbst KI-Systeme in der Analyse einsetzt, sah dies bereits vor zwei Jahren als realistisches Szenario und eine systemische Gefahr für die kommenden Jahre an.11
Die Geldanlage lebt von dem Vertrauen der Anleger in die Institution, der sie ihr Geld anvertraut haben.12 Es liegt in der Verantwortung der Institutionen zu lernen, mit KI-Systemen umzugehen, relevante Anwendungsbereiche zu finden und die Systeme kontinuierlich zu verbessern. Dabei müssen den Institutionen die Grenzen ihrer KI-Systeme stets bewusst sein. Wird dieser Prozess nicht sorgfältig umgesetzt und überwacht, riskieren die Institutionen das Vertrauen ihrer Anleger. Auch wenn KI-Systeme in diversen Geldhäusern bereits erfolgreich eingesetzt werden, so muss zur Wahrung des Vertrauens der Anleger darauf geachtet werden, nicht der aktuellen Goldgräberstimmung zu verfallen und in einer Welt der Scheinsicherheit zu enden, wie man sie vor der Finanzkrise bereits erlebt hatte.
Neben den beschriebenen Risiken kann und wird im erneuten Zuge der Quantisierung der Anlagewelt künstliche Intelligenz aber auch ein Mittel sein, das Anlegern helfen wird, die auf kaufmännischen Prinzipien beruhenden Investmentansätze weiter zu verbessern.
1 Ebert (2023): “Künstliche Intelligenz – die große Revolution auch in der Finanzbranche?“
2 Siehe Ebert und Immenkötter (2023): „Maschinelles Lernen: gekommen um zu bleiben“
3 Russel und Norvig (2010): “Artificial Intelligence: A Modern Approach“, 3. Edition, Prentice Hall, S.21.
4 Siehe Roscher, et. al (2020): “Explainable Machine Learning for Scientific Insights and Discoveries”, Cornell University.
5 Siehe bspw. Bessi (2016): “Personality traits and echo chambers on facebook” in Computers in Human Behavior 65 oder Boutyline & Willer (2016): “The Social Structure of Political Echo Chambers: Variation in Ideological Homophily in Online Networks” in Political Psychology 38/2.
6 Engl. „confirmation bias“. Zur Erklärung siehe beispielsweise Wikipedia.
7 Modgil (2021): “A Confirmation Bias View on Social Media Induced Polarisation During Covid-19” in Information Systems Frontiers.
8 Siehe bspw. López de Prado (2020): „Machine Learning for Asset Managers”, Elements in Quantitative Finance, Cambridge University Press, UK.
9 López de Prado (2018): “Advances in Financial Machine Learning”, Wiley, USA, S.4.
10 Siehe Beispielsweise Nassim Taleb 1997: https://www.fooledbyrandomness.com/jorion.html
11 Siehe Bridgewater Associates / MIT Sloan Investment Conference (Februar 2021)
12 Siehe Kleinheyer und Mayer (2019): „Geldanlage ist Vertrauenssache“, Flossbach von Storch Research Institute.
Verschiedene Fachbegriffe aus der Welt der Finanzen finden Sie in unserem Glossar erklärt.
RECHTLICHER HINWEIS
Diese Veröffentlichung dient unter anderem als Werbemitteilung.
Die in dieser Veröffentlichung enthaltenen Informationen und zum Ausdruck gebrachten Meinungen geben die Einschätzungen von Flossbach von Storch zum Zeitpunkt der Veröffentlichung wieder und können sich jederzeit ohne vorherige Ankündigung ändern. Angaben zu in die Zukunft gerichteten Aussagen spiegeln die Zukunftserwartung von Flossbach von Storch wider, können aber erheblich von den tatsächlichen Entwicklungen und Ergebnissen abweichen. Für die Richtigkeit und Vollständigkeit kann keine Gewähr übernommen werden. Der Wert jedes Investments kann sinken oder steigen und Sie erhalten möglicherweise nicht den investierten Geldbetrag zurück.
Mit dieser Veröffentlichung wird kein Angebot zum Verkauf, Kauf oder zur Zeichnung von Wertpapieren oder sonstigen Titeln unterbreitet. Die enthaltenen Informationen und Einschätzungen stellen keine Anlageberatung oder sonstige Empfehlung dar. Sie ersetzen unter anderem keine individuelle Anlageberatung.
Diese Veröffentlichung unterliegt urheber-, marken- und gewerblichen Schutzrechten. Eine Vervielfältigung, Verbreitung, Bereithaltung zum Abruf oder Online-Zugänglichmachung (Übernahme in andere Webseite) der Veröffentlichung ganz oder teilweise, in veränderter oder unveränderter Form ist nur nach vorheriger schriftlicher Zustimmung von Flossbach von Storch zulässig.
Angaben zu historischen Wertentwicklungen sind kein Indikator für zukünftige Wertentwicklungen.
© 2024 Flossbach von Storch. Alle Rechte vorbehalten.