Pictet Asset Management

Die Deepfake-Spürnasen

3. Juni 2024 (Anzeige)

Raffinierte Deepfake-Betrügereien stellen die Cybersicherheitsbranche vor große Herausforderungen – eröffnen aber auch große Chancen.

2024 wird das größte Wahljahr der Geschichte, in dem vier Milliarden Menschen zur Wahlurne schreiten werden. Fatalerweise verbreiten sich parallel zum Superwahljahr immer häufiger KI-gestützte Deepfakes, die Falschinformationen streuen könnten, um Wähler zu beeinflussen.

Deepfakes sind eine Art synthetische Medien, die das Abbild einer Person mit Hilfe einer als Deep Learning bezeichneten KI-Technik reproduzieren. Für ihre Erstellung wird ein ML-Modell (maschinelles Lernen) mit einem großen Datenbestand von Bildern oder Videos einer Person, wie zum Beispiel einem politischen Kandidaten oder einem Firmenchef, trainiert, um ihre einzigartigen Merkmale zu lernen und zu duplizieren. Je mehr Daten verfügbar sind, desto realistischer ist die Fälschung, weshalb auch Politiker und Prominente zu den am meisten gefährdeten Personen gehören. Mit steigendem Risiko von Deepfakes steigt auch die Nachfrage nach Investitionen in moderne Cybersicherheit. 

In der Slowakei wurde letztes Jahr eine gefälschte Tonaufnahme eines Wahlkandidaten veröffentlicht, in der er über Möglichkeiten der Wahlmanipulation diskutierte, und das 48 Stunden vor Öffnung der Wahllokale – in dieser kurzen Zeit konnte der Deepfake nicht entlarvt werden. Und in Bangladesch kursierte am Wahltag im Januar ein von KI erstelltes Video, in dem ein unabhängiger Kandidat seinen Rückzug von der Wahl ankündigte. Im selben Monat erhielten US-Wähler computergesteuerte Telefonanrufe, sogenannte Robocalls, die die Stimme von US-Präsident Joe Biden imitierten und sie aufforderten, nicht an den Vorwahlen des Bundesstaates teilzunehmen. Politiker in den USA haben erkannt, dass dringend investiert werden muss. Als im Jahr 2020 400 Mio. US-Dollar für die Wahlsicherheit bereitgestellt wurden, räumten viele staatliche Vertreter der Cybersicherheit in ihren Zuschussanträgen ausdrücklich Priorität ein.

Deepfakes gibt es nicht nur in der Politik. Einer Umfrage zufolge gehen 66% der Cybersicherheitsexperten davon aus, dass im Jahr 2022 Deepfakes als Teil eines Cyberangriffs eingesetzt wurden.1 Im selben Jahr waren 26% der kleinen Unternehmen und 38% der großen Unternehmen Ziel von KI-generiertem Identitätsbetrug.2 Ein Unternehmen verlor kürzlich 25,6 Mio. US-Dollar durch einen Betrug, bei dem ein gefälschtes Video den Finanzchef des Unternehmens zeigte, wie er von einem Mitarbeiter Geld forderte. 

Insgesamt ist das Volumen gefälschter Online-Inhalte in nur einem Jahr, zwischen 2019 und 2020, um 900% gestiegen.3 Im Jahr 2026 könnte die überwiegende Mehrheit des Online-Content synthetisch generiert werden, was die Unterscheidung zwischen authentischen und betrügerischen, von KI generierten Inhalten erschweren wird.

„Die generative Funktionalität wird von Tag zu Tag besser, sodass auch die Deepfakes immer besser und realistischer werden“, sagt Ilke Demir, Forschungswissenschaftlerin bei Intel Studios. Unternehmen investieren verstärkt in Cybersicherheitstechnologien, um Bedrohungsakteuren einen Schritt voraus zu sein. Im Jahr 2022 floss durchschnittlich ein Zehntel der IT-Ausgaben in die Cybersicherheit.4 Diese Nachfrage hat nach Angaben der Unternehmensberatung McKinsey einen Markt mit einem Volumen von 2 Bio. US-Dollar für Cybersicherheitsanbieter geschaffen.

Deepfake-Abwehr

Doch Cyberkriminelle tun alles dafür, um wieder die Oberhand zu gewinnen. „Es ist ein Katz- und Mausspiel, und im Moment werden deutlich mehr Ressourcen in die Entwicklung neuer Formen generativer Inhalte gesteckt als in die Entwicklung robuster Erkennungstechniken“, sagt Henry Ajder, Consultingexperte für Deepfakes und KI.

Die Tools zur Erkennung von Deepfakes werden ständig weiterentwickelt und an neue Kontexte angepasst. Zum Beispiel wurden viele von ihnen traditionell mit Daten aus westlichen Ländern trainiert. Nun hat die Polizei in Südkorea im Vorfeld der Wahlen eine Software entwickelt, die mit koreanischen Daten angelernt wurde. Dieses Tool gleicht mithilfe von KI potenzielle Fakes mit bestehenden Inhalten ab, um festzustellen, ob diese mit Deepfake-Techniken manipuliert wurden. Die Trefferquote soll bei 80 Prozent liegen.

Viele Tools zur Erkennung von Deepfakes basieren auf diesem Ansatz und sind darauf ausgelegt, kleine Ungereimtheiten in Audio- und Videodateien zu erkennen, um sie als manipuliert zu identifizieren. Eine der bisher effektivsten Techniken verfolgt jedoch genau den entgegengesetzten Ansatz und leitet von echtem Videomaterial einzigartige Merkmale ab, die Deepfakes nicht abbilden können. Der „FakeCatcher“ von Intel ist ein marktführendes Tool, das gefälschte Bilder von Menschen mithilfe der Photoplethysmographie (PPG) identifiziert, einer Technik, die Veränderungen des Blutflusses im Gesicht erkennt. „Wenn das Herz Blut in die Venen pumpt, ändern die Venen ihre Farbe“, sagt Ilke Demir, die die Idee dazu hatte. „Das ist mit bloßem Auge nicht sichtbar, dafür aber maschinell.“ 

Die Software sammelt PPG-Signale von allen Stellen des Gesichts und erstellt aus den räumlichen und zeitlichen Merkmalen dieser Signale Karten. Diese Karten werden verwendet, um ein neuronales Netz zu trainieren, das Videos als echt oder gefälscht einstuft. Der Vorteil dieser Software ist laut Dr. Demir, dass PPG-Signale nicht dupliziert werden können. „Es gibt keine Möglichkeit, sie in ein generatives Modell zu integrieren und zu versuchen, es damit zu trainieren“, sagt sie. „Deshalb ist FakeCatcher so robust.“

FakeCatcher hat eine Trefferquote von 96 Prozent. Der britische Fernsehsender BBC testete die Technologie an gefälschtem und an echtem Filmmaterial – mit dem Ergebnis, dass alle Fake-Videos bis auf eins erkannt wurden. Allerdings gab es auch einige falsche Treffer, bei denen echte Videos als Fälschungen identifiziert wurden, weil sie unscharf waren oder die Personen von der Seite gefilmt wurden. „Wir versuchen, so viele interpretierbare Ergebnisse wie möglich zu liefern“, sagt Dr. Demir. „Der Nutzer des Systems sollte durch Prüfung der verschiedenen Signale die endgültige Entscheidung treffen.“

Ajder sagt, dass jeder Ansatz zur Deepfake-Erkennung Vor- und Nachteile hat. Er sieht vielversprechende Möglichkeiten in der Initiative der Coalition for Content Provenance and Authenticity (C2PA), einer Art digitaler Signatur, die von Unternehmen wie Google, Intel und Microsoft unterstützt wird. „Es gibt Technologien, mit denen auf kryptografisch sichere Weise Metadaten angehängt werden können, die Aufschluss darüber geben, wie Medieninhalte erstellt und welche Tools verwendet wurden“, sagt er. „Das ist bei weitem der beste Ansatz für die Sicherheit, aber es ist eine Mammutaufgabe.“

Die C2PA arbeitet an einem Standard für das Anhängen von Inhaltsurhebernachweisen. „Der Druck, solche Technologien einzusetzen, nimmt definitiv zu“, sagt Ajder. „Wenn es keine breite Zusammenarbeit und Abstimmung gibt, insbesondere zwischen den großen Unternehmen, werden wir am Ende zu viele verschiedene Authentifizierungsprodukte und -plattformen haben, die den Nutzern das Leben schwer machen.“

Dieser Ansatz hat zwar Vorteile, könnte aber auch ethische Probleme hinsichtlich des Datenschutzes aufwerfen. Es gibt Bedenken, dass der Standard zu viele Daten über die Herkunft des Bildes preisgibt, zum Beispiel den Ort oder den Zeitpunkt der Aufnahme. Dies könnte beispielsweise im Kontext einer Menschenrechtsorganisation ein Risiko darstellen. 

Ajder fügt hinzu, dass Technologie allein das Deepfake-Problem niemals vollständig lösen kann und dass alle Nutzer eine kritischere Haltung gegenüber den von ihnen konsumierten Medien einnehmen müssen. „Wir müssen unser Verbraucherverhalten ändern und dürfen nicht mehr alles glauben, was wir sehen. Vielmehr müssen wir auf Inhaltsurhebernachweise achten und brauchen eine zusätzliche Authentifizierungsebene“, sagt er. „Das ist eine große Sache.“

1 VMware Inc, „Global incident response threat report“, 2022

2 Regula, „The state of identity verification in 2023“

3 Sentinel, „Deepfakes 2020: the tipping point“

4 Ians, Artico, „Security budget benchmark summary report 2022“

Einblicke für Investoren

Von Yves Kramer, Senior Investment Manager, Themenaktien, Pictet Asset Management

KI und generative KI können anfällig für Cyberangriffe, Datenschutzverletzungen und schädliche Datenmanipulationen sein. Das wiederum befeuert die Nachfrage nach immer fortschrittlicheren Präventionsmaßnahmen. Laut Gartner werden die Ausgaben für Cybersicherheit in diesem Jahr voraussichtlich um etwa 14% steigen. Da KI in immer mehr Bereiche vordringt, dürfte sich das Wachstum nach unserem Dafürhalten in Zukunft beschleunigen. Mangelnde Sicherheit kann das Vertrauen der Kunden in den Schutz sensibler Daten beschädigen, der Verbreitung von Ransomware Vorschub leisten und den Geschäftsbetrieb empfindlich stören.

Zero-Trust-Lösungen dürften zum Maß aller Dinge werden. Sie überprüfen ununterbrochen die Anmeldedaten von Personen, die mit dem Unternehmen interagieren, sowohl intern als auch extern. Wir erwarten auch ein Wachstum bei Secure Access Service Edge (SASE), einer für die Cloud konzipierten Technologie, die softwaredefinierte Netzwerkfunktionen mit Netzwerksicherheit zusammenführt und durch die Überwachung der Identität und des Nutzerverhaltens kontinuierliche Richtlinienänderungen vornimmt. Da SASE auf Zero Trust aufbaut, ist dies eine Kernkomponente des Systems.

Generative KI kann ebenfalls Teil der Lösung sein, da die Cybersicherheitsbranche Large Language Models (LLMs) so anpasst, dass Angriffe schneller erkannt und potenzielle Bedrohungen durch Schadcode, der von anderen Maschinen geschrieben wird, abgewehrt werden.  Hierin sehen wir eine Chance – sowohl für die Sicherheitsbranche als auch für Investoren. Für Cybersicherheitsunternehmen, die in der Lage sind, KI in die digitale Abwehr zu integrieren, sind die Wachstumsaussichten in den kommenden Jahren positiv. Das gilt insbesondere für die Unternehmen, die vorrangig in Infrastruktur investieren, sowie für diejenigen, die spezielle Sicherheitssoftware und -anwendungen entwickeln. 

Von Economist Impact in Zusammenarbeit mit mega von Pictet

 

Disclaimer

Diese Marketingunterlage wird von Pictet Asset Management (Europe) S.A. herausgegeben. Sie ist nicht für die Verteilung an oder die Verwendung durch Personen oder Einheiten bestimmt, die die Staatsangehörigkeit oder den Wohn- oder Geschäftssitz oder das Domizil in einem Ort, Staat, Land oder Gerichtskreis haben, in denen eine solche Verteilung, Veröffentlichung, Bereitstellung oder Verwendung gegen Gesetze oder andere Bestimmungen verstößt. Vor Tätigung einer Anlage muss die neuste Version des Fondsprospekts, der Vorvertragliche Informationen falls zutreffend, des Basisinformationsblatts, des Jahres- und des Halbjahresberichts gelesen werden. Diese Unterlagen sind auf Englisch kostenlos unter www.assetmanagement.pictet oder auf Papier bei Pictet Asset Management (Europe) S.A., 6B, rue du Fort Niedergruenewald, L-2226 Luxemburg, oder in der Geschäftsstelle des Lokalver-treters, Vertriebsträgers oder gegebenenfalls des Zentralvertreters des Fonds erhältlich. Das Basisinformationsblatt liegt auch in der lokalen Sprache des jeweiligen Landes vor, in dem der Teilfonds zugelassen ist.  Der Prospekt, die Vorvertragliche Informationen falls zutreffend und der Jahres- und Halbjahresbericht können auch in anderen Sprachen vorliegen. Bitte prüfen Sie auf der Website nach, welche weiteren Sprachen verfügbar sind.  Nur die jeweils neuste Fassung dieser Unterlagen kann als Basis für Anlageent-scheidungen dienen.

Die Zusammenfassung der Anlegerrechte (in Englisch und in den verschiedenen Sprachen unserer Website) finden Sie hier und auf www.assetmanagement.pictet unter der Rubrik “Ressourcen“ am Ende der Seite.

Die Liste der Länder, in denen der Fonds zugelassen ist, ist jederzeit bei Pictet Asset Management (Europe) S.A. erhältlich, die jederzeit beschließen kann, die Vermarktung des Fonds oder der Teilfonds des Fonds in einem bestimmten Land zu beenden.

Die im vorliegenden Dokument enthaltenen Informationen und Daten stellen in keinem Fall ein Kauf- oder Verkaufsangebot oder eine Aufforderung zur Zeichnung von Wertpapieren oder Finanzinstrumenten oder Finanzdienstleistungen dar.

Im Übrigen spiegeln die hier wiedergegebenen Informationen, Meinungen und Schätzungen eine Beurteilung zum Veröffentlichungsdatum wider und können ohne besondere Benachrichtigung geändert werden. Pictet Asset Management (Europe) S.A. bietet keinerlei Gewähr, dass die in dieser Marketing-Unterlage erwähnten Wertpapiere sich für einen bestimmten Investor eignen. Diese Unterlage kann nicht als Ersatz einer unabhängigen Beurteilung dienen. Die steuerliche Behandlung hängt von der Situation der einzelnen Investoren ab und kann sich im Laufe der Zeit ändern. Jeder Anleger sollte unter Berücksichtigung seiner Anlageziele und seiner finanziellen Lage vor jeder Anlageentscheidung prüfen, ob die Anlage für ihn geeignet ist und er über ausreichende Finanzkenntnisse und Erfahrung dafür verfügt oder ob eine professionelle Beratung erforderlich ist.

Der Wert und die Erträge der in dieser Unterlage erwähnten Wertpapiere und Finanzinstrumente können sinken oder steigen. Folglich laufen Anleger die Gefahr, dass sie weniger zurück erhalten, als sie ursprünglich investiert haben. 

Diese Anlagerichtlinien sind interne Festlegungen, die jederzeit und ohne vorherige Ankündigung in den Grenzen des Fondsprospekts geändert werden können. Die genannten Finanzinstrumente werden nur zu Illustrationszwecken herangezogen und verstehen sich weder als direktes Angebot noch als Anlageempfehlung oder -beratung. Der Hinweis auf ein bestimmtes Wertpapier stellt keine Empfehlung zum Kauf oder Verkauf dieses Wertpapiers dar. Die effektiven Allokationen unterliegen Änderungen und könnten sich seit dem Datum des Marketingmaterials geändert haben.

In der Vergangenheit erzielte Resultate geben keine zuverlässigen Anhaltspunkte über die zukünftige Entwicklung. Bei der Zeichnung oder Rücknahme belastete Provisionen/Kommissionen und Gebühren sind nicht in der Performance enthalten. 

Sämtliche hier erwähnten Indexdaten bleiben Eigentum des Datenanbieters. Die Haftungsausschlüsse der Datenanbieter (Data Vendor Disclaimers) finden Sie auf www.assetmanagement.pictet unter „Wissenswertes“ im Fußzeilenbereich der Internetseite. 

Diese Unterlage ist eine von Pictet Asset Management herausgegebene Marketing-Mitteilung und liegt ausserhalb des Anwendungsbereichs der MiFID-II- bzw. MiFIR-Anforderungen zur Wertpapieranalyse. Sie enthält nicht ausreichend Informationen, um als Grundlage für Anlageentscheidungen oder für die Einschätzung der Vorteile einer Anlage in von Pictet Asset Management angebotenen bzw. vertriebenen Produkten oder Dienstleistungen zu dienen. 

Pictet AM hat weder die Rechte noch die Lizenz zur Wiedergabe der Handelsmarken, Logos oder Bilder erworben, die in diesem Dokument dargestellt sind, aber sie hat das Recht, Handelsmarken aller Gesellschaften der Pictet-Gruppe zu verwenden. Nur zu Illustrationszwecken.

Im Rahmen ihres Angebots im Bereich nachhaltige Finanzanlagen verwendet Pictet Asset Management („Pictet“) die Logos, die Symbole und den Farbkreis der SDGs als Illustrationen, um die nachhaltigen Ziele des Unternehmens zu fördern. Die Logos, die Symbole und der Farbkreis der SDGs sind und bleiben geistiges Eigentum der Vereinten Nationen. Die Vereinten Nationen sind in keiner Weise mit Pictet verbunden. Dieses Dokument enthält bestimmte künstlerische oder gestalterische Elemente, für die urheberrechtlich geschütztes Material nur zu Illustrationszwecken verwendet werden darf. Die Inhalte oder Daten hinter den Logos, den Symbolen und dem Farbkreis der SDGs wurden von den Vereinten Nationen nicht bestätigt. Die von Pictet zusammengestellten Inhalte und Daten sollen der Förderung der Ziele dienen und sind nicht als direktes Angebot, Anlageempfehlung oder Anlageberatung zu betrachten. Pictet erhebt keine Eigentumsansprüche auf die in den Illustrationen gezeigten Farben, Formen oder Namen. Alle Designrechte verbleiben bei den Vereinten Nationen.

Ansprechpartner

Walter Liebe

Head of Intermediaries Germany

069-795009-1261

E-Mail

Kadir Solmaz

Senior Sales (Region Süd)

069-795009-1255

E-Mail

Jochen Staat

Senior Sales (Region Nord)

069-795009-1256

E-Mail

Andreas Lössl

Senior Sales (Region Mitte/Ost)

069-795009-1266

E-Mail

Weitere News

Robotik: Fünf gute Gründe für eine Anlage

Roboter erobern die Welt. Wir schauen uns an, wie Anleger von diesem Thema profitieren können.

Weiterlesen

Disclaimer

Die Angaben auf dieser Website erfolgen nur zu allgemeinen Informationszwecken und stellen weder ein Angebot noch eine Aufforderung zum Kauf oder Verkauf dar, begründen nicht die Tätigung von Transaktionen und/oder den Abschluss von Rechtsgeschäften. Die hier veröffentlichten Informationen sind auch nicht als Anlageempfehlung an Investoren zu verstehen und stellen keine Entscheidungshilfen für rechtliche, steuerrechtliche oder andere Beraterfragen dar. Aufgrund der hier veröffentlichten Informationen allein sollten Sie keine Entscheidung über Anlagen, Rechtsgeschäfte oder Käufe bzw. Verkäufe treffen.

Anlageentscheidungen sollten erst nach der umfassenden Lektüre der aktuellen Versionen des Informationsmaterials und der von den Fondgesellschaften und/oder Banken zur Verfügung gestellten Dokumente (Prospekt, Fondsvertrag, ggf. Kurzprospekt, Jahresbericht und Halbjahresbericht) getätigt werden. Bevor Sie eine Anlageentscheidung treffen, empfehlen wir Ihnen zusätzlich, sich durch einen Fachspezialisten und/oder einen Anlageberater beraten zu lassen. Die auf dieser Website vorgestellten Finanzprodukte sind unter Umständen Personen mit Wohnsitz/Sitz in bestimmten Ländern nicht zugänglich.

Die Inhalte Dritter (gekennzeichnet z.B. durch „Werbung“ oder „Anzeige“) und externer Websites, die über Hyperlinks unserer Seiten erreicht werden können oder die auf die unsere Seiten verweisen, sind fremde Inhalte, auf die die STOCKWAVES Financial Services GmbH als Seitenbetreiberin keinen Einfluss hat und für die die STOCKWAVES Financial Services GmbH keinerlei Gewähr übernimmt. Die STOCKWAVES Financial Services GmbH macht sich die Inhalte Dritter nicht zu Eigen.