Holen Sie sich Avast One, das Ihnen hilft, Scams abzuwehren und Ihr Smartphone zu schützen
- Sicherheit
- Privatsphäre
- Leistung
Deepfake-Videos lassen die Grenzen zwischen Realität und Fake News verschwimmen, so dass es immer schwieriger wird, das zu glauben, was man sieht. Aber wenn man weiß, worauf man achten muss, gibt es verräterische Anzeichen, die diese beunruhigend realen und oft bizarren Videos verraten. Erfahren Sie, wie Sie einen Deepfake erkennen können – und bleiben Sie online sicher mit einem umfassenden Sicherheits- und Privatsphäre-Tool wie Avast One.
Ein Deepfake ist eine täuschend echte, aber gefälschte Aufnahme, die durch Veränderung von vorhandenem Video- oder Audiomaterial erstellt wird. Deepfake-Videos nutzen Tools der künstlichen Intelligenz (KI), um das Gesicht oder die Stimme einer Person überzeugend durch die einer anderen Person zu ersetzen, so dass die erzeugten Medien zum Spaß oder zur böswilligen Verbreitung von Falschinformationen genutzt werden können.
Dieser Artikel enthält :
Gefälschte digitale Medien sind nichts Neues, aber Deepfakes sind ein durch und durch modernes Phänomen. Im Gegensatz zu gefälschten Bildern, die von echten Menschen mit Tools wie Photoshop erstellt wurden, werden Deepfakes von KI-Maschinen erzeugt. Die Verwendung dieser fortgeschrittenen Video-Manipulation ist häufig in Pharming-Taktiken, was es schwerer macht, sich gegen Identitätsdiebstahl zu schützen.
Das Wort Deepfake ist selbst eine künstliche Kreation - ein Kofferwort aus „deep learning“ und „fake“. Der Deep-Teil der Bedeutung von Deepfake bezieht sich auf Deep Learning, einer Methode Computern die natürliche Denkweise eines menschlichen Gehirns anzutrainieren. DerFake-Teil der Definition hebt die betrügerische Natur von Deepfake-Medien hervor.
Deep Learning ist ein KI-Prozess, bei dem eine Aufgabe immer und immer wieder wiederholt wird, manchmal auch ohne menschliche Kontrolle, um den besten Weg zu einem gewünschten Ergebnis zu finden. Im Falle von Deepfakes wird die KI mit hunderten an Beispielfotos und -Videos gefüttert, um ihr beizubringen eine Version des Gesichts einer Person zu erstellen, die animiert werden kann.
Deepfake-Videos werden oft für harmlose Zwecke genutzt, wie Memes, Filter für soziale Medien und Face-Swap-Apps. Deepfakes können aber auch böswillig verwendet werden, um Fehlinformationen zu verbreiten, gefälschte Nachrichten zu erstellen oder Rachevideos zu starten. Das Verändern des Aussehens einer Person, um sie wie eine andere aussehen zu lassen, geschieht oft aus Spaß – es kann aber auch für Cybermobbing oder Identitätsdiebstahl genutzt werden.
In der Tat war es die schäbigere Seite der Deepfake-Technologie, die zuerst an die Öffentlichkeit gelangte. Im Jahr 2017 nutzte ein Reddit-Nutzer die Technologie ursprünglich, um mit den Gesichtern von weiblichen Prominenten digital Pornos zu erstellen, die nicht einvernehmliche Sexualakte zeigten. Obwohl der Subreddit 2018 verboten wurde, haben sich diese Art von Reddit-Deepfake und andere Formen von Promi-Deepfakes im Internet verbreitet.
Und das ist nur die Oberfläche wenn es zu Beispielen berüchtigter Deepfakes kommt. Die Deepfake-Technologie kann für viele Arten der Täuschung eingesetzt werden, von politischer Manipulation und Fake News bis hin zu Rache-Pornos und Erpressung. Jeder, der Zugang zur Deepfake-Technologie hat, kann jeden anderen so aussehen lassen, als würde er so ziemlich alles sagen oder tun.
Die Gefahr der Erstellung und des Einsatzes von Deepfake-Videos als Waffe ist bereits Realität. Außerdem wächst die Besorgnis, dass Deepfakes in Zukunft zunehmend böswillig verwendet werden und die Sicherheit biometrischer Daten, auch bei der Verwendung von Gesichtserkennungstools, in Frage gestellt wird.
Deepfakes werden erstellt, indem eine Vielzahl von Bildern eines Motivs an Computernetzwerke mit Deep Learning, sogenannte Variational Auto-Encoder (VAE), weitergeleitet werden. Das Ziel ist es, die VAEs zu trainieren, eine Bandbreite von Lichtverhältnissen, Positionen und emotionalen Ausdrücken zu erfassen. So kann die KI feststellen, welche visuellen Elemente, wie Gesichtsausdrücke oder Schatten, einzigartig sind und welche ersetzt werden können.
Lassen Sie uns einmal genauer in den Prozess der Erstellung eines Deepfake-Videos hineinsehen:
Zunächst benötigt die KI zwei Gruppen von Eingabebildern: die Originalquelle (Person A) und das Ziel des Deepfakes (Person B). Computer können mit einer Reihe von zufälligen Gesichtern oder mit vielen Bildern einer bestimmten Person trainiert werden.
Dann erstellt die KI die Ausgabebilder. Die KI stellt fest, welche subtilen Ausdruckselemente einzigartig und wesentlich für das Deepfake sind. Um überzeugend zu sein, muss die KI die Feinheiten der Persönlichkeit und der Gesichtsbewegungen beibehalten, die natürlich vorkommen und für die Zielperson einzigartig sind.
Um den Gesichtstausch durchzuführen, werden die Eingabe- und Ausgabebilder kombiniert – die Ausgabedaten der Originalquelle werden in die VAE eingespeist und mit den Daten des Zielgesichts des Deepfakes zusammengeführt. Der Encoder rekonstruiert die Bewegungen und emotionalen Ausdrücke von Person A mit dem Gesicht von Person B. Damit das Deepfake-Video wirklich echt aussieht, muss dies Frame für Frame gemacht werden.
Die besten Beispiele für Deepfakes sind oft solche, die speziell geschaffen wurden, um die Leistungsfähigkeit der Deepfake-Technologie zu demonstrieren. Andere, eher spaßige Deepfakes sind etwas weniger professionell, aber trotzdem interessant.
Das lässt einige Leute wundern, was so schlimm an Deepfakes ist? Wenn sie als Mittel für Betrug, Manipulation, Rache oder Täuschung eingesetzt werden – insbesondere zur Fehlinformation oder zur Durchsetzung politischer Ansichten – können Deepfakes sowohl auf persönlicher als auch auf gesellschaftlicher Ebene großen Schaden anrichten.
Sehen Sie sich das folgende Deepfake-Beispiel des ehemaligen US-Präsidenten Barack Obama an, in dem er uncharakteristischerweise Donald Trump mit Kraftausdrücken beschimpft. Ein VAE wurde mit Inhalten des Schauspielers Jordan Peel trainiert, der andere mit hunderten an Bildern und Videos von Obama.
Dieser Deepfake von Jon Snow, der sich für den Starbucks-Becher-Auftritt in der letzten Staffel von Game of Thrones entschuldigt, zeigt auch die humorvolle Seite von künstlichen Videos.
Nixons gescheiterte Mondlandungsrede ist ein weiteres überzeugendes Beispiel dafür, wie einfach es ist, den Anschein zu erwecken, dass politische Führer etwas gesagt oder getan haben, was sie nicht getan haben. Einer der Gründe, warum sie so authentisch wirkt, ist, dass der Text auf einer tatsächlichen Rede basiert, die für Nixon vorbereitet wurde, falls die Apollo-11-Mission scheitern sollte.
Nicht überraschend sind oft Stars Ziel von Deepfakes. Die Tatsache, dass sie bekannt sind, macht sie zu idealen Zielen für Memes, und die Fülle leicht zugänglicher Medien hilft der KI-Technologie, recht überzeugende Deepfakes von ihnen zu erstellen.
Der BegriffCelebrity-Deepfake wird wohl für immer mit dem Reddit Deepfake-Skandal pornografischen Inhaltes verbunden werden, ist aber oft sehr harmlos und transparent in der Verwendung. Sehen Sie sich die folgende Zusammenstellung von Deepfake-Videos von Tom Cruise an, oder diese offensichtliche Nachahmung einer Deepfake-Rentiergeschichte mit Donald Trump.
Eines der besten Beispiele für ein Deepfake von Prominenten ist dieses Deepfake-Gedicht des Impressionisten Jim Meskimen. Mit Hilfe von Deep Learning KI verwandelt er sich mühelos von John Malkovich zu Robert De Niro und von Arnold Schwarzenegger zu George Bush.
Obwohl sie oberflächlich betrachtet überzeugend sind, lassen sich Deepfakes recht leicht von echten Videos unterscheiden, wenn man weiß, worauf man achten muss. Trotz der Fähigkeit, sehr realistische KI-generierte Face-Swaps zu erzeugen, ist eine überzeugende Animation eine andere Sache, und es gibt fast immer subtile Anzeichen dafür, dass etwas nicht stimmt.
Aber mit einer stetig verbesserten Technologie wird es wohl immer schwerer werden Deepfakes zu identifizieren. Wenn Sie die folgenden Tipps zur Erkennung von Deepfakes beherzigen, können Sie Betrug wie Phishing-Angriffe oder Fake News vermeiden.
Die größten Mängel bei Deepfakes sind Audiofehler, ungünstige Schatten und Hauttöne sowie weiche oder unscharfe Bereiche bei Bewegungen. Achten Sie besonders auf den Mund, die Stirn und den Nacken, da diese Körperteile den Schwindel oft verraten können.
Hören Sie sich dieses Deepfake des ukrainischen Präsidenten Volodymyr Zelensky an, der angeblich seine Truppen zur Kapitulation aufruft. Im Vergleich zu einer authentischen Aufnahme von Zelensky klingt die veränderte Stimme gedämpft und genuschelt. Sie können einen Deepfake auch daran erkennen, dass der Ton im Vergleich zur physischen Bewegung des Mundes nicht synchron ist.
Schatten und Hauttöne sind unglaublich schwer authentisch wiederzugeben, weshalb sie zu den häufigsten Erkennungsmerkmalen für Deepfake-Videos gehören. In diesem Home Stalone-Clip sieht Kevins Gesicht oft so aus, als hätte er buchstäblich eine Stalone-Maske auf, weil der Hautton schlecht integriert ist. Sie können die Konturen von Kevins Stirn über seine Wange bis hin zu seinem Kiefer leicht nachzeichnen.
Weiche oder unscharfe Bereiche, insbesondere um den Mund herum, sind ein weiteres Indiz dafür, dass es sich um ein Deepfake handelt. Das obige Deepfake von Tom Cruise zeigt viele überzeugende Einstellungen, aber wenn man genau hinsieht, kann man weiche, verschwommene Bereiche um das Kinn herum erkennen, die vor allem bei Gesichtsübergängen und Bewegungen auffallen.
Deepfakes an sich sind fast überall legal, aber die Legalität bestimmter Deepfakes hängt vom Kontext und der Absicht ab und ist von Land zu Land unterschiedlich.
In den USA werden nach und nach spezielle Gesetze zur Regulierung von Deepfakes erlassen. Die meisten US-Bundesstaaten haben Gesetze gegen Rache-Pornos, aber nur eine Handvoll von ihnen, darunter Kalifornien und Texas, nennen Deepfakes als illegales Medium dieser Art. Kalifornien hat auch die Verwendung von Deepfakes von Regierungsvertretern und Kandidaten im Wahlkampf verboten.
Im Vereinigten Königreich gibt es derzeit keine speziellen Deepfake-Gesetze. Das bedeutet, dass Personen, die böswillig von Deepfakes angegriffen werden, die bestehenden Gesetze, z. B. gegen Verleumdung, nutzen können, um Fälle vor Gericht zu bringen.
China hat vor kurzem ein Deepfake-Gesetz erlassen, das die Plattform selbst für die Verbreitung von Deepfakes haftbar macht und den Plattformen verbietet, künstliche Inhalte zu empfehlen. Das Gesetz bezieht sich im weitesten Sinne auf falsche Informationen, einschließlich Deepfakes, Fake News und andere Medien, die als irreführend gelten.
Es gibt zwar starke Sicherheitsvorkehrungen gegen Malware, Hacker und andere herkömmliche Bedrohungen, doch Deepfakes stellen eine neue Art von Herausforderung dar. Ein gefälschtes Foto oder Video im Internet zu erkennen, ist nicht immer einfach, und die Erkennung von Fälschungen wird immer schwieriger.
Doch Sicherheits- und Technologieunternehmen arbeiten bereits an innovativen Methoden zur Bekämpfung bösartiger Deepfakes. Verfahren und Werkzeuge wie die DARPA und die Deepfake Detection Challenge von Facebook werden eingesetzt, um die Gesellschaft mit einem Schutz vor falschen Informationen zu wappnen. Es ist auch wichtig, die Unterschiede zwischen Privatsphäre und Sicherheit zu kennen, damit Sie sich in beiden Bereichen schützen können.
Da Deepfakes mit großen Mengen an Fotos und Videos erstellt werden, können Sie vermeiden, Opfer eines Deepfakes zu werden, indem Sie die Anzahl der online geteilten Fotos und Videos begrenzen – insbesondere in sozialen Medien. Vergewissern Sie sich, dass Sie wissen, wie Sie Ihre Privatsphäre-Einstellungen auf Facebook ändern können und wie Sie persönliche Informationen im Internet finden und entfernen können.
Deepfake-Audio und -Video können leicht für Phishing-Angriffe verwendet werden. Bleiben Sie also wachsam, denn diese neue Bedrohung entwickelt sich ständig weiter. Wie bei anderen Formen des Phishings können Sie betrügerische Nachrichten erkennen, wenn Sie die Kommunikation besonders sorgfältig prüfen. Wenn Sie sich nicht sicher sind, ob ein Video echt oder ein Deepfake ist, stellen Sie Nachforschungen an – googeln Sie es oder schauen Sie, ob Sie die Quelle des Videos in sozialen Medien oder anderswo finden können.
Sobald sensible Daten in die falschen Hände fallen, ist es nicht mehr in Ihrer Kontrolle was Cyberkriminelle alles damit anstellen. Ihre persönlichen Fotos, Videos – und Daten gehören alleine Ihnen – sorgen Sie also dafür, dass das so bleibt! Schützen Sie Ihre Online-Privatsphäre mit allumfassender Privatsphäre- und Sicherheitssoftware, wie etwa Avast One.
Avast One deckt alle Aspekte ab: ein preisgekröntes Antivirenprogramm, eine sichere Firewall, VPN- und Anti-Tracking-Tools für anonymes Surfen und eine Rund-um-die-Uhr-Überwachung, die Sie warnt, wenn sensible Kontoinformationen online durchsickern. Sichern Sie jeden Aspekt Ihre modernen digitalen Lebens.
Laden Sie Avast One kostenlos herunter, das Ihnen hilft, Online-Betrug zu verhindern und Ihr Netzwerk zu schützen. Holen Sie sich umfassende Online-Sicherheit.
Installieren Sie Avast One kostenlos, das Ihnen hilft, Online-Betrug zu verhindern und Ihr Netzwerk zu schützen. Holen Sie sich umfassende Online-Sicherheit.
Laden Sie Avast One kostenlos herunter, das Ihnen hilft, Online-Betrug zu verhindern und Ihr Netzwerk zu schützen. Holen Sie sich umfassende Online-Sicherheit.
Installieren Sie Avast One kostenlos, das Ihnen hilft, Online-Betrug zu verhindern und Ihr Netzwerk zu schützen. Holen Sie sich umfassende Online-Sicherheit.
Holen Sie sich Avast One, das Ihnen hilft, Scams abzuwehren und Ihr Smartphone zu schützen
Holen Sie sich Avast One, das Ihnen hilft, Scams abzuwehren und Ihr iPhone zu schützen