MC18 NOV17x2

Open menu

Social Media Icons Shop 55

Meer

 

Dank Artificial Intelligence und neuen Videotools ist es kinderleicht geworden, Videos zu fälschen. Besonders beliebt: Fake Pornovideos mit Promis. Plötzlich tauchen dank AI zahlreiche ziemlich echt aussehende, manipulierte Sex-Videos von amerikanischen Promis auf, bei denen Videoaufnahmen der Stars mit irgendwelchen Sexvideos kombiniert wurden. Opfer sind unter anderem Schauspielerinnen wie Scarlett Johansson, Taylor Swift und Emma Watson. Aber auch zahlreiche Privatpersonen müssen die denunzierende Rache ihrer Verflossenen in Form von Pornostreifen mit ihrem Konterfei erleiden. Revenge-Porn nennen das die Amerikaner, womit sowohl Privataufnahmen, die nicht für die Öffentlichkeit gedacht waren, als auch neuerdings dreiste Fälschungsvideos gemeint sind, die plötzlich im Internet die Runde machen.

 

Pandoras Büchse

Die geschriebene Lüge ist so alt wie die Schrift, Propaganda in Wort und Bild gibt es seit dem Buchdruck. Bildmanipulationen sind schon lange möglich, doch wenn man sie für Videos bewerkstelligen wollte, etwa um ein anderes Gesicht in eine vorhandene Videoaufnahme sauber einzubauen, war dafür ein großer Aufwand notwendig. Schließlich mussten die Bildkompositionen Bild für Bild mit aufwändigen Masken und Retuschen bewerkstelligt werden.

SFX Artists wären lange mit so etwas beschäftigt, doch seit Januar 2018 gibt es Apps, die diesen Job automatisieren und die Videofälschungen mit hoher Präzision ermöglichen. Im Grunde genommen hat Snapchat das Verfahren in einer primitiven Variante schon seit Jahren angeboten und auch Apps wie FaceApp, bei denen man sein eigenes Gesicht verjüngen oder altern lassen kann, verwendeten ähnliche Techniken.

2017 hatte die Universität in Washington es mit Hilfe von Artificial Intelligence geschafft, Gesichtsmimik und Lippenbewegungen eines Videos von Ex-Präsident Obama auf einen nur als Tonaufnahme vorhandenen Text von ihm automatisch zu synchronisieren. Das Ergebnis war überzeugend.

Ein anonymer User der sich "Deepfakes" nennt, hat im Dezember 2017 auf Reddit erläutert, wie er derartige Manipulationen mit Hilfe von Analysetools und freier Software bewerkstellige, wobei die Aufgabe der Artificial Intelligence vor allem darin besteht, für die gewünschte zu fälschende Videosequenz passende andere Videos zu finden, in denen die Gesichter und Bewegungen der Promis oder Privatpersonen in ähnlichem Bildwinkel, ähnlichem Licht und mit ähnlichen Bewegungen zu sehen sind.

 

Alles ist vergiftet

Eigentlich war in Zeiten von Fake-News und Bots nicht mehr allzu viel übrig, dem man im Internet vertrauen konnte, Videos gehörten mehr oder weniger noch zu dem, wovon man wusste, dass Laien sie nicht so leicht manipulieren konnten. Das hat sich grundlegend geändert. Der Grundsatz "Ich glaube nur, was ich sehe" hat seine Basis in Bezug auf Videos quasi über Nacht veroren. Die Verfügbarkeit zahlloser Videos von Personen öffentlichen Interesses eröffnet potentiellen Manipulationen schier unbegrenzte Möglichkeiten. Während man früher bei der Suche nach den Urhebern derartiger gefälschter Videos den Kreis sehr genau auf professionell Firmen eingrenzen konnte, kommt mit den neuen Techniken nahezu Jeder als Hersteller in Frage.

In einer Zeit, in der Wutbürger und Hassprediger ihre Meinungen durch das Internet posaunen, in der Mitschüler es als Gag empfinden, Andere aus ihrer Schule per Social Media zu denunzieren, sind die Chancen, dass die neuen Video-Manipulationsverfahren erheblichen Schaden anrichten werden, sehr groß. Neben moralischen Angriffen auf Prominente können natürlich auch Politiker durch gefälschte Videoaufnahmen diskreditiert werden.

Wo die Promis zumindest die Presse und Anwälte zur Verfügung haben, sich zu wehren, sind Privatpersonen zumeist schutzlos den Angriffen ausgeliefert. Andererseits sind die Rechte auf Privatheit bei "Personen öffentlichen Interesses" oftmals schwer einzuklagen, weil die Videos dieser Personen ja bewusst für den freien Zugang durch die Öffentlichkeit publiziert wurden.

 

 

Fotomontage

 

Viele der anonymen Urheber gefakter Videos reklamieren für sich, dass sie eine neue Technologie kreativ nutzen würden und keinerlei Absichten hätten, Jemand zu schaden. Eine schwierige Argumentation, schließlich werden Videos im Web so oft vervielfältigt, dass man sie praktisch nicht mehr löschen kann, selbst wenn man den oder die Urheber ausfindig gemacht hat.

Fast scheint es, als wenn das Web auf derartige Fälschungen noch gar nicht vorbereitet ist, jedenfalls gibt es noch keine Software, die derartige Manipulationen automatisch erkennt. Bei den neuen Systemen sind auch die Kanten an denen die zusammengesetzten Bildebenen aufeinander treffen, viel sauberer in den Übergängen, als etwa bei dem Bild über diesem Text, wo man besonders bei den Haaren gut erkennen kann, was hinzugefügt wurde.

Der Umgang mit dieser neuen Art der Bedrohung von Wahrheit muss erst noch erlernt werden. Unsere Kritikfähigkeit, unser wacher Zweifel und unser gesunder Menschenverstand werden in Zukunft auf noch härtere Proben gestellt. Facebook, Youtube & Co werden uns diese Aufgabe nicht abnehmen.

 

Neu im Shop

Banner Regie GK 4000

Weitere neue Artikel

Warum Arthouse-Filme wahrscheinlich benachteiligt werden, wenn sie von Netflix & Co, für schlechte Internetverbindungen optimiert werden...

Premiere Pro und After Effects bekommen mächtige Verbesserungen spendiert, die viel Zeit sparen...

Krankenhäuser sind wie Brenngläser für menschliche Schicksale, -kein Wunder, dass so viele Filme und Serien genau dort angesiedelt sind...

Warum große Katastrophen die Zuschauer seit Anfang der Filmgeschichte bis heute in die Kinos gelockt haben...

Irgendwann ist es passiert, man hat vergessen, Videodateien auf den Rechner zu kopieren und die SD Karte für neue Aufnahmen formatiert. Was kann man tun?

Wie die Nazis im 3. Reich sogar die Märchenfilme für ihre Propaganda instrumentalisierten...

Warum das, was uns Medien aller Art als Schönheit präsentieren, verlogen und für das Kino und uns Menschen herausfordernd ist...

Es ist ein Tabu, man redet nicht darüber, wie absolut unfair sich manche Schauspieler an Filmsets verhalten...

Segen und Schwächen der KI werden deutlicher. Warum nehmen die Halluzinationen der KI immer mehr zu?

Kameras und Scheinwerfer sind nicht auf dunkle Hauttypen abgestimmt,- die Geschichte einer technischen Ungleichbehandlung

Sie kommen selten vor, doch sie ziehen eine deutliche Spur durch die Filmgeschichte,- wir schauen auf die Highlights...

Hersteller von KI getriebener Musiksoftware geben zu, ihr KI Modell mit kommerziellen Songs trainiert zu haben. Das bedeutet Ärger!