Manipulation ist der Versuch, die Gefühle, Gedanken und Verhaltensweisen anderer unbemerkt durch verschiedene Methoden zu verändern. Es handelt sich um eine psychologische Taktik, bei der eine Person eine andere in die gewünschte Richtung beeinflusst, ohne dass diese es merkt oder bewusst akzeptiert. Dieser Prozess erfolgt oft unbemerkt und gegen den Willen der betroffenen Person. Manipulation ist häufig bei Persönlichkeitsstrukturen wie Borderline- oder narzisstischer Persönlichkeitsstörung anzutreffen. Zu den Manipulationstechniken gehören Lügen, emotionale Erpressung, Missbrauch, das Isolieren des Opfers aus der Gesellschaft und das Schüren von Angst. Manipulation wird sogar oft in romantischen Beziehungen eingesetzt. Manipulation ist, wie die Definition schon sagt, vorsätzlich.
Obwohl dies ein psychologisches Thema ist, werde ich mich heute nicht mit der psychologischen Seite befassen, sondern auf den rechtlichen Aspekt eingehen.
Heutzutage können Manipulationen (sowohl positiv als auch negativ) auch mit Deepfake durchgeführt werden.
Ein Deepfake bezeichnet in der Regel manipulierte oder gefälschte Video- oder Audioaufnahmen, die mithilfe von Künstlicher Intelligenz oder maschinellem Lernen erstellt werden.
Am Sonntag sah ich auf der Instagram-Seite von szene_isch_zueri ein Video, das später gelöscht wurde. Darin war ein Lamborghini zu sehen, der in den Limmat-Fluss in Zürich gefallen war. Der Fahrer versuchte, aus dem Fahrzeug zu schwimmen und ans Ufer zu gelangen. Als ich die Website 20min.ch besuchte, las ich, dass das Video nicht echt war. Nachdem das Video in den sozialen Medien viral ging, durchsuchte die Polizei alle Brücken entlang der Limmat, fand aber nichts. Das Ereignis war also tatsächlich gefälscht.
Dieses Video wurde durch Künstliche Intelligenz erstellt, also ein sogenannter Deepfake. Es war so realistisch gemacht, dass fast jeder, mich eingeschlossen, glaubte, es sei echt.
Es ist heutzutage nicht besonders schwierig, solche gefälschten Videos zu erstellen. Mit KI-Technologie kann man Texteingaben in beeindruckende Videos umwandeln. Da die Technologie jedoch noch nicht ausgereift ist, gibt es in den Videos oft Fehler, Sprünge oder Schnitte. Wenn man jedoch sorgfältig an solchen Videos arbeitet, ist es nahezu unmöglich zu erkennen, dass sie mit Künstlicher Intelligenz erstellt wurden – wie im Fall des Lamborghini-Videos.
Die einfache Zugänglichkeit von KI-Systemen wirft jedoch folgende Frage auf: Was wäre passiert, wenn ein vermeintlich harmloses Deepfake-Video plötzlich zu einem gesellschaftlichen Aufruhr geführt hätte? Wer wäre in einem solchen Fall rechtlich verantwortlich? Wäre es die Person, die das Video erstellt hat? Oder jene, die es gesehen und in sozialen Medien geteilt haben? Oder wäre der Staat verantwortlich, weil er keine ausreichenden Maßnahmen ergriffen hat?
In den sozialen Medien, die eine große Rolle in unserem Alltag spielen, ändert sich die Agenda sehr schnell, sodass es kaum möglich ist, die Echtheit eines jeden Videos zu überprüfen. Auf Plattformen wie Instagram oder TikTok konsumieren wir in wenigen Minuten unzählige Inhalte. Wenn wir am Tag (großzügig geschätzt) 100 Videos ansehen, können wir nicht von jedem einzelnen die Echtheit überprüfen. Es ist daher unmöglich, jeden Inhalt in den sozialen Medien zu überwachen oder zu verifizieren.
Das Lamborghini-Video war viral und wurde später als Fake entlarvt. Aber wie steht es um jene Videos, die nicht viral werden? Wie viele solcher Videos haben wir gesehen, ohne zu wissen, dass sie gefälscht waren? Wir sind mit einer Vielzahl von Inhalten konfrontiert, die wir nicht alle verifizieren können.
Darüber hinaus führt die Verbreitung solcher gefälschter Videos zu einem Vertrauensproblem in der Gesellschaft. Derartige Inhalte verringern das Vertrauen der Menschen in das, was sie sehen und hören.
Ein weiteres großes Problem besteht darin, dass Deepfake-Videos oder gefälschte Inhalte zu gesellschaftlicher Polarisierung führen können. Solche Inhalte könnten bestehende Meinungsverschiedenheiten noch verschärfen. Beispielsweise könnten durch Deepfake-Videos bestimmte Gruppen oder Einzelpersonen gezielt ins Visier genommen werden, was letztlich zu Chaos führen könnte. Vor nur vier Jahren haben wir dies bei den US-Wahlen gesehen: Wähler wurden durch gefälschte Inhalte in die Irre geführt. Um dies zu verhindern, wurden beim letzten US-Wahlkampf im November bestimmte Begriffe wie Joe Biden, Donald Trump oder Kamala Harris auf der Plattform DALL-E blockiert.
Obwohl wir hier vor allem die negativen Aspekte betrachten, können mit Deepfake-Technologie auch großartige Inhalte erstellt werden. Ich glaube, dass diese Technologie in der Filmbranche in Zukunft eine große Rolle spielen wird. Doch das ist ein anderes Thema. Was ich betonen möchte, ist, dass Menschen kreative und realistische Videos erstellen wollen. Schließlich gibt es viele Plattformen, die Deepfakes ermöglichen. Die Frage ist jedoch, ob ein scheinbar harmloses Video Manipulationskunst oder eine Straftat ist.
Meine persönliche Meinung: Das Lamborghini-Video ist großartig gemacht. Es ist wirklich beeindruckend. Aber was wäre, wenn dieses Video zu einer gesellschaftlichen Krise geführt hätte? Würden wir es dann als Manipulationskunst oder als Straftat betrachten? Stellen wir uns vor, ein Deepfake-Video wird von allen gelobt, und die meisten Menschen wissen, dass es ein Deepfake ist und als Kunst akzeptiert wird. Aber was passiert, wenn eine Minderheit es nicht versteht und dadurch Spaltung entsteht? Könnten wir das Video dann als Straftat werten? Oder was, wenn ein 2024 erstelltes Deepfake-Video im Jahr 2050 mit dem Ziel geteilt wird, Desinformationen zu verbreiten und die Gesellschaft zu manipulieren? Ein Video, das 2024 harmlos war, könnte 2050 als Straftat angesehen werden. Was passiert, wenn derjenige, der es 2050 teilt, behauptet, er wusste nicht, dass es ein Deepfake war? Wie könnten wir das Gegenteil beweisen? Schließlich sind Deepfake-Videos bereits so realistisch, dass die Täuschung schwer nachzuweisen ist.
Ich möchte den Text nicht zu lang machen, aber angesichts des Lamborghini-Beispiels vom Sonntag ist klar, dass soziale Medien dringend Maßnahmen gegen Deepfake-Technologie ergreifen müssen. Soziale Netzwerke, die täglich von Millionen Nutzern genutzt werden, müssen sicherer werden. Es liegt eine große Verantwortung bei den Social-Media-Unternehmen und den staatlichen Behörden, die diese überwachen.
Da sich die KI-Technologie rasant entwickelt, müssen Regierungen und soziale Medien schnell, effektiv, praktisch und dringend handeln. Es reicht eine Stunde, damit ein Video viral geht. In dieser einen Stunde können Millionen von Menschen den Inhalt sehen und ihn für echt halten. Daher müssen Maßnahmen schnell und praktisch umgesetzt werden. Beispielsweise könnte ein Deepfake-Video unbedingt mit einem Hinweis versehen werden, der es als Deepfake kennzeichnet.
DIE HIER VERFASSTEN ARTIKEL DIENEN DER INFORMATION UND GEBEN DIE MEINUNG DES AUTORS WIEDER. SIE STELLEN KEINE RECHTSBERATUNG DAR.
Comments