DEEPFAKE - the future is now¡

Dieses Thema im Forum "Smalltalk" wurde erstellt von Aspen, 10. Juni 2019.

  1. 0cta Just for fun

    0cta
    Registriert seit:
    15. Februar 2005
    Beiträge:
    3.117
    2011 wurde der Twitter-Account von Fox gehackt und ein kleines Tweet über Obamas angeblichen Tod hat ausgereicht, den Dow Jones innerhalb von 2 Minuten um ein paar Punkte zu senken. :nixblick:

    Jetzt lass das mal irgendwelche "Leaks" sein aus der Politik oder von Konzernen. Während dann die Experten debattieren, ob das 480p-Video mit schlechtem Ton Fake oder nicht ist, können die Betroffenen evtl echtes Material als Fake deklarieren. Und ob wahr ober nicht dreht das Ding trotzdem erstmal seine Runden in der Welt und kann schon dadurch Auswirkungen zeigen.

    Wie Zonk schon sagt, das ist in der Praxis keine Revolution, sondern ein Mittel von vielen. Nachdem wir schon gewohnt sind, dass sich Text und Bilder einfach manipulieren lassen kommt jetzt halt noch Film dazu. Bis sich da wie bei Fotoretuschierung ein allgemeines Bewusstsein für diese Manipulationstechnik entwickelt hat wird es allerdings ein paar Jahre dauern.
     
  2. Boris Brunz von Brunzelschuetz

    Boris Brunz von Brunzelschuetz
    Registriert seit:
    10. Oktober 2012
    Beiträge:
    6.800
    Irgendwelche Köpfe auf nackte Körper zu retuschieren ist ja auch nicht mehr als ein Streich - und meistens ist das Compositing derart schlecht, dass selbst die Jungendlichen den offensichtlichen Fake erkennen. Wird bei DF nicht anders sein, besonders wenn das Bildmaterial keine professionelle Studioausleuchtung hat.
     
  3. Vor ein paar Jahen gab es den großen Sexskandal bei der Ergo Versicherung wo die nach Budepast sind und dort je nach Erfolgsquote... Nun glaub das ist noch im Gedächtnis. Große Auswirkungen hatte das auch nicht gehabt.

    Und wie du sagst, so eine Fake News hat vielleicht minimale Probleme. Und wenn jetzt schon eine Präsident-ist-Tot Meldung schon Kaum Auswirkungen hat... :nixblick:

    Es ist nichts neues das man Bilder und Videos manipulieren kann. Reicht ja schon wenn du dir mal Blockbuster anschaust was mit CGI heutzutage alles geht. Es wird ein paar Skandale dafür geben, dann ist der Mainstream dafür sensibilisiert und fertig.

    Die Methode ist neu, aber das Grundproblem dahinter ist doch ein alter Hut. Auch heute reicht ein Video alleine als Beweis nicht aus sondern es wird mehr belastendes Material benötigt.
     
  4. Und wo ist der Unterschied zu jetzt? Ich sehe nicht wo hier jetzt die große Neuerung ist. Rufmord und Mobbing gibt es nicht erst seid Gestern. Photoshop auch nicht.
     
  5. Ok spielen wir das ganze dochmal Gedanklich durch.

    Sagen wir du bist ein jemand der ein Deeb Fake Video anfertigen will. Da brauchst du erstmal das Ausgangsmaterial von der Person die du Faken willst. Sowas dürfte erstmal auffallen gerade im Schulumfeld. Danach brauchst du aber noch das andere Videomaterial. Und hier wirds schwieriger.

    Nehmen wir an du willst ein Sexvideo von deinem Lehrer machen. Dann brauchst du erstmal ein entsprechendes Video. Sofern du nicht selbst was drehst musst du ein bekanntes Video nehmen. Und das ist eben bekannt. Und kann schnell über entsprechende Bilder/Video Suchen gefunden werden da ja nur ein kleiner Teil vom Video geändert wird.

    Dann hast du das Problem das sich Helligkeit, unterschiedlicher Körperbau, Auflösung und Belichtung wohl stark unterscheiden werden zwischen den beiden Ausgangsmaterialien. Uncanny-Valley Effekt sollte dir was sagen oder?

    Und um das so hinzukriegen das es alles passt, bist du schon wieder bei nem riesigen Aufwand.
     
  6. abelian grape Normalteiler

    abelian grape
    Registriert seit:
    26. Mai 2001
    Beiträge:
    27.627
    Der große Unterschied kommt dann, wenn diese Methoden sehr einfach anzuwenden sind. Per Photoshop gute Fakes zu machen kostet Zeit und Können, also einiges an Aufwand. Falls es irgendwann leicht zugängliche und leicht zu handhabende Software gibt, mit der jeder Depp den Kopf des / der verhassten Ex fast perfekt passend auf einen anderen Körper montieren kann, dann wird das fast zwangsweise häufiger geschehen. Das ist wie mit Waffen: Je leichter die verfügbar sind, desto häufiger werden sie missbraucht.
     
  7. dabba

    dabba
    Registriert seit:
    1. Mai 2008
    Beiträge:
    9.751
    Ort:
    Rheine
    Den Ton zu faken ist dann nochmal eine andere Sache, dafür brauchst Du dann wieder Ton-Material des Opfers.

    Außerdem geht der Verbreiter des Fakes auch ein Risiko ein, schließlich begeht er er u. U. eine Straftat.
     
  8. Du weißt schon das sich Personen in Videos meistens bewegen? :ugly:
     
  9. Boris Brunz von Brunzelschuetz

    Boris Brunz von Brunzelschuetz
    Registriert seit:
    10. Oktober 2012
    Beiträge:
    6.800
    Es ist schon aufwändig, 1 einzelnes Bild anständig zu photoshoppen. Mit Videos ist das trotz AI noch schwieriger. Momentan sieht DF ja selbst mit perfekter Ausleuchtung oft uncanny aus.

    Falls das aber irgendwann möglich sein sollte, dann ist das Bewusstsein in der Bevölkerung eh da - und wer interessiert sich bitte für den 100. Deep Fake, wenn das fast jeder machen kann? Entweder gibt's dann eine automatische Erkennung von DF oder (was ich für wahrscheinlicher halte) es interessiert nach ein paar anfänglichen Skandalen überhaupt keinen mehr. Heutzutage filmt eh fast jeder 2. echte Pornos, weshalb selbst das Fappening keine Filmkarrieren beendet hat.

    Das wird so ablaufen, wie mit schlecht gefilmten UFO-Videos. Am Anfang gibt's ein wenig Aufmerksamkeit und schon bald interessiert's niemanden mehr über 14, weil es ohnehin nur Fake ist.
     
    1 Person gefällt das.
  10. Das ein Foto lange nicht ausreicht um halbwegs realistisch Kopfbewegung, Mimik ect. abzudecken. Da kannst dir das Bild auch ausdrucken, in Maskenform zuschneiden und dir übers Gesicht ziehen. Hast du denselben Effekt. :ugly:
     
  11. abelian grape Normalteiler

    abelian grape
    Registriert seit:
    26. Mai 2001
    Beiträge:
    27.627
    In der Übergangszeit hätte das mit Sicherheit einige schwerwiegende Konsequenzen - auch gerade bei nicht berühmten Persönlichkeiten. Den Ex-Partner in eine für ihn unvorteilhafte Situation zu manipulieren kann bei dessen Freunden, Verwandten und Bekannten schon den erwünschten Effekt haben, einfach weil bei bestimmten Gruppen Bilder oder Videos noch als sehr glaubwürdige Zeugnisse gelten.
    Was du ansprichst ist übrigens eine weitere Entwicklung, die von solchen Fakes ausgeht: Die Zerstörung der Glaubwürdigkeit von Bildern, Videos oder Tonaufnahmen als Zeugnisse von Geschehen. Wenn das irgendwann nahezu in Echtzeit möglich ist, dann stellt sich die Frage, wie der investigative Journalismus oder die Kriegsberichterstattung in Zukunft aussehen könnte. Wenn eh alles sehr leicht gefaked sein könnte, dann wird es immer schwieriger Zeugnisse von bestimmten Ereignissen zu erstellen.

    Nein, der Effekt ist bedeutend besser, siehe https://www.theverge.com/2019/5/23/...ng-ai-research-results-single-photo-algorithm. Mit nur acht Bildern bekommst du schon jetzt erstaunlich gute Fakes hin. Und es ist kein Hexenwerk >8 Bilder in vernünftiger Qualität weitgehend unbemerkt aufzunehmen.
     
  12. unreal ..hat nun HSDPA :ugly:

    unreal
    Registriert seit:
    6. Mai 2005
    Beiträge:
    25.977
    Das stimmt. Porno-DF ist da eher da um Aufmerksamkeit zu bekommen. Aber Politikerreden haben gefühlt eine gleichbleibende Ausleuchtung, vor allem wenn man irgendwo steht und die Kamera auch stationär ist.
     
  13. Rofl Copter gesperrter Benutzer

    Rofl Copter
    Registriert seit:
    30. Dezember 2018
    Beiträge:
    8.027
    Wenn die Technik so weit sein wird, dass jeder 10 Jährige in der Lage ist in kürzester Zeit hyperrealistische Fakebilder/Videos zu verbreiten, dann wird das auch einen entsprechenden Impact auf die gesamte Gesellschaft weltweit haben bzw. einen wandelnden Prozess auslösen im Umgang mit derartigen Dingen. Ich glaube nicht, dass das Problem Fakebilder sein werden die andere den Misskredit bringen sondern die Tatsache, dass man jedem Bild und jeder Bewegtbildproduktion grundsätzlich misstrauen und in Frage stellen wird. Die Folgen/ Auswirkungen dieses Umstandes wären, wie ich finde, die deutlich interessantere Frage
     
    abelian grape gefällt das.
  14. MikeDee Botschafter von Fairytopia

    MikeDee
    Registriert seit:
    30. August 2007
    Beiträge:
    48.367
    Mein RIG:
    CPU:
    Google Pixel 2 XL
    Deep Fake kann das. Dafür wird das neural Network benutzt. Es gleicht das Bild mit dem Video so lange an bis es aussieht als wäre das Gesicht im Video.
     
  15. Boris Brunz von Brunzelschuetz

    Boris Brunz von Brunzelschuetz
    Registriert seit:
    10. Oktober 2012
    Beiträge:
    6.800
    @abelian grape

    Das verlinkte Werbe-Video ist beeindruckend, aber von diesem Level auf universal anwendbare DF braucht sicher noch einiges an Zeit.

    Viel interessanter finde ich aber deine Aussage mit der Zerstörung der Glaubwürdigkeit, der ich nur zustimmen kann. Auch wenn für mich diese Entwicklung schon gut 50 Jahre andauert.
    • Selbst heute frage ich mich bei jedem Video von prügelnden Polizisten und Demonstranten, welche Abschnitte nicht gezeigt wurden.
    • Schon heute spiegeln viele Pressefotos nicht die Wirklichkeit wider (ein kläglicher Haufen Leute wird aus dem richtigen Winkel schnell zur einer großen Menge).
    • Schon heute bin ich eher skeptisch, wenn ich auf Facebook Obama mit seiner nigerianischen Geburtsurkunde sehe.
    • Schon heute forsche ich erst im Internet nach, bevor ich auf den Stimmenimitator eines Prominenten reinfalle.
    • Schon heute will ich bei seriösen Zeitungen checken, ob der neueste Trump-Tweet wirklich ernst gemeint ist.
    • Schon heute müssen seriöse Redaktionen jedes Skandalfoto von Experten auf digitale Bearbeitung überprüfen, in Zukunft passiert das eben auch mit Skandalvideos (oh wait, wird ja eh schon gemacht).
    DF ist neu, aber nicht wirklich grundlegend anders als der Status Quo. Die meisten Aussagen von Politikern konsumieren wir nicht im Vakuum, sondern sind schon jetzt von Presseagenturen & Chefredaktionen abhängig, die hoffentlich auf Echtheit prüfen (jetzt und in Zukunft). Kurz: Wir sind schon heute sehr auf das Internet/andere Meinungen als Quelle der Wahrheit angewiesen und hier sehr von Algos abhängig. Das finde ich persönlich für weit bedenklicher als DF.

    Bleiben noch ein paar Fickivideos von Bekannten aus dem Umfeld über, welche in der 1. Zeit ordentlich Radau machen werden. Irgendwann wird's aber langweilig und man kann selbst echte Schnackseleien mit dem Ex als Fake abtun. Und personalisierte Pornos mit der heißen Nachbarin werden ohnehin Standard (yeah!) und es regt keinen mehr auf.
     
  16. Dann schau dir die Biulder mal genau an.

    Die Körperhaltung ist gleich, nur der Kopf bewegt sich. Der Hintergrund ist auch größtenteils gleich, die Beleuchtung ist gleich. Wie willst du unbemerkt 8 Bilder von jemanden machen das der genau anderselben Stelle steht und nur den Kopf hin und her bewegt?

    Und selbst mit solchen quasi perfekten Bildern siehst du deutlich das es künstlich ist weil der Hintergrund permanent zittert und sich unnatürlich bewegt.

    Fall doch nicht auf das marketing Speech rein. Ja man kann mit 8 Bildern tolle Ergebnisse erzielen, sofern diese 8 Bilder genau das abbilden was die Ki braucht. Du kannst mit 8 Paparazzi Bildern nicht dasselbe Ergebnis erzielen.

    Aber gut nehmen wir an du hast 8 solcher Bilder. Wenn du wie in dem Beispiel nur das Bild zum reden bringst ist eindeutig wann genau diese angebliche Aufnahme entstanden sein soll. Das kann man an Kleidung und Örtlichkeit wunderbar ableiten. Und entsprechend einfach wiederlegen.

    Wenn du da nun den Kopf ausschneidest und auf einen anderen Körper bringst. Dann hast du den Punkt Beleuchtung der dir das Genick brechen wird.

    https://www.youtube.com/watch?v=1uKtUlPmhqw

    Schau dir den Clip an. Man hat MASSIG Videoaufnahmen vom Schauspieler. Sehr viel Geld und sehr viel Zeit. Trotzdem sieht es künstlich aus. Und warum? Weil die Beleuchtung nicht stimmt. Die Reflektionen der Haut, das Physik based Rendering, die Ausleuchtung... alles ist minimal Anders als am Set. Und man merkt es sofort. Das Auge bemerkt sofort das da irgendwas nicht stimmt. Und hier waren Profis am Werk.

    Glaube nicht das das ne KI so leicht hinkriegen kann mit Random Bildern. ;)
     
  17. Andere Frage. wieso sollten man Deep Fakes mehr Vertrauen entgegenbringen als den anderen Boulevard Gerüchten?
     
  18. Boris Brunz von Brunzelschuetz

    Boris Brunz von Brunzelschuetz
    Registriert seit:
    10. Oktober 2012
    Beiträge:
    6.800
    Sobald DFs flächendeckend verfügbar sind, haben sie nicht mehr Glaubwürdigkeit als Lügen & Gerüchte. Das kann natürlich immer noch schaden, aber eben nicht viel mehr als heutige Lügen & Gerüchte. Ein DF wird nach der Gewöhnungsphase nicht mehr Aufsehen erregen als ein gutgemachter Photoshop-Fake heute. Wie viele gefälschte Nacktfotos hängen von dir im Dorf herum? Genau so wird sich kein Schwein für DFs interessieren, sobald sie zwangsläufig an "Effektivität" eingebüßt haben.

    Damit meine ich DFs als Instrument der öffentlichen Bloßstellung - als personalisierte Pornos werden sie wahrscheinlich ein voller Erfolg. :yes:

    Solange man sie nur für den privaten Gebrauch verwendet ist das nicht viel verwerflicher als auf ein Foto der besten Freundin zu wichsen. Und: Wenn ich nach meinem Umfeld gehe, wäre eine Veröffentlichung für den zurückverfolgten Produzenten wahrscheinlich peinlicher als für die Besitzerin des DF-Gesichts.
     
  19. abelian grape Normalteiler

    abelian grape
    Registriert seit:
    26. Mai 2001
    Beiträge:
    27.627
    Das will ich nicht in Abrede stellen, aber den Status Quo finde ich ehrlich gesagt schon einen beeindruckenden Wegweiser auf die Richtung, in die es - so denke ich - hingehen wird.

    Eine leichte Verfügbarkeit wird das Glaubwürdigkeitsproblem noch auf andere Bereiche ausweiten. Klar, das Bild einer nigerianischen Geburtsurkunde von Obama glauben erstmal nur irgendwelche verstrahlten Verschwörungstheoretiker; ein Livestream oder ein Video aus einer Krisenregion hat aber aktuell noch eine andere Glaubwürdigkeit. Da sehe ich durch DF auch ein massives Potenzial für Regime wie China, Syrien, Nordkorea, Russland, etc. die Videos nach eigenem Gusto zu verändern. Da kann aus einer regierungskritischen Demonstration schnell Terrorpropaganda werden - oder es lässt sich problemlos die Größe der Demonstration runterrechnen. Wenn dann im Netz 50 verschiedene Videos zu ein und demselben Ereignis zu finden sind, wird es noch viel schwieriger als jetzt sich der Wahrheit zu nähern. Ich sehe DF daher auch als ein weiteres Instrument zur Zerstörung der Glaubwürdigkeit von Fakten, welche uns ja jetzt schon Typen wie Trump eingebrockt hat. Daher bin ich mal gespannt, was das noch so für Entwicklungen nach sich ziehen wird...

    Mittels Serienaufnahme oder Videosequenzen.

    In diesem Fall, ja. Wenn die Entwicklung aktuell aber schon so weit ist, dann ist es auch nicht mehr allzu schwer den Menschen vom Hintergrund zu trennen und den Hintergrund als "starr" zu definieren. Zumal es mir gar nicht ausschließlich um Videosequenzen geht: Unvorteilhafte Bilder können auch schon einiges an Ungemach auslösen.

    *Seufz*

    Warten wir es ab. Die Ergebnisse jetzt sind schon verdammt gut und mit wachsender Rechenpower und Verständnis der zugrundeliegenden Algorithmen lässt sich das auch immer weiter verbessern. Auch das Problem mit der Beleuchtung ist für mich nur eine Frage der Zeit, bis das als Nebenbedingung sinnvoll in das Optimierungsproblem eingebaut werden wird. Warum ich das glaube? Weil ich es für realistisch halte, dass das prinzipiell möglich ist. Wir Menschen können sowas ja durchaus (bspw. begabte Künstler), daher sehe ich kein prinzipielles Hindernis, was Maschinen und die Algorithmenentwickler an der Lösung dieses Problems hindert.
    Aber alleine der jetzige Stand der Technik würde bei entsprechend einfach zu bedienender Software zur Erzeugung von kompromittierenden Bildmaterial ausreichen. Klar kann man dann fünf Stunden über die fehlerhafte Beleuchtung diskutieren, aber solange der Aspekt nicht sehr offensichtlich ist, brauchst du nicht mit viel Verständnis auf der gegenüberliegenden Seite rechnen. Um es blöd zu sagen: Menschen denken bayes'sch. Wenn ihr Prior ihnen sagt "Oh, mein Freund betrügt mich evtl." und es dann Bilder gibt, die genau das suggerieren, dann ist der Posterior für "Mein Freund betrügt mich" deutlich ausgeprägter, wenn wir einen weitestgehend uninformativen Prior für die Beleuchtungsfrage annehmen. Weniger klugscheißerisch formuliert: Wenn Indizien etwas suggerieren, was wir eh schon für relativ wahrscheinlich halten, dann müssen die Gegenbeweise umso stärker sein.
     
  20. Wenn das so leicht ist, wieso wurde es dann nicht gemacht?

    Bitte nicht böse nehmen. Aber Technologie funktioniert sehr selten so sauber und perfekt wie in einer Demonstration. Vielleicht ist das auch reine Entwicklersicht. Aber ich hab schon oft genug Videos und Live-Präsentation gesehen und gedacht "woah geil" und wenn mans dann selbst nutzt stößt man auf lauter Probleme die bei der Demonstration elegant umschifft wurden.

    Du kannst Sicher sein das das Resultat mit exakt dengleichen Eingaben das exakt selbe Ausgabe erzeugt wie in dem Video. Aber wie es mit anderen Bildern aussieht ist auf einem ganz anderen Blatt Papier. Nehmen wir das Ende vom Video wo Sie Einzelbilder von Persönlichkeiten nehmen und diese dann sprechen lassen. Du weißt nicht wieviel Fehlversuche Sie hatten bis Sie ein Bild hatten das funktioniert und in wieweit dabei getrickst wurde damit es funktioniert.

    Nur weil eine Software etwas potentiell kann, heißt das noch lange nicht das daraus ein genereller USE-Case entsteht. Einfache Erfahrung im Software-Development

    Es ist doch im Endeffekt egal wie gut oder schlecht ein Bild, ein Video oder ein Text ist. Menschen glauben was Sie glauben wollen. Das war schon immer so und wird immer so sein.

    Ich habs grad nicht mehr gefunden, aber ich hab mal ein Video von 9/11 gesehen wo jemand ein deutliches Fake Video erstellt hat von einem der nebengebäude das eingestürzt ist um zu zeigen wie leicht man sowas fälschen kann. Er hat das Gebäude gespiegelt um die "Rückseite" zu zeigen, Fake Explosionen raufgefotoshoppt, im Hintergrund ein Ufo langfliegen lassen und im Video noch eine "its a hoax" message eingefügt hat.

    https://www.youtube.com/watch?v=k8VAsoVuShM

    Trotzdem wurde das sofort geglaubt.
     
  21. dabba

    dabba
    Registriert seit:
    1. Mai 2008
    Beiträge:
    9.751
    Ort:
    Rheine
    Ein totalitärer Staat hat heute schon sehr großen Einfluss auf die Medienlandschaft in seinen Grenzen. Das ist aber kein neues Phänomen.

    Wer sich Bilder aus der Kaiserzeit anschaut, muss sich im Klaren sein: Das sind zu einem großen Teil Fotos einer kontrollierten Presse. Die allermeisten Privatleute hatten damals keine Fotoapparate und die Zeitungen durften nicht frei berichten. Aus diesem Grund kennen wir von 1914 zwar die Fotos und Berichte mit den Soldaten im Eisenbahnwagen ("Über Metz nach Paris!"), aber keine Fotos oder Berichte von Kriegsgegnern - und glauben deshalb, die ganze Bevölkerung sei en bloc kriegsbegeistert gewesen.

    So wie Fotos mit Stalin und Lenin vor 100 Jahren von "gesäuberten" Ex-Kollegen befreit wurden.
     
  22. Husky666 Mit Schleife

    Husky666
    Registriert seit:
    18. Oktober 2010
    Beiträge:
    25.758
    Feat AKK, Nahles und Horst?... Mein Gott diese Technologie ist brandgefährlich. Sowas würde zu Massenselbstmord führen :ugly:

    Bei Audioaufnahmen gibt es sowas übrigens schon lange
     
  23. unreal ..hat nun HSDPA :ugly:

    unreal
    Registriert seit:
    6. Mai 2005
    Beiträge:
    25.977
    Was denn? Köpfe kopieren halte ich für langweilig. Dann doch eher so Sachen wie auf der ersten Seite. Einer Person Sätze in den Mund legen die sie so nicht gesagt hat. Fällt viel weniger auf.
     
  24. Cas GTI Verbastler

    Cas
    Registriert seit:
    16. Dezember 2018
    Beiträge:
    13.727
    Mein RIG:
    CPU:
    i7-10700k
    Grafikkarte:
    XFX RX 5600XT THICC III PRO
    Motherboard:
    GIGABYTE Z490 UD
    RAM:
    16GB HyperX Predator
    Gehäuse:
    be quiet! Pure Base 500 white
    Maus und Tastatur:
    Razer Ornata Chroma & Roccat Kone XTD
    Monitor:
    Gigabyte M27F
  25. abelian grape Normalteiler

    abelian grape
    Registriert seit:
    26. Mai 2001
    Beiträge:
    27.627
    Ich habe nicht gesagt, dass das jetzt bereits total leicht ist, aber es ist prinzipiell sehr gut möglich. Daher sehe ich da kein Machbarkeitsproblem.

    Das ist mir auch klar. Ich betrachte solche Ergebnisse immer als Beispiel dafür, was unter bestimmten Rahmenbedingungen jetzt schon möglich ist - und das finde ich ziemlich beeindruckend. Mein Argument ist: Wenn ich die jetzigen Ergebnisse mit dem Wissen extrapoliere, dass enorme Ressourcen an Intelligenz und Geld in die Entwicklung künstlicher Intelligenz in den nächsten Jahren gesteckt werden wird, dann komme ich zu dem Schluss, dass ich in fünf bis zehn Jahren sehr gut aussehende DF für Jedermann auf dem smarten Endgerät für möglich halte. Wenn du dagegen halten willst, dass die Technik aktuell nicht so weit ist und wir nicht wissen können, wie die Entwicklung in fünf bis zehn Jahren aussehen wird, dann ist das ein natürlich ein valides Argument, an welches ich aber nicht glaube.

    In der Allgemeinheit kann ich der Aussage nicht zustimmen, weil das eine völlige Immunität der Menschheit gegenüber Fakten bedeuten würde. Ganz so schlimm ist es auch nicht. Es kommt halt drauf an, wie stark der Prior ist.

    Eindrucksvoll und würde ich jetzt eher als Bestätigung meiner "Prognosen" sehen: Je leichter Fakes sind, desto eher werden sie gemacht, desto mehr Menschen erreichen und verwirren sie. Ich erinnere mich an Diskussionen mit TheMarl früher, der gegen eine Einschränkung der Waffenverfügbarkeit ernsthaft eingeworfen hat, dass man sich, sofern man das wirklich will, auch selbst Schusswaffen bauen kann. Das ist auch keine falsche Aussage, geht aber am Kern vorbei: Es ist immer relevant, wie leicht Dinge verfügbar sind. Nicht jeder Mensch hat die gleiche Motivation etwas zu tun. Um das auf DF zu übertragen: Um meinen Ex-Partner in ein kompromittierendes Bild zu shoppen brauche ich aktuell noch einiges an Zeit - das macht man nicht sooo leicht im Affekt. Wenn aber eine App auf dem Smartphone installiert ist, die binnen 5-10 Minuten recht leicht brauchbare Ergebnisse erzeugt, dann werden das auch mehr Menschen nutzen.
     
  26. unreal ..hat nun HSDPA :ugly:

    unreal
    Registriert seit:
    6. Mai 2005
    Beiträge:
    25.977
    Der Thread hat ganze zwei Seiten. :uff::ugly:
     
  27. Cas GTI Verbastler

    Cas
    Registriert seit:
    16. Dezember 2018
    Beiträge:
    13.727
    Mein RIG:
    CPU:
    i7-10700k
    Grafikkarte:
    XFX RX 5600XT THICC III PRO
    Motherboard:
    GIGABYTE Z490 UD
    RAM:
    16GB HyperX Predator
    Gehäuse:
    be quiet! Pure Base 500 white
    Maus und Tastatur:
    Razer Ornata Chroma & Roccat Kone XTD
    Monitor:
    Gigabyte M27F
    ich bin faul :ugly:
     
  28. Boris Brunz von Brunzelschuetz

    Boris Brunz von Brunzelschuetz
    Registriert seit:
    10. Oktober 2012
    Beiträge:
    6.800
    @abelian grape

    Ich finde deine Befürchtungen nachvollziehbar, halte DF aber nicht für einen Paradigmenwechsel (ich musste übrigens auch an die retouchierten Sovietfotos denken, das Problem ist alles andere als neu). Unsere Meinungsverschiedenheit dahingehend sollte jetzt aber klar sein, weswegen ich noch kurz auf die einfache Verfügbarkeit eingehen will.

    Ich glaube nicht, dass diese Technik wirklich für jeden frei zugänglich sein wird. Ein großer Teil der Menschen ist mit allem überfordert, was nicht im App-Store ist (wo es sicher Wasserzeichen, niedrige Qualität oder sonstige Kontrollen geben wird, spätestens nach ein paar Skandalen).

    Viele Projekte auf Github etc. werden vielleicht bessere Ergebnisse liefern, doch auch hier wird es Wasserzeichen & Einschränkungen geben (einfach mal versuchen, einen Geldschein in Photoshop zu bearbeiten). Falls DF wirklich so gut wird, gibt es sicher auch automatisierte Checks oder ähnliches, um die Echtheit von Videos schnell zu überprüfen. Möglicherweise sind die Uploadfilter der großen Konzerne bis dahin auch so gut, dass die Verbreitung ein Problem wird (imho dauert es wie gesagt noch ein wenig).

    Es ist sicher nicht unmöglich, aber es wird sicher nicht so einfach für die Masse sein. Es fällt mir echt schwer zu glauben, dass DF-Pornos ein größeres Problem für den Durchschnittsmenschen sein werden als geleaktes Sexting heute.
     
  29. abelian grape Normalteiler

    abelian grape
    Registriert seit:
    26. Mai 2001
    Beiträge:
    27.627
    Wobei das in meinen Augen eine gesetzliche Reglementierung erfordern würde, da ich an keine freiwillige Selbstverpflichtung der Hersteller glauben mag. Aber ja, ich denke auch, dass eine wirklich große Verfügbarkeit die Existenz im App-Store als Voraussetzung hätte.

    Wir werden sicherlich eine Gegenbewegung erleben, welche die Sicherstellung der Authentizität von Bildern zur Aufgabe hat. Wie sich das ausprägt, keine Ahnung. Wasserzeichen und gesetzliche Vorgaben könnten Anfänge darstellen.
    Ich will hier auch keine Untergangsszenarien malen - wir als Gesellschaft werden auch lernen mit DF umzugehen. Allerdings glaube ich auch, dass die leicht zugängliche, sehr gute Fälschungsmöglichkeiten durchaus einen relevanten Einfluss auf die Gesellschaft haben. Bspw. darauf, wie wir mit visuellen Informationsquellen umgehen: Ob wir diesen dann nur noch trauen, wenn sie aus zwanzig verschiedenen Richtungen kommen; ob wir ihnen gar nicht mehr trauen; ob wir gute Verifikationsmöglichkeiten entwickeln können, usw.
     
  30. Boris Brunz von Brunzelschuetz

    Boris Brunz von Brunzelschuetz
    Registriert seit:
    10. Oktober 2012
    Beiträge:
    6.800
    Ist das nicht heute schon sehr oft der Fall? Es gibt so viel Scheiße (also so Sachen wie Liveleak, Revenge-Porn, Kinderpornos) im Netz und trotzdem sehe ich davon so gut wie gar nichts auf Mainstream-Seiten (sowas wie Bild, Spiegel, Facebook, Youtube). Da wird schon jetzt stark gefiltert. In Zukunft eben auch Deep Fakes, die sich vielleicht auch per Algo erkennen lassen.
     
  31. abelian grape Normalteiler

    abelian grape
    Registriert seit:
    26. Mai 2001
    Beiträge:
    27.627
    Klar, aber ich beziehe mich ja ausschließlich auf die Verfügbarkeit. Auch im analogen Zeitalter gab es schon zahlreiche Fälschungen - die Digitalisierung hat aber dennoch relevante Veränderungen auch in diesem Bereich nach sich gezogen. Diese Veränderungen bekommen wir ja nicht einmal so richtig deutlich mit, weil sie nicht isoliert geschehen. Ich denke auch, dass es hier so ähnlich sein wird. Wir werden entweder wirksame Mittel gegen Fakes entwickeln (was ich allerdings für weniger wahrscheinlich halte) oder auf eine stärkere Konsistenz und Diversität der Quellen achten müssen. Das führt dann aber auch dazu, dass einzelne Ereignisse gar nicht mehr richtig beurteilt werden können. Ich erinnere mich noch gut an sehr ausgiebige und kontroverse Diskussionen hier über den Krieg in der Ost-Ukraine und Russlands Einflussnahme da; da war meinem Empfinden nach auch irgendwann nicht mehr wirklich erkennbar, was nun Fakt und was Fiktion ist. DF stellt da ein weiteres, recht mächtiges Werkzeug dar.
     
  32. unreal ..hat nun HSDPA :ugly:

    unreal
    Registriert seit:
    6. Mai 2005
    Beiträge:
    25.977
    Und weil die Projekte auf Github meistens Open Source sind, ist so ein Wasserzeichen schnell entfernt.
     
  33. Aspen Call me BAKA

    Aspen
    Registriert seit:
    27. Mai 2007
    Beiträge:
    27.496
  34. Cas GTI Verbastler

    Cas
    Registriert seit:
    16. Dezember 2018
    Beiträge:
    13.727
    Mein RIG:
    CPU:
    i7-10700k
    Grafikkarte:
    XFX RX 5600XT THICC III PRO
    Motherboard:
    GIGABYTE Z490 UD
    RAM:
    16GB HyperX Predator
    Gehäuse:
    be quiet! Pure Base 500 white
    Maus und Tastatur:
    Razer Ornata Chroma & Roccat Kone XTD
    Monitor:
    Gigabyte M27F
  35. Gnarf

    Gnarf
    Registriert seit:
    17. März 2008
    Beiträge:
    6.080
    Doch :teach:
    [​IMG]
    :ugly:
     
  36. RedRanger ●-Stein-der-Schande

    RedRanger
    Registriert seit:
    18. August 2004
    Beiträge:
    36.414
    Mein RIG:
    CPU:
    Eckig
    Grafikkarte:
    Auch eckig
    Motherboard:
    Ebenfalls eckig
    RAM:
    Eher so länglich eckig
    Laufwerke:
    Rund oder solide
    Soundkarte:
    In den 90ern
    Gehäuse:
    Groß und quaderig
    Maus und Tastatur:
    Eckig, klein und ergonomisch
    Monitor:
    Rechteckig
    Helli und FainMcConner gefällt das.
  37. Aspen Call me BAKA

    Aspen
    Registriert seit:
    27. Mai 2007
    Beiträge:
    27.496
  38. Vögelchen Baumwolldealer des Vertrauens

    Vögelchen
    Registriert seit:
    13. Januar 2005
    Beiträge:
    90.365
    Ein richtiger Despot braucht das doch gar nicht, der hat eh die Presse gleichgeschaltet und bestimmt die Inhalte. :nixblick:
     
    FainMcConner und dabba gefällt das.
  39. dabba

    dabba
    Registriert seit:
    1. Mai 2008
    Beiträge:
    9.751
    Ort:
    Rheine
    Hey, mir fällt gerade was ein: Vielleicht werden dadurch Synchros von Filmen besser! Bislang haben Übersetzer von Synchros ja das Problem, dass sie nicht frei übersetzen können, sondern so übersetzen müssen, dass der deutsche Text halbwegs auf die Mundbewegungen des Schauspielers passt. Wenn sie jetzt frei übersetzen können und die Mundbewegungen trotzdem sehr gut passen, bekommen wir vielleicht bessere Texte in deutschen Fassungen. :yes:
     
    MacbethsWhisper, RedRanger und MikeDee gefällt das.
  40. dabba

    dabba
    Registriert seit:
    1. Mai 2008
    Beiträge:
    9.751
    Ort:
    Rheine
    Gibts dafür auch Beispiele im Netz?

    Das würde mich mal interessieren, wie das klingt, wenn bspw. ein Trump oder ein Jon St. John akzentfrei Deutsch "sprechen". :ugly:
     
Top