28
submitted 3 days ago by [email protected] to c/[email protected]
you are viewing a single comment's thread
view the rest of the comments
[-] [email protected] 2 points 2 days ago

Ich Stimme zu, dass das "einfachste" Indiz bei den Beispielen die Stimme ist. Hier kommt es oft zu Stimmverzerrungen, die stark nach Dekodierfehler klingen, aber nur die Stimme betreffen.

Was auch auffällt sind Hintergrundcharakter. Ein gutes Beispiel ist die falsche Autoexpo. Wenn man die Szenen mit dem Mann mit dem Kinderwagen genauer ansieht, sind die Posen vom Mann und Kinderwagen immer sehr ähnlich. Des weiteren verhält sich der Mann sehr ungewöhnlich. Menschen verhalten sich sehr eigenartig wenn sie wissen, dass sie gefilmt werden, und man merkt dass sie oftmals achtsam die Kamera ignorieren während sie dennoch Aufmerksamkeit der Kamera geben. Teilweise schnelle Bewegungen durch die Anspannung, was die KI immer noch schlecht imitieren kann.

Generell ist die beste Strategie skeptisch zu Medien zu sein und die Inhalte zu hinterfragen.

[-] [email protected] 2 points 2 days ago

Schrift und Logos kriegt das Ding auch null hin

this post was submitted on 28 May 2025
28 points (100.0% liked)

DACH - Deutschsprachige Community für Deutschland, Österreich, Schweiz

3868 readers
359 users here now

Das Sammelbecken auf feddit.org für alle Deutschsprechenden aus Deutschland, Österreich, Schweiz, Liechtenstein, Luxemburg und die zwei Belgier. Außerdem natürlich alle anderen deutschprechenden Länderteile der Welt.

Für länderspezifische Themen könnt ihr euch in folgenden Communities austauschen:

___

Aus gegebenem Anlass werden Posts zum Thema Palästina / Israel hier auf Dach gelöscht. Dasselbe gilt zurzeit für Wahlumfragen al´a Sonntagsumfrage.
___

Einsteigertipps für Neue gibt es hier.
___

Eine ausführliche Sidebar mit den Serverregeln usw. findet ihr auf der Startseite von feddit.org

___

founded 11 months ago
MODERATORS