Keine Offenlegung, kein Bezahlung: X nutzt Monetarisierung gegen synthetische Kriegs-Fehlinformationen aus

Coinpedia

X hat eine strenge neue Richtlinie eingeführt, um die Verbreitung von kriegsbezogener Desinformation, die durch künstliche Intelligenz erzeugt wurde, zu bekämpfen – und trifft die Schöpfer dort, wo es weh tut: an ihrem Geldbeutel.

Die Rolle der Community Notes

Die Social-Media-Plattform X hat eine bedeutende Überarbeitung ihrer Richtlinien zur Einnahmenbeteiligung für Creator angekündigt, die sich gegen KI-generierte Videos von bewaffneten Konflikten richtet. Dieser Schritt erfolgt vor dem Hintergrund des eskalierenden Nahost-Kriegs und wachsender Bedenken hinsichtlich Fehlinformationen während des Konflikts.

Nikita Bier, Produktleiter bei X, sagte, dass Creator, die KI-generierte Kriegsszenen ohne Offenlegung posten, für 90 Tage vom Einnahmenbeteiligungsprogramm ausgeschlossen werden. Wiederholte Verstöße führen zu einem dauerhaften Bann. Die Durchsetzung erfolgt durch Community Notes, das crowdsourcierte Faktenprüfungs-System der Plattform, sowie durch Metadaten und Signale, die in generativen KI-Tools eingebettet sind.

Bier betonte, dass es in Kriegszeiten entscheidend ist, dass die Menschen Zugang zu authentischen Informationen vom Ort des Geschehens haben. Er warnte, dass moderne KI es einfach macht, Inhalte zu erstellen, die Menschen in die Irre führen können.

Die Ankündigung erfolgt, während sich Fehlinformationen im Internet rasch verbreiten, insbesondere im Zusammenhang mit dem Krieg zwischen den USA, Israel und Iran, der zu einem größeren regionalen Konflikt zu werden droht. Soziale Medien stehen unter zunehmendem Druck, synthetische Medien daran zu hindern, die öffentliche Wahrnehmung während Krisen zu verzerren.

Unter den viralen Inhalten befindet sich ein hochproduziertes KI-Video, das die Zerstörung des Flugzeugträgers USS Abraham Lincoln simuliert. Die Behauptungen und das Video wurden vom US Central Command widerlegt. Das filmreife Video zeigt Hyperschallraketen, die die US-Aegis-Abwehrsysteme überwältigen. Ein anderes Clip soll das regionale Hauptquartier der CIA zerstört zeigen; Faktenprüfer konnten jedoch nachweisen, dass dieses auf einem 2015 in Sharjah, Vereinigte Arabische Emirate, stattgefundenen Wohnungsbrand basiert, der mit KI digital auf eine militärische Attacke manipuliert wurde.

Andere Plattformen wie YouTube und TikTok haben Offenlegungspflichten für KI-generierte Inhalte eingeführt, doch X verfolgt einen strengeren Ansatz, da die Einhaltung direkt an die Monetarisierung gekoppelt ist. X setzt stark auf Community Notes als dezentrales Faktenprüfungsinstrument, und diese neue Richtlinie integriert dieses System in die Durchsetzung, wodurch die Erkennung von nicht offengelegten KI-Kriegsinhalten effektiv crowdsourct wird.

FAQ ❓

  • Warum setzt X das durch? X sagt, nicht offengelegte KI-Kriegsvideos könnten während des Iran-Konflikts irreführend sein.
  • Wie betrifft das die Creator? Creator müssen KI-Kriegsaufnahmen offenlegen oder verlieren den Zugang zu Einnahmen.
  • Warum ist diese Richtlinie hier so dringend? X verweist auf virale Fake-Clips, die die regionalen Spannungen anheizen.
  • Was bedeutet das für die Nutzer? Die Regel soll sicherstellen, dass Nutzer authentische Konfliktberichte sehen, nicht KI-Fakes.
Original anzeigen
Disclaimer: The information on this page may come from third parties and does not represent the views or opinions of Gate. The content displayed on this page is for reference only and does not constitute any financial, investment, or legal advice. Gate does not guarantee the accuracy or completeness of the information and shall not be liable for any losses arising from the use of this information. Virtual asset investments carry high risks and are subject to significant price volatility. You may lose all of your invested principal. Please fully understand the relevant risks and make prudent decisions based on your own financial situation and risk tolerance. For details, please refer to Disclaimer.
Kommentieren
0/400
Keine Kommentare