Diese Woche zeigt sich YouTube besonders spendabel gegenüber seinen Livestreamer:innen (und deren Publikum), Threads orientiert sich an Instagram und launcht ein neues Feature ähnlich der Broadcast-Channels, X wertet sein KI-Angebot auf und vieles mehr!
Währenddessen herrscht dicke Luft: Der Streit zwischen Alix Earle und Alex Cooper ist das Top-Thema auf Social Media. Ist es ein PR-Stunt? Wer weiß das schon – die Community lechzt jedenfalls nach jedem Detail des Dramas. Lies weiter für mehr Social Media News
YouTube führt neue Funktionen für Livestreams ein
Video credit: YouTube
YouTube verzögert Werbeanzeigen in Livestreams, wenn die Chat-Interaktion besonders hoch ist. Zuschauer:innen, die den Stream durch Super Chats, Super Sticker oder Käufe unterstützen, erhalten zudem ein werbefreies Zeitfenster, um den Moment nicht zu verpassen. Weitere Neuerungen: GIFs sind nun auch in horizontalen Streams verfügbar, Creators können gleichzeitig vertikal und horizontal live gehen und alle Zuschauer:innen nutzen dabei denselben gemeinsamen Chat.
Threads ergänzt ein neues Feature, um Nutzenden bei Events und Diskussionen auf dem Laufenden zu halten. Die Funktion namens Live-Chats ähnelt stark den Broadcast-Channels von Instagram. Creators können einen Chat mit Partner:innen starten und Nachrichten zu einem Thema senden. Andere Nutzer:innen können den Chat abonnieren und darauf reagieren, jedoch selbst keine Nachrichten verfassen.
xAI hat eine Reihe neuer KI-Updates angekündigt, darunter neue Speech-to-Text-APIs, Preiserhöhungen für bestimmte API-Dienste sowie eine Kooperation mit OpenClaw. Zudem ist ein neues Coding-Terminal in Planung. Um das System weiter zu verbessern, arbeitet xAI außerdem daran, die Anzahl an Original-Posts auf X zu erhöhen, um mehr Backend-Daten für das KI-Training zu gewinnen.
TikTok integriert das KI-Videomodell Seedance 2.0 von ByteDance in sein Symphony-Ad-Toolkit. Marketer können damit wie gewohnt arbeiten, erhalten jedoch hochwertigere Videos mit perfekt synchronisiertem Audio. TikTok erklärt: “Das Modell verbessert die Produktkonsistenz, sodass Produkte über verschiedene Videosegmente hinweg ohne manuelle Korrekturen erkennbar bleiben. Zudem wirken Bewegungen natürlicher und flüssiger. Das bedeutet weniger Zeitaufwand für Nachbesserungen und mehr Spielraum für die Skalierung von Kampagnen.‘“