Autor: Boxu Li
Metas Vibes-Feed ist ein kürzlich eingeführter Kurzvideo-Feed, der vollständig aus KI-generierten Videos besteht. Ende September 2025 eingeführt, hat diese Funktion schnell Aufmerksamkeit erregt durch ihren TikTok-ähnlichen endlosen Scroll von algorithmisch personalisierten Clips – außer dass hier jedes Video von künstlicher Intelligenz generiert wird[1][2]. In den Wochen seit der Einführung hat Vibes mit einem Anstieg des Engagements in Metas KI-App korreliert und wichtige Fragen darüber aufgeworfen, wie KI-gesteuerte Content-Feeds funktionieren und wie sie im Vergleich zu Plattformen wie TikTok, YouTube Shorts und Instagram Reels abschneiden. Dieser Bericht bietet einen Überblick über Vibes, einen technischen Einblick in sein Content-Generierungs- und Empfehlungssystem, sein frühes Wachstum und Benutzerengagement, Vergleiche mit anderen Feeds und Einblicke in seine zukünftige Entwicklung.

Vibes ist ein KI-Video-Feed, der in die Meta AI-Mobile-App und Website (unter meta.ai) integriert ist. Er wurde entwickelt, um kurze KI-generierte Videos zu entdecken, zu erstellen und zu teilen[4]. Im Wesentlichen funktioniert er ähnlich wie beliebte Kurzvideo-Feeds auf sozialen Plattformen – ein Nutzer öffnet den Feed und scrollt vertikal durch einen endlosen Strom von Clips. Anders als bei TikTok oder Reels, wo Videos von menschlichen Nutzern erstellt werden, werden Vibes-Clips von künstlichen Intelligenzmodellen generiert (oft aus Text- oder Bildanweisungen) und dann von Nutzern oder Erstellern über den Feed geteilt[1]. Mark Zuckerberg stellte Vibes mit Beispielen seiner KI-erstellt Videos vor, wie „eine Gruppe von flauschigen Kreaturen, die zwischen flauschigen Würfeln hüpfen, eine Katze, die Teig knetet, und eine altägyptische Frau, die ein Selfie mit Blick auf das alte Ägypten macht“[5] – surreale, kreative Ausschnitte, die typisch für KI-generierte Visuals sind.
Meta präsentiert Vibes als eine Möglichkeit, Kreativität und Inspiration zu entfachen. Beim Durchstöbern von Vibes begegnen Ihnen laut Unternehmen eine Vielzahl von KI-Videos, die von „Erstellern und Gemeinschaften“ beigesteuert werden, und der Feed wird im Laufe der Zeit allmählich auf Ihre Vorlieben abgestimmt[2]. Wenn ein Video Ihre Aufmerksamkeit erregt, können Sie mit Vibes aktiv werden: Sie können Ihr eigenes Video von Grund auf neu erstellen oder ein bestehendes Video im Feed remixen, indem Sie dessen Visuals, Stil oder Musik anpassen[6]. Die Benutzeroberfläche enthält integrierte KI-Bearbeitungswerkzeuge, sodass Sie mit ein paar Klicks beispielsweise einen KI-Clip einer Stadtsilhouette bei Sonnenuntergang in eine Szene bei Sonnenaufgang mit anderer Musik „remixen“ können. Wenn Sie zufrieden sind, können Sie Ihre Kreation im öffentlichen Vibes-Feed teilen, sie Freunden per DM senden oder sie als Reel oder Story auf Instagram/Facebook cross-posten[7]. (Tatsächlich kann jemand, der ein von Meta KI-generiertes Video auf Instagram sieht, darauf tippen und direkt in die Meta AI-App springen, um es selbst zu remixen[8][9].) Kurz gesagt, Vibes ist nicht nur ein Lean-Back-Feed zum Konsumieren, sondern auch ein Lean-Forward Spielplatz für die Erstellung und Zusammenarbeit an KI-Videos.
Diese Funktion ist wichtig, weil sie einen der ersten Versuche eines großen sozialen Medienunternehmens darstellt, einen speziellen sozialen Feed um von KI-generierte Inhalte aufzubauen. Meta testet damit die Bereitschaft der Nutzer für das, was einige Kritiker als „endlosen KI-Schlamm“ bezeichnet haben – endlose Ströme synthetischer Medien[1][10]. Die anfänglichen Reaktionen waren gemischt: Viele Nutzer waren skeptisch und posteten Kommentare wie „Niemand will das“ unter Zuckerbergs Ankündigung[10]. Dennoch zeigen frühe Daten, dass Vibes einen erheblichen Anstieg der App-Nutzung bewirkt hat, was auf eine bedeutende Neugier und Engagement mit KI-Videos hindeutet[11][12]. Diese Spannung – zwischen Skepsis gegenüber „KI-Inhalten“ und dem tatsächlichen Nutzerverhalten – macht Vibes zu einem wichtigen Experiment in der sich entwickelnden Beziehung zwischen KI und sozialen Medien.
Vibes kombiniert modernste KI-Generierungstools mit einem vertrauten Empfehlungssystem, ähnlich wie bei anderen Kurzvideo-Plattformen. Um die Funktion zu verstehen, sind zwei technische Aspekte wichtig: (1) wie die KI-Videos erstellt werden und (2) wie der Feed entscheidet, welche Videos jedem Nutzer angezeigt werden.
Alle Inhalte im Vibes-Feed werden von generativen KI-Modellen erstellt, die oft auf Text-zu-Bild- und Bild-zu-Video-Synthese basieren. Zum Start gab Meta Partnerschaften mit bekannten KI-Inhaltserstellern bekannt – Midjourney (für die Erstellung hochwertiger Bilder) und Black Forest Labs (eine Gruppe, die für ihr FLUX Text-zu-Video-Modell und andere visuelle KI-Forschung bekannt ist) – um die frühen Versionen von Vibes zu unterstützen[13]. In der Praxis könnte ein typisches Vibes-Video damit beginnen, dass ein Benutzer eine beschreibende Eingabeaufforderung eingibt (z. B. „majestätische Bergziegen, die durch tiefen Schnee im hellen Tageslicht springen“). Das System generiert einen kurzen Videoclip, der zu dieser Eingabeaufforderung passt; tatsächlich wird in der Vibes-App jedes Video zusammen mit der Texteingabe angezeigt, die es erstellt hat, was Transparenz über seinen KI-Ursprung bietet[14]. Benutzer haben berichtet, dass sich viele Vibes-Clips wie „träumerische Vignetten aus Texteingaben mit Musik“ anfühlen – zum Beispiel „pastellfarbene Haustiere in unmöglichen Räumen“, „neonbeleuchtete Stadtlandschaften, die vorbeirauschen“ oder „fotorealistische Roadtrips, die mitten in der Kurve verdampfen“[15]. Diese visuellen Darstellungen spiegeln die aktuellen Fähigkeiten (und Einschränkungen) von generativer Video-KI wider, die beeindruckende Bilder erzeugen kann, aber oft eine narrative Struktur oder Kontinuität fehlt (ein Punkt, den wir erneut ansprechen werden)[16][17].
Aus einer Werkzeugperspektive ermöglicht Vibes den Nutzern, entweder neue Videos von Grund auf zu erstellen oder vorhandene zu remixen. Das Erstellen von Grund auf erfordert das Bereitstellen einer Idee – entweder in Form eines Prompts, eines Anfangsbildes oder sogar unter Verwendung eines eigenen Fotos/Videos als Grundlage – und lässt die KI-Modelle von Meta einen neuen Clip erstellen[18]. Die „Remix“-Funktion ist besonders neuartig: Man kann sich jedes KI-Video im Feed schnappen und es modifizieren, indem man „neue visuelle Elemente hinzufügt, Musik überlagert oder den Stil ändert“[18]. Zum Beispiel könnte man einen Clip eines ruhigen Waldes sehen, der von jemandem generiert wurde, und ihn remixen, indem man der KI anweist, einen Wasserfall hinzuzufügen und einen cartoonartigen Kunststil anzuwenden, wodurch ein neues abgeleitetes Video entsteht. Dieser Remix kann dann dir zugeschrieben und geteilt werden. Die Idee ist, iterative Kreativität zu fördern, ähnlich wie TikTok Duette oder Remixe ermöglicht, aber hier ist das Remixen KI-gestützt. Meta betont, dass Vibes ein Ort ist, um „kreative Inspiration zu finden und mit [seinen] KI-Medienwerkzeugen zu experimentieren“, nahtlos von „Inspiration zu Kreation“ zu gelangen[19][8]
Im Backend entwickelt Meta weiterhin seine eigenen proprietären generativen KI-Modelle für Videos, daher stützt es sich vorübergehend auf Partner[13]. Die Technologie von Midjourney hilft wahrscheinlich dabei, hochwertige Bilder oder Keyframes basierend auf Benutzeranfragen zu generieren, während das Videomodell von Black Forest Labs diese möglicherweise in Bewegung interpoliert oder anderweitig kurze Videosequenzen aus Text generiert. (Black Forest Labs ist bekannt für die Entwicklung modernster Text-zu-Video-KI und ihr FLUX-System kann tatsächlich „Text oder Bilder in beeindruckende Videos verwandeln“[20].) Die Vibes-Inhalts-Pipeline könnte die Bildgenerierung mit Animationstechniken kombinieren – zum Beispiel eine Reihe von KI-generierten Frames produzieren und sie zu einem Video glätten. Die genauen Modelle, die verwendet werden, wurden nicht öffentlich detailliert, aber Kommentatoren haben beobachtet, dass die Ergebnisse in Vibes weit weniger auffällige Mängel aufweisen (wie zusätzliche Finger oder verzerrte Gesichter) als die letztjährige Generation von KI-Videos, was darauf hindeutet, dass Meta die Inhalte kuratiert hat, um relativ hochwertige Ausgaben hervorzuheben[21]. Dennoch bleiben Artefakte: Die Physik kann falsch sein (Wasser oder Bewegungen können unnatürlich erscheinen) und die Kohärenz zwischen den Frames „blinkt manchmal an und aus“, was daran erinnert, dass die generative Videotechnologie noch in der Entwicklung ist[17].
Meta hat Schutzmaßnahmen eingeführt, um zu kontrollieren, was die KI generieren kann. Zum Beispiel erlaubt die Meta AI-App nicht das Erstellen von Videos mit echten Menschen, Prominenten oder öffentlichen Persönlichkeiten, und Nutzer können auch keine Videos erstellen, die auf dem Abbild anderer basieren[22][23]. Diese Richtlinien sollen den Missbrauch im Stil von Deepfakes auf der Plattform verhindern. Zusätzlich hat sich Meta verpflichtet, KI-generierte Medien klar zu kennzeichnen und unterstützt Industriestandards wie die C2PA Content Credentials zur Herkunftsbestimmung[24]. In der Praxis bedeutet das, dass Vibes-Videos als KI-generiert gekennzeichnet sind (und wie bereits erwähnt, das ursprüngliche Prompt anzeigen). Diese Transparenz wird zunehmend wichtig, wenn Vibes-Inhalte auf größeren Plattformen verbreitet werden – Nutzer sollten auf einen Blick zwischen einem authentischen Video und einem KI-generierten Clip unterscheiden können, um Vertrauen zu erhalten.
Ein Kernbestandteil der Vibes-Technologie ist der algorithmische Feed, der entscheidet, welche KI-Videos jedem Nutzer angezeigt werden. In seiner aktuellen Form verhält sich Vibes wie jeder andere engagement-optimierte Inhaltsfeed: Es nutzt KI-gesteuerte Empfehlungen, um vorherzusagen, welche Clips Sie zum Weiterschauen und Interagieren bringen, und liefert diese Clips dann in einem endlosen Stream aus. „Während Sie stöbern, wird der Feed mit der Zeit personalisierter“, sagt Meta[25], was bedeutet, dass das System aus Ihrem Verhalten lernt. Wenn Sie bei Videos von beispielsweise verspielten Kätzchen und lebendigen Stadtlandschaften verweilen oder diese „liken“, zeigt Vibes Ihnen mehr davon an; wenn Sie schnell an Sportclips vorbeiwischen oder abstrakte Kunstvideos überspringen, erscheinen diese seltener. Je mehr Sie konsumieren, desto feiner abgestimmt wird der Feed, um Sie beim Scrollen zu halten[26]. Dieses Design greift in die gleiche Dopaminschleife wie die „For You“-Seite von TikTok oder die Reels von Instagram ein: wischen, Inhalte genießen, die zum weiteren Wischen anregen, in einem sich selbst verstärkenden Kreislauf[27].
Unter der Haube verwendet Meta wahrscheinlich ein groß angelegtes Deep-Learning-Empfehlungsmodell, ähnlich wie bei seinen anderen Feeds (Facebook, Instagram) – eines, das Dutzende von Signalen berücksichtigt (Videothema, visueller Stil, Ihre bisherigen Likes/Aufrufe, möglicherweise Ihre demografischen Daten oder Interessen), um Inhalte zu bewerten. Ein einzigartiger Aspekt ist, dass da die Inhalte von Vibes KI-generiert sind, das System nicht darauf beschränkt ist, Ihnen nur Videos zu zeigen, die menschliche Ersteller zufällig erstellt haben – theoretisch könnte es Videos auf Abruf generieren, die auf Ihre Interessen zugeschnitten sind. Traditionelle Feeds sind durch den Pool an nutzergenerierten Inhalten eingeschränkt: Zum Beispiel kann der Algorithmus von TikTok nur Videos bereitstellen, die jemand irgendwo erstellt und hochgeladen hat. Mit Vibes könnte der Algorithmus, wenn er feststellt, dass Sie eine Nische wirklich lieben (zum Beispiel „Sonnenuntergänge über Ozeanklippen mit Lo-Fi-Musik“), potenziell endlos frische Clips genau dieser Nische generieren. Beobachter haben dies als revolutionäre Veränderung bezeichnet: „Traditionelle Empfehlungsalgorithmen wählen Dinge aus, von denen sie glauben, dass Sie sich wahrscheinlich damit beschäftigen werden, aber mit [Vibes] kann der Inhalt speziell für Sie maßgeschneidert werden.“[28] Mit anderen Worten, der Feed selbst könnte zu einem generativen Motor werden. (Beim Start bietet Vibes hauptsächlich Videos, die von Benutzern oder eingeladenen KI-Erstellern erstellt wurden, an, anstatt völlig neue ohne menschlichen Anstoß zu erschaffen. Aber die Infrastruktur öffnet die Tür, um den generativen Prozess algorithmisch zu steuern – ein mächtiges Konzept, das Meta in Zukunft erkunden könnte.)
Selbst ohne die sofortige Generierung kann die Personalisierung in Vibes das umfangreiche Datenökosystem von Meta nutzen. Tatsächlich hat Meta angekündigt, dass es beginnen wird, Daten aus Ihren Interaktionen mit KI über seine Plattformen hinweg zu verwenden, um Inhaltsvorschläge zu verfeinern. Beispielsweise könnten Ihre Gespräche mit dem Meta-KI-Assistenten (Text- oder Sprachchats) als Signale genutzt werden, um zu personalisieren, welche Beiträge oder Reels Sie auf Facebook und Instagram sehen[29]. Wenn Sie mit Metas KI über Wandern chatten, könnten Ihnen später mehr Inhalte zu Outdoor-Aktivitäten angezeigt werden – „Wandergruppen, Beiträge über lokale Wanderwege oder sogar Anzeigen für Wanderschuhe“, wie Meta erklärt[29]. Diese Richtlinie tritt Ende 2025 in Kraft und deutet auf eine Zukunft hin, in der Ihre Interessen, die Sie KI-Agenten mitteilen, in Ihre Inhaltsfeeds einfließen. Für Vibes könnte dies bedeuten, dass wenn Sie den Meta-KI-Assistenten (in die App integriert) viel über ein bestimmtes Anime oder einen Kunststil fragen, der Vibes-Algorithmus dies berücksichtigen und KI-Videos anzeigen könnte, die mit diesen Interessen übereinstimmen. Meta versichert, dass sensible Themen (wie Gesundheit, Religion, politische Ansichten, die in Chats geäußert werden) von dieser Personalisierung ausgeschlossen werden[30], und sich nur auf harmlose Interessensindikatoren konzentriert.
Insgesamt ist die Vibes-Empfehlungsmaschine eine Erweiterung von Metas Expertise in engagementgesteuerten Feeds, die nun auf einen KI-Inhaltskatalog angewendet wird. Sie nutzt die Vertrautheit dessen, was TikTok so fesselnd macht – schnelle Feedback-Schleifen und prädiktive Modellierung – und fügt die Dimension von generativer KI hinzu. Das Ergebnis ist, was ein Kommentator als eine „endlose Schlammmaschine“ bezeichnete – wissenschaftlich optimierte Inhalte, um Aufmerksamkeit zu halten, obwohl möglicherweise „hypnotische Bewegung mit minimalem Inhalt“.[31][32] Im nächsten Abschnitt werden wir sehen, wie sich dies in Bezug auf Nutzerengagement-Zahlen auswirkt.
Seit dem Start von Vibes am 25. September 2025 hat die mobile App von Meta AI einen dramatischen Anstieg der Nutzung erlebt. Eine unabhängige Analyse des Marktforschungsunternehmens Similarweb zeigte, dass die täglichen aktiven Nutzer (DAUs) der App von ungefähr 775.000 vor Vibes auf etwa 2,7 Millionen Mitte Oktober gestiegen sind[11][12] – ein Anstieg von ~3,5× in weniger als einem Monat. Der Wachstumstrend ist in den Daten von Similarweb deutlich erkennbar: Unmittelbar nach der Einführung von Vibes stieg die DAU-Kurve steil an[33]. (siehe Abbildung unten)

Tägliche aktive Nutzer der Meta AI-App (weltweit, iOS + Android). Ein starker Anstieg von unter 0,8 Millionen auf etwa 2,7 Millionen tägliche Nutzer fällt mit der Einführung des Vibes-Video-Feeds Ende September 2025 zusammen[11][33]. Diagramm: Similarweb.
Neben der Nutzung stiegen auch die App-Downloads erheblich an. Die Meta AI-App verzeichnete einen Anstieg von unter 200.000 neuen Installationen pro Tag auf rund 300.000 neue Downloads täglich im Oktober[34][35]. Zum Vergleich: Ein Jahr zuvor (Oktober 2024) war die App nahezu unbekannt – mit nur etwa 4.000 Downloads pro Tag[36]. Jetzt verzeichnet sie Hunderttausende tägliche Installationen und erreicht zeitweise sogar Spitzenpositionen in App-Stores. Dies deutet darauf hin, dass Vibes nicht nur bestehende Nutzer wieder aktiviert hat, sondern auch viele neue Nutzer angelockt hat, die sich für die Generierung von AI-Videos interessieren.
Meta hat noch keine offiziellen internen Kennzahlen gemeldet, aber das Timing deutet stark darauf hin, dass Vibes der Wachstumstreiber ist. Similarweb stellte „keine bedeutende Korrelation“ mit externem Marketing oder Suchtrends fest, die den Anstieg erklären könnten, und keinen breiten Facebook/Instagram-Verkehrsanstieg in dieser Woche (obwohl, wenn Meta intern in seinen eigenen Apps Cross-Promotion betrieben hat, könnten Similarwebs Modelle dies möglicherweise nicht vollständig erfassen)[37][38]. Stattdessen deuten alle Anzeichen darauf hin, dass der kurzformatige AI-Video-Feed der Anreiz ist, der die Menschen anzieht. Viele Nutzer haben wahrscheinlich von Vibes gehört oder Beiträge darüber gesehen und die Meta AI-App geöffnet, um AI-Clips zu erstellen oder anzusehen.
Interessanterweise fiel der Anstieg auch mit einem aufsehenerregenden Moment in der KI-Welt zusammen: OpenAIs Veröffentlichung von „Sora“, einem rivalisierenden KI-Video-Generator, zur gleichen Zeit. Die Sora-App erreichte die Spitze des iOS App Stores, da die Menschen begierig darauf waren, Videos mit OpenAIs Technologie zu erstellen[39]. Allerdings war Sora nur auf Einladung verfügbar, wodurch viele interessierte Nutzer ausgeschlossen wurden. Meta scheint von dieser aufgestauten Nachfrage profitiert zu haben – es bot ein vergleichbares KI-Video-Tool ohne Warteliste an (jeder mit einem Meta-Konto konnte Vibes kostenlos nutzen)[40][23]. Wie TechCrunch feststellte, „diejenigen, die die OpenAI-App nicht ausprobieren konnten, haben möglicherweise nach einer Alternative gesucht… OpenAIs Entscheidung, Sora nur eingeschränkt verfügbar zu machen, könnte direkt seinen Rivalen zugutegekommen sein.“[41] Mit anderen Worten, ein Teil des Hypes um Sora schwappte auf Meta AI über und zog neugierige Kreatoren oder Nutzer an.
Es ist auch erwähnenswert, dass während der Zeitraum, in dem die App von Meta AI um ca. 15,6 % in den täglichen aktiven Nutzern zulegte, einige andere KI-Apps Rückgänge verzeichneten: Die Nutzung der ChatGPT-App von OpenAI wurde um ca. 3,5 % geschätzt, Elon Musks Grok (ein KI-Chatbot) um ca. 7,3 %, und die KI-Such-App Perplexity um ca. 2,3 % [42][43]. Dies deutet auf eine Verschiebung der Benutzeraufmerksamkeit hin zu generativen visuellen Apps hin – die Leute könnten einen Teil ihrer „KI-Zeit“ darauf verwendet haben, mit Videokreationen zu experimentieren, anstatt nur mit Text-Chatbots. Meta AI hat sich effektiv differenziert, indem es zu einer Zeit, in der das Interesse an der Erstellung von KI-Inhalten hoch ist, ein unterhaltsames visuelles Erlebnis über Vibes angeboten hat.
Aus der Perspektive des Engagements ist Kurzvideo ein kraftvolles Format. Daten von Data.ai und anderen zeigen, dass TikTok die Branche bei der verbrachten Zeit pro Benutzer anführt, wobei Benutzer oft Hunderte von Kurzvideos in einer Sitzung ansehen[44]. Auch Instagram und YouTube haben sich aufgrund dieses hohen Engagement-Potenzials um schnelle Clips (Reels, Shorts) neu organisiert[44]. Durch die Einführung von Vibes hat Meta seiner KI-App ein ähnliches „Schwergewichtsformat“ der Aufmerksamkeit-Ökonomie gegeben[45]. Erste anekdotische Beweise deuten darauf hin, dass Vibes tatsächlich „süchtig machend“ sein kann – einige Benutzer berichten, dass sie schnell vom hypnotischen Fluss des Inhalts angezogen werden[31][27]. Wenn jedes KI-Video nur 10–30 Sekunden lang ist und der Algorithmus lernt, welche Bilder Sie faszinieren, ist es leicht vorstellbar, dass Benutzer die Zeit aus den Augen verlieren, während sie durch diesen „unendlichen KI-Videofeed“ scrollen.
Allerdings stellt sich die entscheidende Frage, ob dieses Engagement nachhaltig ist. Neuheit ist ein großer Faktor – das erste Mal, wenn man KI-Videos sieht, wie zum Beispiel eine Katze, die durch den Weltraum schwebt, oder eine fotorealistische Tour durch das antike Rom, ist es faszinierend. Aber einige haben bemerkt, dass der „Neuheitseffekt“ schnell abflacht[46]. Im Gegensatz zu von Menschen erstellten TikToks, die oft Humor, Geschichten oder nachvollziehbare Momente enthalten, fehlt vielen KI-generierten Clips ein erzählerischer Hintergrund oder emotionaler Anreiz[16]. Sie können wie zufällige „Augenschmaus“ wirken – für einen Moment schön oder sonderbar, aber ohne Kontext oder Belohnung. Mit der Zeit könnte dies einschränken, wie lange Benutzer engagiert bleiben oder wie oft sie zurückkehren. Metas Herausforderung wird es sein, den Inhalt spannend zu halten, da die Messlatte für KI-Video-Unterhaltung steigt.
Für den Moment sind die Wachstumszahlen nach dem Start von Vibes jedoch ein starkes Signal dafür, dass sowohl Neugier als auch Interesse an KI-gesteuerten Videoerlebnissen besteht. Meta hat effektiv die Nutzerbasis seiner KI-App angekurbelt und befindet sich nun in einem Wettlauf, dieses Engagement zu vertiefen, bevor der Trend abflaut oder die Konkurrenz aufholt.
Vibes betritt eine Arena, die von Plattformen wie TikTok, YouTube Shorts und Instagram Reels dominiert wird, die den Standard für algorithmisch gesteuerte Video-Feeds gesetzt haben. Es ist nützlich, Vibes im Hinblick auf Inhalt, Benutzererfahrung und zugrunde liegende Algorithmen mit diesen etablierten Anbietern zu vergleichen:
Zusammenfassend lässt sich sagen, dass Vibes die süchtig machende Form von TikTok/Shorts (kurze vertikale Videos, endloses Scrollen, personalisierte Auswahlen) repliziert, während es durch die Nutzung von generativer KI und eingebautem Remixing bei der Inhaltserstellung innovativ ist. Das Benutzererlebnis ist ein Kompromiss: Man verliert die menschliche Nähe und Spontaneität traditioneller viraler Videos, gewinnt dafür aber eine Fülle von fantastischen, „außergewöhnlichen“ Inhalten auf Abruf. Für KI-Enthusiasten und -Ersteller ist das spannend. Für Nutzer, die nach authentischer Verbindung oder Informationen suchen, könnte es im Vergleich zu echten Einblicken in das Leben von Menschen weniger ansprechend sein. Es ist bezeichnend, dass Meta Vibes als separaten Feed eingeführt hat – vielleicht in Anerkennung dessen, dass ein reiner KI-Video-Feed eine bestimmte Nutzergruppe anspricht, während andere ihn ignorieren oder sogar negativ reagieren könnten, wenn er in ihren normalen sozialen Feed eindringen würde.
Da Vibes sich noch in den Anfängen befindet, gibt es mehrere offene Fragen und potenzielle Richtungen für Metas KI-Video-Feed:
Metas Vibes-Video-Feed ist ein mutiger Vorstoß in die von KI gesteuerten sozialen Inhalte und verbindet die bewährten Engagement-Mechanismen von TikTok-ähnlichen Feeds mit den aufkommenden Fähigkeiten der generativen KI. In kurzer Zeit hat Vibes sowohl den Reiz als auch die Kontroversen eines solchen Konzepts gezeigt – Millionen wurden dazu bewegt, AI-Videos zu erstellen und anzusehen, während Skeptiker den Inhalt als „KI-Müll“ abtun. Technisch zeigt Vibes, wie Empfehlungsalgorithmen und generative Modelle sich verflechten können und möglicherweise eine neue Ära personalisierter Medien einläuten, die für dich erstellt werden, nicht nur für dich ausgewählt werden. Es hebt auch Herausforderungen in Bezug auf Inhaltsqualität, Authentizität und Benutzerwirkung hervor, die Meta und andere bewältigen müssen.
Ende 2025 ist Vibes noch ein frühes Experiment – aber eines mit erheblichem Schwung. Sein Anstieg an Benutzerwachstum und Engagement zeigt, dass Meta etwas Faszinierendes für das KI-neugierige Publikum entdeckt hat. Das Feature wird sich wahrscheinlich schnell weiterentwickeln, mit besseren KI-Modellen, mehr Integration über Metas Plattformen hinweg und neuen Regeln, während sowohl das Unternehmen als auch seine Community lernen, was funktioniert (und was nicht). Vergleiche mit TikTok, YouTube Shorts und Reels sind natürlich, und tatsächlich konkurriert Vibes um Aufmerksamkeit, doch Vibes ist auch eine ganz andere Kreatur: ein Feed, bei dem der Ersteller genauso viel Algorithmus wie Mensch ist.
Für ein KI-kundiges Publikum ist Vibes eine Fallstudie für angewandte KI im großen Maßstab – teils eine Präsentation generativer KI, teils eine Social-Media-Strategie. Ob es ein eigenwilliges Nebenprojekt bleibt oder als Blaupause für zukünftige Feeds dient, hängt davon ab, wie die Nutzer langfristig reagieren. Werden wir unendliche KI-Inhalte akzeptieren, wenn sie uns unterhalten, oder sehnen wir uns nach der unvergleichlichen Authentizität menschlich geschaffener Momente? Im Grunde stellt Meta mit Vibes genau diese Frage. Das kommende Jahr sollte einige Antworten liefern, während wir beobachten, wie sich Vibes entwickelt und möglicherweise Konkurrenten inspiriert, ihre eigenen KI-gestützten Feeds zu starten. In der Zwischenzeit, wenn Sie mehr KI-Videos in Ihrem Leben brauchen, wird Ihnen Metas neuer Vibes-Feed „alles servieren, was Sie vertragen können.“
Quellen:
[3] [15] [16] [17] [21] [24] [26] [27] [31] [32] [44] [45] [46] [49] [50] [54] [55] [57] Was steckt hinter Meta Vibes Infinite AI Video Feed
https://www.theverge.com/news/786499/meta-ai-vibes-feed-discover-videos
https://flux-ai.io/flux-video-ai/
https://www.theverge.com/news/789168/meta-ai-chats-personalized-advertising