Autor: Boxu Li

Metas Vibes-Feed ist ein kürzlich eingeführter Kurzvideo-Feed, der vollständig aus KI-generierten Videos besteht. Ende September 2025 eingeführt, hat diese Funktion schnell Aufmerksamkeit erregt durch ihren TikTok-ähnlichen endlosen Scroll von algorithmisch personalisierten Clips – außer dass hier jedes Video von künstlicher Intelligenz generiert wird[1][2]. In den Wochen seit der Einführung hat Vibes mit einem Anstieg des Engagements in Metas KI-App korreliert und wichtige Fragen darüber aufgeworfen, wie KI-gesteuerte Content-Feeds funktionieren und wie sie im Vergleich zu Plattformen wie TikTok, YouTube Shorts und Instagram Reels abschneiden. Dieser Bericht bietet einen Überblick über Vibes, einen technischen Einblick in sein Content-Generierungs- und Empfehlungssystem, sein frühes Wachstum und Benutzerengagement, Vergleiche mit anderen Feeds und Einblicke in seine zukünftige Entwicklung.

Was ist „Vibes“?

Vibes ist ein KI-Video-Feed, der in die Meta AI-Mobile-App und Website (unter meta.ai) integriert ist. Er wurde entwickelt, um kurze KI-generierte Videos zu entdecken, zu erstellen und zu teilen[4]. Im Wesentlichen funktioniert er ähnlich wie beliebte Kurzvideo-Feeds auf sozialen Plattformen – ein Nutzer öffnet den Feed und scrollt vertikal durch einen endlosen Strom von Clips. Anders als bei TikTok oder Reels, wo Videos von menschlichen Nutzern erstellt werden, werden Vibes-Clips von künstlichen Intelligenzmodellen generiert (oft aus Text- oder Bildanweisungen) und dann von Nutzern oder Erstellern über den Feed geteilt[1]. Mark Zuckerberg stellte Vibes mit Beispielen seiner KI-erstellt Videos vor, wie „eine Gruppe von flauschigen Kreaturen, die zwischen flauschigen Würfeln hüpfen, eine Katze, die Teig knetet, und eine altägyptische Frau, die ein Selfie mit Blick auf das alte Ägypten macht“[5] – surreale, kreative Ausschnitte, die typisch für KI-generierte Visuals sind.

Meta präsentiert Vibes als eine Möglichkeit, Kreativität und Inspiration zu entfachen. Beim Durchstöbern von Vibes begegnen Ihnen laut Unternehmen eine Vielzahl von KI-Videos, die von „Erstellern und Gemeinschaften“ beigesteuert werden, und der Feed wird im Laufe der Zeit allmählich auf Ihre Vorlieben abgestimmt[2]. Wenn ein Video Ihre Aufmerksamkeit erregt, können Sie mit Vibes aktiv werden: Sie können Ihr eigenes Video von Grund auf neu erstellen oder ein bestehendes Video im Feed remixen, indem Sie dessen Visuals, Stil oder Musik anpassen[6]. Die Benutzeroberfläche enthält integrierte KI-Bearbeitungswerkzeuge, sodass Sie mit ein paar Klicks beispielsweise einen KI-Clip einer Stadtsilhouette bei Sonnenuntergang in eine Szene bei Sonnenaufgang mit anderer Musik „remixen“ können. Wenn Sie zufrieden sind, können Sie Ihre Kreation im öffentlichen Vibes-Feed teilen, sie Freunden per DM senden oder sie als Reel oder Story auf Instagram/Facebook cross-posten[7]. (Tatsächlich kann jemand, der ein von Meta KI-generiertes Video auf Instagram sieht, darauf tippen und direkt in die Meta AI-App springen, um es selbst zu remixen[8][9].) Kurz gesagt, Vibes ist nicht nur ein Lean-Back-Feed zum Konsumieren, sondern auch ein Lean-Forward Spielplatz für die Erstellung und Zusammenarbeit an KI-Videos.

Diese Funktion ist wichtig, weil sie einen der ersten Versuche eines großen sozialen Medienunternehmens darstellt, einen speziellen sozialen Feed um von KI-generierte Inhalte aufzubauen. Meta testet damit die Bereitschaft der Nutzer für das, was einige Kritiker als „endlosen KI-Schlamm“ bezeichnet haben – endlose Ströme synthetischer Medien[1][10]. Die anfänglichen Reaktionen waren gemischt: Viele Nutzer waren skeptisch und posteten Kommentare wie „Niemand will das“ unter Zuckerbergs Ankündigung[10]. Dennoch zeigen frühe Daten, dass Vibes einen erheblichen Anstieg der App-Nutzung bewirkt hat, was auf eine bedeutende Neugier und Engagement mit KI-Videos hindeutet[11][12]. Diese Spannung – zwischen Skepsis gegenüber „KI-Inhalten“ und dem tatsächlichen Nutzerverhalten – macht Vibes zu einem wichtigen Experiment in der sich entwickelnden Beziehung zwischen KI und sozialen Medien.

Hinter den Kulissen: Wie Vibes funktioniert

Vibes kombiniert modernste KI-Generierungstools mit einem vertrauten Empfehlungssystem, ähnlich wie bei anderen Kurzvideo-Plattformen. Um die Funktion zu verstehen, sind zwei technische Aspekte wichtig: (1) wie die KI-Videos erstellt werden und (2) wie der Feed entscheidet, welche Videos jedem Nutzer angezeigt werden.

KI-generierter Video-Content-Prozess

Alle Inhalte im Vibes-Feed werden von generativen KI-Modellen erstellt, die oft auf Text-zu-Bild- und Bild-zu-Video-Synthese basieren. Zum Start gab Meta Partnerschaften mit bekannten KI-Inhaltserstellern bekannt – Midjourney (für die Erstellung hochwertiger Bilder) und Black Forest Labs (eine Gruppe, die für ihr FLUX Text-zu-Video-Modell und andere visuelle KI-Forschung bekannt ist) – um die frühen Versionen von Vibes zu unterstützen[13]. In der Praxis könnte ein typisches Vibes-Video damit beginnen, dass ein Benutzer eine beschreibende Eingabeaufforderung eingibt (z. B. „majestätische Bergziegen, die durch tiefen Schnee im hellen Tageslicht springen“). Das System generiert einen kurzen Videoclip, der zu dieser Eingabeaufforderung passt; tatsächlich wird in der Vibes-App jedes Video zusammen mit der Texteingabe angezeigt, die es erstellt hat, was Transparenz über seinen KI-Ursprung bietet[14]. Benutzer haben berichtet, dass sich viele Vibes-Clips wie „träumerische Vignetten aus Texteingaben mit Musik“ anfühlen – zum Beispiel „pastellfarbene Haustiere in unmöglichen Räumen“, „neonbeleuchtete Stadtlandschaften, die vorbeirauschen“ oder „fotorealistische Roadtrips, die mitten in der Kurve verdampfen“[15]. Diese visuellen Darstellungen spiegeln die aktuellen Fähigkeiten (und Einschränkungen) von generativer Video-KI wider, die beeindruckende Bilder erzeugen kann, aber oft eine narrative Struktur oder Kontinuität fehlt (ein Punkt, den wir erneut ansprechen werden)[16][17].

Aus einer Werkzeugperspektive ermöglicht Vibes den Nutzern, entweder neue Videos von Grund auf zu erstellen oder vorhandene zu remixen. Das Erstellen von Grund auf erfordert das Bereitstellen einer Idee – entweder in Form eines Prompts, eines Anfangsbildes oder sogar unter Verwendung eines eigenen Fotos/Videos als Grundlage – und lässt die KI-Modelle von Meta einen neuen Clip erstellen[18]. Die „Remix“-Funktion ist besonders neuartig: Man kann sich jedes KI-Video im Feed schnappen und es modifizieren, indem man „neue visuelle Elemente hinzufügt, Musik überlagert oder den Stil ändert“[18]. Zum Beispiel könnte man einen Clip eines ruhigen Waldes sehen, der von jemandem generiert wurde, und ihn remixen, indem man der KI anweist, einen Wasserfall hinzuzufügen und einen cartoonartigen Kunststil anzuwenden, wodurch ein neues abgeleitetes Video entsteht. Dieser Remix kann dann dir zugeschrieben und geteilt werden. Die Idee ist, iterative Kreativität zu fördern, ähnlich wie TikTok Duette oder Remixe ermöglicht, aber hier ist das Remixen KI-gestützt. Meta betont, dass Vibes ein Ort ist, um „kreative Inspiration zu finden und mit [seinen] KI-Medienwerkzeugen zu experimentieren“, nahtlos von „Inspiration zu Kreation“ zu gelangen[19][8]

Im Backend entwickelt Meta weiterhin seine eigenen proprietären generativen KI-Modelle für Videos, daher stützt es sich vorübergehend auf Partner[13]. Die Technologie von Midjourney hilft wahrscheinlich dabei, hochwertige Bilder oder Keyframes basierend auf Benutzeranfragen zu generieren, während das Videomodell von Black Forest Labs diese möglicherweise in Bewegung interpoliert oder anderweitig kurze Videosequenzen aus Text generiert. (Black Forest Labs ist bekannt für die Entwicklung modernster Text-zu-Video-KI und ihr FLUX-System kann tatsächlich „Text oder Bilder in beeindruckende Videos verwandeln“[20].) Die Vibes-Inhalts-Pipeline könnte die Bildgenerierung mit Animationstechniken kombinieren – zum Beispiel eine Reihe von KI-generierten Frames produzieren und sie zu einem Video glätten. Die genauen Modelle, die verwendet werden, wurden nicht öffentlich detailliert, aber Kommentatoren haben beobachtet, dass die Ergebnisse in Vibes weit weniger auffällige Mängel aufweisen (wie zusätzliche Finger oder verzerrte Gesichter) als die letztjährige Generation von KI-Videos, was darauf hindeutet, dass Meta die Inhalte kuratiert hat, um relativ hochwertige Ausgaben hervorzuheben[21]. Dennoch bleiben Artefakte: Die Physik kann falsch sein (Wasser oder Bewegungen können unnatürlich erscheinen) und die Kohärenz zwischen den Frames „blinkt manchmal an und aus“, was daran erinnert, dass die generative Videotechnologie noch in der Entwicklung ist[17].

Meta hat Schutzmaßnahmen eingeführt, um zu kontrollieren, was die KI generieren kann. Zum Beispiel erlaubt die Meta AI-App nicht das Erstellen von Videos mit echten Menschen, Prominenten oder öffentlichen Persönlichkeiten, und Nutzer können auch keine Videos erstellen, die auf dem Abbild anderer basieren[22][23]. Diese Richtlinien sollen den Missbrauch im Stil von Deepfakes auf der Plattform verhindern. Zusätzlich hat sich Meta verpflichtet, KI-generierte Medien klar zu kennzeichnen und unterstützt Industriestandards wie die C2PA Content Credentials zur Herkunftsbestimmung[24]. In der Praxis bedeutet das, dass Vibes-Videos als KI-generiert gekennzeichnet sind (und wie bereits erwähnt, das ursprüngliche Prompt anzeigen). Diese Transparenz wird zunehmend wichtig, wenn Vibes-Inhalte auf größeren Plattformen verbreitet werden – Nutzer sollten auf einen Blick zwischen einem authentischen Video und einem KI-generierten Clip unterscheiden können, um Vertrauen zu erhalten.

Personalisierung und die Vibes-Empfehlungs-Engine

Ein Kernbestandteil der Vibes-Technologie ist der algorithmische Feed, der entscheidet, welche KI-Videos jedem Nutzer angezeigt werden. In seiner aktuellen Form verhält sich Vibes wie jeder andere engagement-optimierte Inhaltsfeed: Es nutzt KI-gesteuerte Empfehlungen, um vorherzusagen, welche Clips Sie zum Weiterschauen und Interagieren bringen, und liefert diese Clips dann in einem endlosen Stream aus. „Während Sie stöbern, wird der Feed mit der Zeit personalisierter“, sagt Meta[25], was bedeutet, dass das System aus Ihrem Verhalten lernt. Wenn Sie bei Videos von beispielsweise verspielten Kätzchen und lebendigen Stadtlandschaften verweilen oder diese „liken“, zeigt Vibes Ihnen mehr davon an; wenn Sie schnell an Sportclips vorbeiwischen oder abstrakte Kunstvideos überspringen, erscheinen diese seltener. Je mehr Sie konsumieren, desto feiner abgestimmt wird der Feed, um Sie beim Scrollen zu halten[26]. Dieses Design greift in die gleiche Dopaminschleife wie die „For You“-Seite von TikTok oder die Reels von Instagram ein: wischen, Inhalte genießen, die zum weiteren Wischen anregen, in einem sich selbst verstärkenden Kreislauf[27].

Unter der Haube verwendet Meta wahrscheinlich ein groß angelegtes Deep-Learning-Empfehlungsmodell, ähnlich wie bei seinen anderen Feeds (Facebook, Instagram) – eines, das Dutzende von Signalen berücksichtigt (Videothema, visueller Stil, Ihre bisherigen Likes/Aufrufe, möglicherweise Ihre demografischen Daten oder Interessen), um Inhalte zu bewerten. Ein einzigartiger Aspekt ist, dass da die Inhalte von Vibes KI-generiert sind, das System nicht darauf beschränkt ist, Ihnen nur Videos zu zeigen, die menschliche Ersteller zufällig erstellt haben – theoretisch könnte es Videos auf Abruf generieren, die auf Ihre Interessen zugeschnitten sind. Traditionelle Feeds sind durch den Pool an nutzergenerierten Inhalten eingeschränkt: Zum Beispiel kann der Algorithmus von TikTok nur Videos bereitstellen, die jemand irgendwo erstellt und hochgeladen hat. Mit Vibes könnte der Algorithmus, wenn er feststellt, dass Sie eine Nische wirklich lieben (zum Beispiel „Sonnenuntergänge über Ozeanklippen mit Lo-Fi-Musik“), potenziell endlos frische Clips genau dieser Nische generieren. Beobachter haben dies als revolutionäre Veränderung bezeichnet: „Traditionelle Empfehlungsalgorithmen wählen Dinge aus, von denen sie glauben, dass Sie sich wahrscheinlich damit beschäftigen werden, aber mit [Vibes] kann der Inhalt speziell für Sie maßgeschneidert werden.“[28] Mit anderen Worten, der Feed selbst könnte zu einem generativen Motor werden. (Beim Start bietet Vibes hauptsächlich Videos, die von Benutzern oder eingeladenen KI-Erstellern erstellt wurden, an, anstatt völlig neue ohne menschlichen Anstoß zu erschaffen. Aber die Infrastruktur öffnet die Tür, um den generativen Prozess algorithmisch zu steuern – ein mächtiges Konzept, das Meta in Zukunft erkunden könnte.)

Selbst ohne die sofortige Generierung kann die Personalisierung in Vibes das umfangreiche Datenökosystem von Meta nutzen. Tatsächlich hat Meta angekündigt, dass es beginnen wird, Daten aus Ihren Interaktionen mit KI über seine Plattformen hinweg zu verwenden, um Inhaltsvorschläge zu verfeinern. Beispielsweise könnten Ihre Gespräche mit dem Meta-KI-Assistenten (Text- oder Sprachchats) als Signale genutzt werden, um zu personalisieren, welche Beiträge oder Reels Sie auf Facebook und Instagram sehen[29]. Wenn Sie mit Metas KI über Wandern chatten, könnten Ihnen später mehr Inhalte zu Outdoor-Aktivitäten angezeigt werden – „Wandergruppen, Beiträge über lokale Wanderwege oder sogar Anzeigen für Wanderschuhe“, wie Meta erklärt[29]. Diese Richtlinie tritt Ende 2025 in Kraft und deutet auf eine Zukunft hin, in der Ihre Interessen, die Sie KI-Agenten mitteilen, in Ihre Inhaltsfeeds einfließen. Für Vibes könnte dies bedeuten, dass wenn Sie den Meta-KI-Assistenten (in die App integriert) viel über ein bestimmtes Anime oder einen Kunststil fragen, der Vibes-Algorithmus dies berücksichtigen und KI-Videos anzeigen könnte, die mit diesen Interessen übereinstimmen. Meta versichert, dass sensible Themen (wie Gesundheit, Religion, politische Ansichten, die in Chats geäußert werden) von dieser Personalisierung ausgeschlossen werden[30], und sich nur auf harmlose Interessensindikatoren konzentriert.

Insgesamt ist die Vibes-Empfehlungsmaschine eine Erweiterung von Metas Expertise in engagementgesteuerten Feeds, die nun auf einen KI-Inhaltskatalog angewendet wird. Sie nutzt die Vertrautheit dessen, was TikTok so fesselnd macht – schnelle Feedback-Schleifen und prädiktive Modellierung – und fügt die Dimension von generativer KI hinzu. Das Ergebnis ist, was ein Kommentator als eine „endlose Schlammmaschine“ bezeichnete – wissenschaftlich optimierte Inhalte, um Aufmerksamkeit zu halten, obwohl möglicherweise „hypnotische Bewegung mit minimalem Inhalt“.[31][32] Im nächsten Abschnitt werden wir sehen, wie sich dies in Bezug auf Nutzerengagement-Zahlen auswirkt.

Nutzerengagement-Spitze und Wachstumstrends

Seit dem Start von Vibes am 25. September 2025 hat die mobile App von Meta AI einen dramatischen Anstieg der Nutzung erlebt. Eine unabhängige Analyse des Marktforschungsunternehmens Similarweb zeigte, dass die täglichen aktiven Nutzer (DAUs) der App von ungefähr 775.000 vor Vibes auf etwa 2,7 Millionen Mitte Oktober gestiegen sind[11][12] – ein Anstieg von ~3,5× in weniger als einem Monat. Der Wachstumstrend ist in den Daten von Similarweb deutlich erkennbar: Unmittelbar nach der Einführung von Vibes stieg die DAU-Kurve steil an[33]. (siehe Abbildung unten)

Tägliche aktive Nutzer der Meta AI-App (weltweit, iOS + Android). Ein starker Anstieg von unter 0,8 Millionen auf etwa 2,7 Millionen tägliche Nutzer fällt mit der Einführung des Vibes-Video-Feeds Ende September 2025 zusammen[11][33]. Diagramm: Similarweb.

Neben der Nutzung stiegen auch die App-Downloads erheblich an. Die Meta AI-App verzeichnete einen Anstieg von unter 200.000 neuen Installationen pro Tag auf rund 300.000 neue Downloads täglich im Oktober[34][35]. Zum Vergleich: Ein Jahr zuvor (Oktober 2024) war die App nahezu unbekannt – mit nur etwa 4.000 Downloads pro Tag[36]. Jetzt verzeichnet sie Hunderttausende tägliche Installationen und erreicht zeitweise sogar Spitzenpositionen in App-Stores. Dies deutet darauf hin, dass Vibes nicht nur bestehende Nutzer wieder aktiviert hat, sondern auch viele neue Nutzer angelockt hat, die sich für die Generierung von AI-Videos interessieren.

Meta hat noch keine offiziellen internen Kennzahlen gemeldet, aber das Timing deutet stark darauf hin, dass Vibes der Wachstumstreiber ist. Similarweb stellte „keine bedeutende Korrelation“ mit externem Marketing oder Suchtrends fest, die den Anstieg erklären könnten, und keinen breiten Facebook/Instagram-Verkehrsanstieg in dieser Woche (obwohl, wenn Meta intern in seinen eigenen Apps Cross-Promotion betrieben hat, könnten Similarwebs Modelle dies möglicherweise nicht vollständig erfassen)[37][38]. Stattdessen deuten alle Anzeichen darauf hin, dass der kurzformatige AI-Video-Feed der Anreiz ist, der die Menschen anzieht. Viele Nutzer haben wahrscheinlich von Vibes gehört oder Beiträge darüber gesehen und die Meta AI-App geöffnet, um AI-Clips zu erstellen oder anzusehen.

Interessanterweise fiel der Anstieg auch mit einem aufsehenerregenden Moment in der KI-Welt zusammen: OpenAIs Veröffentlichung von „Sora“, einem rivalisierenden KI-Video-Generator, zur gleichen Zeit. Die Sora-App erreichte die Spitze des iOS App Stores, da die Menschen begierig darauf waren, Videos mit OpenAIs Technologie zu erstellen[39]. Allerdings war Sora nur auf Einladung verfügbar, wodurch viele interessierte Nutzer ausgeschlossen wurden. Meta scheint von dieser aufgestauten Nachfrage profitiert zu haben – es bot ein vergleichbares KI-Video-Tool ohne Warteliste an (jeder mit einem Meta-Konto konnte Vibes kostenlos nutzen)[40][23]. Wie TechCrunch feststellte, „diejenigen, die die OpenAI-App nicht ausprobieren konnten, haben möglicherweise nach einer Alternative gesucht… OpenAIs Entscheidung, Sora nur eingeschränkt verfügbar zu machen, könnte direkt seinen Rivalen zugutegekommen sein.“[41] Mit anderen Worten, ein Teil des Hypes um Sora schwappte auf Meta AI über und zog neugierige Kreatoren oder Nutzer an.

Es ist auch erwähnenswert, dass während der Zeitraum, in dem die App von Meta AI um ca. 15,6 % in den täglichen aktiven Nutzern zulegte, einige andere KI-Apps Rückgänge verzeichneten: Die Nutzung der ChatGPT-App von OpenAI wurde um ca. 3,5 % geschätzt, Elon Musks Grok (ein KI-Chatbot) um ca. 7,3 %, und die KI-Such-App Perplexity um ca. 2,3 % [42][43]. Dies deutet auf eine Verschiebung der Benutzeraufmerksamkeit hin zu generativen visuellen Apps hin – die Leute könnten einen Teil ihrer „KI-Zeit“ darauf verwendet haben, mit Videokreationen zu experimentieren, anstatt nur mit Text-Chatbots. Meta AI hat sich effektiv differenziert, indem es zu einer Zeit, in der das Interesse an der Erstellung von KI-Inhalten hoch ist, ein unterhaltsames visuelles Erlebnis über Vibes angeboten hat.

Aus der Perspektive des Engagements ist Kurzvideo ein kraftvolles Format. Daten von Data.ai und anderen zeigen, dass TikTok die Branche bei der verbrachten Zeit pro Benutzer anführt, wobei Benutzer oft Hunderte von Kurzvideos in einer Sitzung ansehen[44]. Auch Instagram und YouTube haben sich aufgrund dieses hohen Engagement-Potenzials um schnelle Clips (Reels, Shorts) neu organisiert[44]. Durch die Einführung von Vibes hat Meta seiner KI-App ein ähnliches „Schwergewichtsformat“ der Aufmerksamkeit-Ökonomie gegeben[45]. Erste anekdotische Beweise deuten darauf hin, dass Vibes tatsächlich „süchtig machend“ sein kann – einige Benutzer berichten, dass sie schnell vom hypnotischen Fluss des Inhalts angezogen werden[31][27]. Wenn jedes KI-Video nur 10–30 Sekunden lang ist und der Algorithmus lernt, welche Bilder Sie faszinieren, ist es leicht vorstellbar, dass Benutzer die Zeit aus den Augen verlieren, während sie durch diesen „unendlichen KI-Videofeed“ scrollen.

Allerdings stellt sich die entscheidende Frage, ob dieses Engagement nachhaltig ist. Neuheit ist ein großer Faktor – das erste Mal, wenn man KI-Videos sieht, wie zum Beispiel eine Katze, die durch den Weltraum schwebt, oder eine fotorealistische Tour durch das antike Rom, ist es faszinierend. Aber einige haben bemerkt, dass der „Neuheitseffekt“ schnell abflacht[46]. Im Gegensatz zu von Menschen erstellten TikToks, die oft Humor, Geschichten oder nachvollziehbare Momente enthalten, fehlt vielen KI-generierten Clips ein erzählerischer Hintergrund oder emotionaler Anreiz[16]. Sie können wie zufällige „Augenschmaus“ wirken – für einen Moment schön oder sonderbar, aber ohne Kontext oder Belohnung. Mit der Zeit könnte dies einschränken, wie lange Benutzer engagiert bleiben oder wie oft sie zurückkehren. Metas Herausforderung wird es sein, den Inhalt spannend zu halten, da die Messlatte für KI-Video-Unterhaltung steigt.

Für den Moment sind die Wachstumszahlen nach dem Start von Vibes jedoch ein starkes Signal dafür, dass sowohl Neugier als auch Interesse an KI-gesteuerten Videoerlebnissen besteht. Meta hat effektiv die Nutzerbasis seiner KI-App angekurbelt und befindet sich nun in einem Wettlauf, dieses Engagement zu vertiefen, bevor der Trend abflaut oder die Konkurrenz aufholt.

Wie sich Vibes im Vergleich zu TikTok, Shorts und Reels verhält

Vibes betritt eine Arena, die von Plattformen wie TikTok, YouTube Shorts und Instagram Reels dominiert wird, die den Standard für algorithmisch gesteuerte Video-Feeds gesetzt haben. Es ist nützlich, Vibes im Hinblick auf Inhalt, Benutzererfahrung und zugrunde liegende Algorithmen mit diesen etablierten Anbietern zu vergleichen:

  • Inhaltlicher Ursprung: Der offensichtlichste Unterschied ist, dass Vibes zu 100 % aus KI-generiertem Inhalt besteht, während TikTok, Shorts und Reels überwiegend von Menschen erstellte Videos zeigen (gelegentlich mit Filtern oder Effekten). Auf TikTok oder Reels siehst du echte Menschen tanzen, Comedy-Sketche machen, Rezepte kochen oder Nachrichten berichten. Bei Vibes siehst du KI-synthetisierte Szenen – oft fantastische oder unmögliche Momente (eine Katze, die ein Raumschiff steuert, eine fiktive Figur, die zum Leben erwacht, etc.). Das verleiht Vibes eine ganz andere Atmosphäre (Wortspiel beabsichtigt): Es fühlt sich mehr an, als würdest du einen Animations- oder abstrakten Kunstkanal anschauen, anstatt in das Leben echter Menschen hinein zu blicken. Einige Benutzer genießen die surreale Kreativität; andere empfinden es als „düster“ oder im Vergleich zu echten menschlichen Geschichten als zusammenhangslos[47][48].
  • Erzählung und Bedeutung: In ähnlicher Weise kann sich das Benutzererlebnis bei Vibes im Vergleich zu TikTok darin unterscheiden, wie bedeutungsvoll der Inhalt wirkt. Die viralsten Videos auf TikTok haben normalerweise eine menschliche Geschichte oder eine clevere Idee (ein Witz, eine Herausforderung, eine narrative Pointe in einem kurzen Sketch). Vibes-Videos, wie die aktuelle KI-Technologie, konzentrieren sich mehr auf visuelles Spektakel als auf Storytelling – viele Clips sind „Momente, die nichts haben, um sie in Erinnerungen zu verankern“, wie es ein Rezensent ausdrückte[49][50]. Dies kann dazu führen, dass sich der Vibes-Feed eher wie eine Reihe von visuellen Experimenten oder Musikvideo-Ausschnitten anfühlt, anstatt wie ein sozialer Feed mit nachvollziehbarem Inhalt. Das Benutzererlebnis könnte als cool, aber unpersönlich beschrieben werden. Im Gegensatz dazu fühlt es sich beim Scrollen durch TikTok oder Reels oft so an, als würdest du in die Kultur und die echten Erfahrungen von Menschen eintauchen, was emotional ansprechender sein kann. YouTube Shorts bietet eine breite Palette von Inhalten (von neu aufbereiteten TikToks bis hin zu Vlogs von Erstellern), aber auch hier steht meist ein Mensch dahinter, der Kontext oder Persönlichkeit bietet, was Vibes-Inhalten von Natur aus fehlt.
  • Personalisierungsalgorithmen: Alle diese Feeds verwenden leistungsstarke, KI-gesteuerte Empfehlungsalgorithmen, aber die Eingaben für diese Algorithmen unterscheiden sich. TikToks berühmter For You-Algorithmus lernt von einer enormen Benutzer- und Inhaltsbasis – jedes Like, Teilen, erneutes Ansehen oder Folgen hilft, Benutzer und Videos in Nischeninteressengruppen zu clustern. Vibes, das gerade erst beginnt, hatte einen kleineren Pool sowohl an Benutzern als auch an Inhalten (anfangs von eingeladenen KI-Erstellern und frühen Anwendern gespeist). Es nutzt wahrscheinlich ähnliche Signale – hast du ein Video bis zum Ende angesehen? Hast du den Herz- oder Remix-Button gedrückt? – um Interesse zu messen. Ein interessanter Vorteil für Vibes ist, dass der Algorithmus möglicherweise die tatsächlichen Prompt-Metadaten von Videos nutzt. Wenn zum Beispiel ein Prompt eines Videos „Sonnenuntergang“ und „Strand“ enthält und du stark interagierst, weiß das System, dass diese Schlüsselwörter dir gefallen haben, und kann andere Videos mit ähnlichen Beschreibungen finden (oder generieren). TikToks Algorithmus muss mithilfe von Computer Vision oder Hashtags erraten, was in einem Video enthalten ist, während Vibes den beabsichtigten Inhalt jedes Clips aus dem Prompt kennt, der es generiert hat. Dies könnte Themen-basierte Empfehlungen bei Vibes noch präziser machen. Auf der anderen Seite profitiert TikTok von sozialen Signalen und Trends – z. B. wenn Millionen von Menschen einen Tanztrend lieben, kann TikTok ihn dir zeigen, auch wenn du kein Interesse an seinem Thema gezeigt hast, da er allgemein ansprechend ist. Vibes hat zumindest anfangs nicht die gleiche Größenordnung von viralen Trends (nur wenige seiner KI-Videos werden spontan Millionen von Teilungen erreichen). Sein Feed ist individueller zugeschnitten und weniger von Massenpopularität getrieben – ein zweischneidiges Schwert für das Benutzererlebnis.
  • Soziale Funktionen und Gemeinschaft: TikTok und Reels sind von Natur aus sozial – du kannst Ersteller folgen, Inhalte von Personen sehen, denen du folgst, vermischt mit algorithmischen Vorschlägen, und Ersteller bauen sich ein Publikum auf. Vibes ist in einer Meta-KI-App, die die meisten Menschen zuvor nicht sozial genutzt haben; es ist im Wesentlichen ein neues Netzwerk, das sich auf KI-Inhalte konzentriert. Du kannst Freunden oder Erstellern auf Vibes folgen (die App ermöglicht das Teilen mit „Freunden und Followern“[51]), aber es ist noch unklar, wie robust das soziale Netzwerk dort ist. Stattdessen fühlt sich Vibes mehr wie eine Plattform zur Inhaltserkennung an als ein soziales Netzwerk. Instagram Reels integriert sich in deine bestehenden Instagram-Verbindungen, sodass du manchmal siehst, was deine Freunde geliked oder gepostet haben; Vibes hat als separate Plattform kein integriertes riesiges soziales Netzwerk (obwohl es möglicherweise dein Facebook/IG-Konto als Identität importiert). Allerdings hat Meta einen klugen Schachzug gemacht, indem es Cross-Posting zwischen Vibes und seinen Hauptplattformen ermöglicht. Ein Ersteller kann ein KI-Video in Vibes erstellen und es dann einfach auf Instagram oder Facebook teilen[7]. Dadurch könnte Vibes Inhalte in das größere soziale Ökosystem von Meta einspeisen. Wenn du bereits eine KI-Reel auf Instagram triffst (gekennzeichnet als von Meta AI erstellt), weißt du, dass sie von Vibes stammt – und Instagram lässt dich sogar darauf klicken, um sie in Vibes zu remixen[8]. Effektiv könnte Vibes ein KI-Inhaltserstellungszentrum werden, das viele Kanäle speist, während TikTok ein geschlossener Kreislauf ist (Inhalte bleiben größtenteils auf TikTok, es sei denn, sie werden anderswo manuell hochgeladen).
  • Remix-Kultur: TikTok bietet Funktionen wie „Stitch“ und „Duett“, die es Benutzern ermöglichen, auf den Videos anderer aufzubauen, aber diese erfordern immer noch, dass Benutzer etwas selbst filmen oder bearbeiten. Vibes geht beim Remixen einen Schritt weiter, indem es der KI die schwere Arbeit überlässt. Der Benutzer gibt einfach Änderungen an. Dies senkt die Schwelle zur kreativen Teilnahme – du musst nicht tanzen oder dein Gesicht filmen; du kannst dir einfach etwas vorstellen und die KI es rendern lassen. Es ist eine andere Art der kreativen Ermächtigung. Man könnte argumentieren, dass Vibes für die Videoproduktion das ist, was Instagram-Filter für die Fotografie waren – eine Möglichkeit, durchschnittliche Benutzer zu Kreativen zu machen, indem sie leistungsstarke Werkzeuge bereitstellen. Dies könnte eine neue Generation von „KI-Erstellern“ kultivieren, die vielleicht nicht charismatische Influencer vor der Kamera sind, aber großartig darin sind, coole KI-Szenen zu kreieren. TikToks Algorithmus hat es bekanntlich geschafft, gewöhnliche Menschen zu viralen Stars zu machen; Vibes könnte gewöhnliche Menschen zu KI-Filmemachern machen, wenn der Inhalt ankommt.
  • Qualität und „Schlampigkeit“: Ein kritischer Vergleichspunkt ist die Inhaltsqualität und das Risiko von “Schlamperei”. TikTok und Instagram kämpfen mit einem Anstieg von minderwertigen, klickbait-artigen Videos – einige davon sogar algorithmisch generiert oder massenproduziert – und versuchen, mehr originelle, hochwertige Inhalte zu fördern. Tatsächlich erklärte Meta Anfang 2025, dass es “unoriginelle” Inhalte eindämmen und “authentisches Storytelling” auf Facebook fördern möchte[52]. Dies ist teilweise der Grund, warum Beobachter Vibes als rätselhaft empfinden – es könnte das Meta-Ökosystem mit mehr algorithmisch generiertem, substanzarmem Inhalt überschwemmen, was im Widerspruch zu diesen Zielen steht[53]. YouTube ist ähnlich besorgt über KI-generierten Spam und hat kürzlich untersucht, wie es “KI-Schlamm” auf seiner Plattform eindämmen kann[52]. Vibes produziert in seiner aktuellen Form von Natur aus das, was einige als “hochglänzende, belanglose” Videos bezeichnen[54] – sie sind visuell beeindruckend (dank leistungsstarker Modelle), sagen aber oft nicht viel aus. In der Aufmerksamkeitsökonomie kann sich diese Art von Inhalt gut schlagen, weil sie auffällig ist und keine geistige Investition des Betrachters erfordert. Wenn die Algorithmen der großen Plattformen unkontrolliert bleiben, neigen sie dazu, solche leicht konsumierbaren Inhalte zu bevorzugen, um die Wiedergabezeit zu maximieren[54]. Die Frage ist, ob Vibes diesen Trend verdoppelt oder schließlich einen Weg findet, mehr Tiefe zu fördern (zum Beispiel längere KI-Videos mit Handlung oder mehrszenige KI-Geschichten). YouTubes Ansatz ist es, mit KI-unterstütztem Inhalt zu experimentieren (wie Dream Screen, der automatisch Videohintergründe für Shorts generiert), aber immer noch einen menschlichen Ersteller zu haben, der ihn mit einer Erzählung einrahmt[55]. Vibes befindet sich derzeit am extremen Ende – alles KI, die ganze Zeit. Es ist ein mutiger Schritt, der es abhebt, aber auch bedeutet, dass es sich mit den Neuheits- und Monotonieproblemen auseinandersetzen muss, die einzigartig für vollständig KI-gesteuerte Medien sind.

Zusammenfassend lässt sich sagen, dass Vibes die süchtig machende Form von TikTok/Shorts (kurze vertikale Videos, endloses Scrollen, personalisierte Auswahlen) repliziert, während es durch die Nutzung von generativer KI und eingebautem Remixing bei der Inhaltserstellung innovativ ist. Das Benutzererlebnis ist ein Kompromiss: Man verliert die menschliche Nähe und Spontaneität traditioneller viraler Videos, gewinnt dafür aber eine Fülle von fantastischen, „außergewöhnlichen“ Inhalten auf Abruf. Für KI-Enthusiasten und -Ersteller ist das spannend. Für Nutzer, die nach authentischer Verbindung oder Informationen suchen, könnte es im Vergleich zu echten Einblicken in das Leben von Menschen weniger ansprechend sein. Es ist bezeichnend, dass Meta Vibes als separaten Feed eingeführt hat – vielleicht in Anerkennung dessen, dass ein reiner KI-Video-Feed eine bestimmte Nutzergruppe anspricht, während andere ihn ignorieren oder sogar negativ reagieren könnten, wenn er in ihren normalen sozialen Feed eindringen würde.

Zukunftsausblick und offene Fragen für Meta

Da Vibes sich noch in den Anfängen befindet, gibt es mehrere offene Fragen und potenzielle Richtungen für Metas KI-Video-Feed:

  • Wird sich die Qualität und Vielfalt von KI-Videos verbessern? Meta hat angedeutet, dass es an leistungsfähigeren generativen Modellen und kreativen Werkzeugen für Vibes arbeitet und dabei mit “talentierten visuellen Künstlern und Kreativen” zusammenarbeitet, um die Ergebnisse zu verfeinern[56]. In naher Zukunft können wir erwarten, dass Metas eigene Video-KI-Modelle (möglicherweise basierend auf ihrer Make-A-Video-Forschung oder der Emu-Text-zu-Video-Modellfamilie) integriert werden, was die Abhängigkeit von Drittanbietern wie Midjourney reduziert. Dies könnte längere oder kohärentere Videos in den Feed bringen. Wenn sich KI-Clips zu mehreren Szenen, konsistenten Charakteren und Handlungsbögen entwickeln könnten (eine schwierige technische Herausforderung), könnte der Inhalt von Vibes ansprechender und erzählerischer werden, anstatt nur aus den derzeitigen Einzelszenen zu bestehen[57]. Metas Fähigkeit, hier den Stand der Technik voranzutreiben, wird direkt beeinflussen, ob die Nutzer bleiben, sobald der erste Wow-Effekt nachlässt.
  • Beständigkeit der Nutzerbindung: Die große Frage – war der Anstieg nach der Veröffentlichung nur ein einmaliger Novitätenrausch, oder kann Meta diese Zielgruppe halten und ausbauen? Die Bindung der Nutzer, die die App für Vibes heruntergeladen haben, wird ein entscheidender Faktor sein. Wenn viele dieser 2,7 Millionen DAUs nach ein paar Wochen wieder abspringen, wird Meta schnell reagieren müssen. Um die Nutzer immer wieder zurückzubringen, könnte Meta Gamifizierung oder Community-Funktionen einführen – vielleicht Herausforderungen für das beste KI-Video der Woche oder Möglichkeiten, den Top-KI-Kreatoren in der App zu folgen. Es könnte auch Vibes-Inhalte stärker in Facebook/Instagram-Feeds integrieren und die KI-Videos dort verbreiten, wo bereits viele Augen sind. Allerdings besteht dabei die Gefahr, dass Nutzer verärgert werden, die nicht nach “KI-Schund” in ihrem regulären Feed gefragt haben. Meta wird das Stimmungsbild sorgfältig abwägen müssen. Derzeit ist Vibes ein wenig ein experimenteller Bereich (innerhalb der Meta-KI-App), was dem Unternehmen die Freiheit gibt, Dinge auszuprobieren, ohne die Milliarden auf Facebook/IG zu verärgern.
  • Monetarisierung und Anreize für Kreatoren: Keine der aktuellen Informationen deutet auf eine Monetarisierung in Vibes hin – Videos sind werbefrei und es gibt keine bekannten Zahlungen für KI-Kreatoren. Aber wenn die Nutzung hoch bleibt, wird Meta sicherlich Wege finden, den Feed zu monetarisieren. Dies könnte gesponserte KI-Videos umfassen (Marken, die eingängige KI-Clips erstellen, um sie ähnlich wie Anzeigen zwischen Reels einzufügen) oder sogar den Verkauf von Premium-Stilen/visuellen Effekten für Kreatoren. Ein weiterer Ansatz ist Abonnements oder Bezahlschranken für erweiterte Funktionen; zum Beispiel könnte Meta es kostenlosen Nutzern erlauben, eine begrenzte Anzahl von Videos pro Tag zu erstellen, aber Vielnutzer könnten für unbegrenzte Erstellungen oder hochauflösendere Ausgaben bezahlen. Wie werden traditionelle Kreatoren reagieren? Einige könnten KI-Werkzeuge annehmen (z.B. könnte ein Influencer Vibes nutzen, um schneller Inhalte zu erstellen), während andere sich von einer Flut gesichtsloser KI-Inhalte verdrängt fühlen könnten. Meta muss möglicherweise eine Kreatorenökonomie um Vibes schaffen – möglicherweise die Anerkennung von Top-KI-Videoerstellern und deren Followern oder sogar ein Anteil an zukünftigen Einnahmen, wenn ihre Kreationen Engagement erzeugen. Dies wird entscheiden, ob Vibes zu einem florierenden Ökosystem wird oder nur ein Spielzeug für Neuheiten bleibt.
  • Integration mit AR/VR und dem Metaverse: Es ist kein Zufall, dass die Meta-KI-App auch mit der Verwaltung von Metas KI-Brillen und AR-Geräten verbunden ist[58]. Vibes könnte ein Sprungbrett zu immersiveren KI-Medien in diesen Bereichen sein. Stellen Sie sich vor, Sie tragen Metas smarte Brillen und haben KI-“Vibes” (Visuals oder kleine Videoszenen), die Ihre Umgebung überlagern, oder nutzen Ihre Stimme, um Ihre Brille zu bitten, spontan einen Vibe-Clip zu generieren. In VR (Metas Horizon- oder Quest-Plattform) könnten KI-generierte Videos oder Umgebungen Teil des Erlebnisses werden. Metas Langzeitvision sieht wahrscheinlich generative KI-Inhalte, die das Metaverse bevölkern, und ein Feed wie Vibes hilft sowohl den KI-Modellen als auch den Nutzern, KI-Visuals als Teil ihrer sozialen Inhaltsdiät zu akzeptieren. Metas jüngste Umstrukturierung in Gruppen, die sich auf Grundlagenmodelle und Produktintegration konzentrieren[59], deutet auch darauf hin, dass Funktionen wie Vibes nur der erste von vielen KI-Impulsen in ihren Produkten sind.
  • Moderation und ethische Bedenken: Mit nutzergenerierter KI kommt das immerwährende Problem der Inhaltsmoderation. Meta muss schädliche oder irreführende Inhalte auf Vibes verhindern. Während Deepfakes von echten Personen verboten sind, was ist mit KI-Videos, die sich echt anfühlen und für Nachrichten gehalten werden könnten? Wenn generative Videos besser werden, könnte ein gefälschtes Video von “einer Explosion in einer Stadt” oder “Promi macht X” Fehlinformationen verbreiten, wenn es nicht klar gekennzeichnet ist. Meta hat sich verpflichtet, KI-Inhalte zu kennzeichnen[24] und nutzt wahrscheinlich automatische Erkennung verbotener Themen (z.B. pornografische oder gewalttätige Bilder) im Generierungsprozess. Dennoch bleibt dies ein fortlaufendes Anliegen. Regulierungsbehörden beobachten KI-Inhalte; in einigen Rechtssystemen könnten Regeln entstehen, die Funktionen wie Vibes betreffen (zum Beispiel Altersbeschränkungen oder Wasserzeichen auf KI-generierten Medien erfordern). Meta wird diese navigieren müssen, um Vibes global skalieren zu können. Bemerkenswert ist, dass Meta einige KI-Funktionen zunächst aus der EU, UK und einigen Regionen ausschließt, aufgrund strengerer Daten- und KI-Vorschriften[60] – ein Zeichen dafür, dass die Einführung von Dingen wie Vibes außerhalb der USA langsamer oder angepasst erfolgen könnte, bis die Einhaltung gesichert ist.
  • Nutzerautonomie und „Sucht“: Die Kombination aus KI-generierten unendlichen Inhalten und Personalisierung wirft philosophische Fragen auf: Könnte ein Feed wie Vibes zu fesselnd werden? Einige haben halb im Scherz gesagt, es sei “das Fentanyl zum Crystal Meth der sozialen Medien”, was darauf hindeutet, dass eine KI, die genau das generieren kann, was einen stimuliert, gefährlich süchtig machen könnte[61][62]. Natürlich ist dies spekulativ und scherzhaft, aber es spiegelt ein echtes Anliegen in der KI-Gemeinschaft wider: Wenn Algorithmen einen noch besser kennen und Inhalte für einen erstellen können (nicht nur kuratieren), könnte dies die aufmerksamkeitserregende Natur sozialer Medien verstärken. Meta wird wahrscheinlich genau beobachtet werden, wenn die Nutzung von Vibes auf Kosten des Wohlbefindens der Nutzer in die Höhe schnellen sollte. Bereits jetzt beschäftigen sich alle sozialen Plattformen mit Bedenken hinsichtlich übermäßiger Bildschirmzeit. Ein KI-Inhaltsfeed könnte neue Formen von digitalen Wellness-Schutzmaßnahmen erfordern – vielleicht eingebaute Erinnerungen, eine Pause einzulegen, oder Werkzeuge, um den Algorithmus abzustimmen (wie „Ich möchte mehr Bildungsinhalte und weniger sinnlose Inhalte“). Es ist uncharted territory, wie man den Nutzern Kontrolle über einen KI-Feed gibt, der buchstäblich das macht, was sie sehen wollen.
  • Auswirkungen auf das breitere Content-Ökosystem: Schließlich lohnt es sich zu überlegen, wie ein KI-erster Feed mit menschlichen Content-Feeds koexistiert. Wenn Vibes ein separates Gebiet bleibt, könnte es diejenigen anziehen, die speziell nach KI-Kunst und Videos suchen. Aber wenn es beginnt, in Mainstream-Feeds zu fließen (z.B. könnte Facebook eines Tages einen Abschnitt „KI empfiehlt“ haben, der Vibes-ähnliche Clips zeigt), könnte es die gesamte Content-Mischung, die Menschen konsumieren, verändern. Es besteht Potenzial für KI-Content-Müdigkeit oder -Gegenreaktion: Einige könnten es leid werden, nicht zu wissen, ob das, was sie online sehen, echt oder KI ist. Andere könnten die Kreativität und den Unterhaltungswert unabhängig von der Herkunft schätzen. Metas eigene Haltung hat einen gewissen Widerspruch – früher setzten sie sich für Authentizität ein und stuften virale Low-Effort-Memes herab; jetzt haben sie ein System aufgebaut, das solche Inhalte algorithmisch in großem Maßstab produzieren kann[53]. Die kommenden Monate werden zeigen, ob Meta diesen Konflikt lösen kann. Vielleicht sehen sie Vibes als ergänzend – ein Sandkasten zum Spaß – während sie Facebook- und Instagram-Feeds in der Realität verankert halten. Oder vielleicht, wenn sich Vibes als äußerst erfolgreich erweist, könnte es eine Zukunft einläuten, in der ein bedeutender Teil unserer Social-Media-Diät maschinell generiert wird.

Fazit

Metas Vibes-Video-Feed ist ein mutiger Vorstoß in die von KI gesteuerten sozialen Inhalte und verbindet die bewährten Engagement-Mechanismen von TikTok-ähnlichen Feeds mit den aufkommenden Fähigkeiten der generativen KI. In kurzer Zeit hat Vibes sowohl den Reiz als auch die Kontroversen eines solchen Konzepts gezeigt – Millionen wurden dazu bewegt, AI-Videos zu erstellen und anzusehen, während Skeptiker den Inhalt als „KI-Müll“ abtun. Technisch zeigt Vibes, wie Empfehlungsalgorithmen und generative Modelle sich verflechten können und möglicherweise eine neue Ära personalisierter Medien einläuten, die für dich erstellt werden, nicht nur für dich ausgewählt werden. Es hebt auch Herausforderungen in Bezug auf Inhaltsqualität, Authentizität und Benutzerwirkung hervor, die Meta und andere bewältigen müssen.

Ende 2025 ist Vibes noch ein frühes Experiment – aber eines mit erheblichem Schwung. Sein Anstieg an Benutzerwachstum und Engagement zeigt, dass Meta etwas Faszinierendes für das KI-neugierige Publikum entdeckt hat. Das Feature wird sich wahrscheinlich schnell weiterentwickeln, mit besseren KI-Modellen, mehr Integration über Metas Plattformen hinweg und neuen Regeln, während sowohl das Unternehmen als auch seine Community lernen, was funktioniert (und was nicht). Vergleiche mit TikTok, YouTube Shorts und Reels sind natürlich, und tatsächlich konkurriert Vibes um Aufmerksamkeit, doch Vibes ist auch eine ganz andere Kreatur: ein Feed, bei dem der Ersteller genauso viel Algorithmus wie Mensch ist.

Für ein KI-kundiges Publikum ist Vibes eine Fallstudie für angewandte KI im großen Maßstab – teils eine Präsentation generativer KI, teils eine Social-Media-Strategie. Ob es ein eigenwilliges Nebenprojekt bleibt oder als Blaupause für zukünftige Feeds dient, hängt davon ab, wie die Nutzer langfristig reagieren. Werden wir unendliche KI-Inhalte akzeptieren, wenn sie uns unterhalten, oder sehnen wir uns nach der unvergleichlichen Authentizität menschlich geschaffener Momente? Im Grunde stellt Meta mit Vibes genau diese Frage. Das kommende Jahr sollte einige Antworten liefern, während wir beobachten, wie sich Vibes entwickelt und möglicherweise Konkurrenten inspiriert, ihre eigenen KI-gestützten Feeds zu starten. In der Zwischenzeit, wenn Sie mehr KI-Videos in Ihrem Leben brauchen, wird Ihnen Metas neuer Vibes-Feed „alles servieren, was Sie vertragen können.“

Quellen:

  • Meta Newsroom – „Einführung von Vibes: Eine neue Möglichkeit, AI-Videos zu entdecken und zu erstellen“ (25. Sept. 2025)[19][18]
  • TechCrunch – „Meta startet 'Vibes', einen Kurzvideo-Feed mit KI-Inhalten“ von A. Malik (25. Sept. 2025)[2][13]
  • TechCrunch – „Meta AIs App-Downloads und tägliche Nutzerzahlen stiegen nach dem Start von 'Vibes'...“ von S. Perez (20. Okt. 2025)[11][33]
  • Gadgets360 – „Die Beliebtheit der Meta AI App stieg mit der Vibes-Funktion“ (21. Okt. 2025)[64][65]
  • The Verge – „Meta AI leitet AI-Videos von Erstellern in neuen 'Vibes'-Feed“ von E. Welle (26. Sept. 2025)[51][14]
  • FindArticles (Bill Thompson) – „Was steckt im Meta Vibes Infinite AI Video Feed“ (27. Sept. 2025)[15][27]
  • Reddit (r/singularity) – Diskussion über Meta Vibes und AI-Feeds (Okt. 2025)[28]
  • The Verge – „Meta wird bald Ihre AI-Chats nutzen, um Ihre Feeds zu personalisieren“ von E. Roth (1. Okt. 2025)[29][30]
  • [1] [2] [5] [6] [7] [10] [13] [52] [53] [59] Meta startet 'Vibes', einen Kurzvideo-Feed mit KI-Inhalten | TechCrunch
  • https://techcrunch.com/2025/09/25/meta-launches-vibes-a-short-form-video-feed-of-ai-slop/

[3] [15] [16] [17] [21] [24] [26] [27] [31] [32] [44] [45] [46] [49] [50] [54] [55] [57] Was steckt hinter Meta Vibes Infinite AI Video Feed

https://www.theverge.com/news/786499/meta-ai-vibes-feed-discover-videos

https://techcrunch.com/2025/10/20/meta-ais-app-downloads-and-daily-users-spiked-after-launch-of-vibes-ai-video-feed/

https://www.gadgets360.com/ai/news/meta-ai-app-download-daily-active-users-increase-vibes-feature-ai-videos-9490041/amp

  • [20] Kostenloser Flux AI Video Generator - Bild-zu-Video KI

https://flux-ai.io/flux-video-ai/

  • [28] [47] [48] [61] [62] Meta stellt Vibe vor - einen von KI generierten Video-Feed : r/singularity

https://www.reddit.com/r/singularity/comments/1nqqlmf/meta_introduces_vibe_an_ai_generated_video_feed/

  • [29] [30] [60] Meta wird bald Ihre KI-Chats verwenden, um Ihre Feeds zu personalisieren | The Verge

https://www.theverge.com/news/789168/meta-ai-chats-personalized-advertising

Boxu erwarb seinen Bachelor-Abschluss an der Emory University mit Schwerpunkt Quantitative Ökonomie. Bevor er zu Macaron kam, verbrachte Boxu den Großteil seiner Karriere im Bereich Private Equity und Venture Capital in den USA. Er ist nun der Stabschef und VP für Marketing bei Macaron AI, verantwortlich für Finanzen, Logistik und Betrieb sowie die Überwachung des Marketings.

Bewerben, um zu werden Macarons erste Freunde