Autor: Boxu LI
Im November 2025 eingeführt, erlangte Metas SAM 3D sofort Aufmerksamkeit im Bereich der KI[1]. Als Teil der Segment-Anything-Familie von Meta bringt SAM 3D ein menschliches „Alltagsverständnis“ im 3D-Bereich in alltägliche Bilder – es ermöglicht jedem, Objekte oder sogar ganze menschliche Körper in 3D aus einem einzigen normalen Foto zu rekonstruieren[2]. Dieses One-Shot-3D-Modellierungswerkzeug ist Open Source und setzt bereits einen neuen Maßstab im Bereich der Computer Vision, indem es frühere Methoden zur 3D-Rekonstruktion aus Einzelbildern deutlich übertrifft[3]. Im Wesentlichen erweitert SAM 3D Metas visionäres Toolkit von der 2D-Segmentierung in den 3D-Bereich, sodass Benutzer mit beispielloser Leichtigkeit „ein Bild zum Leben erwecken“ können[4][5].
Entscheidend ist, dass SAM 3D nicht nur ein einziges Modell ist, sondern aus zwei spezialisierten Modellen besteht: SAM 3D Objects für die allgemeine Objekt- und Szenenrekonstruktion und SAM 3D Body für die vollständige menschliche Form- und Pose-Schätzung[2]. Mit einem einzigen Foto kann SAM 3D Objects ein texturiertes 3D-Mesh eines ausgewählten Objekts (oder einer gesamten Szene) erzeugen, während SAM 3D Body aus einem Bild ein realistisches vollständiges menschliches Mesh erstellt[2]. Die Forschung von Meta zeigt, dass beide Modelle robuste Ergebnisse liefern – tatsächlich übertrifft SAM 3D Objects bestehende 3D-Rekonstruktionsmethoden auf Benchmarks deutlich[3]. Durch das Erkennen von Tiefe und versteckten Oberflächen mithilfe von KI-gestützten Vorannahmen kann SAM 3D erraten, was sich hinter und unter Objekten in einem Bild befindet. Anders als bei der traditionellen Photogrammetrie (die Dutzende von Fotos aus jedem Winkel benötigt), kann SAM 3D die vollständige Geometrie, Textur und Anordnung eines Objekts aus nur einer Ansicht vorhersagen[6]. Dieser Durchbruch bringt uns einen großen Schritt näher an die Sci-Fi-Idee, mit einem einfachen Schnappschuss die Welt darin „3D zu drucken“.
SAM 3D führt mehrere technische Fortschritte ein, die es von früheren Modelle zur Bildverarbeitung abheben. Hier sind die Kernmerkmale und Innovationen:
· Einzelbild-3D-Rekonstruktion – Erreicht eine vollständige 3D-Szenenrekonstruktion aus nur einem 2D-Bild, ein Novum in diesem Bereich[7]. Diese „Foto-zu-3D“-Fähigkeit stellt einen großen Durchbruch dar und befreit Kreative von Mehrkamera-Rigs oder Tiefensensoren.
· Bewältigt Verdeckung & Unordnung – Robust gegenüber realer Komplexität: SAM 3D lässt sich nicht von verdeckten oder teilweise verborgenen Objekten und belebten Szenen beeindrucken[8]. Es nutzt erlernten Kontext, um „versteckte Teile“ von Objekten zu ergänzen, die ein einzelnes Foto nicht sehen kann, ein gesunder Menschenverstand in 3D, der die menschliche Wahrnehmung nachahmt.
· Komplette Geometrie mit Texturen – Gibt nicht nur grobe Formen, sondern detaillierte texturierte Netze aus. SAM 3D erzeugt die vollständige Geometrie eines Objekts plus hochwertige Oberflächentexturen und sogar die Positionierung im Szenenlayout[9]. In der Praxis erhalten Sie ein einsatzbereites 3D-Modell (z. B. ein Standard-.ply/.obj mit begleitenden Texturen[10]), das aus allen Blickwinkeln realistisch aussieht.
· Fortgeschrittenes Training & Genauigkeit – Meta hat SAM 3D mit neuartigen Techniken auf groß angelegten Bilddatensätzen trainiert, was wesentlich bessere Ergebnisse als frühere Modelle liefert[11]. Ein neuer Benchmark-Datensatz (SAM 3D Artist Objects) wurde erstellt, um es rigoros zu evaluieren[12]. Das Ergebnis ist ein Modell, das über verschiedene Bilder und Szenarien hinweg generalisiert, in denen frühere Ansätze scheitern würden, und wirklich neue Maßstäbe für KI-gestützte 3D-Rekonstruktionen setzt[13].
· Human Mesh Innovation (SAM 3D Body) – Die auf den Menschen fokussierte Variante führt ein Momentum Human Rig (MHR) ein, eine neuartige parametrische Netzrepräsentation, die die Skelettpose von der Körperform entkoppelt[14]. Einfach ausgedrückt, kann SAM 3D Body die Pose und Proportionen einer Person genauer und interpretierbarer erfassen als frühere Methoden. Dies ist ein Wendepunkt für Anwendungen, die realistische digitale Menschen benötigen (von virtuellen Anproben bis zur Sportwissenschaft).
· Human-Guided Refinement – Das Modell wurde mit menschlichen Feedback-Schleifen verfeinert, um die Ergebnisse plausibler und ästhetisch ansprechender zu machen[15]. Diese zusätzliche „E-E-A-T“-Note bedeutet, dass die Rekonstruktionen von SAM 3D nicht nur technisch genau sind, sondern auch in Bezug auf Proportionen und Details für das menschliche Auge richtig aussehen.
· Schnelle Ergebnisse mit einem Klick – Trotz seiner Komplexität ist SAM 3D auf Geschwindigkeit optimiert. Die Erstellung eines 3D-Modells aus einem Bild erfolgt nahezu in Echtzeit (Sekunden statt Stunden)[16]. Dieser Echtzeitaspekt verwandelt die 3D-Erstellung in eine Klick-und-Warte-Erfahrung und bringt leistungsstarke 3D-Inhaltserstellung in die Hände alltäglicher Benutzer ohne lange Rendering-Verzögerungen.
Wie funktioniert es im Hintergrund? Kurz gesagt, SAM 3D kombiniert einen auf Vision Transformers basierenden Bildencoder, einen Segmentierungsmaskenprozessor (der das ursprüngliche 2D Segment Anything nutzt, um Objekte auszuwählen) und mehrere 3D-Vorhersagemodule (Tiefenschätzung, Geometrieerzeugung, Textursynthese und sogar einen Gauss'schen Splatting-Renderer)[17]. Im Wesentlichen versteht es zuerst den 2D-Bildinhalt, segmentiert dann das Zielobjekt, ermittelt anschließend die 3D-Form und Tiefe und liefert schließlich ein texturiertes 3D-Mesh in einem benutzerfreundlichen Format[18][10]. All dies geschieht ohne erforderliche 3D-Expertise des Nutzers – die schwere Arbeit wird von Metas vortrainierten Modellen und Algorithmen übernommen. Durch das Open-Sourcing des Codes und der Modellgewichte hat Meta es Entwicklern auch ermöglicht, SAM 3D für ihre eigenen Projekte zu integrieren oder anzupassen[19][20].
Jenseits des Wow-Effekts, warum ist SAM 3D wichtig? In praktischen Begriffen eröffnet diese Technologie eine Vielzahl spannender Anwendungen in verschiedenen Branchen:
· Erweiterte Realität & VR: SAM 3D kann 2D-Fotos sofort in 3D-Requisiten oder -Umgebungen verwandeln, was für AR/VR-Schöpfer ein großer Vorteil ist. Teams können immersive Szenen schneller prototypisieren, indem sie Objekte aus Referenzbildern in 3D „ziehen“ [21][22]. Zum Beispiel könnte eine einfache Handyschnappschuss eines Stuhls als 3D-Asset in einem VR-Spiel oder einer AR-Möbelplatzierungs-App verwendet werden – keine 3D-Modellierungskenntnisse erforderlich.
· Robotik & Autonome Systeme: Roboter und KI-Systeme benötigen ein 3D-Verständnis ihrer Umgebung. SAM 3D hilft, 3D-Modelle aus einem einzelnen Kamerabild zu generieren, was bei der Objekterkennung und räumlichen Wahrnehmung unterstützt[22]. Dies könnte die Art und Weise verbessern, wie Roboter Objekte greifen oder Szenen navigieren, indem sie Tiefeninformationen aus einem einzigen Bildrahmen liefern. In Drohnen oder selbstfahrenden Autos kann ein einzelner Schnappschuss „in 3D verstanden“ werden, um Hindernisse zu vermeiden oder Objektgrößen abzuschätzen.
· Gesundheitswesen & Sportwissenschaft: Das SAM 3D Body-Modell eröffnet neue Möglichkeiten in der Medizin, im Sport und im Fitnessbereich. Mit einem Foto oder Röntgenbild könnten Fachleute eine 3D-Annäherung an den Körper oder die Haltung eines Patienten erhalten. Meta hebt speziell Anwendungen in der Sportmedizin hervor[22] – zum Beispiel die Analyse der Form eines Athleten in 3D von einem einzelnen Aktionsfoto, oder um Patienten in der Physiotherapie zu helfen, eine 3D-Ansicht ihrer eigenen Haltung und Ausrichtung für besseres Feedback zu sehen.
· Gaming und 3D-Inhaltserstellung: Spieleentwickler und 3D-Künstler können SAM 3D als Abkürzung für die Erstellung von Assets nutzen. Anstatt von Grund auf zu modellieren, können sie Konzeptkunst oder Referenzfotos in SAM 3D eingeben, um Basismodelle für Charaktere, Requisiten oder Umgebungen zu erzeugen. Dies senkt die Hürde für Indie-Entwickler, um reiche 3D-Welten zu bevölkern. Ein Schöpfer könnte ein Foto von einem coolen Motorrad auf der Straße machen und SAM 3D verwenden, um ein texturiertes 3D-Modell eines Motorrads für ihr Spiel zu erhalten – das spart Stunden manueller Modellierung. Es ist eine leistungsstarke Hilfe für schnelles Prototyping und kreative Iteration[22].
· E-Commerce & Virtuelles Ausprobieren: Eine überzeugende Anwendung in der realen Welt ist das interaktive Einkaufen. Meta verwendet bereits SAM 3D in der neuen „Ansicht im Raum“-Funktion des Facebook Marketplace, mit der Benutzer Möbel in ihrem eigenen Zuhause visualisieren können, indem sie einfach das Produktfoto verwenden[23]. SAM 3D erzeugt ein 3D-Modell, beispielsweise einer Lampe, aus dem Foto der Anzeige, und dann platziert AR diese Lampe durch die Kamera Ihres Telefons in Ihrem Raum. Dies hilft Kunden, Stil und Passform vor dem Kauf zu beurteilen. Ähnlich könnten Modehändler ein einzelnes Katalogbild eines Schuhs oder einer Handtasche in 3D und in realer Größe aus allen Blickwinkeln anzeigen lassen, um das Online-Shopping-Erlebnis zu verbessern.
· Bildung und Forschung: Pädagogen könnten Bilder aus Lehrbüchern oder Museumsfotos in 3D-Modelle umwandeln, um Konzepte in Geschichte, Biologie usw. besser zu veranschaulichen. Forscher in Bereichen wie Archäologie oder Geologie, die oft mit Fotografien von Stätten/Artefakten arbeiten, könnten 3D-Formen zur Analyse rekonstruieren. In der wissenschaftlichen Visualisierung könnte ein einzelnes Mikroskopbild oder Satellitenfoto in ein 3D-Modell erweitert werden, um tiefere Einblicke zu gewinnen. Durch die Demokratisierung der 3D-Erstellung kann SAM 3D Innovation in jedem Bereich beschleunigen, der visuelle Daten verwendet.
Diese Anwendungsfälle sind nur der Anfang. Immer wenn Sie ein einzelnes Bild haben, aber eine 3D-Ansicht oder ein 3D-Asset wünschen, ist SAM 3D das neue Werkzeug, das Sie in Betracht ziehen sollten. Indem es die Eingabeanforderung auf ein Bild reduziert, verringert es erheblich die Hürden, um 3D-Inhalte zu erhalten. Wie das Team von Meta sagt, „eröffnet SAM 3D neue Möglichkeiten, mit der visuellen Welt zu interagieren und sie zu verstehen“, für alle, von Forschern bis hin zu Kreativen[22].
Wie schneidet SAM 3D im Vergleich zu anderen Lösungen ab? Dieses Modell kommt zu einer Zeit, in der viele Technologiefirmen die Grenzen der KI im Bereich der visuellen Wahrnehmung ausloten – wenn auch auf unterschiedliche Weise. Hier ein Überblick darüber, wo SAM 3D in der aktuellen Landschaft steht:
· Im Vergleich zum traditionellen 3D-Scanning: Vor KI-Ansätzen wie SAM 3D bedeutete das Erstellen eines 3D-Modells eines realen Objekts typischerweise die Verwendung von Photogrammetrie oder Tiefensensoren. Diese Methoden erfordern mehrere Bilder oder spezielle Hardware (z. B. das Aufnehmen von Dutzenden von Fotos um ein Objekt herum oder die Verwendung von LiDAR), um alle Winkel zu erfassen. SAM 3D revolutioniert dies, indem es aus umfangreichen Daten lernt, wie man fehlende Ansichten ableitet und nur ein einzelnes RGB-Bild als Eingabe benötigt[6]. Der Kompromiss besteht darin, dass das Ergebnis von SAM 3D eine plausible Rekonstruktion statt eines perfekten Ground-Truth-Scans ist – es halluziniert verborgene Oberflächen basierend auf erlernten Vorannahmen. In der Praxis ist jedoch für viele Anwendungen (Spiele, AR-Effekte, Konzeptkunst) eine realistisch aussehende Annäherung ausreichend. Der enorme Gewinn an Bequemlichkeit und Geschwindigkeit überwiegt oft den Verlust an physischer Genauigkeit. Kurz gesagt, SAM 3D ist für das 3D-Scanning das, was ein generatives Modell für die Fotografie ist: schneller, flexibler und gut genug für eine Vielzahl von Anwendungen, auch wenn es nicht zentimetergenau zur ursprünglichen Szene ist.
· Im Vergleich zu anderen KI-3D-Generatoren: Metas Fortschritt im Bereich der 3D-Erstellung aus einem einzigen Bild übertrifft die meisten aktuellen KI-Angebote in diesem Nischenbereich. Zum Beispiel hat OpenAI mit Modellen wie Point·E und Shap·E experimentiert, die 3D-Punktwolken oder implizite Formen aus Text oder Bildern erzeugen können. Diese Modelle sind jedoch noch relativ niedrigauflösend – ihre Ergebnisse sind oft spärlich oder abstrakt und keineswegs fotorealistisch[24]. Sie waren frühe Erkundungen und keine einsatzbereiten Werkzeuge. Im Gegensatz dazu liefert SAM 3D hochwertigere, texturierte Ergebnisse, die Details „auffüllen“ und sich im großen Maßstab gegen reale Bilder bewährt haben[3]. Ein weiterer Ansatz umfasst NeRF (Neural Radiance Fields) und verwandte Techniken, die aus 2D-Eingaben wunderschöne 3D-Ansichten erzeugen, aber normalerweise mehrere Ansichten oder eine sorgfältige Schulung pro Szene erfordern. SAM 3Ds Fähigkeit, aus einem Bild für viele Objekttypen zu generalisieren, ist eine besondere Stärke. Es ist auch vollständig Open-Source und wird mit Inferenz-Code und Modell-Checkpoints bereitgestellt[19][25], während einige andere hochmoderne 3D-Modelle proprietär oder schwer zu betreiben sind. Insgesamt hebt sich SAM 3D derzeit als die Lösung für die 3D-Rekonstruktion aus einem einzigen Bild sowohl in Bezug auf Fähigkeiten als auch Zugänglichkeit hervor.
· Im Vergleich zu Segment Anything (2D) und verwandten Modellen: Es ist erwähnenswert, dass „SAM 3D“ auf dem Erbe von Metas ursprünglichem Segment Anything Model aufbaut, das auf 2D fokussiert war. Anfang dieses Jahres kündigte Meta außerdem SAM 3 (manchmal auch SAM v3 genannt) an, das textgesteuerte Segmentierung und Verfolgung in Bildern/Videos ermöglicht[1]. SAM 3D ist ein Schwestermodell, das die Vision in den 3D-Bereich erweitert. Es gab auch ein unabhängiges akademisches Projekt mit dem verwirrenden Namen „SAM3D“ (oder SAM-Part3D), das sich mit der Segmentierung von Teilen in 3D-Punktwolken befasste, aber das ist ein völlig anderer Ansatz (das Labeln vorhandener 3D-Daten anstelle der Generierung von 3D aus 2D)[26]. Metas SAM 3D ist einzigartig, da es neue 3D-Darstellungen aus flachen Bildern erstellt. In Metas eigenen Vergleichen schnitt SAM 3D Objects im Vergleich zu früheren akademischen Methoden bei Standardbenchmarks deutlich besser ab, dank seines lernbasierten Ansatzes und des großen Trainingskorpus[13].
· SAM 3D vs. Googles Nano Banana Pro (2D): Interessanterweise kommt SAM 3D gerade zu einer Zeit, in der andere KI-Meilensteine in parallelen Bereichen stattfinden. Ein bemerkenswertes Beispiel ist Googles DeepMind Nano Banana Pro, das etwa zur gleichen Zeit Ende 2025 eingeführt wurde. Nano Banana Pro ist kein 3D-Tool, sondern ein hochmodernes Bildgenerierungs- und Bearbeitungsmodell, das auf der Gemini 3 KI-Plattform basiert. Es liefert nahezu fotografische Bildbearbeitungen mit 4K-Auflösung und unvergleichlicher Konsistenz (über 95 % Charakterkonsistenz bei Bearbeitungen)[27]. Mit anderen Worten, Nano Banana Pro kann Bilder mit unglaublicher Genauigkeit verändern oder erstellen – es wird sogar als potenzieller Ersatz für viele Photoshop-Aufgaben angesehen[28][27]. Im Vergleich dazu operiert Metas SAM 3D im räumlichen Bereich: Es kann 3D-Modelle rekonstruieren, die in einem Spiel, einer Animation oder einer AR-Szene verwendet werden können. Beide sind Durchbruchmodelle, die jedoch komplementäre Zwecke erfüllen. Nano Banana Pro glänzt bei 2D-Kreativausgaben, indem es deine Ideen in Bilder verwandelt (oder Bilder anpasst) mit der Magie der KI[27]. SAM 3D brilliert darin, Objekte aus Bildern in 3D zu ziehen, und verwandelt ein flaches Bild in etwas, das du halten, drehen oder in einen virtuellen Raum platzieren kannst. Zusammen weisen sie auf einen zukünftigen Arbeitsablauf hin, bei dem du möglicherweise KI nutzt, um ein atemberaubendes Bild zu erstellen (mit einem Tool wie Nano Banana Pro) und dann sofort Elemente aus diesem Bild in 3D-Modelle zu überführen (mit einem Tool wie SAM 3D) – eine nahtlose Brücke von Vorstellungskraft zu Bild zu interaktivem 3D-Inhalt.
Es ist auch aufschlussreich zu sehen, wie schnell solche KI-Fortschritte in die Hände der Nutzer gelangen. Zum Beispiel hat die Plattform Macaron – bekannt als die weltweit erste Plattform für persönliche KI-Agenten – Googles Nano Banana-Modell in ihr Playbook integriert und eine Reihe von One-Click-Mini-Apps gestartet, die diese Bildbearbeitungsfähigkeiten zeigen[29]. Nutzer von Macaron können Outfits in einem Foto wechseln, 3D-gestylte Figuren aus 2D-Kunstwerken generieren und mehr, alles angetrieben durch Nano Banana im Hintergrund[30][31]. Diese sofortige Umsetzung von wegweisender Forschung in praktische Werkzeuge ist genau das, was wir auch mit SAM 3D erwarten. Wir können uns vorstellen, dass Plattformen wie Macaron oder Adobe SAM 3D integrieren, sodass ein Nutzer ein einzelnes Foto hochladen und ein 3D-Modell erhalten kann, das für kreative Projekte bereit ist. Mit anderen Worten, die Wettbewerbslandschaft ist weniger „SAM 3D gegen Nano Banana“ als vielmehr ein reichhaltiges Ökosystem von KI-Tools, die entstehen – einige konzentrieren sich darauf, Bilder zu perfektionieren, andere darauf, 3D zu erschließen, und zukunftsorientierte Unternehmen kombinieren beides, um Kreativen mehr Möglichkeiten zu bieten. SAM 3D sichert Meta fest einen Platz in diesem Next-Gen-Toolset, indem es Fähigkeiten, die einst auf Forschungslabore beschränkt waren, direkt zu Entwicklern und Künstlern bringt.
Metas SAM 3D veranschaulicht die schnellen Fortschritte in der KI: von der Erfassung flacher Bilder hin zur Rekonstruktion der dahinterliegenden 3D-Welt. Diese Technologie eröffnet Kreativen und Innovatoren eine ganz neue Dimension der Möglichkeiten. So wie es kürzlich entwickelte KI-Modelle erleichtert haben, 2D-Bilder mit erstaunlichem Realismus zu erzeugen und zu bearbeiten, ermöglicht SAM 3D nun, aus einem einfachen Schnappschuss ein 3D-Objekt zu erstellen – etwas, das vor ein paar Jahren für jeden außerhalb fortgeschrittener Forschungslabore noch unvorstellbar war.
Aus einer E-E-A-T-Perspektive (Erfahrung, Fachwissen, Autorität, Vertrauenswürdigkeit) erfüllt SAM 3D viele Kriterien. Es wurde von erfahrenen KI-Forschern von Meta entwickelt (Fachwissen ✅) und mit offenen Checkpoints und Evaluierungsdaten für Transparenz veröffentlicht[20] (Vertrauenswürdigkeit ✅). Meta hat bereits echte Anwendungsfälle (Marktplatz-AR-Möbelvorschauen usw.) gezeigt, die das Modell in Aktion demonstrieren[23] (Erfahrung ✅). Und durch die Open-Source-Veröffentlichung des Modells und das Teilen von Benchmarks hat Meta die Forschungsgemeinschaft eingeladen, seine Aussagen zu überprüfen und weiterzuentwickeln (Autorität ✅). All dies positioniert SAM 3D nicht nur als beeindruckende Demo, sondern als zuverlässiges Werkzeug, das andere für ernsthafte Anwendungen übernehmen und vertrauen können.
Für Technikbegeisterte und Forscher ist SAM 3D ebenfalls erfrischend zugänglich. Sie können es auf Metas Segment Anything Playground ausprobieren, ohne jegliche Einrichtung – einfach ein Bild hochladen und das 3D-Ergebnis im Browser sehen[32]. Entwickler können den Code von GitHub abrufen und die 3D-Konvertierung mit einem einzigen Bild in ihre eigenen Apps integrieren, und das in wenigen Stunden. Diese Einfachheit des Experimentierens bedeutet, dass wir wahrscheinlich in den kommenden Monaten eine Welle von kreativen Anwendungen und Integrationen sehen werden. Es wäre nicht überraschend, wenn Indie-Spielentwickler beginnen, ihre Szenen mit SAM 3D-generierten Modellen zu füllen oder AR-Filter-Ersteller Nutzern ermöglichen, Schnappschüsse in 3D-Aufkleber zu verwandeln. Die Grenze zwischen 2D- und 3D-Inhalten löst sich auf.
Abschließend stellt Meta SAM 3D einen entscheidenden Fortschritt dar, der die kreative Landschaft bereichern wird. Es steht neben Innovationen wie Googles Nano Banana Pro als Zeichen dafür, wie KI die Inhaltserstellung auf ganzer Linie revolutioniert – von flachen Bildern bis hin zu vollständigen 3D-Erlebnissen. Die Fähigkeit, 3D-Modelle aus einzelnen Bildern zu erschaffen, wird Zeit sparen, neue Ideen entfachen und möglicherweise neue Industrien hervorbringen (stellen Sie sich virtuelle Immobilieninszenierungen, 3D-Erinnerungen aus alten Fotos oder personalisierte Spielavatare vor, die aus Selfies generiert werden). Wir betreten eine Ära, in der jeder ein 3D-Schöpfer oder ein AR-Designer sein kann, mit KI als großem Ermöglicher.
Plattformen wie Macaron haben gezeigt, wie schnell diese Durchbrüche in alltägliche Werkzeuge verwandelt werden können[29]. Da SAM 3D an Bedeutung gewinnt, erwarten wir, dass es in Kreativsoftware, mobilen Apps und Plattformen für KI-Agenten integriert wird – vielleicht haben Sie bald einen „3D erstellen“-Button neben Ihren „Foto bearbeiten“-Optionen. Eines ist sicher: Mit der Einführung von SAM 3D hat Meta die Tür zu einer immersiveren, interaktiven digitalen Welt geöffnet, und durch diese Tür zu schreiten wird so einfach sein wie ein Foto zu machen. Die Zukunft der Kreativität ist multidimensional, und mit SAM 3D ist diese Zukunft offiziell angekommen. [33][4]
Quellen: Meta AI Blog[34][22]; Meta Newsroom[1][35]; echo3D Medium-Übersicht[6][14]; Tech Explorer Tutorial[36][8]; Macaron Playbook & Blog[29][27]; OpenAI/Rerun Notizen[24].
[1] [2] [3] [4] [5] [12] [13] [20] [22] [23] [25] [32] [33] [34] [35] Neue Segment-Anything-Modelle erleichtern das Erkennen von Objekten und die Erstellung von 3D-Rekonstruktionen
https://about.fb.com/news/2025/11/new-sam-models-detect-objects-create-3d-reconstructions/
[6] [14] [19] Metas neues SAM 3D: Bringt Alltagsbildern ein grundlegendes 3D-Verständnis | von echo3D | echo3D | Nov, 2025 | Medium
[7] [8] [9] [11] [15] [16] [17] [18] [36] SAM 3D-Objekte Tutorial: Meta AI Einzelbild-3D-Rekonstruktion | Foto zu 3D-Modell • Tech Explorer
https://stable-learn.com/en/sam-3d-objects-tutorial/
[10] Diese KI hat Ihre Fotos in 3D-Modelle verwandelt - So geht's
https://www.adwaitx.com/meta-sam-3d-models-guide/
[21] [26] SAM 3D Ultimativer Leitfaden: Transformation des 3D-Objektverständnisses
https://skywork.ai/blog/ai-image/sam-3d-ultimate-guide/
[24] rerun.io
https://rerun.io/examples/generative-vision/shape_pointe
[27] Nano Banana Pro: KI-Bildbearbeitungstool - Macaron
https://macaron.im/blog/nano-banana-pro
[28] [29] [30] [31] Wenn Nano Banana auf Macaron trifft: Bildbearbeitung auf der nächsten Ebene auf einer Plattform - Macaron
https://macaron.im/blog/macaron-ai-essential-personal-assistant-features