저자: Boxu LI
2025년 11월에 출시된 Meta의 SAM 3D는 AI 분야에서 즉시 주목을 받았습니다[1]. Meta의 Segment Anything 패밀리의 일원으로, SAM 3D는 일상적인 이미지에 인간 수준의 "상식"적인 3D 이해를 제공합니다 – 누구나 단일 일반 사진에서 물체나 전체 인체를 3D로 재구성할 수 있게 해줍니다[2]. 이 원샷 3D 모델러는 오픈 소스로 제공되며, 이미 컴퓨터 비전 분야에서 새로운 최고 표준을 설정하고 있으며, 이전의 단일 이미지 3D 방법을 크게 능가하고 있습니다[3]. 본질적으로, SAM 3D는 Meta의 프롬프트 기반 비전 도구 키트를 2D 세분화에서 3D 도메인으로 확장하여 사용자가 전례 없는 용이함으로 "사진을 생동감 있게 만들" 수 있게 합니다[4][5].
중요하게도, SAM 3D는 단일 모델이 아니라 두 개의 전문 모델로 구성되어 있습니다: 일반적인 객체와 장면 복원을 위한 SAM 3D Objects와 전체 인간 형태 및 자세 추정을 위한 SAM 3D Body입니다[2]. 단일 사진으로 SAM 3D Objects는 선택된 객체(또는 전체 장면)의 텍스처가 있는 3D 메쉬를 생성할 수 있으며, SAM 3D Body는 하나의 이미지에서 현실적인 전체 몸체 인간 메쉬를 생성합니다[2]. Meta의 연구에 따르면 두 모델 모두 견고한 결과를 제공하며, 사실 SAM 3D Objects는 벤치마크에서 기존의 3D 복원 방법을 상당히 능가합니다[3]. AI로 훈련된 우선 정보를 사용하여 깊이와 숨겨진 표면을 추론함으로써 SAM 3D는 이미지 내 객체의 뒤와 아래에 있는 것을 추측합니다. 전통적인 사진측량법(모든 각도에서 수십 장의 사진이 필요함)과 달리, SAM 3D는 단일 뷰에서 객체의 전체 기하학, 텍스처, 레이아웃을 예측할 수 있습니다[6]. 이 혁신은 간단한 스냅샷을 찍고 그 안의 세계를 **“3D 프린팅”**하는 공상 과학 아이디어에 한 걸음 더 가까워졌습니다.
SAM 3D는 이전의 비전 모델과 차별화되는 여러 기술적 진보를 도입했습니다. 다음은 핵심 기능과 혁신 사항입니다:
· 단일 이미지 3D 재구성 – 단 하나의 2D 이미지로 완전한 3D 장면을 재구성하여 이 분야에서 처음으로 달성된 성과입니다[7]. 이 '사진에서 3D로' 기능은 다중 카메라 장비나 깊이 센서 없이 창작자를 자유롭게 하는 중요한 돌파구를 제공합니다.
· 차폐 및 혼잡 처리 – 현실 세계의 복잡성에 강합니다: SAM 3D는 가려지거나 부분적으로 숨겨진 객체와 복잡한 장면에도 영향을 받지 않습니다[8]. 학습된 컨텍스트를 사용하여 단일 사진에서 볼 수 없는 객체의 숨겨진 부분을 “채워 넣는” 상식적인 3D 이해를 통해 인간의 인식을 모방합니다.
· 텍스처가 포함된 완전한 기하학 – 거친 형태뿐만 아니라 세부적인 텍스처가 있는 메쉬까지 출력합니다. SAM 3D는 객체의 전체 기하학을 생성하고 고품질의 표면 텍스처와 장면 배치 위치까지 제공합니다[9]. 실제로 여러분은 모든 각도에서 현실적으로 보이는 즉시 사용 가능한 3D 모델(예: 텍스처가 포함된 표준 .ply/.obj[10])을 얻게 됩니다.
· 고급 교육 및 정확성 – Meta는 새로운 기법으로 대규모 이미지 데이터셋에 대해 SAM 3D를 훈련하여 이전 모델보다 훨씬 더 나은 결과를 얻었습니다[11]. 새로운 벤치마크 데이터셋(SAM 3D Artist Objects)이 엄격한 평가를 위해 생성되었습니다[12]. 그 결과, 이전 접근 방식이 실패할 수 있는 다양한 이미지와 시나리오에서도 일반화할 수 있는 모델이 탄생하여 AI가 주도하는 3D 재구성의 새로운 기준을 설정했습니다[13].
· 인간 메쉬 혁신 (SAM 3D Body) – 인간 중심의 변형은 골격 자세를 신체 형태와 분리하는 새로운 매개변수 메쉬 표현인 *Momentum Human Rig (MHR)*을 도입합니다[14]. 간단히 말해, SAM 3D Body는 사람의 자세와 비율을 이전 방법보다 더 정확하고 해석 가능하게 캡처할 수 있습니다. 이는 가상 피팅에서 스포츠 과학에 이르기까지 현실적인 디지털 인간을 필요로 하는 애플리케이션에 획기적인 변화를 가져옵니다.
· 인간 가이드 개선 – 모델은 출력물을 더 그럴듯하고 미적으로 개선하기 위해 인간 피드백 루프로 세련되었습니다[15]. 이러한 추가 "E-E-A-T" 터치는 SAM 3D의 재구성이 기술적으로 정확할 뿐만 아니라 사람의 눈에도 비율과 세부 사항 측면에서 올바르게 보이도록 만듭니다.
· 빠른 원클릭 결과 – 복잡함에도 불구하고 SAM 3D는 속도를 최적화했습니다. 이미지를 3D 모델로 생성하는 데 거의 실시간으로 진행되며 (몇 시간이 아닌 몇 초)[16] 걸립니다. 이 실시간 특성은 3D 생성 과정을 클릭하고 기다리는 경험으로 바꿔주며, 긴 렌더링 지연 없이 일상 사용자들도 강력한 3D 콘텐츠 생성 기능을 활용할 수 있게 합니다.
어떻게 작동하나요? 간단히 말해, SAM 3D는 비전 트랜스포머 기반 이미지 인코더, 세그먼트 마스크 프로세서(원래의 2D Segment Anything을 활용하여 객체를 선택), 여러 3D 예측 모듈(깊이 추정, 기하학 생성, 텍스처 합성, 그리고 가우시안 스플래팅 렌더러까지)을 결합합니다[17]. 기본적으로, 먼저 2D 이미지 콘텐츠를 이해하고, 다음으로 대상 객체를 세그먼트하고, 그 후 3D 형태와 깊이를 추론하며, 마지막으로 사용자 친화적인 형식으로 텍스처가 있는 3D 메쉬를 출력합니다[18][10]. 이 모든 것은 사용자에게 3D 전문 지식이 필요하지 않으며, 무거운 작업은 Meta의 사전 학습된 모델과 알고리즘이 처리합니다. Meta는 코드와 모델 가중치를 오픈 소스로 제공하여 개발자가 자신의 프로젝트에 SAM 3D를 통합하거나 세부 조정할 수 있게 했습니다[19][20].
와우 요소를 넘어서, 왜 SAM 3D가 중요한가요? 실용적인 측면에서 이 기술은 여러 산업에서 흥미로운 애플리케이션의 범위를 열어줍니다:
· 증강 현실 및 VR: SAM 3D는 2D 사진을 3D 소품이나 환경으로 즉시 변환할 수 있어 AR/VR 제작자에게 큰 도움이 됩니다. 팀은 참조 이미지를 3D로 "끌어내어" 몰입형 장면을 더 빠르게 프로토타입할 수 있습니다 [21][22]. 예를 들어, 의자의 간단한 휴대폰 사진은 VR 게임이나 AR 가구 배치 앱에서 3D 자산으로 사용될 수 있습니다. 3D 모델링 기술이 필요하지 않습니다.
· 로봇 및 자율 시스템: 로봇과 AI 시스템은 환경에 대한 3D 이해가 필요합니다. SAM 3D는 단일 카메라 이미지에서 3D 모델을 생성하여 객체 인식과 공간 추론을 지원합니다[22]. 이는 로봇이 물체를 잡거나 장면을 탐색하는 방식을 개선하여 단일 이미지 프레임에서 깊이 정보를 제공할 수 있습니다. 드론이나 자율 주행차에서는 단일 스냅샷을 3D로 "이해"하여 장애물을 피하거나 물체 크기를 추정할 수 있습니다.
· 의료 및 스포츠 과학: SAM 3D 바디 모델은 의학, 스포츠 및 피트니스에 새로운 가능성을 엽니다. 한 장의 사진이나 엑스레이로 실무자들은 환자의 신체나 자세에 대한 3D 근사치를 얻을 수 있습니다. Meta는 특히 스포츠 의학[22]에서의 응용을 언급합니다. 예를 들어, 단일 액션 샷에서 운동 선수의 폼을 3D로 분석하거나 물리치료 환자가 자신의 자세와 정렬을 3D로 확인하여 더 나은 피드백을 받을 수 있도록 돕습니다.
· 게임 및 3D 콘텐츠 제작: 게임 개발자와 3D 아티스트는 SAM 3D를 사용하여 자산 제작을 단축할 수 있습니다. 처음부터 모델링하는 대신, 개념 아트나 참조 사진을 SAM 3D에 입력하여 캐릭터, 소품, 환경의 기본 모델을 생성할 수 있습니다. 이는 인디 개발자들이 풍부한 3D 세계를 채우는 데 있어 장벽을 낮춥니다. 창작자는 거리에서 멋진 오토바이를 찍고, SAM 3D를 사용하여 게임에 사용할 질감이 있는 오토바이 3D 모델을 얻을 수 있습니다 – 수작업 모델링 시간을 절약할 수 있습니다. 이는 빠른 프로토타이핑과 창의적 반복에 강력한 도움이 됩니다[22].
· 전자상거래 및 가상 시착: 실제로 매력적인 활용 사례 중 하나는 인터랙티브 쇼핑입니다. 메타는 이미 Facebook Marketplace의 새로운 "View in Room" 기능에서 SAM 3D를 사용하여 사용자가 제품 사진만으로 가구를 자신의 집에 시각화할 수 있게 하고 있습니다[23]. SAM 3D는 예를 들어, 목록 사진에서 램프의 3D 모델을 생성하고 AR을 통해 당신의 방에 그 램프를 배치합니다. 이는 고객이 구매 전에 스타일과 적합성을 평가할 수 있도록 도와줍니다. 마찬가지로 패션 소매업체는 신발이나 핸드백의 단일 카탈로그 이미지를 3D로 실물 크기로 모든 각도에서 볼 수 있게 하여 온라인 쇼핑 경험을 향상시킬 수 있습니다.
· 교육 및 연구: 교육자는 교과서 이미지나 박물관 사진을 3D 모델로 변환하여 역사, 생물학 등의 개념을 더 잘 설명할 수 있습니다. 고고학이나 지질학 분야의 연구자들은 종종 유적지/유물의 사진에서 작업하며, 분석을 위해 3D 형태를 재구성할 수 있습니다. 과학적 시각화에서 단일 현미경 이미지나 위성 사진은 더 깊은 통찰력을 위해 3D 모델로 확장될 수 있습니다. 3D 제작의 민주화를 통해 SAM 3D는 시각 데이터를 사용하는 모든 분야에서 혁신을 가속화할 수 있습니다.
이러한 사용 사례는 빙산의 일각에 불과합니다. 단일 이미지를 가지고 있지만 3D 뷰나 자산을 원할 때, SAM 3D는 고려해야 할 새로운 도구입니다. 입력 요구 사항을 한 장의 사진으로 줄임으로써, 3D 콘텐츠를 얻는 데 필요한 마찰을 대폭 줄입니다. Meta 팀의 표현대로, SAM 3D는 연구자부터 창작자까지 모두에게 '시각적 세계와 상호 작용하고 이해하는 새로운 방법'을 열어줍니다[22].
SAM 3D가 다른 솔루션과 어떻게 비교될까요? 이 모델은 비전 분야에서 많은 기술 기업들이 다양한 방식으로 AI의 경계를 넓히고 있는 시기에 등장했습니다. 현재 환경에서 SAM 3D의 위치를 고수준에서 살펴보겠습니다:
· 전통적인 3D 스캐닝과 비교: SAM 3D와 같은 AI 접근법 이전에는 실제 물체의 3D 모델을 만드는 데 보통 사진 측량법이나 깊이 센서를 사용했습니다. 이러한 방법은 모든 각도를 포착하기 위해 다수의 이미지나 특수 하드웨어(예: 물체 주변의 수십 장의 사진을 찍거나 LiDAR 사용)가 필요합니다. SAM 3D는 방대한 데이터를 학습하여 누락된 뷰를 추론하고 단일 RGB 이미지 입력만 필요로 하면서 이를 뒤엎습니다[6]. 대가는 SAM 3D의 출력이 정확한 실제 스캔보다는 그럴듯한 재구성이라는 점입니다. 학습된 사전 지식을 바탕으로 숨겨진 표면을 상상해냅니다. 그러나 실제로 많은 애플리케이션(게임, AR 효과, 컨셉 아트)에서는 현실적인 외관의 근사치가 충분합니다. 편리함과 속도에서의 큰 이점이 물리적 정확성의 손실을 종종 상쇄합니다. 요약하면, SAM 3D는 3D 스캐닝에서 생성 모델이 사진 촬영에서 하는 역할과 같습니다: 더 빠르고, 더 유연하며, 원본 장면에 센티미터 단위로 정확하지 않더라도 다양한 용도에 충분히 좋습니다.
· 다른 AI 3D 생성기와 비교: Meta의 단일 이미지 3D 생성은 이 분야에서 현재 대부분의 AI 제품보다 앞서 있습니다. 예를 들어, OpenAI는 Point·E와 Shap·E 같은 모델로 3D 생성을 시도했으며, 이는 텍스트나 이미지에서 3D 포인트 클라우드나 암묵적 형태를 생성할 수 있습니다. 그러나 이러한 모델들은 여전히 낮은 품질로, 결과물은 종종 희박하거나 추상적이며 사진 품질에는 미치지 못합니다[24]. 초기 탐색 과정일 뿐, 실제 사용 준비가 된 도구는 아니었습니다. 반면, SAM 3D는 더 높은 품질의 텍스처가 있는 출력을 제공하며, 실규모 이미지에 대한 검증을 통해 세부 사항을 메꿉니다[3]. 또 다른 연구 분야는 NeRF (Neural Radiance Fields) 및 관련 기술을 포함하며, 이는 2D 입력에서 아름다운 3D 뷰를 만들어내지만, 대개 여러 뷰 또는 장면별로 신중한 훈련이 필요합니다. SAM 3D가 다양한 객체 유형에서 하나의 이미지로 일반화할 수 있는 능력은 차별화된 강점입니다. 또한 완전히 오픈 소스로, 추론 코드와 모델 체크포인트가 쉽게 제공됩니다[19][25], 반면에 일부 최첨단 3D 모델은 독점적이거나 실행하기 어렵습니다. 종합적으로 볼 때, SAM 3D는 현재 단일 이미지 3D 재구성 분야에서 능력과 접근성 면에서 유일한 솔루션으로 두드러집니다.
· Versus Segment Anything (2D)와 관련 모델: “SAM 3D”는 Meta의 원래 Segment Anything Model(2D 중심)을 기반으로 구축되었습니다. 올해 초, Meta는 SAM 3(때때로 SAM v3로 불림)도 발표했으며, 이는 텍스트 프롬프트로 이미지/비디오의 세분화 및 추적을 처리합니다[1]. SAM 3D는 시각을 3D로 확장하는 자매 모델입니다. 또한 혼란스럽게도 “SAM3D”(또는 SAM-Part3D)라는 이름의 관련 없는 학술 프로젝트가 있었는데, 이는 3D 점 구름에서 부분을 세분화하는 작업을 다루지만, 2D에서 3D로 생성하는 것이 아닌 기존 3D 데이터를 라벨링하는 완전히 다른 접근 방식입니다[26]. Meta의 SAM 3D는 평면 이미지에서 새로운 3D 표현을 생성한다는 점에서 독특합니다. Meta의 자체 비교에서 SAM 3D Objects는 표준 벤치마크에서 이전 학술 방법보다 훨씬 뛰어난 성능을 보였으며, 이는 학습 기반 접근 방식과 대규모 학습 데이터 덕분입니다[13].
· SAM 3D vs. Google의 Nano Banana Pro (2D): 흥미롭게도 SAM 3D는 다른 AI 획기적인 기술들이 병렬적인 도메인에서 발생하는 시기에 등장합니다. 주목할 만한 예로는 2025년 말에 출시된 Google DeepMind의 Nano Banana Pro가 있습니다. Nano Banana Pro는 3D 도구가 아니라 최첨단 이미지 생성 및 편집 모델로, Gemini 3 AI 플랫폼을 기반으로 구축되었습니다. 이 모델은 4K 해상도의 거의 사진 같은 이미지 편집과 일관된 결과를 제공하며, 편집 간 95% 이상의 문자 일관성을 자랑합니다. 다른 말로 하자면, Nano Banana Pro는 이미지를 수정하거나 생성할 때 놀라운 충실도를 자랑하며, 많은 사람들이 포토샵 작업을 대체할 수 있을 것이라고 평가했습니다. 비교해보면, Meta의 SAM 3D는 공간적 도메인에서 작동하여 게임, 애니메이션 또는 AR 장면에서 사용할 수 있는 3D 모델을 재구성할 수 있습니다. 두 모델 모두 획기적인 모델이지만 상호 보완적인 목적을 제공합니다. Nano Banana Pro는 2D 창의적 출력에 뛰어나, AI 마법으로 아이디어를 그림으로 바꾸거나 그림을 조정할 수 있습니다. SAM 3D는 사진에서 개체를 3D로 추출하는 데 뛰어나 평면 이미지를 잡고, 회전시키거나 가상 공간에 배치할 수 있는 무언가로 변환합니다. 이 두 도구는 함께 멋진 이미지를 생성하고(Nano Banana Pro와 같은 도구로) 즉시 그 이미지에서 요소를 3D 모델로 옮기는(SAM 3D와 같은 도구로) 미래의 작업 흐름을 암시합니다. 이는 상상에서 이미지로, 다시 상호작용 가능한 3D 콘텐츠로의 매끄러운 다리를 제공합니다.
이러한 AI 발전이 얼마나 빨리 사용자에게 전달되는지를 보는 것도 흥미롭습니다. 예를 들어, 세계 최초의 개인 AI 에이전트 플랫폼으로 알려진 Macaron은 Google의 Nano Banana 모델을 Playbook에 통합하여 이러한 이미지 편집 기능을 선보이는 원클릭 미니 앱 모음을 출시했습니다[29]. Macaron 사용자들은 사진에서 의상을 바꾸고, 2D 아트로부터 3D 스타일의 피규어 모형을 생성하는 등 다양한 기능을 Nano Banana의 기술로 사용할 수 있습니다[30][31]. 이 최신 연구를 실용적인 도구로 바로 전환하는 것은 SAM 3D와 함께 기대되는 바입니다. Macaron이나 Adobe와 같은 플랫폼이 SAM 3D를 통합하여 사용자가 단일 사진을 업로드하고 창의적인 프로젝트에 사용할 수 있는 3D 모델을 받을 수 있게 하는 것을 상상할 수 있습니다. 즉, 경쟁 환경은 “SAM 3D vs Nano Banana”가 아니라 이미지 완성을 목표로 하는 AI 도구의 풍부한 생태계가 펼쳐지고 있는 것입니다. 일부는 이미지를 완벽하게 하는 데 중점을 두고, 다른 일부는 3D를 해제하며, 미래 지향적인 기업들은 이 둘을 결합하여 창작자를 지원합니다. SAM 3D는 연구실에 제한되었던 기능을 직접 개발자와 아티스트에게 제공하여 Meta가 차세대 도구 세트에서 입지를 확고히 합니다.
Meta의 SAM 3D는 AI의 빠른 발전을 잘 보여줍니다. 평면 이미지를 이해하는 것에서 나아가 그 뒤의 3D 세계를 재구성하는 방향으로 발전하고 있습니다. 이 기술은 창작자와 혁신가들이 할 수 있는 일에 전혀 새로운 차원을 더합니다. 최근 AI 모델들이 2D 이미지를 놀라운 사실감으로 생성하고 편집하는 것을 쉽게 만든 것처럼, SAM 3D는 이제 간단한 스냅샷을 찍어 3D 자산을 얻을 수 있게 합니다. 이는 불과 몇 년 전만 해도 첨단 연구소 밖에서는 상상할 수 없던 일이었습니다.
E-E-A-T 관점(경험, 전문성, 권위, 신뢰성)에서 SAM 3D는 많은 박스를 체크합니다. Meta의 경험 많은 AI 연구자들이 개발한 이 모델은 (전문성 ✅) 투명성을 위해 공개된 체크포인트와 평가 데이터를 함께 제공하였습니다[20] (신뢰성 ✅). 이미 Meta는 실제 사용 사례(마켓플레이스 AR 가구 미리보기 등)를 통해 모델을 실제로 시연했습니다[23] (경험 ✅). 또한 모델을 오픈소스화하고 벤치마크를 공유함으로써 Meta는 연구 커뮤니티가 이를 검증하고 발전시킬 수 있도록 초대했습니다 (권위 ✅). 이 모든 것이 SAM 3D를 단순한 인상적인 데모가 아닌, 다른 사람들이 채택하고 신뢰할 수 있는 신뢰할 수 있는 도구로 포지셔닝합니다.
기술 애호가와 연구자들에게 SAM 3D는 신선하게 다가옵니다. Meta의 Segment Anything Playground에서 설정 없이 체험해볼 수 있습니다. 이미지를 업로드하기만 하면 브라우저에서 3D 결과를 확인할 수 있습니다[32]. 개발자는 GitHub에서 코드를 가져와 몇 시간 만에 단일 이미지 3D 변환을 자신의 앱에 통합할 수 있습니다. 이러한 실험의 용이성 덕분에 앞으로 몇 달 동안 창의적인 사용과 통합이 폭발적으로 증가할 것입니다. 인디 게임 제작자들이 SAM 3D로 생성된 모델로 장면을 채우거나 AR 필터 제작자들이 사용자가 스냅샷을 3D 스티커로 변환할 수 있도록 할 수도 있습니다. 2D와 3D 콘텐츠의 경계가 허물어지고 있습니다.
결론적으로, Meta SAM 3D는 창의적인 환경을 풍부하게 만드는 중요한 발전을 나타냅니다. 이는 Google의 Nano Banana Pro와 같은 혁신들과 함께 AI가 평면 이미지에서 완전한 3D 경험에 이르기까지 콘텐츠 제작을 혁신하는 방법을 보여주는 신호입니다. 단일 이미지에서 3D 모델을 만들어낼 수 있는 능력은 시간을 절약하고 새로운 아이디어를 불러일으키며, 아마도 새로운 산업을 탄생시킬 것입니다 (가상 부동산 무대 연출, 오래된 사진으로부터 3D 추억 생성, 혹은 셀카로 생성된 개인화된 게임 아바타를 상상해 보세요). 우리는 누구나 AI와 함께 3D 창작자나 AR 디자이너가 될 수 있는 시대에 들어서고 있습니다.
Macaron과 같은 플랫폼은 이러한 혁신이 얼마나 빠르게 일상 도구로 전환될 수 있는지를 보여주었습니다[29]. SAM 3D가 채택됨에 따라, 창의적인 소프트웨어, 모바일 앱, AI 에이전트 플랫폼에 통합되는 것을 기대하고 있습니다. 아마도 곧 '사진 편집' 옵션 옆에 '3D 만들기' 버튼이 생길지도 모릅니다. 한 가지 확실한 것은, SAM 3D를 도입함으로써 Meta는 더욱 몰입적이고 상호작용적인 디지털 세계로 가는 문을 열었으며, 그 문을 통과하는 것은 사진을 찍는 것만큼 간단해질 것입니다. 창의성의 미래는 다차원적이며, SAM 3D와 함께 그 미래가 공식적으로 도래했습니다. [33][4]
출처: Meta AI 블로그[34][22]; Meta 뉴스룸[1][35]; echo3D Medium 브리핑[6][14]; Tech Explorer 튜토리얼[36][8]; Macaron 플레이북 & 블로그[29][27]; OpenAI/Rerun 노트[24].
[1] [2] [3] [4] [5] [12] [13] [20] [22] [23] [25] [32] [33] [34] [35] 새로운 Segment Anything 모델로 객체 감지 및 3D 재구성이 쉬워졌습니다.
https://about.fb.com/news/2025/11/new-sam-models-detect-objects-create-3d-reconstructions/
[6] [14] [19] Meta의 새로운 SAM 3D: 일상 이미지에 상식을 더하다 | echo3D 작성 | echo3D | 2025년 11월 | Medium
[7] [8] [9] [11] [15] [16] [17] [18] [36] SAM 3D Objects 튜토리얼: Meta AI 단일 이미지 3D 재구성 | 사진을 3D 모델로 • 테크 탐험가
https://stable-learn.com/en/sam-3d-objects-tutorial/
[10] 이 AI가 당신의 사진을 3D 모델로 변환했습니다 - 방법은 다음과 같습니다.
https://www.adwaitx.com/meta-sam-3d-models-guide/
[21] [26] SAM 3D 궁극 가이드: 3D 객체 이해 변환
https://skywork.ai/blog/ai-image/sam-3d-ultimate-guide/
[24] rerun.io
https://rerun.io/examples/generative-vision/shape_pointe
[27] Nano Banana Pro: AI 이미지 편집 도구 - Macaron
https://macaron.im/blog/nano-banana-pro
[28] [29] [30] [31] 나노 바나나와 마카롱의 만남: 하나의 플랫폼에서 제공하는 차세대 AI 이미지 편집 - 마카롱
https://macaron.im/blog/macaron-ai-essential-personal-assistant-features