확장에서 경험적 지능으로: 일리야 서츠키버의 비전과 마카롱의 접근법

작성자: Boxu Li

“확장” 시대의 종말과 연구로의 회귀

최근 드와케시 파텔과의 대화에서 일리야 수츠케버는 OpenAI의 공동 창립자이자 현재 세이프 슈퍼인텔리전스(SSI) 스타트업의 수장으로서 AI의 현황과 미래에 대해 반성했습니다. 수츠케버는 AI 산업이 '그냥 더 크게 만들자'는 확장 시대를 지나 다시 기본 연구의 시대로 돌아가고 있다고 주장합니다[1]. 대략 2012년부터 2020년까지는 새로운 아이디어(‘연구의 시대’)에 의해 딥러닝의 발전이 이루어졌고, 2020년부터 2025년까지는 데이터와 파라미터를 확장하는 데 중점을 두었습니다(‘확장의 시대’)[1]. 그러나 이제 단순히 모델 크기나 데이터셋 크기를 증가시키는 것은 점점 더 적은 결과를 가져오고 있습니다. 수츠케버가 직설적으로 표현하듯이, “단지 스케일을 100배로 늘린다고 해서 모든 것이 변하지는 않을 것입니다... 다시 연구의 시대로 돌아왔습니다, 단지 큰 컴퓨터와 함께.”[2][3] 즉, 미래의 돌파구는 단순한 대규모 확장보다는 새로운 훈련 레시피와 더 똑똑한 알고리즘에서 나올 것입니다.

이 전환을 촉발한 핵심 문제는 Sutskever가 일반화 격차라고 부르는 것입니다. 오늘날의 대형 모델은 벤치마크에서는 탁월한 성과를 보이지만, 실제 작업에서는 여전히 실수를 저지르며, 이는 점점 더 명백한 역설이 되었습니다. “이 모델들은 사람들보다 일반화를 훨씬 못하는 것 같습니다. 이것은 매우 근본적인 문제로 보입니다,” 라고 Sutskever는 지적합니다[4]. 코딩 대회나 언어 시험에서 최고 점수를 받는 모델조차도 이상한 실수를 저지를 수 있습니다 – 같은 버그 수정을 반복하거나 간단한 상식적인 결정을 내리지 못하는 등 – 이는 능력 있는 인간이라면 하지 않을 실수입니다[4][5]. 이것은 신경망이 인상적인 좁은 기술에도 불구하고 인간처럼 진정으로 이해하거나 적응하지 못한다는 취약성을 강조합니다. Sutskever의 강연 요약에서 설명하듯이, 평가에서는 잘 수행하는 모델을 구축했음에도 불구하고, 실제 세계에서의 신뢰성은 여전히 *“평가에서의 높은 성과와 대조되는 실제 세계에서의 오류로 입증된 취약성”*으로 남아 있습니다.[6]

현재 모델이 왜 일반화에 서툴까요? Sutskever는 그것이 부분적으로 우리의 훈련 방식의 산물이라고 제안합니다. 대규모 사전 학습 시대에 우리는 단순히 모델에 모든 것(인터넷 규모의 텍스트)을 제공하고 데이터의 폭넓음이 광범위한 능력을 가져오길 바랐습니다. 어느 정도까지는 효과가 있었습니다. 그러나 사전 학습 후, 기업들은 특정 벤치마크나 사용자 지침에 모델을 강화 학습(RL)으로 세밀하게 조정합니다. Sutskever는 이 RL 단계가 종종 모델을 테스트에서 잘 수행하도록 과도하게 전문화시켜서 진정한 이해를 개선하지 못한다고 의심합니다[7]. 그의 대화에서 그는 생생한 비유를 제공합니다: 한 “학생”(AI 모델에 비유됨)이 경쟁 프로그래밍 문제를 10,000시간 연습하여 코딩 대회에서 천재가 되지만, 다른 학생은 더욱 겸손하게 연습하며 폭넓은 컴퓨터 과학 직관에 집중합니다[8][9]. 첫 번째 학생은 대회에서 이길 수 있지만 두 번째 학생은 실제 세계에서 더 다재다능한 엔지니어가 됩니다. 오늘날의 모델은 과하게 준비된 전문가처럼, 조정된 좁은 조건에서 뛰어나지만, 새로운 복잡한 문제에 적응하는 인간의 **“특별한 능력”**을 갖추지 못했습니다[10][11]. 요컨대, 우리의 AI는 인간이 평생의 경험을 통해 얻는 강력하고 유연한 일반화를 아직 달성하지 못했습니다.

인간이 더 잘 배우는 이유: 샘플 효율성과 지속 학습

Sutskever의 논의에서 주요 주제 중 하나는 인간 학습의 샘플 효율성입니다. 인간은 복잡한 과제를 배우기 위해 놀라울 정도로 적은 데이터를 필요로 합니다. 예를 들어, Yann LeCun은 청소년이 자동차 운전을 배우는 데 아마 10시간의 연습이 필요하다고 언급한 바 있습니다 – AI 기준으로는 극히 적은 데이터셋입니다[12]. 어린 아이들은 일상 생활에서의 노출만으로 자동차 (및 수천 가지 다른 개념)를 인식하는 방법을 배웁니다[12]. 그에 비해, 현재 AI 모델은 종종 방대한 훈련 세트를 필요로 하며 여전히 인간의 유연성을 따라잡지 못하고 있습니다. Sutskever는 진화가 우리에게 몇 가지 유용한 귀납적 편향을 미리 장착해주었다고 지적합니다 – 예를 들어, 수백만 년의 시각 및 운동이 우리의 뇌를 형성했지만, 그것만이 전부는 아닙니다[13][12]. 진화에 의해 다듬어지지 않은 영역(읽기, 수학, 프로그래밍 등)에서도 인간은 오늘날 알고리즘을 빠르게 능가합니다[14][15]. 이는 *“사람들이 학습에 능한 이유”*가 단순히 내재된 지식 이상이라는 것을 시사합니다 – 우리는 근본적으로 더 효율적인 학습 알고리즘을 가지고 있습니다[14][15].

그 알고리즘이 무엇일까요? Sutskever는 인간이 지속적이고 상호작용적으로 학습하는 것이 단서라고 주장합니다. 우리는 테라바이트의 텍스트를 한 번에 섭취하고 뇌를 멈추는 것이 아니라, 지속적인 경험을 통해 학습하며 지식을 끊임없이 업데이트합니다. 그는 15세 인간이 대형 언어 모델의 데이터 세트에 비해 총 데이터 수신량이 훨씬 적지만, 15세가 되면 더 깊은 이해를 이루고 훨씬 적은 명백한 실수를 저지른다고 지적합니다[16][17]. 차이점은 인간이 평생 학습을 계속한다는 것입니다. 우리는 사춘기에 "훈련 단계"가 완료되었다고 생각하지 않습니다. “인간은 AGI가 아닙니다... 대신 우리는 지속적인 학습에 의존합니다,” 라고 Sutskever는 말하며, 심지어 초지능 AI도 모든 것을 아는 신탁보다는 15세 영재처럼 배치될 필요가 있다고 강조합니다[18][19]. 이러한 AI는 견고한 기초를 가지고 있지만 초기에는 *“엄청난 양의 지식이 부족”*하며, 이후 현장에서 학습하여 다양한 역할을 수행하게 됩니다. 이것은 마치 밝은 젊은이가 의사나 엔지니어로서 세상에 나가 훈련하는 것과 같습니다[19][20]. 사실, Sutskever의 안전한 초지능 비전은 "모든 직업을 수행할 줄 아는" 정적 모델이 아니라, “모든 직업을 수행하는 법을 배울 수 있으며” 점점 더 나아지는 시스템입니다[20][21]. 즉, 진정한 AI 성공은 고정된 임무의 달인이 아니라 학습의 달인을 만드는 것일 수 있습니다.

인간 학습의 또 다른 측면은 우리에게 내재된 피드백 메커니즘입니다. 인간은 감정과 직관을 통해 새로운 기술을 배우면서 우리를 안내하는 내부 보상 신호처럼 작용합니다. 수츠케버는 인상적인 사례를 이야기합니다: 감정을 느낄 수 없는 능력을 잃어버린 한 남자가 (뇌 손상으로 인해) 의사결정을 내리는데 극도로 서투르게 되어, 어떤 양말을 신어야 할지 조차 고심하게 되었습니다[22][23]. 감정적 단서가 없으면, 그는 무엇이 중요한지에 대한 내부 감각이 없었습니다. 이는 우리의 두뇌가 어떤 가치 함수를 활용하여 효율적으로 학습하고 결정을 내리기 위한 진행 중인 추정치를 제공한다는 것을 시사합니다[24][25]. 강화 학습 용어로 말하자면, 우리는 경험의 끝까지 기다려서 보상을 받지 않습니다; 우리는 중간 단계에서 내재적 보상(기쁨, 좌절, 호기심 등)을 생성하여 학습을 크게 가속화합니다. 수츠케버는 오늘날의 RL 알고리즘이 이러한 풍부함이 부족하다고 주장합니다 – 종종 최종 점수를 기다리며, 긴 지평선 과제에서는 매우 비효율적입니다[26][27]. “만약 당신이 오랫동안 무언가를 하고 있다면…[끝까지] 전혀 학습하지 않을 것입니다,” 그는 순진한 RL에 대해 설명합니다[28]. 해결책은 AI 에이전트에게 진행 상황에 대한 더 나은 감각 – 긴 피드백 지연을 단축할 가치 함수를 제공하는 것입니다[29][30]. 이러한 내부 피드백을 통합하면 훈련이 훨씬 더 효율적으로 이루어질 수 있습니다. 수츠케버는 이를 인간의 감정이 작동하는 방식과 비슷하다고 비유하며, 무차별적인 시행착오보다 “컴퓨팅을 더 생산적으로 사용할” 유망한 방향이라고 부릅니다[31], [30]. 요약하자면, 지속적 학습과 풍부한 자기 감독(가치 신호)의 조합이 일반화 격차를 해소하는 열쇠일 수 있습니다.

핵심 통찰: 현재의 AI 모델은 인간보다 훨씬 더 많은 데이터가 필요하며 여전히 적응력이 부족합니다. 인간은 경험을 지속적으로 수집하고 내부 피드백(우리의 '감정적' 가치 함수)을 사용하여 학습을 안내함으로써 효율적으로 학습합니다. 이와 유사하게 대화형이고 점진적인 방식으로 학습하며 자신의 진전을 평가할 수 있는 AI를 구축하면 일반화가 크게 개선될 수 있습니다[32][4].

사전 학습을 넘어서: 경험적 지능을 향하여

이 통찰력은 Macaron AI의 철학과 깊이 공명합니다. 우리는 종종 한 줄로 이를 요약합니다: 진정한 지능은 실제 경험에서 배운다. 더 큰 모델이나 방대한 오프라인 데이터셋에만 의존하는 대신, Macaron의 연구는 경험적 학습에 중점을 둡니다. 이는 인간이 시간이 지나면서 기술을 습득하듯, 능동적인 상호작용, 피드백, 장기 기억을 통해 AI를 훈련하는 방식입니다. 우리가 경험 지능이라고 부르는 이 접근법은 AI가 단순히 많은 데이터를 처리하는 것이 아니라, 경험의 질과 다양성에서 능력을 키우는 것을 목표로 합니다. 이는 무작정 규모를 확장하던 시대와의 의식적인 결별을 의미합니다. Sutskever가 강조했듯이, 단순히 더 많은 데이터나 파라미터를 쌓는 것은 점차 수익 감소를 가져옵니다[2]; 다음 도약은 올바른 경험을 활용하여 적은 것으로 더 많은 것을 배우는 알고리즘에서 나올 것입니다.

구체적으로, Macaron의 Mind Lab 연구 부서는 대형 모델에서 지속적이고 피드백 중심의 학습을 가능하게 하는 기술을 개척해 왔습니다. 우리는 매 업그레이드마다 기본 모델을 버리고 새로운 모델을 처음부터 재훈련하지 않습니다. 대신, 강력한 기본 모델을 반복적인 후속 훈련으로 확장합니다: 실제 작업에 대한 강화 학습, 인간이 참여하는 피드백, 장기 기억 통합. 예를 들어, 우리 팀은 최근 세계 최초로 1조 매개변수 오픈 소스 모델에서 성능이 높은 RL 미세 조정을 수행했으며, 이는 매개변수 효율적인 LoRA 어댑터를 사용하여 일반적인 GPU 예산의 약 10%만 소비했습니다. 이는 대규모 후속 훈련을 현실화하는 데 있어 획기적인 발전이었습니다. 본질적으로, 우리는 거대한 모델에 새로운 경험을 제공하고 이를 통해 학습할 수 있음을 보여주었으며, 이는 단순한 방법보다 훨씬 더 효율적이었습니다. 결과적으로, 정적 데이터에 대해 약간 낮은 당혹도를 짜내는 대신, 상호작용을 통해 모델에 새로운 기술을 가르쳤고, 이는 실현 가능하고 비용 효율적인 방식으로 이루어졌습니다. (특히, 우리는 이 기술의 배후를 오픈 소스로 공개하고 NVIDIA의 Megatron 및 ByteDance의 VEGA와 같은 인기 있는 훈련 프레임워크에 기여하여 더 넓은 커뮤니티가 이를 기반으로 구축할 수 있도록 했습니다.)

기억: 현명하게 잊는 법 배우기

Macaron 접근 방식의 또 다른 기둥은 기억입니다. 이는 채팅 기록 창의 사소한 의미가 아니라, 시간이 지남에 따라 지식이 축적되고 선별되는 모델의 학습 구성 요소입니다. 인간은 모든 입력을 동일하게 다루지 않습니다. 우리는 중요한 사건을 기억하고 나머지는 쉽게 잊습니다. 이 지혜롭게 잊는 능력은 과부하 없이 장기적인 의존성을 처리하는 데 중요합니다. 이에 영감을 받아, 우리의 연구원들은 메모리 디퓨전이라는 새로운 메모리 시스템을 개발했습니다. 단순한 캐싱이나 검색과 달리, 메모리 디퓨전은 모델에게 긴 대화나 사용 이력 동안 어떻게 정보가 발전해야 하는지를 가르칩니다. 모델은 문맥이 커지면서 관련 없는 세부 사항을 "확산"시키고 중요한 사실을 선명하게 하는 법을 배웁니다. 실증적으로, 이 방법은 고정 길이 문맥이나 휴리스틱 검색 같은 기존 메모리 기준을 능가하여 장기적인 일관성을 유지했습니다. 더 직관적으로, 이는 모델에게 중요한 것을 우선시하는 일종의 작업 메모리를 제공합니다. 이는 마치 당신의 뇌가 출퇴근 중 지나친 광고판은 빨리 잊고 어디로 가고 있는지와 그 이유를 기억하는 것과 같습니다. 모델이 어떤 신호를 유지해야 하는지와 어떤 것을 놓아야 하는지를 배우게 함으로써, 우리는 한 작업에서 다음 작업으로 중요한 학습을 이어 갈 수 있는 시스템을 만들었습니다. 이는 보다 지속적인 학습을 가능하게 합니다. 이 메모리 메커니즘은 우리의 추론 및 도구 사용에서의 발전과 함께 Macaron 에이전트 아키텍처의 핵심 요소가 되었습니다. 이는 단순히 컨텍스트 창을 100만 토큰으로 확장하는 (비효율적인) 대신, 모델에게 자신의 경험에서 지식을 지능적으로 압축하고 회상할 수 있는 방법을 제공하여 아키텍처의 스마트함을 강조하는 또 다른 예입니다.

실세계 피드백 루프

중요하게도, Macaron의 연구는 제품과 분리되어 진행되지 않습니다. 우리는 연구↔제품 루프의 긴밀함을 믿습니다: 실험실에서의 개선은 사용자 경험을 통해 직접 검증되며, 제품에서 얻은 인사이트는 새로운 연구를 이끕니다. 예를 들어, Macaron의 개인 AI 앱은 AI의 응답이 부족하거나 사용자가 불만족을 보일 때 익명화된 피드백을 적극적으로 기록합니다. 이러한 신호는 강화 학습 훈련에 추가적인 보상 신호로 활용됩니다. 실제 사용자 피드백을 기반으로 훈련하는 것이 단순히 인터넷 텍스트를 사전 훈련에 추가하는 것보다 능력 향상에 더 큰 이점을 제공한다는 것을 발견했습니다. 이는 Sutskever의 관찰과 일치하며, 어떤 경험을 훈련시키느냐가 양보다 더 중요할 수 있다는 것입니다 – 소량의 목표 경험이 수십억 개의 정적 토큰이 가르칠 수 없는 것을 모델에게 가르칠 수 있습니다[7]. 배포와 연구 간의 루프를 닫음으로써, 우리는 AI가 실제로 사람들이 중요하게 생각하는 작업에서 향상되도록 보장합니다. Sutskever의 용어로, 우리는 모델에게 단순히 세계를 암기하는 것이 아닌 경험을 통해 '그것'을 가르칩니다.

융합: AI를 위한 새로운 패러다임

AI 리더들 사이에서 지속적이고 경험적인 학습이 앞으로 나아갈 길이라는 합의가 늘어나고 있는 것은 고무적입니다. 사람처럼 배우는 초지능에 대한 Sutskever의 비전 – 지속적이고 적응적으로 – 은 바로 마카롱이 추구해 온 길입니다. 이 변화에 우리만 있는 것은 아닙니다. 예를 들어, 구글의 최근 Pathways 전략도 하나의 모델을 여러 작업과 모달리티로 훈련하여 시간이 지남에 따라 새로운 기술을 배우고 단일 목적의 모델을 넘어설 수 있도록 하고 있습니다. 그리고 Jason WeiJeff Dean 같은 연구자들은 거대한 일회성 훈련에만 의존하지 않고 점진적이고 효율적으로 지식을 축적할 수 있는 아키텍처의 필요성을 논의했습니다. 이는 오늘날의 모델 중심 AI와는 다른 **“학습 중심 AI”**로 불릴 수 있는 더 넓은 산업적 동력을 나타냅니다. 이 새로운 패러다임에서는 AI가 새로운 능력을 얼마나 빨리 습득하거나 새로운 상황에 적응할 수 있는지가 문제입니다. – 얼마나 많은 매개 변수가 있거나 사전 훈련에 사용된 데이터 양에 관한 것이 아닙니다. 이 기준으로 보면 인간이 여전히 최고 자리를 차지하고 있지만, 그 격차는 점점 줄어들고 있습니다.

Macaron AI에서는 경험적 인텔리전스 – 실제 경험에서 학습하는 AI가 성능과 신뢰성을 한 단계 더 끌어올릴 것이라고 확신합니다. 우리는 이미 이러한 증거를 보고 있습니다: 강화 학습과 인간 피드백으로 훈련된 모델이 벤치마크에서 더 나은 성능을 발휘할 뿐만 아니라, 실제로 사용자 요구에 더 잘 부합하는 느낌을 줍니다. 이들은 엉뚱한 오류를 덜 발생시키고, 실수를 더 우아하게 회복합니다. 이는 훈련 과정에서 실수를 인식하고 수정하는 법을 배웠기 때문입니다(마치 인간처럼). 우리의 메모리 메커니즘도 순수 변환기에서는 없는 연속성을 제공하여 대화나 작업이 몇 달 동안 초기화되지 않고 지속될 수 있게 합니다. 이러한 모든 장점은 인텔리전스를 정적인 산물이 아닌 프로세스로 취급하는 데서 비롯됩니다. Sutskever가 말했듯이, 배포된 AI는 배포 중에 *“학습 실험과 오류 기간”*을 거칠 수 있으며[19][21], 이는 제어되고 조율되는 한 특징이지 결함이 아닙니다.

물론, AI가 스스로 학습하는 것에 대해 이야기할 때 정렬은 가장 중요합니다. 흥미롭게도, Sutskever는 시간이 지남에 따라 진정으로 학습하고 이해하는 AI를 정렬하는 것이, 비공개로 훈련된 정적 초천재를 정렬하는 것보다 오히려 더 쉬울 수 있다고 제안했습니다. 이는 감각적 생명을 가치 있게 여기고 세상과 다른 사람들을 공감적으로 모델링할 수 있는 AI를 의미할 수 있습니다. AI가 인간과 상호작용하며 성장한다면, 개발 과정에서 인간의 가치를 주입하고 실수를 관찰하고 수정할 기회가 생깁니다. 이는 투명성과 점진적 배포가 안전한 AI의 핵심이라는 우리의 견해와 일치합니다. Macaron의 플랫폼은 사용자를 직접 참여시키고 그들로부터 학습함으로써 이러한 점진적 접근을 위한 자연스러운 샌드박스를 제공합니다. 우리는 의도적으로 새로운 학습 기능을 단계적으로 출시하고, 행동을 모니터링하며 피드백을 수집하여 진공상태에서 훈련된 블랙박스 모델을 출시하는 대신에 이 방법을 택합니다. 간단히 말해, 경험적 학습은 AI를 더 똑똑하게 만들 뿐만 아니라 AI가 더 안전하고 인간에 맞춰지도록 만들 수도 있습니다.

결론: 경험적 지능 수용하기

일리야 서츠케버의 미래지향적인 관점과 마카롱의 개발 여정은 같은 결론을 지적합니다: 다음 돌파구가 될 AI는 단순한 기억 대마왕이 아니라 마스터 학습자입니다. 경험에서 배우고, 피드백을 내면화하며, 장기적으로 기억하고 적응할 수 있는 AI, 즉 성장할 수 있는 AI가 현실 세계의 복잡함에 일반화할 수 있습니다. 이는 초기 모델의 지식량이 아니라 새로운 지식을 얼마나 효과적으로 얻을 수 있는지에 대한 사고 방식의 근본적인 변화를 의미합니다. 서츠케버가 상상한 "초지능 15세"는 이 아이디어를 요약합니다[18][19]. 마카롱에서는 사용자 커뮤니티와 함께 이러한 지속적으로 학습하는 AI를 구축하기 위해 노력하고 있습니다.

경험적이고 지속적인 학습 AI의 영향은 광범위합니다. 기술적으로는 샘플 효율성 향상을 의미하며, 즉 적은 자원으로 더 많은 일을 수행하고, 어떤 도메인이나 분포에도 빠르게 적응할 수 있는 모델을 의미합니다. 경제적으로는 즉시 재교육할 수 있는 AI 노동자를 통해 혁신과 생산성이 급속히 증가할 가능성을 약속합니다(수츠케버는 이러한 AI가 확산되면 잠재적으로 급속한 성장이 있을 것이라고 예측합니다[34][35]). 사회적으로는 AI 시스템이 더 이해하기 쉬워진다는 것을 의미합니다. 우리는 AI가 학습하는 과정을 목격하고 그 발전을 형성할 수 있기 때문입니다.

이를 달성하는 것은 쉽지 않을 것입니다. 알고리즘, 시스템, 학습에 대한 이론적 이해의 발전이 필요합니다. 그러나 가치 함수와 고급 강화 학습부터 평생 기억 아키텍처 및 인간 참여 학습에 이르기까지 이 요소들이 하나로 모이고 있습니다. 이러한 요소를 통합함으로써 우리는 진정으로 발 빠르게 생각하고 학습하는 AI에 더 가까워지고 있습니다. 이것이 바로 마카롱의 연구를 주도하는 정신이며, 수츠케버와 같은 리더들이 제시한 비전과 밀접하게 일치합니다. 확장의 시대는 우리에게 많은 것을 가르쳤지만, 이제 경험적 지능의 시대가 도래하고 있습니다. 이 새로운 시대의 최전선은 단순히 더 큰 모델이 아니라 더 스마트하고, 더 적응 가능하며, 더 인간적인 학습자입니다. 그리고 그것이 바로 우리가 구축하려고 노력하는 것입니다.

출처:

· Ilya Sutskever의 인터뷰 (2025년 11월) - Dwarkesh Podcast: “확장 시대에서 연구 시대로의 전환.” 하이라이트는 Dwarkesh의 블로그에서 확인 가능[1][4][18][19].

· Best of AI 다이제스트에 수록된 Sutskever의 주요 포인트 요약[36].

· Sutskever가 언급한 LeCun의 인간 운전 효율성 관찰[12].

· Macaron AI Mind Lab – 체험적 지능과 기억에 관한 내부 연구 보고서 (2025).

· Macaron AI의 대규모 RL 훈련에 관한 오픈 소스 기여 (Megatron-Bridge & VEGA 통합, 2025).

일리아 슈츠케버 – 우리는 확장의 시대에서 연구의 시대로 이동하고 있습니다

https://www.dwarkesh.com/p/ilya-sutskever-2

[6] [31] [33] [36] AI의 원동력: 2025년과 그 이후로의 확장 (Jason Wei, OpenAI) - 최고의 AI 논문 설명

https://creators.spotify.com/pod/profile/ehwkang/episodes/Driving-Forces-in-AI-Scaling-to-2025-and-Beyond-Jason-Wei--OpenAI-e30rd59

Boxu는 에모리 대학교에서 정량 경제학 학사 학위를 받았습니다. Macaron에 합류하기 전, Boxu는 미국에서 사모펀드 및 벤처 캐피탈 분야에서 대부분의 경력을 쌓았습니다. 현재 그는 Macaron AI의 비서실장 겸 마케팅 부사장으로, 재무, 물류 및 운영을 관리하고 마케팅을 총괄하고 있습니다.

지원하기 Macaron 의 첫 친구들