마카롱 분석: Kimi K2 「생각하는」 모델: 개방형 에이전틱 AI를 발전시키다!

작성자: Boxu Li

소개

Moonshot AI의 Kimi K2는 '에이전틱' AI의 경계를 확장하는 획기적인 오픈 소스 대형 언어 모델(LLM)로, 단순히 대화하는 것을 넘어 생각하고 행동할 수 있는 모델입니다. 2025년 중반에 공개된 Kimi K2는 전례 없는 **총 1조 개의 매개변수(추론당 활성화되는 320억 개)**를 갖춘 전문가 혼합 (MoE) 모델입니다. 이 거대한 규모와 혁신적인 훈련 기법의 결합으로 Kimi K2는 OpenAI의 GPT-4.1 및 Anthropic의 Claude (Opus 4)와 같은 선도적인 독점 모델들을 여러 복잡한 벤치마크에서 능가할 수 있게 되었습니다. 이전의 많은 LLM들이 단순한 Q&A 또는 대화에 집중했던 것과 달리, Kimi K2는 자율적인 문제 해결을 위해 설계되었습니다. 즉, 코드 작성, 도구 사용, 다중 단계 계획 실행을 통해 작업을 완수하는 것입니다. 이 글에서는 Kimi K2의 업데이트된 '사고' 모델 아키텍처와 훈련 혁신, 그리고 유사한 모델들과의 비교를 심도 있게 탐구합니다. 또한 Macaron의 기술 블로그에서 논의된 개념(예: 하이브리드 추론 스택 및 명령 수행 프레임워크)과의 연결을 그리고, Macaron 자체의 R&D 방향-새로운 RL+확산 텍스트 모델 포함-이 이러한 발전과 어떻게 일치하는지를 암시합니다.

아키텍처 혁신: 뮤온클립과 함께하는 1조 스케일의 MoE

Kimi K2의 핵심은 전문가 혼합(Mixture-of-Experts) 트랜스포머 아키텍처입니다. 단일 밀집 네트워크 대신, MoE는 모델을 여러 전문 “전문가”로 나누고 각 토큰마다 일부만 활성화됩니다. Kimi K2는 최상위 2 라우팅을 사용하여, 각 토큰이 384개 중 8개의 선택된 전문가(공유 전문가 포함)를 통과합니다. 이는 1조 개의 매개변수 모델의 효과를 내면서도 각 토큰당 32B 매개변수만 활성화하여 효율적으로 확장할 수 있습니다. 이 아키텍처는 61개 층과 7168의 어텐션 차원을 가지며, 초기에는 최대 128K 토큰의 컨텍스트 윈도우를 지원합니다 (업계 표준에 비해 큽니다). 특히, Kimi K2는 긴 컨텍스트에서의 안정성을 높이기 위해 어텐션 헤드 수를 줄였으며, 이는 심층 네트워크에서 학습 발산을 피하기 위한 실용적인 조정입니다.

이 크기의 모델을 달성하기 위해서는 주요 최적화 문제를 극복해야 했습니다. Moonshot은 기존의 2차 Muon 최적화기의 개선된 버전인 MuonClip이라는 새로운 최적화기를 도입했습니다. MuonClip은 쿼리/키 프로젝션 행렬을 동적으로 조정하여 트랜스포머에서 악명 높은 '폭발하는 로짓' 문제를 방지하는 새로운 QK-클리핑 기술을 사용합니다. 덕분에 Kimi K2는 손실 스파이크 없이 경이로운 15.5조 개의 토큰으로 사전 학습할 수 있었습니다. 이는 기존의 AdamW 최적화로는 거의 불가능한 업적입니다. 즉, 이 모델은 과거 LLM이 달성했던 것보다 훨씬 더 큰 규모에서 안정적으로 수렴하여 더 많은 훈련 데이터를 활용해 더 나은 지식과 기술을 얻었습니다. MuonClip과 손실 기하학에 적응된 고계수 업데이트와 같은 기타 훈련 기술 덕분에 K2는 토큰 효율성에서 우위를 점했습니다. 이는 이전 모델보다 각 토큰에서 더 많은 것을 배웠다는 의미입니다. 훈련의 안정성과 효율성에 대한 이러한 초점은 Macaron의 연구에서 일부 주제를 반영합니다. 예를 들어, Macaron의 Mind Labs는 매우 큰 모델을 다루기 위해 대체 RL 최적화기와 미세 조정 전략을 탐구했습니다. (Macaron Tech Blog: “Scaling All-Sync RL with DAPO and LoRA”에서 10배 적은 GPU로 671B-매개변수 모델을 미세 조정하는 방법에 대해 알아보세요.)

에이전틱 후속 학습: 합성 기술 및 공동 RL

사전 훈련은 Kimi K2의 강력한 기초를 구축했지만, 진정한 차별점은 사전 훈련 이후에 있었습니다. Moonshot은 K2에게 추론 능력, 도구 사용, 그리고 정렬을 주입하기 위한 다단계 후속 훈련 프로세스를 수행했습니다. 주요 단계 중 하나는 대규모 에이전트 데이터 합성 파이프라인이었습니다. 여기서 팀은 모델이 문제를 자율적으로 분해하고, 도구를 호출하며, 코드를 작성하고 디버그하여 검증된 올바른 솔루션을 생성해야 하는 다단계 작업 예제를 대량으로 생성했습니다. 수천 개의 실제 및 시뮬레이션 도구가 사용되었고, 각 작업에는 성공 여부를 확인하기 위한 기계 검증 가능한 기준표 또는 테스트가 포함되었습니다. 중요한 것은, **LLM 기반의 '검증자'**가 모델의 행동과 출력을 검토하여 실패를 걸러냈다는 것입니다. Moonshot 팀이 '검증자 경제'의 일환으로 설명하는 이 접근 방식은 고품질의 추론 경로만이 훈련 피드백이 되도록 보장했습니다. 이는 대규모로 자동화된 코드 리뷰어나 수학 증명 검토자가 모델과 함께 있는 것과 비슷합니다. 흥미롭게도, Macaron의 자체 시스템 설계는 검증 가능한 추론이라는 유사한 아이디어를 강조합니다. 예를 들어, Macaron의 자율 코드 합성 파이프라인은 신경 생성과 상징적 검사 및 테스트를 결합하여 순수 신경 출력보다 신뢰성을 향상시키는 하이브리드 접근 방식을 사용합니다.

합성 도구 사용 훈련 후, Moonshot은 K2를 공동 강화 학습(RL) 단계로 더 정제했습니다. RL 미세 조정 동안 Kimi K2는 실제 및 시뮬레이션된 환경과 상호 작용할 수 있었으며, 작업을 완료하면 보상을 받았습니다. Moonshot은 독특하게도 정적 보상 모델에만 의존하지 않았고 K2와 함께 비평 모델을 훈련하여 그 반응을 평가했습니다. 이 비평가는 먼저 객관적인 작업(단위 테스트 통과처럼 성공이 명확한 경우)에서 훈련된 후 주관적인 측면(도움, 톤)을 평가할 수 있었습니다. 이를 통해 보상 해킹을 완화하고 모델의 인센티브를 검증 가능한 정확성에 맞추었으며 스타일이나 선호도보다 이를 우선시했습니다. RL 단계는 또한 장문 생성의 안정성을 높이기 위한 조치를 포함했습니다: K2는 기본 기술을 잊지 않기 위해 사전 훈련 목표로 잠시 돌아가 규제되었으며, 보상 캡 및 온도 감소와 같은 기술을 사용하여 RL 조정 모델에 흔히 나타나는 드리프트, 장황한 출력이 발생하지 않도록 했습니다. 이 엄격한 후훈련의 결과로, Kimi K2는 다단계 추론과 도구 사용에 매우 능숙해졌고, 안정성을 유지했습니다 – 단순히 대화하는 것이 아니라 **계획하고 실행할 수 있는 '에이전트'**로서의 역할을 합니다. Kimi K2의 훈련 체계는 대규모 지도 학습, 집중된 에이전트 데이터, 그리고 모델의 의사 결정 능력을 연마하기 위한 신중한 RL 미세 조정이 융합된 모범 사례의 구현으로 볼 수 있습니다.

성능 벤치마크: Kimi K2의 성능 비교

그렇다면 이러한 혁신들이 실제 성능에서 어떤 가치를 제공할까요? 여러 측면에서 Kimi K2는 오픈 모델의 새로운 기준을 세웠습니다. Moonshot의 기술 보고서와 독립 평가에 따르면, **K2-Instruct (명령 조정 변형)**는 복잡한 코딩, 추론, 다단계 작업에서 오픈 소스 LLM 중 최첨단 결과를 제공합니다. 사실, 여러 벤치마크에서 K2는 오픈 모델을 선도할 뿐만 아니라 일부 유명한 폐쇄형 모델을 일치시키거나 능가합니다. 예를 들어, SWE-Bench (검증됨) – 도구를 사용하여 코드 수정이 가능한지를 측정하는 도전적인 에이전트 코딩 벤치마크 – 에서 Kimi K2는 **65.8%**의 정확도를 기록하며, GPT-4.1 (54.6%)를 큰 차이로 능가합니다. 또한 Anthropic의 Claude 2 (Claude “Sonnet 4”는 유사한 조건에서 54.2%를 기록)를 앞서며, Claude의 최고 '사고 가능' 점수 (72.7%)에 가까운 성과를 보입니다. 추가적인 테스트 시간 계산 (예: 병렬로 여러 차례 시도)을 통해 K2는 해당 벤치마크에서 **71.6%**까지 점수를 올릴 수 있으며, 이는 Claude의 전문화된 성능과의 격차를 사실상 좁힙니다.

Kimi K2는 순수 코딩 작업에서도 두각을 나타냅니다. LiveCodeBench라는 엔드투엔드 코딩 챌린지에서 K2는 **53.7%**의 정확도를 기록하며 GPT-4.1 (44.7%), Claude Opus 4 (47.4%), DeepSeek-V3 (46.9%)를 능가했습니다 – 이는 K2의 코딩 능력을 입증하는 것입니다medium.com. 이는 코드와 디버깅에 대한 K2의 훈련(모든 검증기를 포함)이 다른 모델보다 더 자주 올바르고 실행 가능한 코드를 생성할 수 있는 모델로 결실을 맺었다는 것을 시사합니다. 또 다른 놀라운 결과는 고급 수학 문제 벤치마크인 MATH-500에서 나왔습니다: Kimi K2는 **97.4%**의 정확도를 기록하며 GPT-4.1(92.4%)을 능가했습니다medium.com. 97%에 가까운 성공률로 수학 문제를 해결하는 것은 주목할 만하며, 일반적으로 단계별 논리적 사고가 필요한 영역에서 모델의 강력한 추론 능력을 나타냅니다. K2는 GPQA-Diamond (일반 문제 해결) 및 다양한 코딩 대회에서도 비슷한 인상적인 점수를 기록했습니다. OJBench(고전적인 프로그래밍 챌린지 세트)에서 **27.1%**라는 점수는 오픈 모델 중 최고를 기록하여 전통적인 알고리즘 코딩을 처리할 수 있음을 보여줍니다medium.com. 그리고 지식 집약적 벤치마크인 Tau2에서 Kimi K2는 **65.8%**를 기록하며 **GPT-4.1 (38.6%) 및 Claude 2 (45.2%)**를 능가했습니다medium.com – 여기서 K2의 웹 브라우징이나 계산기와 같은 도구 사용 능력이 통신 관련 문의에 강력한 이점을 제공했을 가능성이 높습니다.

Kimi K2가 이러한 분야에서 뛰어나지만, 모든 면에서 절대적으로 우수하지는 않다는 점을 유념해야 합니다. 편견 없는 시각이 중요합니다. 예를 들어, Claude 2는 SWE-Bench 코딩 벤치마크의 가장 어려운 버전에서 단계별로 '생각'할 수 있을 때 여전히 약간의 우위를 유지했습니다(72.7% vs K2의 65.8%). 그리고 GPT-4와 같은 모델들은 여전히 K2가 부족한 기능을 가지고 있습니다 – 특히 멀티모달 이해 (GPT-4는 이미지를 볼 수 있지만 K2는 현재 볼 수 없습니다)와 아마도 일부 대화 능숙함입니다. Moonshot은 의도적으로 K2를 에이전트적, 텍스트 기반 작업에 집중시켰으며, 속도와 전문성을 위해 사고의 투명성과 멀티모달 입력과 같은 것을 포기했습니다. 그러나 Kimi K2의 오픈 소스 특성은 독특한 이점을 제공합니다: 누구나 사용하거나 미세 조정할 수 있으며, 독점 API의 무거운 비용 없이 가능합니다. Moonshot은 K2 API를 OpenAI 비용의 일부로 제공합니다 (백만 토큰 당 약 $2.50 대 GPT-4의 백만 토큰 당 $8). 이 비용 효율성과 코딩 및 추론에서의 최고 수준의 성능이 결합되어 K2를 GPT-4급 모델에 대한 매력적인 오픈 대안으로 자리매김하게 합니다. 실제로, 관찰자들은 Kimi K2를 *“올해 가장 중요한 AI 모델 출시”*라고 부르며, 서구 AI 거인들에 대한 중국의 답변으로 보고 있습니다. 이는 Alibaba의 DeepSeek과 같은 모델의 뒤를 이어, 여러 면에서 DeepSeek의 성능을 뛰어넘었습니다 (K2는 주요 코딩 벤치마크에서 최신 DeepSeek 버전을 약 20+ 점 차로 앞섰습니다). 결론적으로 Kimi K2는 오픈 모델에 대한 새로운 수준의 역량을 달성하여, 실용적인 작업에서 기존 모델을 견줄만하거나 능가하는 성과를 보여주며, 빠르게 변화하는 LLM 환경에서 중요한 진전을 이루었습니다.

새로운 「생각」 모드: 연쇄적 사고를 가진 K2

아마도 Kimi K2의 가장 흥미로운 업데이트는 K2 'Thinking' 모델의 도입일 것입니다. 본질적으로, 이는 K2가 보다 느리게 깊이 있는 사고를 하도록 하는 버전입니다. 원래의 K2-Instruct는 *'긴 생각 없이 빠른 반사급'*으로 묘사되었습니다. 이는 지연 시간을 줄이기 위해 빠르게 유용한 답변을 제공하도록 조정되었지만, 복잡한 문제 해결에는 항상 적합하지 않았습니다. 이를 인식한 Moonshot은 최근 Kimi-K2-Thinking을 출시하였으며, 이는 여러 단계의 추론과 여러 턴에 걸친 도구 사용을 위해 명시적으로 설계된 변형입니다. K2-Thinking 모드에서는 모델이 자율적으로 일련의 행동을 계획하고, 더 긴 내부 사고 과정을 거치며, 최종 답변을 완료하기 전에 외부 도구나 API를 활용하여 정보를 수집할 수 있습니다. 기술적으로는 256K 토큰 컨텍스트 윈도우(매우 큰, 중간 계산을 유지하기 위해)를 지원하며, 사고 과정을 추적하는 특수한 reasoning_content 필드를 출력할 수 있습니다. 예를 들어, 복잡한 연구 질문을 받았을 때, K2-Thinking은 계획을 수립할 수 있습니다: 쿼리를 하위 질문으로 나누고, 웹 검색을 수행(도구 호출 중 하나)하고, 결과를 요약하고, 계산을 수행한 뒤 최종 답변을 종합하는 방식으로 말이죠. 이 모든 과정은 reasoning_content에 이러한 단계들을 기록하면서 이루어집니다. 초기 보고서에 따르면 K2-Thinking은 지시를 스스로 분해하고, 데이터를 분석하며(CSV 파일이나 JSON 같은 도구를 통해), 심지어 구조화된 보고서를 생성할 수 있다고 합니다. 이는 기본 K2의 한계점인 명시적인 사고 체인의 지원 부족을 효과적으로 해결합니다. K2-Thinking을 통해 Moonshot의 모델은 GPT-4의 “계획 및 해결” 접근 방식이나 Claude의 헌법 AI 추론과 같은 시스템에 더 가까워집니다. 이러한 시스템에서는 AI가 소리 내어 생각하고 어려운 문제에 대해 반복할 수 있습니다. 이는 K2의 방대한 지식 기반과 코딩 기술이라는 원시적 힘과 에이전트와 같은 인지적 과정을 결합하여 단 한 번의 시도로 처리할 수 없는 작업에도 대처할 수 있게 만들어주는 중요한 단계입니다.

K2-Thinking의 도입은 Macaron의 맥락에서 우리가 탐구한 아이디어와 공명합니다. Macaron의 하이브리드 추론 아키텍처에서는 작업에 따라 빠른 반사 반응과 깊이 있는 심사숙고 추론을 균형 있게 조절하는 것을 강조합니다. 즉, '시스템 1'과 '시스템 2' 인지를 전환하는 것입니다. K2는 이제 이 원칙을 두 가지 모드로 구현합니다: 빠른 답변을 위한 원래의 반사 모드와 복잡한 문제를 위한 사고 모드입니다. 또한 Macaron의 지침 준수 프레임워크는 AI 비서가 행동하기 전에 사용자 지침을 적절히 해석하고 분해하는 것이 얼마나 중요한지를 강조해왔습니다 (안전성과 정확성을 위해). K2-Thinking은 이를 명확히 따릅니다: 작업을 하위 작업과 도구 호출로 명시적으로 분해함으로써 요청을 잘못 해석하거나 중요한 단계를 건너뛸 가능성이 줄어듭니다. 게다가 K2-Thinking의 외부 도구 API 통합 능력은 개인 AI가 세계와 인터페이스해야 한다는 Macaron의 철학과 일맥상통합니다 (캘린더, 웹 데이터, 앱 등), 독립적으로 작동하는 것이 아니라. 어떤 의미에서 Kimi K2는 강력한 '두뇌'에서 더 완전한 인지 에이전트로 진화하고 있으며, 이는 많은 AI 커뮤니티 (Macaron 포함)에서 미래라고 믿는 방향입니다.

다른 최첨단 모델과의 비교

Kimi K2(새로운 사고 모드 포함)를 손에 쥐고 Moonshot의 제공이 OpenAI GPT-4, Anthropic Claude 2, 또는 소문에 의한 Google의 Gemini와 같은 최첨단 모델과 어떻게 비교되는지 확인해보세요. 우리는 이미 K2가 GPT-4.1 및 Claude 2와의 코딩 및 추론 벤치마크에서 경쟁력을 갖추고 있다는 것을 목격했습니다. 이는 이러한 모델들이 폐쇄된 데이터와 더 오랜 개발 기간의 이점을 가졌다는 점을 고려할 때 놀라운 성과입니다. GPT-4는 여전히 비전 입력과 아마도 더 정교한 자연어 조정과 같은 강점을 가지고 있다는 점을 유의해야 합니다. Claude 2(예: Claude Sonnet 4.5)는 길게 지속되는 세션을 처리하는 “헌법적으로” 정렬된 응답과 긴 자율성으로 잘 알려져 있으며, 실제로 Claude는 무제한 생각이 허용되었을 때 일부 깊이 있는 에이전트 작업에서 약간 더 높은 통과율을 보였습니다. 그러나 K2는 사고 모드를 통해 유사한 장기적인 능력을 획득함으로써 이 격차를 좁힙니다. 순수한 지식과 수학 면에서는 K2가 심지어 우위를 가질 수도 있습니다(MATH-500 거의 완벽한 점수로 입증됨). 이 글 작성 시점에서 아직 출시되지 않은 Google의 Gemini는 아마도 GPT-4를 능가할 수 있는 다중 모달, 고도로 최적화된 모델로 예상됩니다. Kimi K2는 아직 다중 모달성을 가지고 있지 않으며(이미지나 오디오 이해 없음), 이는 차세대 모델에 뒤처질 수 있는 한 영역입니다. 하지만 K2의 모듈식 도구 사용 접근 방식은 비전 또는 다른 모델을 도구로 연결하여 이를 보완할 수 있습니다(예를 들어 K2를 이미지 캡션 도구와 짝지어 다중 모달 추론을 모방할 수 있습니다).

배포와 비용도 고려해야 합니다. Kimi K2는 오픈 소스(허용적인 라이선스)로 제공되므로 누구나 자체 호스팅하거나 적응할 수 있습니다. MoE 설계 때문에 실행 비용이 저렴하지 않으며, 낮은 대기 시간을 위해 최소한 여러 개의 A100 GPU 또는 이와 유사한 장치가 필요합니다. Moonshot은 실험을 위해 더 작은 설정에서 실행할 수 있는 양자화된 버전(e.g. GGUF quant)을 제공했지만, 실제로 1T 규모로 생산에 활용하려면 상당한 하드웨어가 필요합니다. 이는 일종의 선택입니다: GPT-4는 API를 통해서만 접근 가능하며(자체 호스팅 불가), 클라우드에서 무거운 작업을 처리합니다. 반면 K2는 인프라를 관리해야 하지만 통제권을 얻습니다. 데이터 프라이버시나 맞춤화에 관심이 있는 기업에게 K2는 폐쇄형 모델이 제공하지 않는 독립성을 제공합니다. Macaron의 엔지니어링 블로그는 종종 모델 통합 시 유사한 점을 강조했습니다. 모델의 원시 성능과 대기 시간, 비용, 제어 가능성과 같은 실용적 고려사항 간의 균형을 맞추는 것입니다. Macaron의 경우, Claude와 같은 폐쇄형 APIDeepSeek과 같은 오픈 모델을 사용하여 다양한 기능을 강화하기 위해 실험했습니다. 오픈 모델인 K2가 특정 작업(예: 코딩, 여기서 뛰어남)에 사용되고, 다른 작업에는 전문화된 모델(예: 캐주얼 채팅을 위한 작은 대화 모델 또는 이미지용 비전 모델)이 사용되는 하이브리드 배포가 유력한 트렌드로 떠오르고 있습니다.

결론 및 전망

Moonshot의 Kimi K2 (및 K2-Thinking 업데이트)는 AI 모델에서 중요한 진전을 대표합니다. 이는 단지 더 큰 숫자 때문이 아니라 진정한 추론 능력을 개방형 플랫폼에서 조화롭게 결합했기 때문입니다. 기술적으로 K2는 Mixture-of-Experts 아키텍처가 트릴리언 플러스 규모로 발전할 수 있는 실질적인 경로임을 증명하며, 새로운 최적화 방법(MuonClip)이 이러한 모델을 치명적인 훈련 실패 없이 제어할 수 있음을 보여줍니다. 이 모델의 코딩 및 추론 벤치마크에서의 최상위 성능은 대규모 및 혁신적인 훈련이 실제 문제 해결 능력으로 이어졌음을 증명합니다. 아마도 가장 중요한 점은 Kimi K2가 “대리적” 패러다임을 보여준다는 것입니다. 이 모델은 명시적으로 도구를 사용하고, 작업을 검증하며, 상호작용(RL)을 통해 개선되도록 훈련되었습니다. 이는 과거의 고정적이고 일회성의 예측 모델과는 다릅니다. 이는 인간과 유사한 문제 해결의 몇 가지 간극을 좁혔습니다. 예를 들어, 작업을 단계별로 나누고, 외부 자원을 사용하며, 결과를 재확인하는 등 모든 것이 하나의 AI 시스템 내에서 이루어집니다. 오픈 소스 AI 커뮤니티에게 K2의 출시(기본 및 지시 체크포인트 모두 제공)는 큰 혜택이며, 연구자들이 단지 대화하는 것이 아닌 행동할 수 있는 모델을 바탕으로 연구를 진행할 수 있게 합니다. 이는 열린 모델이 할 수 있는 것에 대한 새로운 기준을 설정하며, 심지어 폐쇄형 모델 리더들에게도 게임을 향상시키거나 가격을 낮추도록 압박을 가할 것입니다.

Macaron의 관점에서, Kimi K2의 출현은 우리가 R&D에서 나아가고 있는 방향을 확인시켜 줍니다. 계층적 추론, 검증 가능한 행동 체인, 풍부한 지침 추적에 대한 우리의 블로그 토론은 K2의 설계에서 실제 사례를 찾습니다. 이러한 아이디어들이 대규모로 실현되는 것을 보는 것은 고무적입니다. 물론 개선의 여지는 항상 있습니다. K2는 여전히 다중 모달리티가 부족하며, 사고 모델에 도입된 사고 사슬은 새로운 추가 사항으로, 향후 발전할 것입니다. 정렬과 안전성은 여전히 도전 과제입니다. 1T 모델이 보상 모델에 포함되지 않은 적대적이거나 개방형 시나리오에서 어떻게 작동하는지 물을 수 있습니다. 이는 Macaron을 포함한 지속적인 연구가 계속될 영역입니다. 사실, Macaron의 팀은 강화 학습과 확산 기반 텍스트 생성을 결합하는 새로운 접근 방식을 탐구하고 있습니다. 본질적으로 새로운 포스트 트레이닝 텍스트 확산 모델을 통해 AI의 출력을 더욱 정밀하게 제어할 수 있을 것으로 기대합니다. 세부 사항은 곧 공개될 예정이지만, 이는 AI가 제어 가능한 방식으로 가능성을 '확산하며 사고'하게 함으로써 환각 같은 문제를 줄이면서 창의성을 유지할 수 있을 것으로 보입니다. 이는 어디에서 다음 도약이 일어날지에 대한 미묘한 힌트입니다: K2와 같은 트랜스포머 LLM의 강점을 확산 모델 기법과 엄격한 RL 튜닝과 결합하는 것입니다.

요약하자면, Kimi K2의 K2-Thinking 모델은 깊이 있는 사고와 자율적인 행동이 가능한 새로운 오픈 AI 시대를 열었습니다. 이는 우리 분야의 빠른 발전의 증거로, 불과 1~2년 전만 해도 오픈 모델에서 이런 성능을 기대하기 어려웠을 것입니다. 이제 그것이 현실이 되었고, 우리 모두에게 더 큰 꿈을 꾸도록 도전합니다. 이러한 발전을 통합하고 자체 하이브리드를 실험하면서(예를 들어 하이브리드 추론 스택이나 확산-RL 하이브리드를 통해), 최첨단과 접근 가능한 것 사이의 경계가 점점 흐려지고 있습니다. 개발자와 사용자에게는 흥미로운 일이 펼쳐집니다: 더 강력하고, 투명하며, 제어 가능한 AI 시스템이 다가오고 있습니다. 그것이 Moonshot, OpenAI, 또는 Macaron의 연구실에서 나오든지 간에 말이죠. 이는 AI가 우리를 더 잘 이해할 뿐만 아니라 복잡한 작업을 함께 수행할 수 있다는 것을 의미합니다. 진정한 AI 에이전트와 협업 지능의 시대를 여는 것입니다.

Boxu는 에모리 대학교에서 정량 경제학 학사 학위를 받았습니다. Macaron에 합류하기 전, Boxu는 미국에서 사모펀드 및 벤처 캐피탈 분야에서 대부분의 경력을 쌓았습니다. 현재 그는 Macaron AI의 비서실장 겸 마케팅 부사장으로, 재무, 물류 및 운영을 관리하고 마케팅을 총괄하고 있습니다.

지원하기 Macaron 의 첫 친구들