Google AI Studioでのバイブコーディング:自然言語プロンプトからアプリを構築

著者: Boxu Li(Macaron)

はじめに

Google AI Studio の新しい「バイブコーディング」インターフェースは、コードを一行ずつ書くのではなく、ユーザーが望むことを説明するだけで機能的なアプリを構築できるようにします。「バイブコーディング」という用語は、2025年にAI研究者のAndrej Karpathyによって作られたもので、開発者の役割が手動でのコーディングから、会話的で反復的なプロセスでAIアシスタントを指導することに移行するワークフローを指します。このアプローチがAI Studioに統合されたことで、Googleは経験豊富なコーダーから完全な初心者に至るまで、誰もがAIアプリを開発できるようにすることを目指しています。実際、Googleは年末までにAI Studio上で「100万のAIアプリ」を構築するという野心的な目標を掲げており、それがその規模を推進する原動力としてバイブコーディングを位置付けています。このローンチは、AIを活用したアプリケーションの作成を「ウェブサイトを作るのと同じくらい主流」にするというGoogleの戦略における大きな一歩であり、学生、起業家、非コーダーにとっての障壁を下げています。

AIスタジオでのVibeコーディングの仕組み

AI Studioのビルドモードでは、アプリケーションの作成がAIとの対話型の会話になります。自然言語で作成したいアプリを説明することから始めます。例えば、「レイアウトを描いて各エリアに植える植物を提案してくれる庭のプランニングアシスタントを作って」といった具合です。AIは(デフォルトでGoogleのGeminiモデルを使用)この高レベルのリクエストを解釈し、ユーザーインターフェース、必要なコード(フロントエンドとバックエンド)、プロジェクトファイル構造を含むアプリの最初のバージョンを自動的に生成します[5]。そこから、対話や直接の編集を通じてアプリケーションを反復的に改良することができます。意図した通りに動作しない場合や改善が必要なときは、AIに変更内容を伝えるだけで(またはコードエディターに切り替えて手動で調整)、AIがそれに応じてコードを更新します[6]。このプロンプト-生成-改良のループは、結果に満足するまで続きます。重要なのは、AI Studioはコーディングとノーコーディングの両方のアプローチを同時にサポートしていることです。技術的な知識がないユーザーは自然言語の指示に完全に依存できますが、開発者は生成されたReact/TypeScriptまたはPythonコードを確認し、必要に応じて微調整できます[7][8]。アプリが完成したら、デプロイはワンクリックで完了します。AI StudioはGoogle Cloud Runへのワンクリック公開を統合しており、テストや共有のためにアプリをライブURLで即座にホストします[9][10]。要約すると、AI Studioのバイブコーディングワークフローは、いくつかの大まかなステップで見ることができます:

  1. アイデア出し(プロンプト作成): アプリ全体の目的や機能を高レベルのプロンプトで説明します。例えば、「カテゴリー別の支出をグラフで表示し、節約アドバイスを提供するAIチャットボット付きの個人用予算管理アプリを作成してください。」という感じです。[11][12]
  2. 生成: AI Studioのバックエンド(Gemini 2.5 Proと関連API)は、アプリの初期バージョンを生成します。UIのレイアウトを構築し、フロントエンドのロジック(例:Reactコンポーネント)を記述し、必要なバックエンドルートやAPIコールを設定し、プロジェクトファイルを組み立てます。[13][5]。これは通常、シンプルなアプリの場合は数分以内、しばしば数秒で行われます。
  3. テストとプレビュー: アプリはブラウザ内のインタラクティブなプレビューペインに読み込まれます。すぐに操作して機能を確認できます。(アプリはサンドボックス環境で動作しており、このプレビューのために手動設定やサーバーは必要ありません)[14].
  4. 改良: 会話や直接コード編集を通じてアプリを改良します。「ログインページを追加してください」や「グラフの色を変えてください」といった指示を出すと、AIがコードを変更して対応します。[15][7]。AI Studioのアシスタントは、デバッグや新機能の追加もリクエストに応じて行います。この反復ループにより、アプリの機能を自然な方法で徐々に強化し、問題を修正できます。
  5. 展開: 満足したら、最後のプロンプトやワンクリックでアプリをライブ展開できます。AI Studioがコードをパッケージ化し、スケーラブルなプラットフォーム(Google Cloud Run)にデプロイします。[16][9]。結果は、共有やさらなる開発が可能なライブウェブアプリのURLとなります。

このプロセス全体を通じて、あなたはコントロールを維持します。生成されたコードを常に確認し、アプリの動作をテストし、展開する前にニーズに合っていることを確認できます。この高レベルの簡便さと低レベルの透明性の組み合わせが、AI Studioでのバイブコーディングを初心者にも経験豊富な開発者にも力強いものにしています。Googleはこれを、定型コードと重労働を処理しながら、アプリの「バイブ」—あなたが考えるアイデアやユーザー体験—を導くことに集中できるAIペアプログラマーまたは副操縦士を持つことに例えています[17][18].

バイブコーディングインターフェースの主な機能

Google AI Studioのバイブコーディング環境には、プロンプトからアプリへの旅をスムーズで直感的にするさまざまな機能とUI要素があります。主な機能の一部としては、次のようなものがあります:

  • モデルと機能のセレクター: プロンプトの前に、ビルドタブでアプリが使用するAIモデルとサービスを設定できます。デフォルトでは、Gemini 2.5 Pro(汎用LLM)が選ばれていますが、Imagenでの画像生成、Veoでのビデオ理解、特定のタスク用の小さなモデルであるNano Bananaを組み合わせたり、Google Searchの統合を有効にすることもワンクリックで可能です[19][20]。これらのモジュール式の「AIスーパーパワー」はトグルとして提供されているため、画像認識を含めるウェブ検索データを使用すると言うだけで、システムが生成されたアプリのコードにそれらの機能を組み込みます。Geminiはこれらのコンポーネントを認識し、アプリの組み立て中にそれらを結合します[20][21]。これにより、複雑なマルチモーダルアプリ(例:画像や地図を表示できる音声チャットボット)でも、最小限の労力で作成できます。
  • 自然言語プロンプト入力: Vibeコーディングの中心はプロンプトボックスです。アプリにやらせたいことを平易な英語(またはサポートされている言語)で入力するだけです。たとえば: 「数学の質問をしてAIチューターを使ってフィードバックをくれるインタラクティブなクイズゲームを作る」。システムは例のプロンプトやテンプレートを提供することもあり、(「Geminiを使ったレシピジェネレーター」のスタータープロンプトなど)[22]。技術的な詳細(フレームワークや構文など)を指定する必要はありません。AIが説明に基づいて必要な技術スタック(通常はReact + TypeScriptのWeb UI、およびバックエンドロジック)を判断します[12]。これにより、プログラミングの経験がない人でも、アイデアを説明することでアプリ開発を始めることができます。
  • デュアルチャット+コードインターフェース: アプリが生成されると、AI Studioはビューを2つのペインに分割します。左側にはAIアシスタント(Gemini)との対話型チャットインターフェースがあります。ここではコードについての質問をしたり、変更や新機能をリクエストしたり、説明を受けたりできます。右側にはフルプロジェクトコードエディタがあり、ファイルタブ(フロントエンド、バックエンド、設定ファイルなど)が表示されます[23]。各ファイルには、それが何であるかを学ぶのに役立つツールチップや簡単な説明が付いています(新参者にApp.tsxやconstants.tsのようなものが何であるかを理解するのに役立ちます)[24]。このペインでコードを直接編集することができ、たとえば、開発者がCSSファイルでスタイルを微調整したり、ハードコードされた値を調整したりすることができます。すべての変更はライブプレビューですぐにテストできます。この分割インターフェースは、非コーダーが主にチャット「バイブ」で変更をガイドするために使用し、コーダーが必要に応じて実際のコードベースに飛び込むことができるように設計されています[7]
  • コンテキスト感知の提案: AI Studioは、あなたの指示を受けるだけでなく、スマートな提案を積極的に提供します。Geminiモデルは現在のアプリを分析し、フラッシュライト機能を通じて関連する改善を推奨することがあります[25][26]。たとえば、画像ギャラリーアプリを作った場合、「最近閲覧した画像の履歴を表示する機能を追加する」ことを提案するかもしれません[25]。これらの提案はインターフェースに表示され、次に試すべきことをガイドします。まるでAIプロダクトマネージャーがアイデアを提供しているかのようです。提案を1クリックで受け入れると、AIがそれを実装します。または無視することもできます。これにより、ユーザーは考えもしなかった機能を発見し、AIがプロジェクトを反復的に改善する能力を示します。
  • 「おまかせ」プロンプトジェネレーター: クリエイティビティを刺激したり、何を作るべきかわからないときに役立つように、Googleは遊び心のあるおまかせボタンを追加しました[27]。このボタンを押すたびに、プロンプトと事前構成されたAI機能の選択を含むランダムなアプリコンセプトが生成されます。たとえば、*「画像生成を使用して裏庭を視覚化する夢の庭デザイナー」「AIホストが冗談を言いながら進行するトリビアゲーム」*など、ユニークな提案がされることもあります[28]。これらは完全に機能する出発点であり、実際に提案されたアプリを組み立てることができます。Google AI StudioのプロダクトリードであるLogan Kilpatrickは、この機能が探索を促進すると説明しています。「本当にクールで、異なる体験が得られる」ことができ、そうでなければ作らなかったかもしれないものを発見することができます[29]。これは、可能性のアートを一目で確認し、次の大きなアプリアイデアを偶然見つけるためのワンクリックの方法です。
  • シークレット変数とAPIキー: 多くの有用なアプリは外部APIやサービスを呼び出す必要があります(たとえば、天気アプリが天気APIを呼び出す場合)。AI Studioにはシークレット変数の保管庫が含まれており、プロジェクト内でAPIキーやその他の機密情報を安全に保管できます[30][31]。これにより、シークレットキーをコードにハードコードすることなく、AIに外部サービスの統合を指示できます(例:「AlphaVantage APIからライブ株価を取得する」)。Secrets UIにAPIキーを追加すると、AIがそれを安全に参照することができます。この機能は、プロトタイプを生産準備の整ったアプリに変えるのに重要であり、AI生成コードでも良いセキュリティプラクティスをサポートします。
  • 詳細なUI編集ツール: テキストでUIの変更を常に説明することもできますが(例:「ボタンを青にする」)、AI Studioではプレビューと直接対話することもできます。プレビューのUI要素をクリックして、Geminiに指示を注釈として追加できます[32]。たとえば、ヘッダーを選択して「このタイトルを大きくして中央に配置する」と言うことができます。AIは要素を認識し、対応するコード(HTML/CSS)を調整して変更を実施します[33]。これはWYSIWYG編集とAIコーディングを橋渡しする強力な機能であり、まるでインターフェースに話しかけてカスタマイズするような感覚です。スタイルやレイアウトの微調整のためにコードを探す必要がなくなり、画面を指してAIに希望を伝えるだけで済みます。
  • ワンクリックデプロイメント: アプリが準備できたら、デプロイは非常に簡単です。AI StudioはGoogle Cloud Runと統合されており、ワンクリックデプロイをクラウドに提供します[10]。Studio内での単一の操作で、アプリケーション(フロントエンドおよびバックエンド)がコンテナ化され、Googleのインフラストラクチャ上で起動され、他の人がアクセスできるライブURLを取得できます。これにより、サーバーやホスティングの設定の複雑な手順が排除されます。Googleのデモでは、完全に機能するAIチャットボットアプリがStudioインターフェースとプロンプトを使用して、開始から終了まで5分以内にデプロイされました[34]。軽量アプリやプロトタイプの場合、クレジットカードも必要ありません。AI Studioの無料プランでは、自由にビルドとテストが可能であり、特定の高度なモデル(最大のビデオモデルなど)を呼び出す場合や、プロダクションでスケールアップする場合にのみ有料プランが必要です[35][36]。ここでの哲学は、*「無料でビルドし、成長したら支払う」*であり、クリエイターが摩擦なく実験できる一方で、必要に応じてエンタープライズ規模のホスティングに移行する道が用意されています[37]
  • エクスポートとコラボレーション: Cloud Runへのデプロイを超えて、AI Studioではプロジェクトを管理または共有するための複数のオプションを提供しています。フルコードをGitHubリポジトリに保存する、プロジェクトをzipとしてダウンロードする、またはAI Studioのギャラリー内でアプリをフォークしてリミックスすることができます[38]。これにより、プラットフォームにロックインされることはなく、コードを外部で検査して使用することもできます。これは将来のコミュニティ機能を示唆しています:アプリギャラリーは例のアプリやテンプレートを展示しており(現在はGoogle提供および自分の過去の作成物で、将来的にはユーザー共有のアプリを含める計画です)[39]。このギャラリーは、AI Studioアプリを発見し、学び、互いの作業に基づいて構築するための一種のアプリストアやコミュニティハブに進化する可能性があり、共有を通じて開発をさらに加速させます。

バイブコーディングの実践: プロンプトからプロトタイプへ

AI Studio の能力を最もよく示すのは、バイブコーディングセッションの実際の動きです。Google のチームや初期ユーザーたちは、アイデアがどれほど素早く動作するアプリケーションになるかを示すいくつかのデモを共有しています。例えば、あるグーグラーは「ガーデンプランニングアシスタント」アプリを数回のクリックで組み立てる様子を実演しました:彼がそのプロンプトを入力すると、システムはビジュアルレイアウトツールと対話型植物推薦機能を備えた完全なアプリを瞬時に生成しました[40][41]。別の公式デモでは、カスタム知識ベースを持つ完全な機能を備えたチャットボットが構築され、5分以内にライブでデプロイされました – すべて自然言語の指示と機能トグルを介して行われ、手動のコーディングは必要ありませんでした[34]。これらの迅速な結果は、バイブコーディングの生産性を強調しています:かつて数日かかっていたプログラミングが、今ではコーヒーブレイク中に実現します。

ハンズオントライアルとして、VentureBeatの記者がAI Studioを試して、シンプルなゲームをリクエストしました。彼はGeminiに次のような説明を提示しました:「ユーザーが異なるサイコロ(d6、d20など)を選択し、アニメーションでロールを見て、サイコロの色を選べるランダムなサイコロロールのWebアプリケーション」。約65秒で、AI Studioはその仕様に合った動作するWebアプリを作成しました[42][43]。生成されたアプリには、React、TypeScript、Tailwind CSSで構築されたクリーンなUIが備わっており、6面、10面、または20面のサイコロを選択し、その色をカスタマイズし、クリックしてロールできるようになっていました。サイコロはアニメーションで回転し、毎回ランダムな結果を表示します。プラットフォームは単一のコードファイルを生成したのではなく、複数のコンポーネントを含む構造化されたプロジェクトを作成しました(例えば、メインインターフェースのApp.tsx、サイコロデータのconstants.ts、ロジックとコントロールのための個別のモジュールなど)[44]。このモジュラーな出力は、AIがフレームワークの弱いスクリプトを組み合わせているのではなく、人間の開発者が行うように、きちんとしたメンテナンス可能な方法でアプリを設計していることを示しています。その後、記者はサイコロが転がるたびに効果音を追加することでアプリを強化することに決めました。彼はAIにアイデアを伝えただけで、追加のプロンプトで、アシスタントが各ロールで音を鳴らす追加のコードを書き、既存のコードベースにシームレスに統合しました[44]。これらはすべて、1つのWebブラウザタブ内で、手動でコードを書くことなく行われました。このような例は、バイブコーディングによる開発プロセスがどれほど速く反復的であるかを強調しています:アイデアを説明し、ほぼ即座に使えるプロトタイプを取得し、その後AIとの会話を通じて洗練します。

これらのデモは印象的ですが、人間の開発者が結果をレビューし、導く重要な役割を果たしていることに注意が必要です。AI Studio が生成するアプリは、特に高度なプロジェクトでは、エッジケースやパフォーマンスのために時折調整が必要です。Vibe コーディングの哲学は、プロフェッショナルな用途において人間が関与するアプローチを奨励します。最初は AI に重い作業を任せ、次にあなたが機能を確認し、詳細を調整し、最終製品が品質とセキュリティ基準を満たしていることを確認します[45][16]。実際のところ、初期ユーザーは、AI の提案と直接コードアクセスを組み合わせたインターフェースがこのレビュー プロセスを非常に直感的に感じると報告しています[46]。結論として、AI Studio は数分で動作するアプリを提供でき、ユーザーの指導と磨き上げによって、そのプロトタイプは驚くほど迅速に本番レベルのアプリケーションに進化できます。

作成できるアプリの例(プロンプト付き)

アイデアを刺激するために、Google AI Studio のバイブコーディングを使って構築できる、複雑すぎないが役立つアプリケーションの例を5つ紹介します。それぞれに対して、AIにアプリ作成を依頼する際のプロンプト例も含めています。

  1. スマート提案付き個人用To-Doリストタスク追跡のためのシンプルなWebアプリ、AIで強化されています。 例えば、アプリがタスクを分析し、リマインダーやサブタスクを提案します。
    1. プロンプト: 「WebベースのTo-Doリストアプリケーションを作成してください。タスクを追加、編集、チェックオフできるようにします。AIアシスタントが締め切りを提案したり、タスクを小さなステップに分解したりします。インターフェースはシンプルでモバイルフレンドリーであるべきです。」
      • この場合、ジェミニはタスク管理UIを生成し、その推論を使用してヒントを提供します。例えば、「旅行計画」を追加すると、AIが「フライトの予約」などのサブタスクを提案するかもしれません。
    2. 出力: https://ai.studio/apps/drive/1_ow-8TYDMWxms56bzQ-QKHsNWCA_F0fr
  2. プランナー&マップガイドマッピングデータを統合したモバイルフレンドリーな旅行日程プランナー。 Googleマップとリアルタイム情報を活用できます。
    1. 旅行
    2. プロンプト: 「都市旅行のための旅行プランナーアプリを作成してください。ユーザーが都市を入力すると、アプリは3日間の行程を生成し、各日には観光地、レストラン、ホテルが含まれます。各推奨場所をマークしたインタラクティブな地図を含め、場所をクリックすると詳細が表示されるようにします(ライブデータまたは検索を使用して)。デザインはモバイルで使用できるようにレスポンシブにしてください。」
      • このシナリオでは、AIはGoogle検索ツールとMaps APIの基盤を組み合わせて人気スポットを取得し、地図コンポーネントに表示するかもしれません。外部APIキーのサポート(秘密変数を介して)により、Google Places APIのようなものを安全に使用できます。結果は、アイデアを説明するだけで作成された、まるで個人のツアーガイドのように感じられるアプリです。
    3. 出力: https://ai.studio/apps/drive/1QO0OnH8vjUZuX3e1IqtQ4-1pqSZYAJLO
  3. インタラクティブデータダッシュボードデータをチャートとインサイトに変える分析ダッシュボード。 例えば、小規模企業が売上数値を視覚化したい場合に役立ちます。
    1. プロンプト: 「販売分析のためのデータダッシュボードWebアプリを作成してください。販売データのCSVファイルをアップロードするためのファイルアップロード機能を持ちます。データがアップロードされると、アプリは要約(総売上、平均注文額)を表示し、2つのチャートを生成します: 月次売上の折れ線グラフと製品カテゴリ別売上の円グラフです。チャートの下に、トレンドや異常を簡単な言葉でハイライトするAIサマリーを追加します。」
      • このプロンプトを使用すると、AI Studioはマルチパネルダッシュボードを生成するでしょう。チャートをレンダリングするために、Chart.jsやD3のようなチャートライブラリを組み込み、データのAI分析を通じてテキストサマリーを出力するかもしれません(例えば、「7月の売上は夏のプロモーションのために急上昇しました」)。これは、UI要素(ファイル入力、チャートのキャンバス)用のコーディングとデータのAI分析を組み合わせることで、インタラクティブデータビジュアライゼーションを扱う方法を示しています。従来のBIツールよりもはるかに少ない労力で、ユーザーがチャート描画コードを書くことなくダッシュボードを構築し、調整できるようにします。
    2. 出力: https://ai.studio/apps/drive/1qW2V3lfyEF0QDDXQxuYCF0O90QdL3_uB
  4. AI駆動の学習フラッシュカード学生向けのミニ学習ゲーム。 このアプリはユーザーをクイズし、パフォーマンスに適応します。
    1. プロンプト: 「語学学習のためのフラッシュカードクイズWebアプリを作成してください。このアプリはユーザーにスペイン語の語彙単語についてクイズを出します。各フラッシュカードには英単語が表示され、ユーザーはスペイン語の翻訳を入力しなければなりません。正解かどうかを知らせ、スコアを保持します。AIチューターモードを追加します:ユーザーが間違えた場合、AIがヒントや簡単な説明を提供します。シンプルでカラフルなデザインにし、モバイルで動作するようにしてください。」
      • このシナリオでは、生成されたアプリには、事前定義されたQ&Aペアセット(ユーザーが洗練または拡張できる)や、回答入力ボックス、正確性をチェックするロジックが含まれるかもしれません。興味深いのはAIチューターです:ジェミニは、ユーザーがミスをしたときに役立つヒントや記憶術を生成するように(舞台裏で)促され、学習体験をより魅力的にします。この例は、動的なAIフィードバックを組み込むことで、従来のフラッシュカードアプリにはないミニゲーム/教育ツールを示しています。
    2. 出力: https://ai.studio/apps/drive/1rpxIsuwLz7cqypH9oYjGCwSIh5PBKXxL
  5. AIシェフ付きレシピファインダー利用可能な食材に基づいてレシピを提案する料理アシスタント。
    1. プロンプト: 「レシピファインダーアプリを作成してください。ユーザーは(「チキン、トマト、バジル」などの)持っている食材を入力または選択できます。アプリはそれらの食材を使用するレシピを見つけるべきです。タイトル、画像、簡単な説明を含むレシピ提案リストを表示します。AIチャットシェフを含め、ユーザーが料理のヒントや代替品(例えば、「バターがない場合は何を使えばいいですか?」)を尋ねることができるようにします。アプリは魅力的で、食通のデザインにするべきです。」
      • このアプリのアイデアは、食材選択インターフェース、おそらくレシピAPIへのコール(実際のレシピを取得するため – SpoonacularのようなサービスからのAPIキーを秘密変数で管理することで)、およびジェミニモデルを使用した会話型Q&Aを行う統合チャットボットのペルソナ(「AIシェフ」)を組み合わせています。AI Studioのマルチモーダル機能により、例えばImagenを使用して、画像URLが利用できない場合には各提案料理の画像を生成することも可能です。創造性と実用性を本当にブレンドします。バイブコーディングの観点から、この例は、データ取得、画像生成、会話型Q&Aを一つのアプリで組み合わせるようにAIに指示する方法を示しています – すべて単一のプロンプトとその後の改良を通じて。
    2. 出力: https://ai.studio/apps/drive/19VWB2qpa7bEtFB8hAjsQfSpJ6SPmf5KC

上記の各例は、AI Studioでいくつかのプロンプトと選択をするだけで構築でき、その後、反復的に改善することができます。これらは、シンプルなウェブユーティリティからインタラクティブな教育ゲーム、AIを活用したクリエイティブツールまで、vibe codingが対応できるアプリケーションの範囲を示しています。共通のテーマは、クリエイターであるあなたが製品のアイデアとユーザーエクスペリエンスに集中し、AIがそのビジョンを動作するコードに変換することです。

最後に

Google AI Studioのvibe codingインターフェースは、ソフトウェアの構築方法において大きな進化を遂げています。自然言語の説明を実行可能なアプリケーションに変換することで、深いコーディングの専門知識がなくても、より多くの人々が技術ソリューションを作成できるようになります。プロダクトリーダーや開発者にとって、これは新しい、より迅速なプロトタイピングのループを開きます。文字通り数分で最小限の実用的な製品を構築することで、アイデアをすぐにテストできます。ウェブアプリやモバイルフレンドリーなツール、データダッシュボード、ミニゲームまで、可能性のスペクトルは、Googleがさらに多くのAIツールキットを統合するにつれて(そしてGemini 3のような大規模なモデルがプラットフォームに登場するにつれて)、どんどん拡大しています。伝統的な開発がなくなることはありませんが、vibe codingはAIを第一に考えたアプローチでそれを補完します。ビジョンを設定し、AIを「操縦」することで、機能するアプリを手に入れ、それを磨き、スケールアップすることができます。Google AI Studioの中心には、人間の創造性とAIの能力のシナジーがあります。プラットフォームはまだ進化中ですが(今後数ヶ月でさらに多くの機能が約束されています)、vibe codingがイノベーションを加速し、新しいアプリのアイデアを実現するための障壁を下げる可能性があることはすでに明らかです。スピードとアクセスのしやすさが鍵となる世界で、Googleがvibe codingに賭けること—人々がチャットで構築することを可能にする—は、ソフトウェア開発において非常に革新的なものになるかもしれません。

出典: Google Cloud & AI Studio Documentation[51][52]; News9live (2025年10月)[53][10]; VentureBeat (2025年10月)[54][43]; SiliconANGLE (2025年10月)[49][55]; TestingCatalog (2025年10月)[4][56]; Learn Prompting ブログ (2025年9月)[5][6].

[1] [11] [13] [15] [16] [17] [18] [45] [51] [52] Vibe Codingの解説:ツールとガイド | Google Cloud

https://cloud.google.com/discover/what-is-vibe-coding

[2] [3] [7] [10] [12] [20] [26] [31] [34] [47] [53] GoogleがAIスタジオにバイブコーディングを追加: AIとチャットしてアプリを構築 | 人工知能ニュース - News9live

https://www.news9live.com/technology/artificial-intelligence/google-vibe-coding-explained-build-apps-fast-2898950

[4] [21] [32] [39] [48] [56] GoogleはAIスタジオを刷新し、バイブコーディングの新機能を追加

https://www.testingcatalog.com/google-revamps-ai-studio-with-new-features-for-vibe-coding/

[5] [6] [8] [22] 次のAI搭載アプリをGoogle AI StudioでVibeコードしよう

https://learnprompting.org/blog/ai-studio-build-mode?srsltid=AfmBOor93SD7PWwyeR5_MHEhpwSCEEtZA6HWD1KEmC4nWxIJEFMxkMSr

[9] [30] [33] [49] [50] [55] Google、AI Studioアプリ開発プラットフォームの最新バージョンで「バイブ・コーディング」を採用 - SiliconANGLE

https://siliconangle.com/2025/10/21/google-embraces-vibe-coding-latest-version-ai-studio-app-development-platform/

[14] Google AI Studioでの無料オンラインVibeコーディング:誰でもアプリを作成できる! | 著者: Abish Pius | 人工知能の世界での執筆 | 2025年9月 | Medium

https://medium.com/chat-gpt-now-writes-all-my-articles/free-online-vibe-coding-with-google-ai-studio-anyone-can-build-apps-a303e7a1c664

[19] [23] [24] [25] [27] [28] [29] [35] [36] [37] [38] [40] [41] [42] [43] [44] [46] [54] Googleの新しいVibe Coding AI Studioの体験により、誰でも数分でアプリを構築してデプロイできます | VentureBeat

https://venturebeat.com/ai/googles-new-vibe-coding-ai-studio-experience-lets-anyone-build-deploy-apps

Boxuはエモリー大学で定量経済学を専攻し、学士号を取得しました。Macaronに参加する前は、アメリカのプライベート・エクイティとベンチャー・キャピタル分野でキャリアを積んでいました。現在、彼はMacaron AIの参謀長兼マーケティング副社長として、財務、物流、運営を管理しつつ、マーケティングを監督しています。

応募する Macaron の最初の友達