GDC 2025速報!Unity/UE最前線、AIがゲーム開発を変える実践ガイド
アフィリエイト開示

はじめに
皆さん、こんにちは!フリーランスでIT技術者をしながら、プログラミング教育にも情熱を注いでいる技術教育者です。先日開催された世界最大のゲーム開発者会議「GDC 2025」。その熱気あふれる会場で、未来のゲーム開発の姿を垣間見てきました。今年の最大のテーマは、間違いなく「AIとの共創」です。AIが単なる敵キャラクターの思考ルーチンを超え、開発のあらゆる場面でクリエイターを支えるパートナーになろうとしています。
この記事では、GDC 2025で発表された最新のAI技術トレンドを分かりやすく解説し、特にUnityを例にとって、AIを自分のゲームに組み込むための第一歩をガイドします。AIという強力なツールを使いこなし、あなたの創造性を次のレベルへと引き上げる旅に、一緒に出かけましょう!この記事を読み終える頃には、AI技術の基本を理解し、簡単なAI機能をゲームに実装できるスキルが身についているはずです。
前提知識の確認
新しい技術に飛び込む前に、まずは現在地を確認しましょう。でも、心配はいりません。すべてを完璧に知っている必要はないのです。
必要な基礎知識
この記事を読み進める上で、最低限あるとスムーズな知識は以下の通りです。
- C#の基本文法: Unityでの開発経験がある方はもちろん、他の言語でもプログラミングの経験があれば大丈夫です。変数、データ型、if文やfor文といった制御構文、関数(メソッド)、クラスとオブジェクトといった基本的な概念を理解していれば十分です。
- Unity Editorの基本操作: プロジェクトの作成、オブジェクトの配置、コンポーネントのアタッチなど、Unityの基本的な使い方を知っていると、実践編がより分かりやすくなります。
事前に理解しておきたい概念
AIの世界には専門用語がいくつか登場しますが、ここでは核となる概念だけ、簡単に押さえておきましょう。
- ニューラルネットワーク: 人間の脳の神経細胞の仕組みを模した数理モデルです。たくさんの層を重ねて、複雑なパターンを学習することができます。AIの心臓部と考えると分かりやすいでしょう。
- 学習済みモデル (Pre-trained Model): 大量のデータを使って、すでに賢く訓練されたニューラルネットワークのことです。私たちはこの「賢い脳」を借りてきて、自分のゲームに応用します。例えるなら、熟練の職人が作った高機能な道具のようなものです。
- 推論 (Inference): 学習済みモデルに新しいデータ(例えば、ゲーム内のプレイヤーの位置や体力)を入力して、予測結果(例えば、次に敵が取るべき行動)を出力させることです。AIに「考えてもらう」プロセスと言えます。
「分からなくても大丈夫」な部分
一方で、以下の点は現時点では理解していなくても全く問題ありません。
- AIモデルの複雑な数学理論: ニューラルネットワークの背後にある微積分や線形代数などの難しい数学は、専門家でなければ不要です。
- AIモデルのトレーニング方法: どうやってAIモデルを一から学習させるか、というプロセスは今回は扱いません。まずは完成品のモデルを「使う」ことから始めましょう。料理に例えるなら、まずは高品質な「合わせ調味料」を使って美味しい料理を作る感覚です。素材から調味料を作るのは、次のステップで大丈夫です。
環境構築:最初の一歩
理論の次は実践です。まずはAIを動かすための舞台を整えましょう。
開発環境の準備(初心者向け解説)
ゲーム開発の拠点となるUnityを準備します。まだインストールしていない方は、以下の手順で進めてください。
- Unity Hubのインストール: Unityの公式サイトから「Unity Hub」をダウンロードしてインストールします。Unity Hubは、複数のUnityバージョンやプロジェクトを管理するための便利なツールです。
- Unity Editorのインストール: Unity Hubを起動し、「インストール」タブから推奨されているLTS(Long-Term Support)版のUnity Editorをインストールします。LTS版は安定性が高く、長期間のサポートが保証されているため、安心して開発に取り組めます。
- コードエディタの準備: Unityは標準でVisual Studio Communityと連携しますが、Visual Studio Codeも軽量で高機能なため人気があります。どちらか好みのエディタをインストールし、Unityと連携設定を済ませておきましょう。
必要なツールとインストール方法
今回の主役であるAIモデルをUnityで動かすためのパッケージを導入します。
- Unity Sentis パッケージの導入: Unity Editorでプロジェクトを開きます。
- メニューバーから
Window > Package Manager
を選択して、パッケージマネージャーウィンドウを開きます。 - 左上の「+」ボタンの隣にあるドロップダウンメニューで「Unity Registry」を選択します。
- 検索バーに「Sentis」と入力し、表示された「Sentis」パッケージを選択して、右下の「Install」ボタンをクリックします。
これで、Unityプロジェクト内でAIモデル(ONNX形式)を扱えるようになりました。

環境構築でつまずきやすいポイント
環境構築は、開発の第一関門です。ここでつまずいても、それはごく自然なこと。よくある問題と対処法を知っておきましょう。
- パッケージのバージョン互換性: UnityのバージョンとSentisパッケージのバージョンが合わないと、エラーが発生することがあります。Package Managerで推奨されているバージョンを使うのが最も安全です。エラーが出たら、まずはバージョンの組み合わせを確認してみましょう。
- エディタ連携の不具合: 「Unityでスクリプトを開いても、コードエディタで補完が効かない」といった問題は、
Edit > Preferences > External Tools
の設定を見直すことで解決することが多いです。
焦らず一つずつ確認すれば、必ず乗り越えられます。これもまた、開発者としての大切な経験です。
基本概念の理解
AIを効果的に使うためには、その「考え方」の基本を理解しておくことが重要です。
核となる考え方
AI、特にニューラルネットワークは「魔法の箱」ではありません。その本質は**「データに基づいた高度なパターン認識と確率的な予測」**です。
従来のゲームAIが、「もしプレイヤーの体力が30%以下なら、回復アイテムを使う」といった、人間が書いたルール(決定論的ロジック)で動いていたのに対し、ニューラルネットワークを使ったAIは、大量のデータから「プレイヤーの体力が低く、敵との距離が遠い状況では、回復する確率が高い」といったパターン(確率論的ロジック)を学びます。この違いを理解することが、AIを使いこなす鍵となります。
身近な例での説明
実は、私たちの周りにはAI技術が溢れています。
- スマートフォンの顔認証: あなたの顔のパターンを学習し、他の人とは違うと認識しています。
- 音楽アプリのレコメンド: あなたがよく聴く曲のパターンから、次に好きになりそうな曲を予測しています。
ゲーム開発におけるAIもこれと同じです。プレイヤーの行動パターンを学習して、次にどこへ向かうかを予測したり、ステージの形状パターンを学習して、新しいステージを自動生成したりします。これらはすべて、データからパターンを見つけ出し、次を予測する技術の応用なのです。
「なぜそうなるのか」の理解
なぜ今、これほどまでにゲーム開発でAIが注目されているのでしょうか?理由は大きく分けて3つあります。
- 開発の効率化と大規模化: AIによるアセット(テクスチャ、3Dモデル、サウンドなど)の自動生成や、バグを発見するための自動プレイテストにより、開発者はより創造的な作業に集中できます。これにより、より広大でリッチな世界を、より短い時間で創り出すことが可能になります。
- 新しいゲーム体験の創出: プレイヤー一人ひとりの行動に適応して性格が変わるNPC、プレイヤーが話しかけると自然な会話を返してくれるキャラクターなど、これまで不可能だった動的でパーソナルな体験を生み出せます。
- 表現力の向上: リアルタイムレイトレーシングのノイズ除去(デノイズ)や、低解像度の映像を高解像度化する超解像技術(NVIDIAのDLSSなど)にもAIが使われており、グラフィックスの質を飛躍的に向上させています。
AIは、開発を「楽」にするだけでなく、ゲームの「面白さ」そのものを深化させる可能性を秘めているのです。
実践編:手を動かして学ぶ
さあ、いよいよコードを書いてAIを動かしてみましょう!ここでは、Unity Sentisを使い、「プレイヤーの体力」と「敵との距離」という2つの情報から、敵キャラクターが「待機」「近接攻撃」「遠距離攻撃」のどれを選択すべきかをAIに判断させる簡単なサンプルを作成します。
(※ここでは、すでに入力2つ・出力3つの学習済みONNXモデルファイルがプロジェクトのAssets
フォルダにある前提で進めます)
ステップ1: 基本的な実装
まずは、AIモデルを読み込んで推論を実行し、結果をコンソールに出力する基本的なスクリプトを作成します。
- Unityで新しいC#スクリプトを作成し、
EnemyAIController
という名前にします。 - ゲーム内の適当なオブジェクト(例えば敵キャラクター)に、このスクリプトをアタッチします。

- 以下のコードをスクリプトに記述してください。
// 必要な名前空間をインポートします
using UnityEngine;
using Unity.Sentis;
public class EnemyAIController : MonoBehaviour
{
// UnityエディタからONNXモデルファイルを指定するための変数
public ModelAsset modelAsset;
private IWorker m_Worker;
void Start()
{
// モデルをロードして、実行可能なランタイムモデルを作成します
Model runtimeModel = ModelLoader.Load(modelAsset);
// 推論を実行するための「ワーカー」を作成します。GPUで高速に実行させます。
m_Worker = WorkerFactory.CreateWorker(BackendType.GPUCompute, runtimeModel);
Debug.Log("AI Worker initialized.");
}
// 外部から呼び出してAIに判断させるメソッド
public int DecideAction(float playerHealth, float distanceToPlayer)
{
// AIモデルへの入力データ(Tensor)を作成します。
// TensorShape(1, 2)は「1つのデータセットに、2つの特徴量(体力、距離)がある」という意味です。
using var inputTensor = new TensorFloat(new TensorShape(1, 2), new float[] { playerHealth, distanceToPlayer });
// ワーカーに入力Tensorを渡して、推論を実行します
m_Worker.Execute(inputTensor);
// 推論結果の出力Tensorを取得します
TensorFloat outputTensor = m_Worker.PeekOutput() as TensorFloat;
// GPUでの計算結果をCPUで読めるように同期します
outputTensor.MakeReadable();
// 出力結果(各行動の確率)を配列として取得します
// 例: [0.1, 0.2, 0.7] -> 待機10%, 近接20%, 遠距離70% の確率
float[] probabilities = outputTensor.ToReadOnlyArray();
// 最も確率の高い行動のインデックス番号を見つけます
int bestActionIndex = 0;
float maxProbability = 0f;
for (int i = 0; i < probabilities.Length; i++)
{
if (probabilities[i] > maxProbability)
{
maxProbability = probabilities[i];
bestActionIndex = i;
}
}
Debug.Log($"AI Decided Action Index: {bestActionIndex} with Probability: {maxProbability}");
return bestActionIndex;
}
// ゲームオブジェクトが破棄されるときに、ワーカーのリソースを解放します
void OnDestroy()
{
m_Worker?.Dispose();
}
}
このスクリプトをアタッチしたオブジェクトのインスペクターで、Model Asset
フィールドにONNXモデルファイルをドラッグ&ドロップすれば準備完了です。他のスクリプトからDecideAction(0.5f, 10.0f)
のように呼び出すと、AIが判断した行動のインデックス(0, 1, or 2)がコンソールに出力されます。
ステップ2: 機能の拡張
AIが返してきたインデックス番号を、実際の行動に結びつけましょう。EnemyAIController
に以下のようなメソッドを追加します。
public void PerformAction(int actionIndex)
{
switch (actionIndex)
{
case 0: // 待機
Debug.Log("Action: Idle");
// ここに待機アニメーションを再生する処理などを書く
break;
case 1: // 近接攻撃
Debug.Log("Action: Melee Attack");
// ここに近接攻撃の処理を書く
break;
case 2: // 遠距離攻撃
Debug.Log("Action: Ranged Attack");
// ここに遠距離攻撃の処理を書く
break;
default:
Debug.LogWarning("Unknown action index.");
break;
}
}
DecideAction
を呼び出した後、その戻り値を使ってこのPerformAction
を呼び出せば、AIの判断に基づいたキャラクターの行動が実現できます。
ステップ3: 実用的な応用
AIの推論処理は、毎フレーム実行するには重すぎる場合があります。そこで、一定時間ごとに判断を行うように改良しましょう。コルーチンを使うと簡単に実装できます。
// using System.Collections; をスクリプトの先頭に追加
private float decisionInterval = 1.0f; // 1秒ごとに判断
void Start()
{
// ... (既存のStart処理) ...
StartCoroutine(AIThinkLoop());
}
private IEnumerator AIThinkLoop()
{
while (true)
{
// プレイヤーの現在の状態を取得する(ダミー値)
float currentHealth = 1.0f; // 実際はプレイヤーオブジェクトから取得
float currentDistance = 15.0f; // 実際は距離を計算
// AIに次の行動を判断させる
int action = DecideAction(currentHealth, currentDistance);
PerformAction(action);
// 指定した時間待機する
yield return new WaitForSeconds(decisionInterval);
}
}
これで、AIは1秒に1回だけ思考するようになり、パフォーマンスへの影響を抑えられます。
ステップ4: チーム開発を意識した改善
もしこのAIを複数の種類の敵で使い回したり、デザイナーがAIの挙動を調整できるようにしたりしたい場合、設定を外部ファイルに切り出すのが良い方法です。ScriptableObject
を使いましょう。
[CreateAssetMenu(fileName = "AIBehavior", menuName = "Game/AI Behavior")]
public class AIBehavior : ScriptableObject
{
public ModelAsset modelAsset;
public float decisionInterval = 1.0f;
}
このように設定を分離し、EnemyAIController
側でこのAIBehavior
を読み込むように変更すれば、プログラマー以外でも「この敵は、このAIモデルを使って、この間隔で思考する」といった調整が簡単に行えるようになります。コードとデータを分離することは、保守性と拡張性を高めるための重要なテクニックです。
実際の開発現場での活用
私たちが今試したような技術は、実際の最先端のゲーム開発でどのように使われているのでしょうか?GDC 2025で特に注目を集めていた事例をいくつかご紹介します。
業務での使用例
- NPCの動的対話生成: 大規模言語モデル(LLM)を活用し、プレイヤーのこれまでの行動やゲーム世界の状況を文脈として与えることで、NPCがその場に応じたユニークな会話をリアルタイムで生成する技術がデモされていました。これにより、「村人A」のような存在ではなく、一人ひとりが個性と記憶を持ったキャラクターとして感じられるようになります。
- プロシージャルコンテンツ生成 (PCG): AIを使って、プレイヤーのスキルや好みに合わせたダンジョンやクエストを自動生成するシステムです。これにより、遊ぶたびに新しい発見がある、無限のリプレイ性を備えたゲームが実現可能になります。
- AIによるプレイテストとバランス調整: 何千、何万というAIエージェントにゲームをプレイさせ、プレイヤーがハマりやすい地点、特定の武器だけが強すぎるなどのバランスの問題点を自動でレポートさせる仕組みです。これにより、人間だけでは見つけきれない問題を早期に発見し、ゲームの品質を向上させます。
チーム開発でのベストプラクティス
AIをチーム開発に導入する上で最も重要なのは、コミュニケーションです。
- 共通言語の構築: AIエンジニアが使う「損失関数」や「活性化関数」といった専門用語を、ゲームデザイナーが理解する必要はありません。代わりに、「このAIの『攻撃性』パラメータを上げると、もっと積極的に前に出るようになる」といった、職種間で共通理解できる言葉で話す仕組みが不可欠です。
- ツールの整備: ゲームデザイナーやプランナーが、プログラマーに頼らずともAIの挙動を調整できる専用ツールを用意することが、試行錯誤のサイクルを速め、最終的な面白さに繋がります。
- 期待値のコントロール: AIは万能ではありません。「AIなら自動で面白くしてくれる」という過度な期待は禁物です。AIの得意なこと、苦手なことをチーム全員が理解し、あくまでクリエイターを補助する「賢い道具」として捉えることが成功の秘訣です。
保守性を意識した書き方
長期的なプロジェクトでは、コードの保守性が極めて重要になります。AI関連のコードは特に複雑になりがちなので、以下の点を意識しましょう。
- 責務の分離: AIの「判断」を行う部分(推論コード)と、その判断に基づいてキャラクターを「動かす」部分(ゲームロジック)を、明確に別のクラスやモジュールに分離します。これにより、AIモデルを新しいものに差し替えても、キャラクターの動きに関するコードを修正する必要がなくなります。
- インターフェースの活用:
IAttackable
やIMovable
のようなインターフェースを定義し、AIは具体的なクラスではなく、このインターフェースに対して命令を出すように設計します。こうすることで、AIロジックとキャラクターの実装が疎結合になり、お互いに独立して変更・拡張できるようになります。
「とりあえず動けばいい」ではなく、1年後の自分やチームメイトが読んでも理解できる、変更しやすいコードを書く意識が、プロジェクトの成否を分けます。
よくあるつまずきポイントと解決策
新しい技術の学習に、試行錯誤はつきものです。失敗を恐れず、むしろ良い学習機会だと捉えましょう。
初心者が陥りやすい問題
- AIの出力が期待通りにならない: AIがいつも同じ行動ばかり取る、あるいは全く意味不明な動きをする、といった問題はよくあります。これは入力データが適切でない(例:常に同じ値を与えている)、あるいは学習済みモデルの特性とゲームの状況が合っていないことが原因です。まずはAIに与えている入力データが正しいか、コンソールにログ出力して確認する癖をつけましょう。
- パフォーマンスの低下: AIの推論処理はCPUやGPUに負荷をかけます。特にモバイルゲームでは深刻な問題になり得ます。実践編で紹介したように、毎フレーム推論を実行するのではなく、一定間隔を空けたり、重要な判断が必要な時だけ実行したりする工夫が必要です。
エラーメッセージの読み方
Sentisを使っていると、特徴的なエラーメッセージに遭遇することがあります。
Tensor shape mismatch
: 「テンソルの形状が一致しません」というエラーです。これは、AIモデルが期待している入力データの形式(例:特徴量が2つ)と、実際にあなたがコードで作成した入力Tensorの形式(例:特徴量が1つしかない)が違う場合に発生します。モデルの仕様とコードをよく見比べてみましょう。
エラーメッセージは、解決への重要なヒントです。焦らずに、書かれている単語を一つずつ読んで、何が問題なのかを推測する訓練をしましょう。
デバッグの基本的な考え方
AIのデバッグは、通常のプログラムのデバッグとは少し異なります。バグ(コードの間違い)がないのに、挙動がおかしいことがあるからです。重要なのは、**「AIの思考を可視化する」**ことです。
- 入力の可視化: AIに与えている入力値(プレイヤーの体力、距離など)を、常に画面上にデバッグ表示しましょう。
- 出力の可視化: AIが出力した各行動の確率(例:待機10%, 近接20%, 遠距離70%)も同様に表示します。これにより、「なぜAIがその行動を選んだのか」が一目瞭然になります。
ブラックボックスに見えるAIの判断プロセスを、デバッグ表示によって透明にすることが、問題解決への一番の近道です。
継続的な学習のために
AI技術は日進月歩です。今日の最新技術が、明日には当たり前になっているかもしれません。常に学び続ける姿勢が、技術者としての価値を高めます。
次に学ぶべきこと
今回紹介したAI推論の基本をマスターしたら、さらにエキサイティングな分野に挑戦してみましょう。
- 強化学習 (Reinforcement Learning): AI自身がゲームをプレイしながら、試行錯誤を通じて最適な行動を学習していく技術です。人間が思いもよらないような賢い戦略を生み出すことがあります。
- 生成AI (Generative AI) の応用: NPCの対話だけでなく、Stable Diffusionのような画像生成AIを使って、ゲーム内のテクスチャやコンセプトアートを生成するワークフローも現実的になってきています。
- Pythonでのモデル作成: Unityでの「AIを使う」ステップの次は、PythonとPyTorchやTensorFlowといったフレームワークを使って、自分で簡単な「AIモデルを作る」ことに挑戦してみるのも良いでしょう。AIの仕組みをより深く理解できます。
おすすめの学習リソース
- 公式ドキュメント: UnityやUnreal Engineの公式ドキュメントとブログは、最も正確で最新の情報源です。特に新機能に関するチュートリアルは必見です。
- GDC Vault: GDCの過去の講演動画が多数公開されています。世界のトップクリエイターたちが、どのような課題にどう取り組んだのかを知ることは、非常に有益です。
- 学術論文サイト: 「arXiv」などで公開される最新の研究論文に目を通す習慣をつけると、技術の最先端の動向を掴むことができます。すべてを理解できなくても、概要を読むだけで大きな刺激になります。
コミュニティとの関わり方
独学も素晴らしいですが、コミュニティに参加することで学習はさらに加速します。
- 技術カンファレンスや勉強会: CEDECやUniteなど、国内外のカンファレンスに参加してみましょう。同じ志を持つ仲間と出会い、情報交換をすることで、新たな視点やモチベーションが得られます。
- SNSやオンラインフォーラム: X(旧Twitter)や技術系フォーラムで、自分の作ったものや学んだことを発信してみましょう。他の開発者からフィードバックをもらえたり、有益な情報交換ができたりします。
一人で抱え込まず、コミュニティの力を借りることも、成長し続けるための大切なスキルです。
まとめ:成長のための次のステップ
GDC 2025で示された未来は、AIが人間の仕事を奪うのではなく、私たちの創造性を何倍にも増幅させてくれる、エキサイティングなものでした。AIはもはや一部の専門家だけのものではなく、すべてのゲーム開発者が活用できる強力なツールになりつつあります。
この記事で学んだことを通して、あなたもその第一歩を踏み出しました。完璧なものを目指す必要はありません。まずは、あなたの今作っているプロジェクトに、ほんの小さなAI機能を一つ、加えてみるのはどうでしょうか?例えば、「プレイヤーが近づいたら、AIが挨拶の言葉をコンソールに出力する」だけでも立派な一歩です。
その小さな成功体験の積み重ねが、やがては誰も見たことのないような新しいゲーム体験を創り出す力になります。さあ、一緒に未来のゲーム開発を楽しみましょう!応援しています。
関連商品・おすすめアイテム

【楽天メイクアップランキング入賞】【国内発送&送料無料】LILIBETH パーフェクトフィッティング フルカバーレッジクッション 本体 21号 23号クッションファンデーション 韓国コスメ 韓国美容 密着 正規輸入
販売店: yeppeuda 楽天市場店

【楽天メイクアップランキング入賞】【国内発送&送料無料】【リフィル】LILIBETH パーフェクトフィッティング フルカバーレッジクッション リフィル 21号 23号クッションファンデーション 韓国コスメ 正規輸入
販売店: yeppeuda 楽天市場店
![いままでのA面、B面ですと!?(通常盤 2CD) [ GReeeeN ]](https://thumbnail.image.rakuten.co.jp/@0_mall/book/cabinet/5240/4988005585240.jpg?_ex=128x128)