2024年AI革命を体験!PythonでRAGチャットボットを自作する開発ガイド
アフィリエイト開示

こんにちは!プログラミングの世界を旅する皆さんを応援する、現役の技術教育者です。2023年に始まったAI革命の波は、2024年、私たちの開発現場にさらに大きな変化をもたらしました。もはやAIは遠い未来の技術ではなく、日々の開発に組み込むべき「強力な相棒」です。
この記事では、「AI革命2年目」の象徴ともいえる技術 RAG (Retrieval-Augmented Generation) を使って、自分だけのオリジナル情報を答えてくれるチャットボットを開発する方法を、一歩ずつ丁寧に解説します。AI開発の第一歩を踏み出し、2024年の技術トレンドを自分のものにしましょう!
はじめに
この記事を読み終える頃には、あなたは以下のことができるようになります。
- 2024年の重要なAI技術である「RAG」の仕組みを理解できる。
- Pythonを使って、手元のドキュメントを知識源とするAIチャットボットを構築できる。
- AIを単に「使う」だけでなく、「自分の目的に合わせて作り変える」スキルを身につけられる。
AIという強力なツールを使いこなし、あなたの開発スキルを次のレベルへ引き上げる。そんなワクワクする体験を一緒に始めましょう!
前提知識の確認
必要な基礎知識
- Pythonの基本文法: 変数、関数、クラス、if文、forループなどの基本的な書き方を理解しているとスムーズです。
- コマンドライン操作: ターミナル(WindowsならコマンドプロンプトやPowerShell)で、ディレクトリの移動やコマンドの実行ができるレベルで大丈夫です。
- pip: Pythonのパッケージ管理ツール。ライブラリのインストールに使います。
事前に理解しておきたい概念
- API (Application Programming Interface): ざっくり言うと、ソフトウェアやサービス同士が情報をやりとりするための「窓口」です。今回は、AIモデルをライブラリ経由で呼び出す際に、この考え方が役立ちます。
- 大規模言語モデル (LLM): ChatGPTのように、大量のテキストデータを学習して、人間のような文章を生成したり理解したりできるAIモデルのことです。
「分からなくても大丈夫」な部分
- AIの複雑な数学理論: ベクトルや行列計算など、AIの裏側にある数学は、現時点では完全に理解していなくても問題ありません。まずは「どう動くか」「どう使うか」に集中しましょう。
- すべてのライブラリの完璧な知識: 今回使うライブラリの機能をすべて暗記する必要はありません。必要な部分を一つひとつ確認しながら進めていきましょう。
環境構築:最初の一歩
AI開発の第一歩は、PC上でAIを動かすための「舞台」を整えることから始まります。焦らず、一つずつ進めていきましょう。
開発環境の準備(初心者向け解説)
まず、Pythonがインストールされているか確認しましょう。ターミナルを開き、以下のコマンドを入力します。
python --version
# または
python3 --version
Python 3.8以上が表示されればOKです。もしまだなら、Python公式サイトからインストールしてください。
次に、プロジェクトごとに環境を分離するための「仮想環境」を作成します。これにより、他のプロジェクトとライブラリのバージョンが混ざってしまうのを防げます。これはチーム開発でも必須のテクニックです。
# プロジェクト用のディレクトリを作成して移動
mkdir rag-chatbot-project
cd rag-chatbot-project
# 仮想環境を作成(.venvという名前のフォルダができます)
python -m venv .venv
# 仮想環境を有効化
# Windowsの場合
.venv\Scripts\activate
# macOS / Linuxの場合
source .venv/bin/activate
ターミナルの行頭に (.venv)
と表示されたら、仮想環境に入れています。
必要なツールとインストール方法
それでは、今回のチャットボット開発に必要なライブラリをインストールします。以下のコマンドを一行ずつ実行してください。
pip install torch
pip install transformers
pip install langchain
pip install sentence-transformers
pip install faiss-cpu
pip install pypdf
torch
: 機械学習の基本的な計算を担うライブラリです。transformers
: Hugging Face社が提供する、AIモデルを簡単に扱うためのライブラリです。langchain
: LLMを使ったアプリケーション開発を助けてくれるフレームワークです。sentence-transformers
: 文章をAIが理解できる数値の羅列(ベクトル)に変換します。faiss-cpu
: ベクトル化されたデータを高速に検索するためのデータベースです。pypdf
: PDFファイルを読み込むために使います。
環境構築でつまずきやすいポイント
環境構築は、開発の最初の関門です。ここでエラーが出ても、慌てないでください。よくあるのは、ライブラリ同士のバージョンの相性問題です。エラーメッセージをよく読み、検索してみましょう。「仮想環境を作り直して、もう一度インストールしてみる」というのも有効な解決策です。
基本概念の理解
核となる考え方
今回作成するチャットボットの心臓部が RAG (Retrieval-Augmented Generation) です。日本語では「検索拡張生成」と呼ばれます。
通常のLLM(ChatGPTなど)は、事前に学習した膨大な知識しか持っていません。そのため、最新の情報や、社内文書のような限定的な情報については答えることができません。そこでRAGの出番です。
RAGの仕組みは、以下の2ステップです。
- Retrieval (検索): ユーザーから質問が来たら、まず関連する情報を手元の文書(PDFやテキストファイルなど)から探し出します。
- Generation (生成): 探し出した情報と元の質問をセットにしてLLMに渡し、「この情報を参考にして、質問に答えてください」とお願いして、回答を生成させます。
身近な例での説明
RAGは、私たちが試験で「資料持ち込み可」のテストを受けるのに似ています。
- 質問: 「関ヶ原の戦いはいつ、どこで起こりましたか?」
- あなたの頭(LLM): 「うーん、確か1600年だったような…場所は…」
- 資料(外部文書)を検索: 日本史の教科書で「関ヶ原の戦い」のページを探す。
- 資料から情報を抽出: 「1600年10月21日、美濃国関ヶ原で行われた」という記述を見つける。
- 情報を基に回答を生成: 「関ヶ原の戦いは、1600年10月21日に美濃国関ヶ原(現在の岐阜県不破郡関ケ原町)で行われました。」
このように、自分の知識だけでは不確かな部分を、外部の正確な情報で補って回答する。これがRAGの考え方です。
「なぜそうなるのか」の理解
なぜRAGが重要なのでしょうか? それは、LLMの最大の弱点である ハルシネーション(もっともらしい嘘をつく現象) を大幅に軽減できるからです。根拠となる文書に基づいて回答を生成するため、より正確で信頼性の高い応答が期待できます。また、企業が外部に出せない機密情報をAIに学習させることなく、安全に活用できる道を開いた点も非常に重要です。これが2024年に多くの企業でAI活用が進んだ大きな理由の一つです。
実践編:手を動かして学ぶ
いよいよコーディングです! ここでは、架空のプロジェクト「AIペット育成ゲーム」の仕様書PDFをAIに読み込ませて、仕様に関する質問に答えるチャットボットを作っていきます。
まず、spec.pdf
という名前でPDFファイルを用意してください。中身は簡単なもので構いません。例えば、以下のようなテキストをPDFとして保存します。
AIペット育成ゲーム仕様書
- ペットの名前はユーザーが自由に決められる。
- ペットには「元気」「満腹度」の2つのステータスがある。
- 餌を与えると「満腹度」が10ポイント上昇する。
- 散歩に行くと「元気」が20ポイント上昇し、「満腹度」が5ポイント減少する。
- 最終目標は、ペットを伝説の「デジタルドラゴン」に進化させることである。
ステップ1: 基本的な実装(PDF読み込みとベクトル化)
最初に、PDFを読み込み、RAGで使えるようにデータを準備するコードを書いてみましょう。main.py
というファイルを作成して、以下のコードを記述します。
from langchain.document_loaders import PyPDFLoader
from langchain.text_splitter import CharacterTextSplitter
from langchain.embeddings import HuggingFaceEmbeddings
from langchain.vectorstores import FAISS
# 1. ドキュメントの読み込み
loader = PyPDFLoader("spec.pdf")
documents = loader.load()
# 2. テキストの分割
text_splitter = CharacterTextSplitter(chunk_size=1000, chunk_overlap=0)
docs = text_splitter.split_documents(documents)
# 3. エンベディングモデルの準備
embeddings = HuggingFaceEmbeddings(model_name="sentence-transformers/all-MiniLM-L6-v2")
# 4. ベクトルデータベースの作成
db = FAISS.from_documents(docs, embeddings)
print("ベクトルデータベースの準備が完了しました。")
# 5. 検索のテスト
query = "ペットの最終目標は何ですか?"
docs_and_scores = db.similarity_search_with_score(query)
print(f"\n--- 検索テスト ---")
print(f"質問: {query}")
if docs_and_scores:
best_doc, score = docs_and_scores[0]
print(f"最も関連性の高い文章: {best_doc.page_content}")
print(f"関連スコア: {score}")
else:
print("関連する文章が見つかりませんでした。")
コード解説:
PyPDFLoader
でPDFファイルを読み込みます。CharacterTextSplitter
で、読み込んだ内容を扱いやすいサイズ(チャンク)に分割します。長い文章は一度に処理できないためです。HuggingFaceEmbeddings
で、文章をベクトル(数値の配列)に変換するためのモデルを指定します。FAISS.from_documents
で、分割したテキストをベクトル化し、高速に検索できるデータベースを作成します。similarity_search_with_score
を使って、質問に最も関連性の高い文章をDBから探し出せるかテストしています。
これを実行すると、質問に最も近い「最終目標は、ペットを伝説の『デジタルドラゴン』に進化させることである。」という一文が探し出されるはずです。
ステップ2: 機能の拡張(LLMとの連携)
検索ができるようになったので、次はいよいよLLMと連携させて、自然な文章で回答を生成させます。
※注意: このコードはローカルでLLMを動かすため、ある程度のPCスペック(特にメモリ)を要求します。もし動作が重い場合は、より小さなモデルを探すか、クラウドのLLMサービスを利用することを検討してください。
main.py
を以下のように書き換えます。
import torch
from langchain.document_loaders import PyPDFLoader
from langchain.text_splitter import CharacterTextSplitter
from langchain.embeddings import HuggingFaceEmbeddings
from langchain.vectorstores import FAISS
from langchain.llms import HuggingFacePipeline
from langchain.chains import RetrievalQA
from transformers import AutoTokenizer, AutoModelForCausalLM, pipeline
# --- ステップ1の部分は同じ ---
loader = PyPDFLoader("spec.pdf")
documents = loader.load()
text_splitter = CharacterTextSplitter(chunk_size=1000, chunk_overlap=0)
docs = text_splitter.split_documents(documents)
embeddings = HuggingFaceEmbeddings(model_name="sentence-transformers/all-MiniLM-L6-v2")
db = FAISS.from_documents(docs, embeddings)
print("ベクトルデータベースの準備が完了しました。")
# --------------------------
# 1. LLMの準備
model_name = "rinna/japanese-gpt2-small" # 日本語対応の小規模モデル
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForCausalLM.from_pretrained(model_name)
pipe = pipeline(
"text-generation",
model=model,
tokenizer=tokenizer,
max_new_tokens=256
)
llm = HuggingFacePipeline(pipeline=pipe)
# 2. RAGチェーンの作成
qa_chain = RetrievalQA.from_chain_type(
llm=llm,
chain_type="stuff",
retriever=db.as_retriever()
)
# 3. 質問応答の実行
query = "ペットの満腹度を上げるにはどうすればいいですか?"
result = qa_chain.run(query)
print(f"\n--- 質問応答テスト ---")
print(f"質問: {query}")
print(f"AIの回答: {result}")
コード解説:
- Hugging Faceの
transformers
ライブラリを使って、日本語対応の小規模なLLM (rinna/japanese-gpt2-small
) を読み込んでいます。初回実行時はモデルのダウンロードに時間がかかります。 RetrievalQA
というLangChainの機能を使って、これまでに準備した「Retriever(検索役)」と「LLM(生成役)」を組み合わせたRAGの仕組み(チェーン)を簡単に作成します。qa_chain.run()
で質問を実行すると、RAGのプロセス(検索→生成)が実行され、最終的な回答が得られます。
実行すると、「餌を与えると満腹度が10ポイント上昇する」という情報に基づいた回答が生成されるはずです。
ステップ3: 実用的な応用(チャット形式にする)
一問一答だけでなく、連続して会話できるようにしてみましょう。
# (前段のコードは同じなので省略)
# ...
# RAGチェーンの作成
qa_chain = RetrievalQA.from_chain_type(
llm=llm,
chain_type="stuff",
retriever=db.as_retriever()
)
print("\n--- AIペット仕様書チャットボット --- (終了するには 'quit' と入力)")
while True:
user_input = input("あなた: ")
if user_input.lower() == 'quit':
print("ボットを終了します。")
break
result = qa_chain.run(user_input)
print(f"AI: {result}")
while
ループを追加して、ユーザーが ‘quit’ と入力するまで対話を続けられるようにしました。これで、よりチャットボットらしくなりましたね。
ステップ4: チーム開発を意識した改善
今のコードは1つのファイルにすべて書かれていますが、これでは機能が増えるたびに見通しが悪くなります。チームで開発するなら、役割ごとにコードを分割(クラス化)するのが定石です。
# (import文は省略)
class RAGChatbot:
def __init__(self, pdf_path, model_name="rinna/japanese-gpt2-small"):
self.db = self._setup_vector_db(pdf_path)
self.chain = self._setup_rag_chain(model_name)
print("チャットボットの準備が完了しました。")
def _setup_vector_db(self, pdf_path):
loader = PyPDFLoader(pdf_path)
documents = loader.load()
text_splitter = CharacterTextSplitter(chunk_size=1000, chunk_overlap=0)
docs = text_splitter.split_documents(documents)
embeddings = HuggingFaceEmbeddings(model_name="sentence-transformers/all-MiniLM-L6-v2")
return FAISS.from_documents(docs, embeddings)
def _setup_rag_chain(self, model_name):
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForCausalLM.from_pretrained(model_name)
pipe = pipeline("text-generation", model=model, tokenizer=tokenizer, max_new_tokens=256)
llm = HuggingFacePipeline(pipeline=pipe)
return RetrievalQA.from_chain_type(
llm=llm,
chain_type="stuff",
retriever=self.db.as_retriever()
)
def ask(self, query):
return self.chain.run(query)
# --- 実行部分 ---
if __name__ == "__main__":
bot = RAGChatbot(pdf_path="spec.pdf")
print("\n--- AIペット仕様書チャットボット --- (終了するには 'quit' と入力)")
while True:
user_input = input("あなた: ")
if user_input.lower() == 'quit':
print("ボットを終了します。")
break
response = bot.ask(user_input)
print(f"AI: {response}")
改善点:
RAGChatbot
というクラスに処理をまとめました。- データベースの準備 (
_setup_vector_db
) と、RAGチェーンの準備 (_setup_rag_chain
) を別々のメソッドに分割し、何をしているか分かりやすくなりました。 - 使う側は
bot.ask("質問")
のように、シンプルな命令で使えるようになりました。
このように整理することで、他の人がコードを読んだり、機能を追加したりするのが格段に楽になります。
実際の開発現場での活用
業務での使用例
このRAGの技術は、すでに多くの現場で活用されています。
- 社内ナレッジ検索: 社内規定、議事録、過去のプロジェクト資料などを読み込ませ、新入社員でも専門的な質問に答えられるサポートボットを作成。
- カスタマーサポート支援: FAQやマニュアルを学習させ、問い合わせに対して回答案を自動生成し、オペレーターの業務を効率化。
- コードリファレンス検索: 大量のAPIドキュメントやフレームワークの仕様書を読み込ませ、開発者が自然言語で使い方を質問できるシステム。
チーム開発でのベストプラクティス
AIをチーム開発に導入する際は、以下の点が重要です。
- プロンプトの共有と管理: AIへの指示文(プロンプト)は、システムの品質を左右する重要な「設定ファイル」です。Gitでバージョン管理し、チームで改善の記録を残しましょう。
- モデルとバージョンの統一: 開発者ごとに使うAIモデルやライブラリのバージョンが異なると、結果が安定しません。
requirements.txt
などで環境を統一することが不可欠です。 - 評価の仕組み作り: 「良い回答」「悪い回答」を客観的に評価する基準を設け、定期的にシステムの精度をチェックする仕組みを作りましょう。
保守性を意識した書き方
AI関連のコードは実験的な要素が多く、変更が頻繁に発生します。そのため、保守性は特に重要です。
- 設定の外部化: モデル名やプロンプトの内容などを、設定ファイル(YAMLやJSONなど)に切り出すことで、コードを修正せずに挙動を調整できます。
- 責務の分離: 今回の例のように、「データ読み込み」「ベクトル化」「LLMとの対話」など、役割ごとにクラスやモジュールを分けることで、修正箇所を特定しやすくなります。
よくあるつまずきポイントと解決策
初心者が陥りやすい問題
- メモリ不足エラー: ローカルで大規模なLLMを動かそうとすると、PCのメモリが足りなくなりがちです。まずは小さなモデルから試す、量子化(モデルを軽量化する技術)されたモデルを使う、などの対策があります。
- 回答が不正確・無関係: 検索の精度が低い、またはLLMが情報をうまく解釈できていない可能性があります。テキストの分割方法(
chunk_size
)を見直したり、プロンプトをより具体的にしたりすることで改善できます。
エラーメッセージの読み方
AIライブラリのエラーメッセージは長く複雑に見えますが、慌てずに一番下の行から読んでみましょう。FileNotFoundError
(ファイルが見つからない)、ModuleNotFoundError
(ライブラリがインストールされていない)、OutOfMemoryError
(メモリ不足)など、原因を示すキーワードが含まれていることが多いです。
デバッグの基本的な考え方
AIのデバッグは、「どこで問題が起きているか」を切り分けることが重要です。
- データ入力は正しいか?: PDFは正しく読み込めているか?
print()
で確認しましょう。 - 検索はうまくいっているか?:
db.similarity_search()
で、質問に対して意図した通りの文書が検索できているか確認します。 - LLMへの入力は適切か?: RAGチェーンがLLMに渡している最終的なプロンプトの中身を確認し、不自然な点がないかチェックします。
このように、処理の各段階で中間結果を確認することが、問題解決への近道です。
継続的な学習のために
次に学ぶべきこと
今回RAGの基本をマスターしたあなたは、さらに一歩進んでみましょう。
- より高度なRAG手法: 検索精度を上げるための様々なテクニック(HyDE、Re-rankingなど)を調べてみましょう。
- ファインチューニング: 既存のLLMを、特定のタスクや専門分野のデータで追加学習させ、性能を特化させる技術です。
- エージェント (Agent): LLMに「思考」させ、ツールを使ったり、自律的にタスクを計画・実行させたりする、さらに高度なAIの仕組みです。
おすすめの学習リソース
- Hugging Face: AIモデルやデータセットが世界中から集まるプラットフォーム。色々なモデルを試すだけでも面白い発見があります。
- LangChain公式ドキュメント: 今回使ったフレームワークの公式サイトです。RAG以外にも、AIアプリを作るための様々な機能が紹介されています。
- 技術ブログや論文: AIの世界は日進月歩です。最新の技術トレンドを追いかける習慣をつけると、新しいアイデアが生まれやすくなります。
コミュニティとの関わり方
一人で学習していると、どうしても詰まってしまうことがあります。そんな時は、勉強会やオンラインコミュニティに参加してみましょう。自分と同じように学ぶ仲間と情報交換したり、経験豊富な先輩に質問したりすることで、新たな視点が得られ、学習のモチベーションも維持しやすくなります。
まとめ:成長のための次のステップ
今回は、2024年のプログラミング界を象徴する技術「RAG」を使って、自分だけの知識を持つチャットボットを開発しました。手を動かしてAIを「作る」側に回ったことで、AIがもはやブラックボックスではなく、自分のアイデアを実現するための強力なツールであることが実感できたのではないでしょうか。
大切なのは、AIの進化に怯えるのではなく、その変化を楽しみ、自分のスキルセットに取り込んでいく姿勢です。今日作った小さなチャットボットは、あなたのAI開発者としてのキャリアの大きな一歩です。
次はぜひ、あなたが興味のある文書(好きな小説、趣味のブログ、勉強中の技術書など)を読み込ませて、あなただけのオリジナルAIアシスタントを作ってみてください。その試行錯誤の一つひとつが、あなたを唯一無二のエンジニアへと成長させてくれるはずです。応援しています!
関連商品・おすすめアイテム

《800円〜最大4000円OFFクーポン》 リゲッタ カヌー サンダル ライトフット グミインソール 3本ベルトサンダル メンズ レディース コンフォートサンダルサンダル 日本製 オフィス サンダル ペアプレゼント
販売店: GJstore リゲッタ カヌー専門店

【選べるショルダー】【動画あり】リュック レディース ナイロンリュック 軽量 レザー ナイロン バッグ 大人 背面ファスナー リュックサック おしゃれ マザーズリュック 口折れ パイソン グランデグレイス grandegrace ブランド
販売店: アクセサリーGRACE

【9/20店内全品P5倍】パスケース リール付き 定期入れ 楽天1位 選べるイニシャル&アニマル ICカード 2枚収納 薄型 軽量 撥水 クロコ柄 パイソン柄 おしゃれ ストラップ付き メンズ レディース 大人 子供 男女兼用 小学校 中学校 高校 大学 社会人 通勤 通学 プレゼント 箱付
販売店: 財布 バッグ ブランドオブクイーン