AIサービス設定
概要
AITuberKitでは、様々なAIサービス(OpenAI、Anthropic、Google Geminiなど)を選択して利用することができます。この設定では、利用するAIサービスとモデルの選択、APIキーの設定などを行います。
サポートされているAIサービス
AITuberKitは以下のAIサービスをサポートしています:
- OpenAI - GPT-5.2、GPT-5.1、GPT-4.1などの高性能モデルを提供
- Anthropic - Claude Opus 4.5、Claude Sonnet 4.5などを提供
- Google Gemini - Gemini 3 Pro、Gemini 2.5シリーズなどを提供
- Azure OpenAI - Azureプラットフォーム上のOpenAIモデル
- xAI - Grokモデルを提供
- Groq - 高速推論に特化した様々なモデルを提供
- Cohere - Command-Rシリーズを提供
- Mistral AI - Mistral Large、Open Mistralなどを提供
- Perplexity - Sonarシリーズを提供
- Fireworks - Llama、Mixtralなどの最適化実装を提供
- DeepSeek - DeepSeek Chat、DeepSeek Reasonerを提供
- OpenRouter - 幅広いモデルを提供
- LM Studio - ローカルLLMを提供
- Ollama - ローカルLLMを提供
- Dify - カスタムチャットボット構築プラットフォーム
- カスタムAPI - カスタムAPIを提供
ほとんどのAIサービスでは、あらかじめモデルを選択肢から選べるようになっていますが、任意のモデルを使用したい場合は「カスタムモデルを使用」を有効にしてください。
OpenAI
# OpenAI API キー
OPENAI_API_KEY=sk-...対応モデル:
- gpt-5.2-pro
- gpt-5.2-chat-latest
- gpt-5.2
- gpt-5.1-codex-mini
- gpt-5.1-codex
- gpt-5.1-chat-latest
- gpt-5.1
- gpt-5-pro
- gpt-5
- gpt-5-mini
- gpt-5-nano
- gpt-5-codex
- gpt-5-chat-latest
- gpt-4.1
- gpt-4.1-mini(デフォルト)
- gpt-4.1-nano
- gpt-4o
- gpt-4o-mini
APIキーの取得: APIキーはOpenAIのAPI keysページから取得できます。
Anthropic
# Anthropic API キー
ANTHROPIC_API_KEY=sk-ant-...対応モデル:
- claude-opus-4-5
- claude-opus-4-1
- claude-opus-4-0
- claude-sonnet-4-5(デフォルト)
- claude-sonnet-4-0
- claude-haiku-4-5
- claude-3-7-sonnet-latest
- claude-3-5-haiku-latest
APIキーの取得: APIキーはAnthropicコンソールから取得できます。
Google Gemini
# Google Gemini API キー
GOOGLE_API_KEY=...対応モデル:
- gemini-3-pro-preview
- gemini-2.5-pro
- gemini-2.5-flash(デフォルト)
- gemini-2.5-flash-lite
- gemini-2.5-flash-lite-preview-06-17
- gemini-2.0-flash
- gemini-1.5-pro
- gemini-1.5-pro-latest
- gemini-1.5-flash
- gemini-1.5-flash-latest
- gemini-1.5-flash-8b
- gemini-1.5-flash-8b-latest
APIキーの取得: APIキーはGoogle AI Studioから取得できます。
Googleサーチグラウンディング機能
Google Geminiでは、AIの回答生成時にリアルタイムでウェブ検索を活用する「サーチグラウンディング」機能が利用できます。 また、一部のモデルでは、サーチグラウンディング機能を使用するかどうかを判定する動的しきい値を設定することが可能です。0の場合は常に検索を実行し、1の場合は検索を実行しません。
# サーチグラウンディング機能の有効化
NEXT_PUBLIC_USE_SEARCH_GROUNDING=true
# サーチグラウンディング機能の動的しきい値
NEXT_PUBLIC_SEARCH_GROUNDING_THRESHOLD=0.3TIP
サーチグラウンディング機能は、Google Gemini 2.5シリーズ、Gemini 2.0 Flash、Gemini 1.5シリーズで利用可能です。
Azure OpenAI
# Azure OpenAI API キー
AZURE_API_KEY=...
# Azure OpenAI エンドポイント
AZURE_ENDPOINT="https://RESOURCE_NAME.openai.azure.com/openai/deployments/DEPLOYMENT_NAME/chat/completions?api-version=API_VERSION"APIキーの取得: APIキーはAzureポータルから取得できます。
xAI
# xAI API Key
XAI_API_KEY=...対応モデル:
- grok-4-fast-non-reasoning
- grok-4-fast-reasoning
- grok-code-fast-1
- grok-4(デフォルト)
- grok-3
- grok-3-latest
- grok-3-fast
- grok-3-fast-latest
- grok-3-mini
- grok-3-mini-latest
- grok-3-mini-fast
- grok-3-mini-fast-latest
- grok-2
- grok-2-latest
- grok-2-1212
- grok-2-vision
- grok-2-vision-latest
- grok-2-vision-1212
- grok-beta
- grok-vision-beta
APIキーの取得: APIキーはxAIダッシュボードから取得できます。
Groq
# Groq API キー
GROQ_API_KEY=...対応モデル:
- gemma2-9b-it
- llama-3.1-8b-instant
- llama-3.3-70b-versatile(デフォルト)
- meta-llama/llama-guard-4-12b
- deepseek-r1-distill-llama-70b
- meta-llama/llama-4-maverick-17b-128e-instruct
- meta-llama/llama-4-scout-17b-16e-instruct
- meta-llama/llama-prompt-guard-2-22m
- meta-llama/llama-prompt-guard-2-86m
- moonshotai/kimi-k2-instruct-0905
- qwen/qwen3-32b
- llama-guard-3-8b
- llama3-70b-8192
- llama3-8b-8192
- mixtral-8x7b-32768
- qwen-qwq-32b
- qwen-2.5-32b
- deepseek-r1-distill-qwen-32b
- openai/gpt-oss-20b
- openai/gpt-oss-120b
APIキーの取得: APIキーはGroqダッシュボードから取得できます。
Cohere
# Cohere API キー
COHERE_API_KEY=...対応モデル:
- command-a-03-2025(デフォルト)
- command-a-reasoning-08-2025
- command-r7b-12-2024
- command-r-plus-04-2024
- command-r-plus
- command-r-08-2024
- command-r-03-2024
- command-r
- command
- command-nightly
- command-light
- command-light-nightly
APIキーの取得: APIキーはCohereダッシュボードから取得できます。
Mistral AI
# Mistral AI API キー
MISTRALAI_API_KEY=...対応モデル:
- mistral-large-latest(デフォルト)
- mistral-medium-latest
- mistral-medium-2505
- mistral-small-latest
- pixtral-large-latest
- pixtral-12b-2409
- magistral-small-2506
- magistral-medium-2506
- ministral-3b-latest
- ministral-8b-latest
- open-mistral-7b
- open-mixtral-8x7b
- open-mixtral-8x22b
APIキーの取得: APIキーはMistral AIダッシュボードから取得できます。
Perplexity
# Perplexity API キー
PERPLEXITY_API_KEY=...対応モデル:
- sonar-deep-research
- sonar-reasoning-pro
- sonar-reasoning
- sonar-pro(デフォルト)
- sonar
APIキーの取得: APIキーはPerplexityダッシュボードから取得できます。
Fireworks
# Fireworks API キー
FIREWORKS_API_KEY=...対応モデル:
- accounts/fireworks/models/firefunction-v1
- accounts/fireworks/models/deepseek-r1
- accounts/fireworks/models/deepseek-v3
- accounts/fireworks/models/llama-v3p1-405b-instruct
- accounts/fireworks/models/llama-v3p1-8b-instruct
- accounts/fireworks/models/llama-v3p2-3b-instruct
- accounts/fireworks/models/llama-v3p3-70b-instruct
- accounts/fireworks/models/mixtral-8x7b-instruct
- accounts/fireworks/models/mixtral-8x7b-instruct-hf
- accounts/fireworks/models/mixtral-8x22b-instruct
- accounts/fireworks/models/qwen2p5-coder-32b-instruct
- accounts/fireworks/models/qwen2p5-72b-instruct
- accounts/fireworks/models/qwen-qwq-32b-preview
- accounts/fireworks/models/qwen2-vl-72b-instruct
- accounts/fireworks/models/llama-v3p2-11b-vision-instruct
- accounts/fireworks/models/qwq-32b
- accounts/fireworks/models/yi-large
- accounts/fireworks/models/kimi-k2-instruct
APIキーの取得: APIキーはFireworksダッシュボードから取得できます。
DeepSeek
# DeepSeek API キー
DEEPSEEK_API_KEY=...対応モデル:
- deepseek-chat
- deepseek-reasoner
APIキーの取得: APIキーはDeepSeekプラットフォームから取得できます。
OpenRouter
# OpenRouter API Key
OPENROUTER_API_KEY=...対応モデル:
OpenRouter Modelsを参照してください。
APIキーの取得: APIキーはOpenRouterダッシュボードから取得できます。
LM Studio, Ollama
# ローカルLLM URL
# ex. Ollama: http://localhost:11434/v1/chat/completions
# ex. LM Studio: http://localhost:1234/v1/chat/completions
NEXT_PUBLIC_LOCAL_LLM_URL=""
# ローカルLLMモデル
NEXT_PUBLIC_LOCAL_LLM_MODEL=""ローカルLLMを利用する場合は、別途サーバーの設定と起動が必要です。
設定例: Ollamaの設定方法
Dify
Difyはカスタムチャットボットを簡単に構築できるプラットフォームです。
# Dify API キー
DIFY_API_KEY=""
# Dify API URL
DIFY_URL=""注意
Difyでは、「チャットボット」または「エージェント」タイプのアプリケーションのみ対応しています。
また、Dify使用時は過去のメッセージの保持数やシステムプロンプトは、Dify側で設定する必要があります。
上手く回答が得られない場合は、会話履歴を削除してから改めて質問してください。
カスタムAPI
カスタムAPIを利用する場合は、以下の環境変数を設定してください。
# カスタムAPI URL
NEXT_PUBLIC_CUSTOM_API_URL=""
# カスタムAPIヘッダー
NEXT_PUBLIC_CUSTOM_API_HEADERS=""
# カスタムAPIボディ
NEXT_PUBLIC_CUSTOM_API_BODY=""
# カスタムAPIでシステムメッセージを含めるかどうか(true/false)
NEXT_PUBLIC_INCLUDE_SYSTEM_MESSAGES_IN_CUSTOM_API=true注意
このAPIではストリーミングモードが常に有効になっています。返却形式にご注意ください。
なお、OpenAI互換のAPIや一部のAPIでは動作確認を行っていますが、全てのAPIでの動作を保証するものではありません。
