Skip to content

AIサービス設定

概要

AITuberKitでは、様々なAIサービス(OpenAI、Anthropic、Google Geminiなど)を選択して利用することができます。この設定では、利用するAIサービスとモデルの選択、APIキーの設定などを行います。

サポートされているAIサービス

AITuberKitは以下のAIサービスをサポートしています:

  • OpenAI - GPT-5.2、GPT-5.1、GPT-4.1などの高性能モデルを提供
  • Anthropic - Claude Opus 4.5、Claude Sonnet 4.5などを提供
  • Google Gemini - Gemini 3 Pro、Gemini 2.5シリーズなどを提供
  • Azure OpenAI - Azureプラットフォーム上のOpenAIモデル
  • xAI - Grokモデルを提供
  • Groq - 高速推論に特化した様々なモデルを提供
  • Cohere - Command-Rシリーズを提供
  • Mistral AI - Mistral Large、Open Mistralなどを提供
  • Perplexity - Sonarシリーズを提供
  • Fireworks - Llama、Mixtralなどの最適化実装を提供
  • DeepSeek - DeepSeek Chat、DeepSeek Reasonerを提供
  • OpenRouter - 幅広いモデルを提供
  • LM Studio - ローカルLLMを提供
  • Ollama - ローカルLLMを提供
  • Dify - カスタムチャットボット構築プラットフォーム
  • カスタムAPI - カスタムAPIを提供

ほとんどのAIサービスでは、あらかじめモデルを選択肢から選べるようになっていますが、任意のモデルを使用したい場合は「カスタムモデルを使用」を有効にしてください。

OpenAI

bash
# OpenAI API キー
OPENAI_API_KEY=sk-...

対応モデル:

  • gpt-5.2-pro
  • gpt-5.2-chat-latest
  • gpt-5.2
  • gpt-5.1-codex-mini
  • gpt-5.1-codex
  • gpt-5.1-chat-latest
  • gpt-5.1
  • gpt-5-pro
  • gpt-5
  • gpt-5-mini
  • gpt-5-nano
  • gpt-5-codex
  • gpt-5-chat-latest
  • gpt-4.1
  • gpt-4.1-mini(デフォルト)
  • gpt-4.1-nano
  • gpt-4o
  • gpt-4o-mini

APIキーの取得: APIキーはOpenAIのAPI keysページから取得できます。

Anthropic

bash
# Anthropic API キー
ANTHROPIC_API_KEY=sk-ant-...

対応モデル:

  • claude-opus-4-5
  • claude-opus-4-1
  • claude-opus-4-0
  • claude-sonnet-4-5(デフォルト)
  • claude-sonnet-4-0
  • claude-haiku-4-5
  • claude-3-7-sonnet-latest
  • claude-3-5-haiku-latest

APIキーの取得: APIキーはAnthropicコンソールから取得できます。

Google Gemini

bash
# Google Gemini API キー
GOOGLE_API_KEY=...

対応モデル:

  • gemini-3-pro-preview
  • gemini-2.5-pro
  • gemini-2.5-flash(デフォルト)
  • gemini-2.5-flash-lite
  • gemini-2.5-flash-lite-preview-06-17
  • gemini-2.0-flash
  • gemini-1.5-pro
  • gemini-1.5-pro-latest
  • gemini-1.5-flash
  • gemini-1.5-flash-latest
  • gemini-1.5-flash-8b
  • gemini-1.5-flash-8b-latest

APIキーの取得: APIキーはGoogle AI Studioから取得できます。

Googleサーチグラウンディング機能

Google Geminiでは、AIの回答生成時にリアルタイムでウェブ検索を活用する「サーチグラウンディング」機能が利用できます。 また、一部のモデルでは、サーチグラウンディング機能を使用するかどうかを判定する動的しきい値を設定することが可能です。0の場合は常に検索を実行し、1の場合は検索を実行しません。

bash
# サーチグラウンディング機能の有効化
NEXT_PUBLIC_USE_SEARCH_GROUNDING=true
# サーチグラウンディング機能の動的しきい値
NEXT_PUBLIC_SEARCH_GROUNDING_THRESHOLD=0.3

TIP

サーチグラウンディング機能は、Google Gemini 2.5シリーズ、Gemini 2.0 Flash、Gemini 1.5シリーズで利用可能です。

Azure OpenAI

bash
# Azure OpenAI API キー
AZURE_API_KEY=...
# Azure OpenAI エンドポイント
AZURE_ENDPOINT="https://RESOURCE_NAME.openai.azure.com/openai/deployments/DEPLOYMENT_NAME/chat/completions?api-version=API_VERSION"

APIキーの取得: APIキーはAzureポータルから取得できます。

xAI

bash
# xAI API Key
XAI_API_KEY=...

対応モデル:

  • grok-4-fast-non-reasoning
  • grok-4-fast-reasoning
  • grok-code-fast-1
  • grok-4(デフォルト)
  • grok-3
  • grok-3-latest
  • grok-3-fast
  • grok-3-fast-latest
  • grok-3-mini
  • grok-3-mini-latest
  • grok-3-mini-fast
  • grok-3-mini-fast-latest
  • grok-2
  • grok-2-latest
  • grok-2-1212
  • grok-2-vision
  • grok-2-vision-latest
  • grok-2-vision-1212
  • grok-beta
  • grok-vision-beta

APIキーの取得: APIキーはxAIダッシュボードから取得できます。

Groq

bash
# Groq API キー
GROQ_API_KEY=...

対応モデル:

  • gemma2-9b-it
  • llama-3.1-8b-instant
  • llama-3.3-70b-versatile(デフォルト)
  • meta-llama/llama-guard-4-12b
  • deepseek-r1-distill-llama-70b
  • meta-llama/llama-4-maverick-17b-128e-instruct
  • meta-llama/llama-4-scout-17b-16e-instruct
  • meta-llama/llama-prompt-guard-2-22m
  • meta-llama/llama-prompt-guard-2-86m
  • moonshotai/kimi-k2-instruct-0905
  • qwen/qwen3-32b
  • llama-guard-3-8b
  • llama3-70b-8192
  • llama3-8b-8192
  • mixtral-8x7b-32768
  • qwen-qwq-32b
  • qwen-2.5-32b
  • deepseek-r1-distill-qwen-32b
  • openai/gpt-oss-20b
  • openai/gpt-oss-120b

APIキーの取得: APIキーはGroqダッシュボードから取得できます。

Cohere

bash
# Cohere API キー
COHERE_API_KEY=...

対応モデル:

  • command-a-03-2025(デフォルト)
  • command-a-reasoning-08-2025
  • command-r7b-12-2024
  • command-r-plus-04-2024
  • command-r-plus
  • command-r-08-2024
  • command-r-03-2024
  • command-r
  • command
  • command-nightly
  • command-light
  • command-light-nightly

APIキーの取得: APIキーはCohereダッシュボードから取得できます。

Mistral AI

bash
# Mistral AI API キー
MISTRALAI_API_KEY=...

対応モデル:

  • mistral-large-latest(デフォルト)
  • mistral-medium-latest
  • mistral-medium-2505
  • mistral-small-latest
  • pixtral-large-latest
  • pixtral-12b-2409
  • magistral-small-2506
  • magistral-medium-2506
  • ministral-3b-latest
  • ministral-8b-latest
  • open-mistral-7b
  • open-mixtral-8x7b
  • open-mixtral-8x22b

APIキーの取得: APIキーはMistral AIダッシュボードから取得できます。

Perplexity

bash
# Perplexity API キー
PERPLEXITY_API_KEY=...

対応モデル:

  • sonar-deep-research
  • sonar-reasoning-pro
  • sonar-reasoning
  • sonar-pro(デフォルト)
  • sonar

APIキーの取得: APIキーはPerplexityダッシュボードから取得できます。

Fireworks

bash
# Fireworks API キー
FIREWORKS_API_KEY=...

対応モデル:

  • accounts/fireworks/models/firefunction-v1
  • accounts/fireworks/models/deepseek-r1
  • accounts/fireworks/models/deepseek-v3
  • accounts/fireworks/models/llama-v3p1-405b-instruct
  • accounts/fireworks/models/llama-v3p1-8b-instruct
  • accounts/fireworks/models/llama-v3p2-3b-instruct
  • accounts/fireworks/models/llama-v3p3-70b-instruct
  • accounts/fireworks/models/mixtral-8x7b-instruct
  • accounts/fireworks/models/mixtral-8x7b-instruct-hf
  • accounts/fireworks/models/mixtral-8x22b-instruct
  • accounts/fireworks/models/qwen2p5-coder-32b-instruct
  • accounts/fireworks/models/qwen2p5-72b-instruct
  • accounts/fireworks/models/qwen-qwq-32b-preview
  • accounts/fireworks/models/qwen2-vl-72b-instruct
  • accounts/fireworks/models/llama-v3p2-11b-vision-instruct
  • accounts/fireworks/models/qwq-32b
  • accounts/fireworks/models/yi-large
  • accounts/fireworks/models/kimi-k2-instruct

APIキーの取得: APIキーはFireworksダッシュボードから取得できます。

DeepSeek

bash
# DeepSeek API キー
DEEPSEEK_API_KEY=...

対応モデル:

  • deepseek-chat
  • deepseek-reasoner

APIキーの取得: APIキーはDeepSeekプラットフォームから取得できます。

OpenRouter

bash
# OpenRouter API Key
OPENROUTER_API_KEY=...

対応モデル:

OpenRouter Modelsを参照してください。

APIキーの取得: APIキーはOpenRouterダッシュボードから取得できます。

LM Studio, Ollama

bash
# ローカルLLM URL
# ex. Ollama: http://localhost:11434/v1/chat/completions
# ex. LM Studio: http://localhost:1234/v1/chat/completions
NEXT_PUBLIC_LOCAL_LLM_URL=""
# ローカルLLMモデル
NEXT_PUBLIC_LOCAL_LLM_MODEL=""

ローカルLLMを利用する場合は、別途サーバーの設定と起動が必要です。

設定例: Ollamaの設定方法

Dify

Difyはカスタムチャットボットを簡単に構築できるプラットフォームです。

bash
# Dify API キー
DIFY_API_KEY=""
# Dify API URL
DIFY_URL=""

注意

Difyでは、「チャットボット」または「エージェント」タイプのアプリケーションのみ対応しています。
また、Dify使用時は過去のメッセージの保持数やシステムプロンプトは、Dify側で設定する必要があります。
上手く回答が得られない場合は、会話履歴を削除してから改めて質問してください。

カスタムAPI

カスタムAPIを利用する場合は、以下の環境変数を設定してください。

bash
# カスタムAPI URL
NEXT_PUBLIC_CUSTOM_API_URL=""
# カスタムAPIヘッダー
NEXT_PUBLIC_CUSTOM_API_HEADERS=""
# カスタムAPIボディ
NEXT_PUBLIC_CUSTOM_API_BODY=""
# カスタムAPIでシステムメッセージを含めるかどうか(true/false)
NEXT_PUBLIC_INCLUDE_SYSTEM_MESSAGES_IN_CUSTOM_API=true

注意

このAPIではストリーミングモードが常に有効になっています。返却形式にご注意ください。
なお、OpenAI互換のAPIや一部のAPIでは動作確認を行っていますが、全てのAPIでの動作を保証するものではありません。

本ドキュメントはv2.41.0に対応しています