Skip to content

AI設定

概要

AITuberKitでは、複数のAIサービスと連携して、キャラクターの会話能力を実現します。このページでは、AI設定の基本的な内容と、サポートされているAIサービスについて説明します。

環境変数:

bash
# AIサービスの選択
# openai, anthropic, google, azure, xai, groq, cohere,
# mistralai, perplexity, fireworks, deepseek, openrouter, localLlm, dify
NEXT_PUBLIC_SELECT_AI_SERVICE=openai

# 選択するAIモデル名
NEXT_PUBLIC_SELECT_AI_MODEL=gpt-4.1-mini

# カスタムモデルを利用の有無
NEXT_PUBLIC_CUSTOM_MODEL="false"

# 過去のメッセージ保持数
NEXT_PUBLIC_MAX_PAST_MESSAGES=10

# 会話のランダム性を調整する温度パラメータ(0.0~2.0)
NEXT_PUBLIC_TEMPERATURE=0.7

# 最大トークン数
NEXT_PUBLIC_MAX_TOKENS=4096

サポートされているAIサービス

AITuberKitは以下のAIサービスをサポートしています:

  • OpenAI GPT
  • Anthropic Claude
  • Google Gemini
  • Azure OpenAI
  • xAI
  • Groq
  • Cohere
  • Mistral AI
  • Perplexity
  • Fireworks
  • DeepSeek
  • OpenRouter
  • LM Studio
  • Ollama
  • Dify
  • カスタムAPI

各サービスの利用には、対応するAPIキーが必要です。

TIP

APIキーには利用料金が発生する場合があります。各サービスの料金体系を確認してから利用してください。

会話設定

AITuberKitでは、AIとの会話に関する以下の設定が可能です:

  • 過去のメッセージ保持数: 会話の履歴として保持するメッセージの数を設定します。数が多いほど文脈を理解した応答が得られますが、APIの利用コストが増加します。
  • 温度設定: 応答のランダム性を調整できます。値が高いほど多様な応答になり、低いほど決定的な応答になります。
  • 最大トークン数: 応答の最大トークン数を設定します。この値は利用中のAIモデルによって異なります。

推論モード

一部のAIモデルでは、推論モード(Reasoning Mode)を有効にすることで、AIがより深い思考プロセスを経て回答を生成します。

推論モードの思考テキスト表示

bash
# 推論モードの有効化(true/false)
NEXT_PUBLIC_REASONING_MODE=false

# 推論レベル(low/medium/high)
NEXT_PUBLIC_REASONING_EFFORT=medium

# 推論トークンバジェット(Anthropic, Cohere, Google用)
NEXT_PUBLIC_REASONING_TOKEN_BUDGET=8192

# 思考プロセスの常時表示(true/false)
NEXT_PUBLIC_SHOW_THINKING_TEXT=false

推論レベル

モデルによって選択可能な推論レベルが異なります。

  • low: 軽い推論(高速)
  • medium: 標準的な推論
  • high: 深い推論(高精度だが低速)

思考テキストの表示

「思考テキストを常に表示」を有効にすると、AIの思考プロセスを会話ログに表示できます。

本ドキュメントはv2.42.0に対応しています