BluePeriod Docs
初めての方へ

AIのセットアップ

APIキー設定、対応プロバイダー(Google / OpenAI / Anthropic / OpenRouter / Ollama / LM Studio)の解説

BluePeriodのAI機能を利用するには、AIプロバイダーのAPIキーを設定する必要があります。このページでは、対応プロバイダーの一覧と設定手順を解説します。

Note: BluePeriodは BYOK(Bring Your Own Key) 方式を採用しています。プラットフォーム側でAIモデルを提供するのではなく、あなた自身のAPIキーを使用します。詳細は philosophy をご覧ください。


対応プロバイダー

クラウドAIプロバイダー

プロバイダーAPIキーの取得先代表的なモデル
Google GeminiGoogle AI Studiogemini-2.5-pro, gemini-2.5-flash
OpenAIOpenAI PlatformGPTシリーズ
AnthropicAnthropic ConsoleClaudeシリーズ
OpenRouterOpenRouter各種オープンソース・商用モデル

ローカルLLM(Desktop版のみ)

プロバイダー説明
OllamaローカルLLMサーバー。デフォルトURL: http://localhost:11434/v1
LM StudioローカルLLMサーバー。デフォルトURL: http://localhost:1234/v1

ローカルLLMはブラウザのCORS制限により、Web版では利用できません。Desktop版(Tauri)をお使いください。


APIキーの設定手順

1. 設定画面を開く

アプリケーションの設定画面(/settings)にアクセスします。

2. APIキーを入力する

使用したいプロバイダーのフィールドにAPIキーを入力します。

  • Gemini APIキー — Google AI Studioで取得
  • OpenAI APIキー — OpenAI Platformで取得
  • Anthropic APIキー — Anthropic Consoleで取得
  • OpenRouter APIキー — OpenRouterで取得

APIキーはブラウザのlocalStorageに暗号化されて保存されます。サーバーに送信されることはありません。

3. モデルを選択する

APIキーを入力すると、そのプロバイダーで利用可能なモデル一覧が表示されます。使用したいモデルを選択してください。

Tip: OpenRouterでは、APIからモデル一覧を動的に取得するため、常に最新のモデルが選択可能です。


AIモデルの設定

BluePeriodでは、用途に応じて2種類のAIモデルを個別に設定できます。

Chat AI(対話用)

AIアシスタントとのチャット対話に使用するモデルです。

設定項目説明
プロバイダー使用するAIプロバイダー
モデルプロバイダー内のモデル
温度(Temperature)生成のランダム性。高いほど多様な応答(0.0〜2.0)
Top-P確率分布のしきい値。低いほど確実な応答
ストリーミングレスポンスをリアルタイムで表示
メモリ機能長期記憶を使用した文脈保持を有効化

執筆AI(生成用)

本文生成・翻訳・書き換えに使用するモデルです。

設定項目説明
プロバイダー使用するAIプロバイダー
モデルプロバイダー内のモデル
温度(Temperature)生成のランダム性
Top-P確率分布のしきい値
ストリーミング生成結果をリアルタイムで表示
文脈ウィンドウサイズAIが参照する文脈の最大長
APIリクエスト間隔バッチ処理時のリクエスト間隔(レートリミット対策)

Tip: 対話には軽量で高速なモデル(例: Gemini Flash系)、本文生成には高品質なモデル(例: Gemini Pro系、Claude Opus系)を使い分けると、コストと品質のバランスが良くなります。


ローカルLLMの設定(Desktop版)

Desktop版では、OllamaまたはLM Studioをローカルで起動し、BluePeriodから直接通信できます。

Ollama

  1. Ollama をインストールして起動します
  2. 使用するモデルをダウンロードします(例: ollama pull llama3
  3. BluePeriodの設定画面で Ollama セクションを開きます
  4. ベースURL(デフォルト: http://localhost:11434/v1)を確認します
  5. 接続状態を確認 し、利用可能なモデルが表示されることを確認します
  6. 使用するモデルを選択します

LM Studio

  1. LM Studio をインストールして起動します
  2. 使用するモデルをダウンロードし、ローカルサーバーを起動します
  3. BluePeriodの設定画面で LM Studio セクションを開きます
  4. ベースURL(デフォルト: http://localhost:1234/v1)を確認します
  5. 接続状態を確認 し、利用可能なモデルが表示されることを確認します
  6. 使用するモデルを選択します

Note: ローカルLLMの性能は、お使いのハードウェア(GPU、メモリ)に依存します。長い文脈を扱う場合は、十分なVRAMを搭載した環境を推奨します。


推奨設定の例

初心者向け(コスト重視)

用途プロバイダーモデル例
Chat AIGoogle Geminigemini-2.5-flash
執筆AIGoogle Geminigemini-2.5-flash

Google AI Studioの無料枠で十分に試すことができます。

本格的な執筆向け

用途プロバイダーモデル例
Chat AIGoogle Geminigemini-2.5-flash
執筆AIGoogle Gemini または Anthropicgemini-2.5-pro / Claude Sonnet系

高品質なモデルで本文生成を行い、高速なモデルで対話する構成です。

プライバシー重視(Desktop版)

用途プロバイダーモデル例
Chat AIOllama / LM Studioローカルモデル
執筆AIOllama / LM Studioローカルモデル

すべてのAI処理をローカルで完結させます。データが外部に送信されることはありません。


次のステップ

AIのセットアップが完了したら、writing-basics で3パネルレイアウトの操作方法を確認し、実際に執筆を始めましょう。

On this page