AIのセットアップ
APIキー設定、対応プロバイダー(Google / OpenAI / Anthropic / OpenRouter / Ollama / LM Studio)の解説
BluePeriodのAI機能を利用するには、AIプロバイダーのAPIキーを設定する必要があります。このページでは、対応プロバイダーの一覧と設定手順を解説します。
Note: BluePeriodは BYOK(Bring Your Own Key) 方式を採用しています。プラットフォーム側でAIモデルを提供するのではなく、あなた自身のAPIキーを使用します。詳細は philosophy をご覧ください。
対応プロバイダー
クラウドAIプロバイダー
| プロバイダー | APIキーの取得先 | 代表的なモデル |
|---|---|---|
| Google Gemini | Google AI Studio | gemini-2.5-pro, gemini-2.5-flash |
| OpenAI | OpenAI Platform | GPTシリーズ |
| Anthropic | Anthropic Console | Claudeシリーズ |
| OpenRouter | OpenRouter | 各種オープンソース・商用モデル |
ローカルLLM(Desktop版のみ)
| プロバイダー | 説明 |
|---|---|
| Ollama | ローカルLLMサーバー。デフォルトURL: http://localhost:11434/v1 |
| LM Studio | ローカルLLMサーバー。デフォルトURL: http://localhost:1234/v1 |
ローカルLLMはブラウザのCORS制限により、Web版では利用できません。Desktop版(Tauri)をお使いください。
APIキーの設定手順
1. 設定画面を開く
アプリケーションの設定画面(/settings)にアクセスします。
2. APIキーを入力する
使用したいプロバイダーのフィールドにAPIキーを入力します。
- Gemini APIキー — Google AI Studioで取得
- OpenAI APIキー — OpenAI Platformで取得
- Anthropic APIキー — Anthropic Consoleで取得
- OpenRouter APIキー — OpenRouterで取得
APIキーはブラウザのlocalStorageに暗号化されて保存されます。サーバーに送信されることはありません。
3. モデルを選択する
APIキーを入力すると、そのプロバイダーで利用可能なモデル一覧が表示されます。使用したいモデルを選択してください。
Tip: OpenRouterでは、APIからモデル一覧を動的に取得するため、常に最新のモデルが選択可能です。
AIモデルの設定
BluePeriodでは、用途に応じて2種類のAIモデルを個別に設定できます。
Chat AI(対話用)
AIアシスタントとのチャット対話に使用するモデルです。
| 設定項目 | 説明 |
|---|---|
| プロバイダー | 使用するAIプロバイダー |
| モデル | プロバイダー内のモデル |
| 温度(Temperature) | 生成のランダム性。高いほど多様な応答(0.0〜2.0) |
| Top-P | 確率分布のしきい値。低いほど確実な応答 |
| ストリーミング | レスポンスをリアルタイムで表示 |
| メモリ機能 | 長期記憶を使用した文脈保持を有効化 |
執筆AI(生成用)
本文生成・翻訳・書き換えに使用するモデルです。
| 設定項目 | 説明 |
|---|---|
| プロバイダー | 使用するAIプロバイダー |
| モデル | プロバイダー内のモデル |
| 温度(Temperature) | 生成のランダム性 |
| Top-P | 確率分布のしきい値 |
| ストリーミング | 生成結果をリアルタイムで表示 |
| 文脈ウィンドウサイズ | AIが参照する文脈の最大長 |
| APIリクエスト間隔 | バッチ処理時のリクエスト間隔(レートリミット対策) |
Tip: 対話には軽量で高速なモデル(例: Gemini Flash系)、本文生成には高品質なモデル(例: Gemini Pro系、Claude Opus系)を使い分けると、コストと品質のバランスが良くなります。
ローカルLLMの設定(Desktop版)
Desktop版では、OllamaまたはLM Studioをローカルで起動し、BluePeriodから直接通信できます。
Ollama
- Ollama をインストールして起動します
- 使用するモデルをダウンロードします(例:
ollama pull llama3) - BluePeriodの設定画面で Ollama セクションを開きます
- ベースURL(デフォルト:
http://localhost:11434/v1)を確認します - 接続状態を確認 し、利用可能なモデルが表示されることを確認します
- 使用するモデルを選択します
LM Studio
- LM Studio をインストールして起動します
- 使用するモデルをダウンロードし、ローカルサーバーを起動します
- BluePeriodの設定画面で LM Studio セクションを開きます
- ベースURL(デフォルト:
http://localhost:1234/v1)を確認します - 接続状態を確認 し、利用可能なモデルが表示されることを確認します
- 使用するモデルを選択します
Note: ローカルLLMの性能は、お使いのハードウェア(GPU、メモリ)に依存します。長い文脈を扱う場合は、十分なVRAMを搭載した環境を推奨します。
推奨設定の例
初心者向け(コスト重視)
| 用途 | プロバイダー | モデル例 |
|---|---|---|
| Chat AI | Google Gemini | gemini-2.5-flash |
| 執筆AI | Google Gemini | gemini-2.5-flash |
Google AI Studioの無料枠で十分に試すことができます。
本格的な執筆向け
| 用途 | プロバイダー | モデル例 |
|---|---|---|
| Chat AI | Google Gemini | gemini-2.5-flash |
| 執筆AI | Google Gemini または Anthropic | gemini-2.5-pro / Claude Sonnet系 |
高品質なモデルで本文生成を行い、高速なモデルで対話する構成です。
プライバシー重視(Desktop版)
| 用途 | プロバイダー | モデル例 |
|---|---|---|
| Chat AI | Ollama / LM Studio | ローカルモデル |
| 執筆AI | Ollama / LM Studio | ローカルモデル |
すべてのAI処理をローカルで完結させます。データが外部に送信されることはありません。
次のステップ
AIのセットアップが完了したら、writing-basics で3パネルレイアウトの操作方法を確認し、実際に執筆を始めましょう。