Kimi ブックライター(K2小説生成)

AI/ML

概要

Kimi K2(Moonshot の長文推論モデル、256k コンテキスト)を用いて、小説長のコンテンツを段階的に生成し、最終的に Markdown 形式の本として出力することを目的としたサンプル実装です。OpenAI SDK v1 を Moonshot 互換モードで利用し、モデル選択や API ベース URL の設定例、uvicorn ベースの実行フローなど、実運用を想定した基本構成が含まれます。プロトタイプや実験的な生成パイプラインの足がかりとして最適です。

GitHub

リポジトリの統計情報

  • スター数: 6
  • フォーク数: 2
  • ウォッチャー数: 6
  • コミット数: 3
  • ファイル数: 9
  • メインの言語: Python

主な特徴

  • Moonshot AI の Kimi K2(256k コンテキスト)を想定した長文生成パイプラインのサンプル。
  • OpenAI SDK v1 を Moonshot 互換モードで利用する設定例を提供。
  • 小説を章ごとに生成して Markdown ファイルとして出力するワークフロー。
  • 軽量な実行環境(uvicorn 想定)と環境変数管理のテンプレートを含む。

技術的なポイント

このプロジェクトは「超長文コンテキスト」と「マルチステップ推論」を活かした生成にフォーカスしています。Kimi K2 系列は 256k トークンのコンテキストを扱える点が特徴で、長大な物語の一貫性を保ちながら章単位・節単位で生成を進める設計が有効です。リポジトリは OpenAI SDK(v1)を Moonshot 互換モードで動かす前提のコードと、API のベース URL(https://api.moonshot.ai/v1)や推奨モデル名(kimi-k2-thinking, kimi-k2-thinking-turbo)を明示しており、実際の呼び出しではモデル選択とレスポンスの逐次合成・後処理(プロンプト設計、トークン管理、章の接続処理など)がポイントになります。長文生成で重要になるのはコンテキストウィンドウの管理と、各ステップ間での状態伝搬(プロット要約、登場人物情報、世界設定の最新化)です。実装例は Markdown 出力を前提にしており、生成テキストを章ごとに分割して保存・整形し、lint(.markdownlint.json)で品質担保する流れを取れます。また .env.example による API キーや設定の分離、uvicorn を使ったローカル実行(API サーバーまたはバッチ処理の入口)といった運用面の配慮も見られます。なお、サンプルは最小限の構成で実験用の出発点を提供するため、実運用ではストリーミング処理、エラーハンドリング、コスト制御、トークン上限を考慮したチャンク化やトランスクリプション保存戦略の追加が必要です。

プロジェクトの構成

主要なファイルとディレクトリ:

  • .env.example: file
  • .gitignore: file
  • .markdownlint.json: file
  • LICENSE: file
  • README.md: file

…他 4 ファイル

まとめ

K2 の長大コンテキストを試すための、実験向けで使いやすいサンプル実装です(50字程度)。

リポジトリ情報:

READMEの抜粋:

Kimi K2 Novelist

Generate novel-length Markdown books using Moonshot AI’s Kimi K2 reasoning models (256k context, multi-step reasoning).
This project uses the OpenAI SDK (v1) in Moonshot-compatible mode and is set up to run with uv.

API essentials straight from the docs on this page:

  • Base URL: https://api.moonshot.ai/v1
  • Install OpenAI SDK >=1.x
  • Recommended K2 models: kimi-k2-thinking, kimi-k2-thinking-turbo (long-thinking, 256k; turbo is faster).
  • K2 is text…