AI LocalBase(ローカル優先のAI知識ベース)
概要
AI LocalBase はローカル優先の知識ベース(RAG)システムで、文書をローカルに取り込みベクトル化して Qdrant で検索し、その結果を大規模言語モデル(ローカルの Ollama や OpenAI 互換エンドポイント)に渡して会話型の応答を生成します。Web UI による知識ベース管理、ファイルアップロード/解析、検索強化型 QA、チャット履歴の SQLite 保存、設定の JSON 永続化、Docker Compose によるワンコマンド起動など、自己ホスト環境で迅速に使える機能を揃えています。
リポジトリの統計情報
- スター数: 38
- フォーク数: 4
- ウォッチャー数: 38
- コミット数: 2
- ファイル数: 18
- メインの言語: Go
主な特徴
- ローカルで完結する RAG ワークフロー:文書アップロード → 埋め込み → Qdrant 検索 → モデル応答
- 多様なドキュメント対応:TXT / Markdown / PDF の解析と分割・インデックス化
- モデル接続の柔軟性:Ollama(ローカル)や OpenAI 互換 API をサポート
- 永続化とデプロイ:チャット履歴は SQLite、設定は JSON、Docker Compose で起動可能
技術的なポイント
バックエンドは Go(Gin)で軽量かつ並列処理に向く実装が期待され、フロントエンドは React + Vite + TypeScript によりレスポンシブな UI を提供します。ベクトル検索エンジンに Qdrant を採用しており、ドキュメントを埋め込みベクトルに変換した後、コレクション単位で管理・検索する典型的な RAG 構成です。チャット履歴の永続化には軽量な SQLite を利用しており、サーバー再起動後も会話を復元可能です。設定や知識ベースの状態はローカル JSON に保存され、自己ホスト運用での可搬性と簡易なバックアップを実現します。モデル接続は Ollama のネイティブ呼び出しや OpenAI 互換インターフェースに対応しており、ローカル LLM とクラウド LLM の両方を選択できます。Docker Compose による起動構成が整備されているため、Qdrant・バックエンド・フロントエンドをまとめて立ち上げられ、ローカルでの導入障壁を下げています。設計上はドキュメント分割(チャンクサイズとオーバーラップ)、メタデータ付きベクトル保存、検索結果のコンテキスト注入(プロンプト構成)といった RAG の標準パターンを踏襲しており、将来的に他のベクトルDBや埋め込みプロバイダを追加する拡張性も確保しやすい構成です。
プロジェクトの構成
主要なファイルとディレクトリ:
- .github: dir
- .gitignore: file
- AGENTS.md: file
- CHANGELOG.md: file
- CONTRIBUTING.md: file
…他 13 ファイル
まとめ
ローカルで完結するシンプルな RAG 環境を手早く構築したい個人/小規模チームに最適です。
リポジトリ情報:
- 名前: ai-localbase
- 説明: 説明なし
- スター数: 38
- 言語: Go
- URL: https://github.com/veyliss/ai-localbase
- オーナー: veyliss
- アバター: https://avatars.githubusercontent.com/u/105643199?v=4
READMEの抜粋:
AI LocalBase
一个本地优先的 AI 知识库系统(RAG),用于把本地文档接入向量检索与大模型对话流程。项目提供完整的 Web UI,支持知识库管理、文档上传、检索增强问答、聊天记录持久化,以及基于 Ollama 或 OpenAI 兼容接口的模型接入。
后端基于 Go + Gin,前端基于 React + Vite + TypeScript,向量数据库使用 Qdrant,适合个人或小团队在本地环境、自托管环境中快速搭建可用的知识库问答系统。
功能特性
核心能力
- 知识库管理:创建、删除知识库,查看文档列表
- 文档上传与索引:支持 TXT、Markdown、PDF 文件上传与解析
- 检索增强问答:基于 Qdrant 做向量检索并把命中内容注入对话上下文
- 聊天记录持久化:会话消息保存到本地 SQLite 数据库,重启后仍可恢复
- 配置持久化:模型配置与知识库状态保存到本地 JSON 文件
- Docker Compose 部署:支持一键拉起前端、后端、Qdrant
模型接入能力
- 原生支持 Ollama 聊天与嵌入调用
- 支…