AI LocalBase(ローカル優先のAI知識ベース)

AI/ML

概要

AI LocalBase はローカル優先の知識ベース(RAG)システムで、文書をローカルに取り込みベクトル化して Qdrant で検索し、その結果を大規模言語モデル(ローカルの Ollama や OpenAI 互換エンドポイント)に渡して会話型の応答を生成します。Web UI による知識ベース管理、ファイルアップロード/解析、検索強化型 QA、チャット履歴の SQLite 保存、設定の JSON 永続化、Docker Compose によるワンコマンド起動など、自己ホスト環境で迅速に使える機能を揃えています。

GitHub

リポジトリの統計情報

  • スター数: 38
  • フォーク数: 4
  • ウォッチャー数: 38
  • コミット数: 2
  • ファイル数: 18
  • メインの言語: Go

主な特徴

  • ローカルで完結する RAG ワークフロー:文書アップロード → 埋め込み → Qdrant 検索 → モデル応答
  • 多様なドキュメント対応:TXT / Markdown / PDF の解析と分割・インデックス化
  • モデル接続の柔軟性:Ollama(ローカル)や OpenAI 互換 API をサポート
  • 永続化とデプロイ:チャット履歴は SQLite、設定は JSON、Docker Compose で起動可能

技術的なポイント

バックエンドは Go(Gin)で軽量かつ並列処理に向く実装が期待され、フロントエンドは React + Vite + TypeScript によりレスポンシブな UI を提供します。ベクトル検索エンジンに Qdrant を採用しており、ドキュメントを埋め込みベクトルに変換した後、コレクション単位で管理・検索する典型的な RAG 構成です。チャット履歴の永続化には軽量な SQLite を利用しており、サーバー再起動後も会話を復元可能です。設定や知識ベースの状態はローカル JSON に保存され、自己ホスト運用での可搬性と簡易なバックアップを実現します。モデル接続は Ollama のネイティブ呼び出しや OpenAI 互換インターフェースに対応しており、ローカル LLM とクラウド LLM の両方を選択できます。Docker Compose による起動構成が整備されているため、Qdrant・バックエンド・フロントエンドをまとめて立ち上げられ、ローカルでの導入障壁を下げています。設計上はドキュメント分割(チャンクサイズとオーバーラップ)、メタデータ付きベクトル保存、検索結果のコンテキスト注入(プロンプト構成)といった RAG の標準パターンを踏襲しており、将来的に他のベクトルDBや埋め込みプロバイダを追加する拡張性も確保しやすい構成です。

プロジェクトの構成

主要なファイルとディレクトリ:

  • .github: dir
  • .gitignore: file
  • AGENTS.md: file
  • CHANGELOG.md: file
  • CONTRIBUTING.md: file

…他 13 ファイル

まとめ

ローカルで完結するシンプルな RAG 環境を手早く構築したい個人/小規模チームに最適です。

リポジトリ情報:

READMEの抜粋:

AI LocalBase

一个本地优先的 AI 知识库系统(RAG),用于把本地文档接入向量检索与大模型对话流程。项目提供完整的 Web UI,支持知识库管理、文档上传、检索增强问答、聊天记录持久化,以及基于 Ollama 或 OpenAI 兼容接口的模型接入。

后端基于 Go + Gin,前端基于 React + Vite + TypeScript,向量数据库使用 Qdrant,适合个人或小团队在本地环境、自托管环境中快速搭建可用的知识库问答系统。

功能特性

核心能力

  • 知识库管理:创建、删除知识库,查看文档列表
  • 文档上传与索引:支持 TXT、Markdown、PDF 文件上传与解析
  • 检索增强问答:基于 Qdrant 做向量检索并把命中内容注入对话上下文
  • 聊天记录持久化:会话消息保存到本地 SQLite 数据库,重启后仍可恢复
  • 配置持久化:模型配置与知识库状态保存到本地 JSON 文件
  • Docker Compose 部署:支持一键拉起前端、后端、Qdrant

模型接入能力

  • 原生支持 Ollama 聊天与嵌入调用
  • 支…