Topic2Manim — AIで教育用アニメ動画を自動生成

AI/ML

概要

Topic2Manimは、任意のトピックから教育用のアニメーション動画を生成するための小規模なプロジェクトです。プロンプト(例:「ChatGPTの仕組み」)を受け取り、AI(LLM)で説明文やシーン構成を作成、Manimで数式やビジュアルを生成してレンダリングし、音声合成を組み合わせてナレーション付きの出力(public/output.gifなど)を作ります。プロトタイプ的実装で、.envにAPIキーを置く想定、requirements.txtで依存管理されています。

GitHub

リポジトリの統計情報

  • スター数: 4
  • フォーク数: 0
  • ウォッチャー数: 4
  • コミット数: 5
  • ファイル数: 6
  • メインの言語: Python

主な特徴

  • 入力トピックから自動でシナリオとシーンを生成し、Manimで可視化するワークフロー
  • ナレーション付きの動画(GIF/MP4)を出力する統合パイプライン
  • 環境変数(.env.example)を使ったAPIキー管理を想定した設計
  • 小さなコードベースでプロトタイプを確認しやすい構成

技術的なポイント

Topic2Manimの核は「テキスト生成(LLM)→シーン定義(Manim)→レンダリング→音声合成→合成出力」というパイプラインです。一般的な実装では、まずユーザーのプロンプトを受けてLLMにより講義スクリプトやセグメントごとの指示(シーンの要約、表示すべき数式や図形、アニメーション指示)を生成します。それを基にPythonでManimシーンクラスや描画コマンドを自動生成し、Manimコミュニティ版でレンダリングします。音声はTTSライブラリや外部APIで合成し、moviepyやffmpeg等で映像と同期して最終動画を作成します。

技術面で注目すべきは、Manimのプログラム的表現力をAIの自然言語指示と結びつけている点です。シーンの自動生成にはテンプレート化(シーン雛形)や、LLM出力の正規化・検証が重要です。またレンダリングは計算リソースと時間がかかるため、キャッシュや中間アセットの管理(画像/音声の再利用)、解像度・フレームレートの調整が実用性向上の鍵になります。.env.exampleがあることからAPIキー管理を想定しており、requirements.txtに依存パッケージが列挙されています。現状はプロトタイプなので、エラーハンドリング、細かなシーン調整、複数言語TTS対応、そして自動テストやCIの整備が今後の改善点になります。

プロジェクトの構成

主要なファイルとディレクトリ:

  • .env.example: file
  • .gitignore: file
  • README.md: file
  • public: dir
  • requirements.txt: file

…他 1 ファイル

まとめ

AIとManimを組み合わせた教育動画自動生成の実験的プロトタイプで、拡張性が高く実用化の余地があるリポジトリです。

リポジトリ情報:

READMEの抜粋:

image

Topic2Manim

Automatic educational video generator using AI and Manim. Converts any topic into a professional animated video with narration and mathematical visualizations.

Examples

propmt: how chat gpt works? response:

video

propmt: h…