Sora Extend — Sora 2動画を延長するツール

AI/ML

概要

OpenAIのSora 2は高品質な短尺ビデオ生成が可能ですが、現状では12秒という制限があります。本リポジトリ「Sora Extend」は、その制約を回避してより長い動画を生成するための手法とサンプル実装(Jupyter/Colabノートブック)を提供します。基本アイデアは「各生成クリップの最終フレームを次のクリップ生成の入力(初期フレームや参照イメージ)として利用し、断片を順に生成・連結する」ことにより視覚的一貫性を保ちながら任意の長さまで拡張する点です。Colabから簡単に動かせるノートブック例が同梱され、OpenAI APIキーを用いて段階的に動画を生成・結合・(場合によっては)エンコードする手順が示されています。

GitHub

リポジトリの統計情報

  • スター数: 35
  • フォーク数: 10
  • ウォッチャー数: 35
  • コミット数: 5
  • ファイル数: 2
  • メインの言語: Jupyter Notebook

主な特徴

  • Sora 2の12秒制限を超えて長尺の動画を生成するワークフローを提供
  • 最終フレームを次クリップの参照として使うことで視覚的一貫性を保持
  • Google Colab上で動作するノートブックで手軽に試せるサンプル実装
  • 生成した断片の連結・エンコードを通じて最終的なビデオファイルを出力

技術的なポイント

Sora Extendのコアは「フレーム継承(frame chaining)」の概念です。各Sora生成は独立した短い動画を出すため、単純につなげると視覚的断絶や姿勢・ライティングの不連続が生じやすい。これを緩和するため、本ノートブックは前セグメントの最終フレームを次セグメントの初期参照画像(あるいはプロンプトに埋め込む参照)として送り、モデルに連続性の手がかりを与えます。具体的には、(1)初期プロンプトで最初の12秒を生成、(2)その最後のフレームを抽出して次の呼び出し時に「開始フレーム」や「参照イメージ」として提供、(3)このプロセスを繰り返して複数セグメントを得る、(4)ffmpeg等でセグメントを連結・再エンコードして最終動画を作る、という流れです。ノートブックはColabバッジが示す通りブラウザ上で実行可能で、APIキー設定、各セグメントのプロンプト調整、シードや温度の管理、必要に応じたトランジション処理(フレーム間のフェードやクロスディゾルブ)を手作業で入れて品質を高めることができます。注意点としては、完全なフレーム間の物理的連続性(モーションベクトルの一貫性など)はモデル内部の確率的生成に左右されるため、滑らかなモーションを得るためには中間フレームの補間やポストプロセス(光学フロー、フレーム補間アルゴリズム)の併用が有効です。また、生成にはOpenAI APIの利用料が発生し、Colabでの実行は計算リソースやAPI呼び出し回数の制約に留意する必要があります。

プロジェクトの構成

主要なファイルとディレクトリ:

  • README.md: file
  • Sora_Extend.ipynb: file

まとめ

Soraの短尺制限を工夫で補い、長尺動画生成を試せる実用的なノートブックです(50字程度)。

リポジトリ情報:

READMEの抜粋:

Sora Extend

Follow on X Open in Colab

Seamlessly generate extended Sora 2 videos beyond OpenAI’s 12-second limit.

OpenAI’s Sora video generation model currently restricts output to 12-second clips. By leveraging the final frame of each genera…