PANewsは10月16日 、スタンフォード大学のフェイフェイ・リー教授が創設した空間インテリジェンス企業WorldLabsが、インタラクションプロセス中にリアルタイムで動画や3Dシーンを生成し、永続的な仮想世界を実現する新世代リアルタイム生成モデルRTFM(Real-Time Frame Model)の研究プレビュー版を正式にリリースしたと報じた。
RTFMは、効率性、スケーラビリティ、そして持続性という3つの基本原則に基づいて設計されています。このモデルは、単一のNVIDIA H100 GPU上でインタラクティブなフレームレートで動作し、明示的な3Dモデリングを必要とせずに、単一の画像から反射、影、光沢といった複雑な効果を持つシーンを生成します。その「空間メモリ」メカニズムは、フレームポーズモデリングとコンテキストジャグリングを通じて世界の持続性を維持し、長期にわたるインタラクティブな探索をサポートします。
