![]() 関節連結されたコンピューター生成キャラクターからアニマトロニクスユニットを設計するための方法および装置
专利摘要:
アニマトロニクスユニットに対する設計を特定する方法は、芸術的に決定された動きを含む動きのデータを受信することと、動きのデータに応答してアニマトロニクスユニットの少なくとも一部分の構成に対する設計を決定することと、アニマトロニクスユニットの構成に対する設計を出力することとを包含する。一実施形態において、アニマトロニクスユニットの挙動を決定する方法は、複数の制御信号を用いてアニマトロニクスユニットの少なくとも一部分のソフトウェアシミュレーションを駆動することによって、複数の制御信号に応答してアニマトロニクスユニットの少なくとも一部分の該挙動を推定することを包含する。 公开号:JP2011511713A 申请号:JP2010538233 申请日:2008-12-16 公开日:2011-04-14 发明作者:ジョン アンダーソン,;ロブ クック, 申请人:ピクサー; IPC主号:B25J9-22
专利说明:
[0001] (発明の背景) 本発明は、アニメーションに関する。より具体的には、本発明は、関節連結された(articulated)コンピューターにより生成されたキャラクターに基づいてアニマトロニクスユニットを設計するための方法および装置に関する。] 背景技術 [0002] 長年にわたって、映画製作者たちは、しばしば、架空のクリーチャー(creature)、遠く離れた場所および空想の物事を含むストーリーを語ろうとしてきた。そうするために、彼らは、しばしば、架空のものに「生命」を与えるアニメーション技術に依存してきた。アニメーションにおける2つの主要な経路は、従来、描画ベースのアニメーション技術およびストップモーションのアニメーション技術を含んでいた。] [0003] 描画ベースのアニメーション技術は、20世紀においてWalt Disneyのような映画製作者たちによって洗練され、“Snow White and the Seven Dwarfs”(1937)および“Fantasia”(1940)のような映画において用いられた。このアニメーション技術は、典型的には、画家たちに透明な媒体またはセル上にアニメ化された画像を手描きする(または絵の具で描く)ことを必要とした。次いで、絵の具で描いた後に、各セルは、映画における1つ以上のフレームとしてフィルムの上に収集されれるか、または記録された。] [0004] ストップモーションベースのアニメーション技術は、典型的には、ミニチュアセットと小道具とキャラクターとの構成を必要とした。映画製作者たちは、セットを構成し、小道具を加え、ポーズをとるミニチュアキャラクターを位置決定した。アニメーターがどのようにすべてが配列されたかに満足した後に、その特定の配列でフィルムの1つ以上のフレームが撮影された。ストップモーションのアニメーション技術は、“King Kong”(1933)のような映画のWillis O’Brienのような映画製作者たちによって開発された。続いて、これらの技術は、“Mighty Joe Young”(1948)およびClash Of The Titans(1981)を含む映画のRay Harryhausenのようなアニメーターたちによって洗練された。] [0005] 20世紀後半においてコンピューターの利用可能性が広く普及したことによって、アニメーターたちは、アニメーションプロセスにおいて補助するためにコンピューターに依存し始めた。このことは、例えば、画像を絵の具で描くこと、間の画像を生成すること(“tweening”)などによって、描画ベースのアニメーションを容易にするためにコンピューターを用いることを含んだ。このことはまた、ストップモーションのアニメーション技術を増大するためにコンピューターを用いることを含んだ。例えば、物理モデルは、コンピューターメモリーにおいて仮想モデルによって表され得、操作され得る。] [0006] コンピュータージェネレーテッドイメージリー(CGI)業界におけるパイオニア企業の1つが、Pixarであった。Pixarは、“Toy Story”(1995)および“Toy Story 2”(1999)、“A Bugs Life”(1998)、“Monsters,Inc.”(2001),“Finding Nemo”(2003)、“The Incredibles”(2004)、“Cars”(2006)、“Ratatouille”(2007)のようなアニメ化された主要作品の制作者であるPixar Animation Studiosとしてより広く公知である。アニメ化された主要作品を制作することに加えて、Pixarは、CGIのために特別に設計されたコンピューティングプラットフォームと、今はRenderMan(登録商標)として公知のCGIソフトウェアとを開発した。RenderMan(登録商標)ソフトウェアは、アニメ化されたオブジェクトまたはアニメ化されたキャラクターの幾何学的記述および/または数学的記述を二次元画像に「レンダリングする」あるいは変換する「レンダリングエンジン」を含んだ。RenderMan(登録商標)は、アニメーション業界において非常に良く受け入れられ、2つのAcademy Awards(登録商標)を受賞した。] [0007] 本発明の発明者らは、現在、アニメ化されたキャラクターの範囲を二次元画像を超えて三次元(例えば、物理的世界)に広げようと望んでいる。このことを行うために、本発明者らは、さまざまな主要作品の中に現れるアニメ化されたキャラクターの物理バージョンを構成し、制御するための方法(例えば、電気制御デバイス、機械制御デバイス、空気機械制御デバイスおよび/または液圧制御デバイス)を考案してきた。] [0008] ライブの娯楽目的での物理的、機械的デバイスの使用は、The Walt Disney Companyがパイオニアとなって進められ、現在、業界においてしばしば「アニマトロニクス」と呼ばれている。アニマトロニクスキャラクターまたはアニマトロニクスユニットは、the Pirates of the Caribbean、Enchanted Tiki Room、Great Moments with Mr.Lincolnおよび多くの他のアトラクションのような周知のテーマパークのアトラクション(例えば、パフォーマンス、乗物)において、以前から用いられてきた。] 発明が解決しようとする課題 [0009] 本発明者らによって認識される問題は、アニマトロニクスユニットが特定の目的で用いられるので、ハードウェアが既製品では購入され得ず、しばしば注文によって構築されなければならないことである。本発明者らによって認識される主要な課題は、観衆によって認識される仕方で動き得るアニマトロニクスユニットをいかに特定し、構築するかである。より具体的には、問題は、主要作品、映画、短編などにおけるキャラクターのアニメーションを現在可能であるよりも忠実に表し得るアニマトロニクスキャラクターをいかに構築し、制御するかである。] [0010] コンピューター生成された(CG)キャラクターからのアニメーションデータは、アニマトロニクスキャラクターの構成を特定することを助けるために用いられてこなかったと考えられている。さらに、CGキャラクターからのアニメーションデータは、そのようなアニマトロニクスキャラクターを制御するために用いられてこなかった、と考えられている。] [0011] 上記の観点から、望まれることは、上記の課題を解決する方法および装置である。] 課題を解決するための手段 [0012] (発明の簡単な概要) 本発明は、アニマトロニクスに関する。より具体的には、本発明は、例えば、コンピューター生成キャラクターのアニメーションデータによって特定される動きに基づいて、モーションキャプチャー技術を用いて特定される動き、アニメーションデータによって特定される顔の造作の動き、モーションキャプチャーなどに基づいて、アニマトロニクスキャラクターまたはアニマトロニクスユニットを設計するための方法および装置に関する。] [0013] 本発明の一局面に従って、アニマトロニクスユニットに対する設計を特定する方法が開示される。1つの技術は、芸術的に決定された動きを含む動きのデータを受信することと、動きのデータに応答してアニマトロニクスユニットの少なくとも一部分の構成に対する設計を決定することとを含む。プロセスは、アニマトロニクスユニットの構成に対する設計を出力することを含み得る。] [0014] 本発明の別の局面に従って、本明細書で説明されるさまざま方法に従って形成されるアニマトロニクスユニットが開示される。] [0015] 本発明の別の局面に従って、コンピューターシステムが説明される。装置は、芸術的に決定された動きを含む動きのデータを格納するように構成されたメモリーを含む。デバイスは、メモリーに結合されたプロセッサーを含み得、プロセッサーは、動きのデータに応答してアニマトロニクスユニットの少なくとも一部分の構成に対する設計を決定するように構成され、プロセッサーは、アニマトロニクスユニットの構成に対する設計を出力するように構成される。] [0016] 本発明の別の局面に従って、有体の媒体上にあるコンピュータープログラム製品が、コンピューターシステム上で実行可能な実行可能コードを含み、コンピューターシステムは、プロセッサーおよびメモリーを含む。コンピュータープログラム製品は、メモリーから芸術的に決定された動きを含む動きのデータを取り出すことをプロセッサーに命令するように構成されたコードと、動きのデータに応答してアニマトロニクスユニットの少なくとも一部分の構成に対する設計を決定することをプロセッサーに命令するように構成されたコードとを含み得る。コンピュータープログラム製品は、また、アニマトロニクスユニットの構成に対する設計を出力することをプロセッサーに命令するように構成されたコードも含み得る。コードは、光学媒体(DVD、HD DVD、BIu Ray DVD、ホログラフィック媒体など)、磁気媒体(ハードディスクドライブ、フロッピー(登録商標)ディスクドライブなど)、半導体媒体(フラッシュメモリー、RAM、ROMなど)などのコンピューター読み取り可能な有体の媒体上にあり得る。] [0017] 本発明のさらなる局面に従って、アニマトロニクスユニットに対する設計を特定する方法が説明される。さまざまな動作は、アニマトロニクスユニットの少なくとも一部分の構成に対する設計を受信することと、アニマトロニクスユニットの少なくとも一部分の構成に対する設計に応答してアニマトロニクスユニットの少なくとも一部分を構成することとを含む。さまざまな実施形態において、アニマトロニクスユニットの少なくとも一部分の構成に対する設計は、芸術的に決定された動きを含む動きのデータに応答して決定される。] [0018] さまざまな実施形態において、動きのデータは、アニメーターによって特定されるアニメーションデータから、例えば、顔のアニメーション、キャラクターのアニメーション、オブジェクトのアニメーションなどに対して得られ得る。加えて、動きのデータは、物理パフォーマンスデータ、例えば、顔に複数のマーカーを付けた俳優による顔のパフォーマンスデータ、身体に複数のマーカーを付けた俳優による身体のパフォーマンスデータなどから得られ得る。さまざまな実施形態において、動きのデータは、時間に対するアニメ化されたオブジェクト、俳優などの1つ以上のポーズとして特定され得る。] [0019] 従来の工業用ロボットと違って、アニマトロニクスユニットの動きは、芸術的に決定されたパフォーマンスデータ(例えば、アニメーションデータ、俳優の物理運動)に基づいている。対照的に、工業用ロボットの動きは、「工業用」であり、芸術的パフォーマンスに対して意図されたり、決定されたりしない。さまざまな実施形態において、アニメーターたちは、人間の動きおよび人間の表情の分野において研究したアーティストである。次いで、これらのアニメーターたちは、芸術的技能と判断とを適用し、時間の中のさまざまな時点におけるCGキャラクター(アニメーションデータ)にポーズを付け、CGキャラクターは、感情または表情を伝える「キーフレーム」として公知である。コンピューターを用いて、CGキャラクターのポーズは、これらの「キーフレーム」間の時間における複数の時点に対して差しはさまれ得る。結果として、アニメ化された主要作品などにおいて見られるように、時間におけるさまざまな時点に対するCGキャラクターのポーズが決定され、CGキャラクターの「アニメーション」がもたらされる。本発明のさまざまな実施形態において、アニマトロニクスユニットは、そのような芸術的に駆動されたアニメーションデータに基づいて設計され得、制御され得る。付加的な実施形態において、入力データは、演じているか、またはジェスチャーをしているときの俳優の物理パフォーマンスから得られ得る。これらの物理パフォーマンスは、モーションキャプチャーされ、「キーフレーム」などを規定する上記のアニメーションデータと同様な仕方で用いられ得る。] [0020] 上記の観点から、アニメ化されたオブジェクトまたはアニメ化されたキャラクターを指す用語「アニメーションデータ」は、単なる「動きのデータ」の例にすぎないことが理解されるべきである。したがって、適切な場合には、アニメ化されたオブジェクトまたはアニメ化されたキャラクターに対する「アニメーションデータ」への仕様における参照は、代替として、他のタイプの「動きのデータ」、例えば、俳優などの物理パフォーマンスデータ(例えば、モーションキャプチャーデータ)を指し得る。] 図面の簡単な説明 [0021] 本発明をより完全に理解するために、添付の図面への参照が行われる。これらの図面が発明の範囲における限定と見なされるべきでないことを理解して、ここで説明される実施形態およびここで理解される本発明の最良の態様は、添付の図面の使用を通じて付加的な詳細とともに説明される。 図1は、本発明のさまざまな実施形態に従った典型的なコンピューターシステムのブロック図である。 図2A〜Bは、本発明のさまざまな実施形態に従ったプロセスのブロック図を例示する。 図2A〜Bは、本発明のさまざまな実施形態に従ったプロセスのブロック図を例示する。 図3は、本発明のさまざまな実施形態に従った付加的なプロセスのブロック図を例示する。 図4A〜Bは、本発明のさまざまな実施形態に従った例を例示する。 図4A〜Bは、本発明のさまざまな実施形態に従った例を例示する。 図5A〜Cは、本発明のさまざまな実施形態に従った物理的制御構造の例を例示する。 図5A〜Cは、本発明のさまざまな実施形態に従った物理的制御構造の例を例示する。 図5A〜Cは、本発明のさまざまな実施形態に従った物理的制御構造の例を例示する。 図6は、付加的な実施形態の高いレベルの例示のブロック図を例示する。] 図1 図2A 図2B 図3 図4A 図4B 図5A 図5B 図5C 図6 実施例 [0022] (発明の詳細な説明) 図1は、本発明の実施形態に従った典型的なコンピューターシステム100のブロック図である。] 図1 [0023] 本実施形態において、コンピューターシステム100は、典型的には、ディスプレイ/モニター110、コンピューター120、キーボード130、ユーザー入力デバイス140、コンピューターインターフェース150などを含む。] [0024] 本実施形態において、ユーザー入力デバイス140は、典型的には、コンピューターマウス、トラックボール、トラックパッド、ジョイスティック、ワイヤレスリモート、ドローイングタブレット、音声コマンドシステム、アイトラッキングシステムなどとして具体化される。ユーザー入力デバイス140は、典型的には、ユーザーが、ボタンのクリックなどのコマンドを介してモニター110上に現れるオブジェクト、アイコン、テキストなどを選択することを可能にする。一部の実施形態において、モニター110は、Wacomによって製造されたCintiqなどのようなインタラクティブタッチスクリーンであり得る。グラフィックスカード185は、典型的には、ディスプレイ110を駆動する。] [0025] コンピューターインターフェース150の実施形態は、典型的には、Ethernet(登録商標)カード、モデム(電話、衛星、ケーブル、ISDN)、(非同期)デジタル加入者回線(DSL)ユニット、FireWireインターフェース、USBインターフェースなどを含む。例えば、コンピューターインターフェース150は、コンピューターネットワーク、FireWireバスなどに結合され得る。他の実施形態において、コンピューターインターフェース150は、コンピューター120のマザーボード上で物理的に統合され得、例えば、ソフトDSLなどのようなソフトウェアプログラムであり得る。] [0026] さまざまな実施形態において、コンピューター120は、典型的には、良く知られたコンピューターコンポーネント(例えば、プロセッサー160)と、メモリー格納デバイス(例えば、ランダムアクセスメモリー(RAM)170)と、ディスクドライブ180と、上記の複数のコンポーネントを相互接続するシステムバス190とを含む。] [0027] 一実施形態において、コンピューター120は、1つ以上のIntel製Xeonマイクロプロセッサーを含む。さらに、本実施形態において、コンピューター120は、典型的には、UNIX(登録商標)ベースのオペレーティングシステムを含む。] [0028] RAM170およびディスクドライブ180は、例えば、アニメーションデータ、アニメーションタイミングシート、アニメーション環境、アニマトロニクスユニット設計構成、数学的アルゴリズムの実装、アニマトロニクスユニットのシミュレーション、画像ファイル、ソフトウェアモデルであって、オブジェクトの幾何学的記述、オブジェクトの順序づけられた幾何学的記述、モデルの手順の記述を含む、ソフトウェアモデル、シーンディ記述子ファイル、レンダリングエンジン、本発明の実施形態であって、実行可能なコンピューターコード、人間が読み取り可能なコードを含む、本発明の実施形態などのような、データを格納するように構成された有体の媒体の例である。他のタイプのコンピューター読み取り可能な有体の媒体は、フロッピー(登録商標)ディスク、ネットワーク化されたハードディスク、または取り外し可能なハードディスクのような磁気格納媒体と、CD−ROM、DVD、ホログラフィックメモリーおよびバーコードのような光学格納媒体と、フラッシュメモリー、リードオンリーメモリー(ROM)のような半導体メモリーと、電池でバックアップされた揮発性メモリーと、ネットワーク化された格納デバイスなどを含む。] [0029] 本実施形態において、コンピューターシステム100は、また、HTTPプロトコル、TCP/IPプロトコル、RTP/RTSPプロトコルなどのようなネットワークを介した通信を可能にするソフトウェアも含み得る。本発明の代替の実施形態において、他の通信ソフトウェアおよび送信プロトコル、例えば、IPX、UDPなどもまた、用いられ得る。] [0030] 図1は、本発明のさまざまな局面を実施できるコンピューターシステムを表す。多くの他のハードウェア構成およびソフトウェア構成が本発明との使用に適していることが、当業者に容易に明らかとなる。例えば、コンピューターは、デスクトップ構成、ポータブル構成、ラックマウント構成またはタブレット構成であり得る。加えて、コンピューターは、一連のネットワーク化されたコンピューターであり得る。さらに、例えば、XeonTMマイクロプロセッサー、PentiumTMマイクロプロセッサーまたはCoreTMマイクロプロセッサー、Advanced Micro Devices,Inc製のTurionTM64マイクロプロセッサー、OpteronTMマイクロプロセッサーまたはAthlonTMマイクロプロセッサーなどの、他のマイクロプロセッサーの使用が予想される。さらに、例えば、Microsoft CorporationのWindows(登録商標)、Windows(登録商標)XP(登録商標)、Windows(登録商標)NT(登録商標)など、Sun MicrosystemsのSolaris、LINUX、UNIX(登録商標)など、他のタイプのオペレーティングシステムが予想される。さらに他の実施形態において、上記の技術は、チップ上または補助プロセシングボード上に実装され得る。] 図1 [0031] 図2A〜Bは、本発明のさまざまな実施形態に従ったプロセスのブロック図を例示する。より具体的には、図2A〜Bは、オブジェクトの物理モデルを構成する仕方を決定するさまざまな実施形態の高いレベルの例示を提供する。] 図2A 図2B 図3 図4A 図4B 図5A 図5B 図5C 図6 [0032] 最初に、芸術的に決定された動きの関連した(時としてオブジェクトのソフトウェアモデルに関連した)データが、コンピューターシステム100に提供される(ステップ200)。本発明の一部の実施形態において、アニメーションデータは、映画、主要作品、短編などのためのオブジェクトのソフトウェアモデルをアニメ化するために用いられるアニメーションデータと同一であり得る。さまざまな実施形態において、アニメーションデータは、オブジェクトの物理モデルに対して望まれる特定の範囲の運動(例えば、「トレーニング集合」、「モデル上の動き」(すなわち、オブジェクトの特徴的な動き)など)を表し得る。一例として、映画において、アニメ化されたキャラクターは、両目をウインクし得るが、アニメ化されたキャラクターの物理モデルは、左目だけをウインクし得ることが望まれ得る。したがって、このステップで提供されるアニメーションデータ(例えば、「トレーニング集合」、「モデル上の動き」など)は、左目だけをウインクするアニメ化されたキャラクターだけを含み得る。] [0033] 本発明のさまざまな実施形態において、アニメーションデータは、典型的には、一定の量の時間の間、特定される。例えば、アニメーションデータは、主要作品(例えば、映画、短編など)における特定のシーン、特定の一連のシーン、特定の時間間隔などと関連づけられ得る。さまざまな実施形態において、時間の量は、他のユーザーによって自由に決定され得る。他の実施形態において、時間の量は、他のユーザーによって特定され得る。いったん期間が特定されると、アニメーションデータの範囲は、容易に決定され得る。] [0034] さまざまな実施形態において、アニメーションデータは、1秒当たり約24フレームのレート(典型的な映画館のフレームレート)、1秒当たり約25フレームまたは約30フレームのレート(典型的なテレビのフレームレート)、1秒当たり約60フレームのレート(HDフレームレート)などに特定され得る。そのような実施形態において、アニメーションデータの値は、そのようなデータレートにおいて特定され得る。] [0035] さまざまな実施形態において、アニメーションデータは、多くの異なる形態を取り得る。一部の実施形態において、アニメーションデータは、アニメ化されるオブジェクトの位置の三次元座標を含む。一例として、アニメ化されることになるアニメ化されるオブジェクトは、顔であり得る。そのような例において、アニメーションデータは、時間に対する静的な座標系における顔上の表面の位置の三次元座標(例えば、(x,y,z)座標)を表し得る。他の実施形態において、三次元座標は、時間に対する、顔の「休止」ポーズまたはデフォルトポーズに対するオフセットであり得る。例えば、鼻の先端上の点に対して、(x,y,z)値は、(−0.1,0.2,−0.1)であり得、これは、x方向に−0.1(例えば左向き)、y方向に0.2(例えば上向き)、z方向に−0.1(例えば平坦になる向き)、基準ポーズから動く鼻の先端を表している。さまざまな実施形態において、位置は、アニメ化されたオブジェクトの表面上の位置であり得、アニメ化されたオブジェクトの内側の位置であり得、そのような位置の組み合わせなどであり得る。] [0036] 数学的に、アニメーションデータは、一部の実施形態において、以下のように表され得る。 {Xit,Yit,Zit}:i=l...m,t=1...T さまざまな実施形態において、“m”は、アニメーションデータにおいて提供される表面の位置の数を表し、“T”は、アニメーションデータのフレームの数を表す。例えば、mは、およそ100〜1000データポイント、1000〜3000データポイント以上などであり得る。加えて、Tは、およそ数十のフレームから数千のフレーム、例えば、25〜100フレーム、100〜1000フレーム、1000〜4000フレーム以上などであり得る。] [0037] さまざまな実施形態において、アニメーションデータは、キューシート、アニメーションタイミングシートなどのような、より抽象的な形式で受け取られ得る。さまざまな実施形態において、アニメーションタイミングシートは、期間に含まれる各フレームに対するアニメーション変数(avar)に対するデータ値を含む。他の実施形態において、アニメーションデータは、avarに関連したスプラインデータを含み得、avarに対して特定されたキーフレーム値などを含み得る。本発明のさまざまな実施形態において、アニメーションデータがより抽象的な形式である一部の場合には、アニメ化されるオブジェクトの点に対する絶対的または相対的な位置の値は、ステップ200の中で決定されることが予想される。] [0038] 上述のように、本発明の一部の実施形態において、アニメーションデータは、アニメ化された完全なキャラクターまたはオブジェクト、あるいはキャラクターの顔などアニメ化されたキャラクターまたはオブジェクトの一部分に関連づけられ得る。] [0039] ステップ200の他の実施形態において、芸術的に決定された動きのデータは、物理パフォーマンスデータに応答して決定される。より具体的には、物理パフォーマンスデータは、モーションキャプチャーシステムから導かれ得る。例えば、俳優または他のオブジェクトは、俳優のジェスチャーまたは他の運動に応答して空間の中で動く多くの可視マーカーに関連づけられ得る。さまざまな実施形態において、これらのマーカーの位置は、収集され、動きのデータを形成するために用いられる。物理パフォーマンスデータは、俳優の身体全体または顔など俳優の一部分であり得る。] [0040] 本発明のさまざまな実施形態において、アニメーションデータに応答して、アニメーションデータに対する複数のグローバルモードと、複数のグローバルモードの重みづけ値とを決定するために、分解分析が実行される(ステップ210)。さまざまな実施形態において、単一の値の分解プロセスは、主成分分析(PCA)技術によって実行されるが、他の実施形態において、他の分析技術もまた、用いられ得る。一部の実施形態において、主モードは、「固有ベクトル」と名づけられ得、モードの重みづけ値は、「固有値」と名づけられ得る。そのような技術を用いる際に公知のように、決定されたグローバルモードは、データ集合に対してプリンシパル(principal)である。アニメーションデータが表面の複数の点の三次元位置データを含むさまざまな実施形態において、グローバルな主モードは、アニメ化されたオブジェクトの表面の複数の点の運動のグローバルモードを含む。このことの一例が、以下で例示される。] [0041] 数学的に、(一次元における)分解は、一部の実施形態において以下のように表され得る。] [0042] さまざまな実施形態において、「N」は主モードの数を表し、bi,jはグローバルモードを表し、at,jは重みづけ因子を表す。] [0043] 次に、さまざまな実施形態において、グローバルモードおよび(グローバルモード)重みづけ値に応答して、因子回転がローカルモードおよび(ローカルモード)重みづけ値を決定するために実行される(ステップ220)。さまざまな実施形態において、グローバルデータと対照的に、局所モードは、表面の点の運動の位置、例えば、(しばしば離れた)表面の点から比較的独立したアニメ化されたオブジェクトの運動の位置を特定する。このことの一例が、以下で例示される。] [0044] より一般的に、基底関数は、任意の線形的に独立した集合に変換され得、任意の線形的に独立した集合は、基底関数をアニマトロニクスユニットの制御とより直接的に関連させる仕方で同じ空間に広げる。一部の実施形態において、望まれるのは、因子回転行列「R」(概して対称正方行列)の決定であり、ここでRT=Rであり、ローカルモードb’i,jは、以下の関係に従って局所化される。 b’i,jR=b’i,j そのような実施形態を用いて、上記の式は、次のようになる。] [0045] この式において、b’i,jRTは、ローカルモードを表す。] [0046] 本発明の一部の実施形態において、実装される1つの因子回転技術は、“Varimax”直交回転分析である。他の実施形態において、他の因子回転技術が用いられ得る。上記のように、この技術の結果は、データ集合において特定されるアニメ化されたオブジェクトの位置の運動が、所与の基準、例えば、最小二乗法最小誤差などに従って局所化されることである。] [0047] さまざまな実施形態において、識別されたローカルモードに基づいて、ユーザーは、「一次的」ローカルモードの数を決定する(ステップ230)。一部の実施形態において、ローカルモードの数は、オブジェクトの物理モデルの構成に含まれる物理制御構造の数に関連づけられ得る。一例として、ローカルモードに基づいて、ユーザーは、制御構造を割り当てる個別の領域の数を特定し得る。例えば、上腕に対して、ユーザーは、1つのローカルモードを選択し得、1つのローカルモードは、一次的ローカルモードであるオブジェクトの二頭筋の領域と関連づけられる。] [0048] 次に、一次的ローカルモードに基づいて、ユーザーは、オブジェクトの物理モデルの構成を特定し得る(ステップ240)。さまざまな実施形態において、物理制御構造は、望まれる運動を提供する1つ以上の物理デバイスと関連づけられ得る。] [0049] さまざまな実施形態において、物理制御構造は、プリング電気モーターまたはプッシング電気モーターの任意の組み合わせ、伸張液圧式システムもしくは締めつけ液圧式システム、伸張空気式システムもしくは締めつけ空気式システムまたは伸張流体制御システムもしくは締めつけ流体制御システム、回転式システムまたはせん断システム、あるいは上記の任意の組み合わせであり得る。例として、1つの流体制御システムが、アニメ化された顔に対して用いられて眼球を膨らまし得ること、電気モーターが、目を開かせるように目の後ろの皮膚を引き得ることなどが可能である。本開示の観点から、当業者にとって、多くの他のタイプの制御された物理構造は、オブジェクトの物理モデルの表面の位置の望まれるユーザーによる運動をもたらすように用いられ得ることが明らかである。さらなる例が、以下に例示される。] [0050] 図2Bは、オブジェクトの物理モデルの運動を観察し、調整するためのさまざまな実施形態の高いレベルの例示を例示する。] 図2B [0051] 構成の仕様に基づいて、アニメ化されたオブジェクトの物理モデル(アニマトロニクスユニット)が、構築され得る(ステップ250)。上述のように、任意の従来の数の物理コンポーネントが、物理モデルのさまざまな部分を操作する(例えば、動かす、たわませる、曲げる、伸張する、など)ために用いられ得る。] [0052] さまざまな実施形態において、一次的ローカルモードに関連づけられるステップ220において決定されるローカルモード重みづけ値が決定され、駆動信号の形式で、それぞれの物理制御構造に適用される(ステップ260)。一例として、顔がほほえむとき、1つの一次的ローカルモードは、アニメ化された顔の頬が上がり、顔から広がることを特定し得る。したがって、ローカルモードは、関連した重みづけ因子を乗算され、その積は、頬の上昇の制御構造に適用される。別の例として、重みづけ因子に基づいて、信号は、アニメ化された顔の「皮膚」の下に位置決定された二つの電気モーターに送られる。次いで、2つの電気モーターは、回転し、上向きの方向に押し得る。] [0053] 本発明のさまざまな実施形態において、ステップ260において、駆動信号は、特定のアニメーションデータに基づき得る。一部の実施形態において、ステップ200で提供されるアニメーションデータは、「トレーニングデータ」と見なされ得、「トレーニングデータ」は、オブジェクトの物理モデルが構築され得るように、アニメ化されたオブジェクトに対して望まれる最大範囲の動きを特定する。ステップ260において、用いられる特定のアニメーションデータは、トレーニングデータに対するアニメーションのサブ集合範囲を特定し得る。例えば、トレーニングアニメーションデータは、個別にウインクするキャラクターの両方の目を含み得、ステップ260において用いられる特定のアニメーションデータは、ウインクするキャラクターの単に左目であり得る。] [0054] 特定のアニメーションデータが提供されるさまざまな実施形態において、関連した重みづけ因子は、ステップ230において決定されたローカルモードに従って修正され得る。次いで、ステップ260において、関連した重みづけ因子に基づいて、特定の駆動信号が決定され、オブジェクトの物理モデル(アニマトロニクスユニット)に適用される。次いで、ステップ270において、ユーザーは、オブジェクトの物理モデルの制御された動きを観察し得る。] [0055] さまざまな実施形態において、オブジェクトの物理モデルのポーズおよび動きは、オブジェクトの望まれるポーズおよび動きと視覚的に比較される(ステップ280)。例えば、ユーザーは、オブジェクトの物理モデルが手足を完全にまっすぐ伸ばしていない、または完全に引っ込めていない、ほほえんでいない、など、物理モデルが適正な速さで動いていない、または望まれる経路を進んでいない、などを見ることができる。他の実施形態において、ユーザー(例えば、アニメーター)は、オブジェクトの物理モデルの運動が、アニメ化されたキャラクターの望まれる「表情」を達成するか否かを決定し得る。] [0056] 視覚的な比較に応答して、ユーザーは、重みづけ因子および/または駆動信号を調整し得る(ステップ285)。上述のように、ローカルモードは、オブジェクト上に重なり得、一部のローカルモードだけが物理モデルにおいて実装され得るので、結果として、特定のポーズを複製することは困難であり得る。加えて、コンポーネントの物理的限界(例えば、非線形弾性材料など)に起因して、物理的構成は、望まれるローカルモードを正確に模倣しないこともあり得る。したがって、オブジェクトの物理モデルのポーズの実際の範囲は、アニメ化されたキャラクター(望まれる動き)のようには正確に見えないこともあり得る。このことに起因して、ユーザーが重みづけ因子、オブジェクトの物理モデルの物理的構成などを調整しなければならないことが、しばしば予期される。次いで、上記のプロセスは、調整が役立つか否かを見るために繰り返され得る。さらなる詳細および他の実施形態が、以下で提供される。] [0057] ユーザーがオブジェクトの物理モデル(または修正された物理モデル)の動きおよび物理的ポーズに満足している場合において、制御データ(例えば、重みづけ因子、制御構造に送信された制御信号など)は、メモリーに格納され得る(ステップ290)。次いで、メモリーからの制御データは、望まれる「規則的」動作モード、例えば、娯楽用の乗り物またはアトラクション、パフォーマンスなどの中のオブジェクトの物理モデルを駆動し得る。さまざまな実施形態において、従来のコンピューターシステム、例えば、物理モデルの遠隔のコンピューターシステム100は、オブジェクトを制御し得る(ステップ295)。他の実施形態において、専用コンピューターシステム、埋め込みシステムなどが、制御データ、制御構造に対する制御信号などを格納するように用いられ、オブジェクトの物理モデルを制御し得る。] [0058] 単なる一例として、望まれるアニメーションデータによって特定される運動と同様な運動を有するおもちゃが、上記の原理に従って特定され、構成され得る。次いで、望まれる駆動データは、制御信号に変換され得、制御信号は、フラッシュメモリー、ROMなどのようなオンボードメモリー上のコンピューター実行可能命令として格納され、おもちゃの中に埋め込まれたマイクロプロセッサーを駆動しておもちゃの運動を制御する。] [0059] 図3は、本発明のさまざまな実施形態に従った付加的なプロセスのブロック図を例示する。より具体的には、図3は、オブジェクトの物理モデルの運動を修正する実施形態の高いレベルの例示を提供する。] 図3 [0060] 最初に、図2Bにおけるように、構成の仕様に基づいて、アニメ化されたオブジェクトの物理モデル(アニマトロニクスユニット)が構築され得る(ステップ250)。上述のように、任意の従来の数の物理コンポーネントが、物理モデルのさまざまな部分を操作する(例えば、動かす、たわませる、曲げる、伸張する、など)ために用いられ得る。] 図2B [0061] さまざまな実施形態において、ステップ260において、適切な駆動信号が、決定され得、物理モデルに適用され得る。本発明者らは、望まれる動きに物理モデルの物理的な動きを適合させるプロセスが、空間−時間問題であり、少なくとも部分的にはコンピューターを用いて解決され得ることを認識する。したがって、ステップ260において、適切な駆動信号の「最初の推測」が物理モデルに適用される。] [0062] 次いで、さまざまな実施形態において、ステップ300において、オブジェクトの物理モデルのポーズおよび動きは、コンピューターシステムの中に記録され、そして/またはユーザーによって観察される。具体的には、オブジェクトの物理モデルの実際の空間/時間位置(または他の制約)は、ステップ300において決定される。本発明のさまざまな実施形態において、このことを実行する多くの異なる仕方が予想される。さまざまな実施形態は、物理モデルの特定の接合部などに配置されるサーボモーターを用いることを含む。 そのような実施形態において、サーボモーターの角度的な位置は、アニメーション時間に対してモニターされ、アニメーション時間に対する物理モデル全体の位置を計算することを助ける。他の実施形態は、物理モデル上に位置決定された反射ドットなどのようなモーションキャプチャー技術を用いることを含む。そのような実施形態において、空間の中で較正された後で、ビデオカメラなどによって収集されるとき、反射されたドット、そして、次いで物理モデルの位置は、時間に対して決定され得る。さらに他の実施形態において、オブジェクトの物理的な動きは、空間の中のキー位置に配置される多くの物理タッチセンサーの使用を通じて収集され得る。次いで、これらの物理センサーは、物理モデルが空間の中の主要な位置に動く場合、または、その時を感知する。さらに他の実施形態において、レーザー距離測定デバイスまたは他の三次元走査技術は、アニメーション時間に対する物理モデルの実際の位置、物理モデルの経路などを計算するのを助けるように用いられ得る。] [0063] さまざまな実施形態において、次いで、アニメーションデータに基づいて、コンピューターシステムは、空間および時間の中でアニメ化されたオブジェクトのさまざまな部分の望まれる動きを予測または決定し得る(ステップ310)。一部の実施形態において、アニマトロニクスユニットの望まれるポーズは、アニメーションデータ(例えば、ソースがアニメ化された特徴など)によって駆動されるアニメ化されたオブジェクトの単なるポーズおよび動きであり得る。] [0064] 次いで、本発明のさまざまな実施形態において、物理オブジェクトの実際の空間/時間位置が、期間に対して望まれる空間/時間位置から許容可能な量の偏差内にあるかどうかに関して、決定が行われる(ステップ330)。一部の実施形態において、偏差は、物理モデルのアニメーションに対して重要なことに依存し得る。例えば、物理モデルが時間におけるある特定の瞬間においてある行為を実行することが、物理モデルがいかにその行為を実行する(すなわち、動く)ことよりも重要であり得るか、または物理モデルがある特定の動きの経路にぴったりと従うことが、その物理モデルがその動きを実行する速さよりも重要であり得るか、または任意の他の組み合わせであり得る。したがって、許容可能な偏差の量およびタイプは、オブジェクトの物理モデルの用途にきわめて依存している。具体的な例として、比較データは、オブジェクトの物理モデルが十分に高く飛んでいないこと、手を閉じるのが早いまたは遅いこと、落ちるオブジェクトをキャッチしそこなうこと、あるいは他の動きに関連した偏差を示し得る。] [0065] さまざまな実施形態において、ステップ330において、偏差のタイプは、絶対偏差、累積偏差または任意の他のタイプの偏差であり得る。例えば、任意の時刻に物理モデルが空間/時間において予測された空間/時間位置から10%よりも大きくずれている場合には、偏差は、許容不可能であり得る。別の例として、物理モデルがアニメーション時間の75%に関して空間における5%以下だけ空間/時間位置においてずれている場合には、ピークの空間/時間偏差が10%を超える場合であっても、偏差は、許容可能であり得る。他の例において、物理モデルが特定の時刻においてある位置に達することができない場合には、物理モデルは、許容可能性の閾値を超えている。他の実施形態において、特定の用途に依存して、条件の他の組み合わせが閾値条件を設定するために用いられ得る。加えて、閾値は、自動的にまたは手動で設定され得る。] [0066] 本発明のさまざまな実施形態において、偏差の量が許容可能でない場合には、偏差(例えば、誤差信号)は、アニマトロニクスユニットの物理モデルに対する駆動データを自動的にまたは手動で(例えば、重みづけ因子を用いて)修正するために用いられ得る(ステップ340)。一部の例において、オブジェクトの物理モデルがすべての望まれる空間位置に「ヒットする」または達するが、少し遅い場合には、駆動データ、例えばモーターの電流は、増加し得、駆動データは、時間的により早く適用され得る、などの場合があり得る。他の例において、物理モデルが望まれる空間位置にヒットしない場合にも、駆動データ、例えばモーターの電流は、増加し得、駆動データにおけるポーズが導入されて物理モデルが特定の位置に移ることを可能にし得る、などの場合があり得る。他の実施形態において、駆動データを修正する多くの他の仕方が予想される。] [0067] 本発明の一部の実施形態において、物理モデルの構成は、物理モデルが望まれる空間/時間位置に達することを可能にするように、自動的にまたは手動で修正され得る。例えば、物理モデルは、より軽い重量のコンポーネントを用いるように再構成され、コンポーネントの慣性を低減し、より高い追従速度の駆動モーターなどを用いて、物理モデルがより素早く動くことを可能にし得、物理モデルは、より強いコンポーネントまたは付加的なコンポーネントを用いるように再構成され、より強いコンポーネントまたは付加的なコンポーネントは、物理モデルがより大きい応力を扱うこと、より大きい負荷を扱うこと、またはより素早く動くことなどを可能にし得、物理コンポーネントの配置は、より大きいてこ比を利用することによって、物理モデルがより素早く動くことを可能にするように再び位置決定され得ることなどを可能にし得る。再構成は、物理モデルの作成者の現実世界の経験に依存し得る。] [0068] 本発明の他の実施形態において、アニマトロニクスキャラクターの腕が望まれる時刻に望まれる位置に達した際に「はね返る」場合には、運動部分の間の腕の速さは、動きの大部分の間に増加し得るが、腕が望まれる位置に近づく(すなわち、線形駆動信号から非線形駆動信号へ)場合には、減少し得、より軽いコンポーネントは、(腕の慣性を低減するように)腕の中で用いられ得ることなどを可能にし得る。他の実施形態において、駆動信号における変化の組み合わせおよび物理構成は、設計の中で提案され得る。] [0069] 本発明のさらに他の実施形態において、ユーザーは、ステップ260において駆動信号を決定するために用いられるアニメーションデータを修正し得る。例えば、ユーザーは、上記の技術を用いることによって、物理モデルが単に望まれる空間/時間位置を満たし得ないことを決定し得る。そのような場合には、ユーザーは、新しい集合のアニメーションデータを特定し得、新しい集合のアニメーションデータは、ステップ260において駆動信号を決定するために用いられる。例えば、物理モデルが時間におけるある特定の時点においてある位置に達する望まれる経路に沿って動き得ない場合には、ユーザーは、物理モデルが望まれる時刻にその位置に達し得るという希望を持って、アニメーションデータを介して運動の単純化された経路を特定し得る。] [0070] さまざまな実施形態において、ステップ250〜340は、オブジェクトの物理モデルがユーザーによって望まれる、望まれる空間/時間位置に達するまで繰り返され得る。さまざまな実施形態において、このプロセスは、自動化され得、そして/または手動の入力を含み得、オブジェクトの物理モデルの空間−時間誤差を低減する(ステップ200においてアニメーションデータを用いて駆動される)。] [0071] 図6は、オブジェクトの物理モデルの運動を修正する付加的な実施形態の高いレベルの例示のブロック図を例示する。] 図6 [0072] さまざまな実施形態において、オブジェクトの物理モデルのソフトウェアシミュレーションが決定され得る。一部の実施形態において、ソフトウェアシミュレーションは、コンピューター支援設計(CAD)シミュレーションシステムなどとともに行われ得る。他の実施形態において、オブジェクトの物理モデルが構築されていることがあり得、このステップにおいて構成されたソフトウェアモデルは、物理モデルの現実世界のパフォーマンスに基づき得る。例えば、オブジェクトのソフトウェアシミュレーションは、特定の動きを実行する物理オブジェクトの測定されたパフォーマンスに基づき得る。] [0073] さまざまな実施形態において、ソフトウェアシミュレーションは、物理モデル(アニマトロニクスユニット)が利用可能であることを必要とすることなしに、オブジェクトの物理モデルがいかにポーズを付けられ得るか、そして、物理モデルがいかに動き得るかについての観念をユーザーに与え得る。そのような実施形態は、アニメーションチームがアニマトロニクスユニットから遠隔である場合には、有用であり得る。] [0074] 上記のステップ260と同様に、さまざまな実施形態において、適切な駆動信号は、ステップ510において決定され得、ソフトウェアシミュレーションに適用され得る。上記のように、本発明者らは、アニマトロニクスユニットの挙動を改善するためにソフトウェアシミュレーションの空間−時間挙動が研究されるべきであることを認識する。] [0075] さまざまな実施形態において、アニマトロニクスユニットのソフトウェアシミュレーションのポーズおよび動きは、上記のステップ300と同様に、ステップ520においてユーザーによって記録され、そして/または観察される。次に、さまざまな実施形態において、アニメーションデータに基づいて、コンピューターシステムは、空間および時間においてアニメ化されたオブジェクトのさまざまな部分の望まれる動きを予測し得るか、または決定し得る(ステップ530)。一部の実施形態において、アニマトロニクスユニットの望まれるポーズは、アニメーションデータによって駆動されるアニメ化されたオブジェクト(例えば、ソースがアニメ化された特徴など)の単なるポーズおよび動きであり得る。] [0076] 次いで、本発明のさまざまな実施形態において、物理オブジェクトのソフトウェアモデルの実際の空間/時間位置が期間に対して望まれる空間/時間位置からの許容可能な量の偏差以内にあるかどうかに関して、決定が行われる(ステップ540)。上述のように、一部の実施形態において、偏差は、物理モデルのアニメーションに対して重要なことに依存し得る。例えば、物理モデルが時間におけるある特定の瞬間においてある行為を実行することが、物理モデルがいかにその行為を実行する(すなわち、動く)かよりも重要であり得るか、または物理モデルがある特定の動きの経路にぴったりと従うことが、その物理モデルがその動きを実行する速さよりも重要であり得るか、または任意の他の組み合わせであり得る。したがって、許容可能な偏差の量およびタイプは、オブジェクトの物理モデルの用途にきわめて依存している。具体的な例として、比較データは、オブジェクトの物理モデルが十分に高く飛んでいないこと、手を閉じるのが早いまたは遅いこと、落ちるオブジェクトをキャッチしそこなうこと、あるいは他の動きに関連した偏差を示し得る。] [0077] さまざまな実施形態において、上記のステップ330と同様に、偏差のタイプは、絶対偏差、累積偏差または任意の他のタイプの偏差などであり得る。例えば、任意の時刻に物理モデルが空間/時間において予測された空間/時間位置から平均の20%よりも大きくずれている場合には、その偏差は、許容不可能であり得る。他の例において、物理モデルが特定の時刻においてある位置に達することができない場合には、物理モデルは、許容可能性の閾値を超えている。] [0078] 本発明のさまざまな実施形態において、偏差の量が許容可能でない場合には、偏差(例えば、誤差信号)は、アニマトロニクスユニットに対する駆動データを自動的にまたは手動で(例えば、重みづけ因子を用いて)修正するように用いられ得る(ステップ560)。一部の例において、オブジェクトのソフトウェアシミュレーションがすべての望まれる空間位置にヒットするが、早すぎる場合には、液圧式ポンプは、時間的に後でオンにされ得、液圧式システムの油圧は減少し得ることなどが生じ得る。他の例において、物理モデルのソフトウェアシミュレーションが望まれる空間位置に「ヒットし」ない、または届かない場合には、空気式システムの気圧が増加し得ること、空気式システムが時間的により早く作動され得ることなどが生じ得る。他の実施形態において、駆動データを修正する多くの他の仕方が予想される。] [0079] さまざまな実施形態において、ステップ500〜560は、アニマトロニクスユニットのソフトウェアシミュレーションがユーザーによって望まれる、望まれる空間/時間位置に達するまで繰り返され得る。さまざまな実施形態において、このプロセスは、自動化され得、そして/または手動の入力を含み得、オブジェクトの物理モデルの空間−時間誤差を低減する(ステップ200においてアニメーションデータを用いて駆動される)。] [0080] 一部の実施形態において、ソフトウェアシミュレーションがユーザーによって望まれる空間−時間制約を満たす場合には、このプロセスは、例示された図2Bまたは図3に戻り得る。そのような場合において、ステップ250においてアニマトロニクスユニットが構築されなかった場合には、物理モデルは、それぞれのプロセスに従って構成され得、同調され得る。他の場合には、アニマトロニクスユニットがすでに構築されている場合には、ステップ250は、ステップ560において決定されるように、アニマトロニクスユニットに対して変更を行うことを含み得る。さらに一部の他の場合において、ステップ250は、すでに実行された可能性があり、アニマトロニクスユニットは、すでに構築されている可能性がある。] 図2B 図3 [0081] 図4A〜Bは、本発明のさまざまな実施形態に従った例を例示する。図4Aは、オブジェクト表面に関連づけられた例示的データ集合に対して決定されるグローバルな一次的モード370の例を例示する。この例において、+部分および−部分は、相対的な深さにおける変化を表す。見られ得るように、グローバルな一次的モード370における+部分および−部分は、小さい領域を超えて広がる。] 図4A 図4B 図5A 図5B 図5C 図6 [0082] 対照的に、図4Bは、因子回転の後にグローバルな一次的モードに基づいて決定されるローカルモード380の例を例示する。この例において、+部分および−部分はまた、相対的な深さにおける変化を表す。見られ得るように、ローカルモードにおける+部分および−部分は、より小さいエリアに影響を与える。上記のさまざまな実施形態に従って、複数のローカルモードは、オブジェクト表面上の比較的はっきりした領域であり、その領域は、結果として、それぞれの物理制御構造と関連づけられ得る。] 図4B [0083] 図5A〜Cは、本発明のさまざまな実施形態に従った物理制御構造の例を例示する。図5Aは、局所化されたふくらみ410(例えば、ほほえんでいる人の頬)をもたらすために用いられるモーター400の例を例示する。図5Bは、ワイヤー430に接続されたモーター420の例を例示し、モーター420は、局所化されたくぼみ440(例えば、顔をしかめる人の唇)をもたらすために用いられる。図5Cは、ピストン460に接続された加圧されるシステム450(例えば、液圧式、空気式)の例を例示し、システム450は、ピストン460に接続され、伸張効果470または腕をもたらすために用いられる。] 図5A 図5B 図5C 図6 [0084] 上記の開示の観点から、当業者は、多くの他のタイプのモード分析がグローバルな運動モードまたは局所化された運動モードを決定するために実行され得ることを理解する。加えて、上記の開示の観点から、当業者は、物理制御構造を実装する多くの他の仕方がアニメ化されたキャラクターの物理的表現に「生命」を与えるために用いられ得、組み合わされ得ることを理解する。] [0085] 本開示を読んだ後に、さらなる実施形態が当業者に想定され得る。他の実施形態において、上記で開示された実施形態の組み合わせまたはサブコンビネーションが、有利に行われ得る。アーキテクチャーのブロック図とフロー図とが、理解を容易にするためにグルーピングされる。しかしながら、ブロックの組み合わせ、新しいブロックの付加、ブロックの再配列などが本発明の代替の実施形態において予想されることが、理解されるべきである。] [0086] したがって、本明細書および図面は、限定的な意味ではなく、むしろ例示的な意味において考慮されるべきである。しかしながら、特許請求の範囲において述べられる本発明のより広い精神および範囲から逸脱することなしに、本発明に対してさまざまな修正および変更が行い得ることは明らかである。]
权利要求:
請求項1 アニマトロニクスユニットの挙動を決定する方法であって、該方法は、アニメ化されたキャラクターの少なくとも一部分に対して芸術的に決定された動きを含むアニメーションデータを受信することと、該アニメーションデータに応答して該アニマトロニクスユニットの一部分に適用される複数の制御信号を決定することと、該複数の制御信号を用いて該アニマトロニクスユニットの少なくとも該一部分のソフトウェアシミュレーションを駆動することによって、該複数の制御信号に応答して該アニマトロニクスユニットの少なくとも該一部分の挙動を推定することと、該アニマトロニクスユニットの少なくとも該一部分の挙動の表現をユーザーに出力することとを包含する、方法。 請求項2 前記アニメーションデータは、前記アニマトロニクスユニットの少なくとも前記一部分に対する特定のポーズまたは特定の動きを記述し、前記挙動は、該アニマトロニクスユニットの少なくとも該一部分に対する予測されるポーズまたは予測される動きを含み、前記方法は、該特定のポーズまたは該特定の動きと、該予測されるポーズまたは該予測される動きとに応答して、該アニマトロニクスユニットの少なくとも該一部分のアニメーションデータまたはソフトウェアシミュレーションを修正することをさらに包含する、請求項1に記載の方法。 請求項3 前記アニメーションデータは、前記アニマトロニクスユニットの少なくとも前記一部分に対する特定の動きを記述し、前記複数の制御信号を決定することは、該特定の動きに応答して、該アニマトロニクスユニットの少なくとも該一部分に対する空間−時間が特有の強化された動きを決定することと、該空間−時間が特有の強化された動きに応答して、該アニマトロニクスユニットの少なくとも該一部分に適用される該複数の制御信号を決定することとを包含する、請求項1〜2のいずれか1項に記載の方法。 請求項4 アニマトロニクスユニットの挙動を決定するコンピューターシステムであって、該システムは、アニメ化されたキャラクターの少なくとも一部分に対する芸術的に決定された動きを含むアニメーションデータを格納するように構成されるメモリーと、該メモリーに結合されたプロセッサーであって、該プロセッサーは、該アニメーションデータに応答して該アニマトロニクスユニットの一部分に適用される複数の制御信号を決定するように構成され、該プロセッサーは、該複数の制御信号を用いて該アニマトロニクスユニットの少なくとも該一部分のソフトウェアシミュレーションを駆動することによって、該複数の制御信号に応答して該アニマトロニクスユニットの少なくとも該一部分の挙動を推定するように構成され、該プロセッサーは、該アニマトロニクスユニットの少なくとも該一部分の挙動の表現をユーザーに出力するように構成される、プロセッサーとを備えている、コンピューターシステム。 請求項5 前記アニメーションデータは、前記アニマトロニクスユニットの少なくとも前記一部分に対する特定のポーズまたは特定の動きを記述し、前記挙動は、該アニマトロニクスユニットの少なくとも該一部分に対する予測されたポーズまたは予測された動きを含み、前記プロセッサーは、該特定のポーズまたは該特定の動きと、該予測されたポーズまたは該予測された動きとに応答して、該アニマトロニクスユニットの少なくとも該一部分のアニメーションデータまたはソフトウェアシミュレーションを修正するように構成される、請求項4に記載のコンピューターシステム。 請求項6 前記アニメーションデータは、前記アニマトロニクスユニットの少なくとも前記一部分に対する特定の動きを記述し、前記プロセッサーは、該特定の動きに応答して該アニマトロニクスユニットの少なくとも該一部分に対する空間−時間が特有の強化された動きを決定するように構成され、該プロセッサーは、該空間−時間が特有の強化された動きに応答して、該アニマトロニクスユニットの少なくとも該一部分に適用される前記複数の制御信号を決定するように構成される、請求項4〜5のいずれか1項に記載のコンピューターシステム。 請求項7 有体の媒体上にあるコンピュータープログラム製品であって、該コンピュータープログラム製品は、コンピューターシステム上で実行可能な実行可能コードを含み、該コンピューターシステムは、プロセッサーとメモリーとを含み、該コンピュータープログラム製品は、アニメ化されたキャラクターの少なくとも一部分に対する芸術的に決定された動きを含むアニメーションデータを受信することを、該プロセッサーに命令するように構成されたコードと、該アニメーションデータに応答して、アニマトロニクスユニットの一部分に適用される複数の制御信号を決定することを該プロセッサーに命令するように構成されたコードと、該複数の制御信号を用いて該アニマトロニクスユニットの少なくとも該一部分のソフトウェアシミュレーションを駆動することによって、該複数の制御信号に応答して該アニマトロニクスユニットの少なくとも該一部分の挙動を推定することを該プロセッサーに命令するように構成されたコードと、該アニマトロニクスユニットの少なくとも該一部分の挙動の表現をユーザーに出力することを該プロセッサーに命令するように構成されたコードとを含む、コンピュータープログラム製品。 請求項8 前記アニメーションデータは、前記アニマトロニクスユニットの少なくとも前記一部分に対する特定のポーズまたは特定の動きを記述し、前記挙動は、該アニマトロニクスユニットの少なくとも該一部分に対する予測されたポーズまたは予測された動きを含み、請求項7に記載のコンピュータープログラム製品は、該特定のポーズまたは該特定の動きと、該予測されたポーズまたは該予測された動きとに応答して、該アニマトロニクスユニットの少なくとも該一部分のアニメーションデータまたはソフトウェアシミュレーションを修正することを前記プロセッサーに命令するように構成されたコードをさらに含む、請求項7に記載のコンピュータープログラム製品。 請求項9 前記アニメーションデータは、前記アニマトロニクスユニットの少なくとも前記一部分に対する特定の動きを記述し、請求項7〜8のいずれか1項に記載のコンピュータープログラム製品は、該特定の動きに応答して、該アニマトロニクスユニットの少なくとも該一部分に対する空間−時間が特有の強化された動きを決定することを前記プロセッサーに命じるように構成されたコードと、該空間−時間が特有の強化された動きに応答して、該アニマトロニクスユニットの少なくとも該一部分に適用される前記複数の制御信号を決定することを該プロセッサーに命令するように構成されたコードとをさらに含む、請求項7〜8のいずれか1項に記載のコンピュータープログラム製品。 請求項10 アニマトロニクスユニットに対する設計を特定する方法であって、該方法は、芸術的に決定された動きを含む動きのデータを受信することと、該動きのデータに応答して該アニマトロニクスユニットの少なくとも一部分の構成に対する設計を決定することと、該アニマトロニクスユニットの構成に対する該設計を出力することとを包含する、方法。 請求項11 前記設計を決定することは、前記動きのデータに応答して複数のグローバルな特徴的ポーズを決定することと、該複数のグローバルな特徴的なポーズに応答して、複数のローカルな特徴的ポーズを決定することと、該複数のローカルな特徴的ポーズに応答して、前記アニマトロニクスユニットの構成に対する前記設計を決定することとを包含する、請求項10に記載の方法。 請求項12 前記動きのデータに応答して前記アニマトロニクスユニットの前記一部分の動きを予測することと、該動きのデータに応答して決定された駆動信号を用いて該アニマトロニクスユニットの該一部分を駆動し、該アニマトロニクスユニットの該一部分の動きを決定することと、該駆動信号に応答する該アニマトロニクスユニットの該一部分の動きと、該動きのデータに応答する該アニマトロニクスユニットの該一部分の予測された動きとの間の差を決定することと、該差に応答して該アニマトロニクスユニットの該一部分に対する制御マッピングを決定することとをさらに包含する、請求項10〜11のいずれか1項に記載の方法。 請求項13 前記アニマトロニクスユニットの前記一部分の構成に対する前記設計を決定することは、また、機械的制約に応答する、請求項10〜11のいずれか1項に記載の方法。 請求項14 コンピューターシステムであって、該システムは、芸術的に決定された動きを含む動きのデータを格納するように構成されたメモリーと、該メモリーに結合されたプロセッサーであって、該プロセッサーは、該動きのデータに応答して前記アニマトロニクスユニットの少なくとも一部分の構成に対する設計を決定するように構成され、該プロセッサーは、該アニマトロニクスユニットの構成に対する該設計を出力するように構成される、プロセッサーとを備えている、コンピューターシステム。 請求項15 前記プロセッサーは、前記動きのデータに応答して前記アニマトロニクスユニットの前記一部分に対する位置を予測するように構成され、該プロセッサーは、該動きのデータに応答して決定された駆動信号を用いて該アニマトロニクスユニットの該一部分を駆動し、該アニマトロニクスユニットの該一部分の位置を決定するように構成され、該プロセッサーは、該駆動信号に応答する該アニマトロニクスユニットの該一部分の位置と、該動きのデータに応答する該アニマトロニクスユニットの該一部分の予測された位置との間の差を決定するように構成され、該プロセッサーは、該差に応答して該アニマトロニクスユニットに対する制御マッピングを決定するように構成される、請求項14に記載のコンピューターシステム。 請求項16 前記動きのデータは、アニメ化されたキャラクターと関連づけられたアニメーションデータと、物理パフォーマンスのモーションキャプチャーデータと、アニメ化された顔と関連づけられたアニメーションデータと、顔のパフォーマンスのモーションキャプチャーデータとからなる群から選択される、請求項14〜15のいずれか1項に記載のコンピューターシステム。 請求項17 前記プロセッサーは、前記制御マッピングに応答して前記アニマトロニクスユニットに対するソフトウェアシミュレーションモデルを決定するように構成されている、請求項14〜16のいずれか1項に記載のコンピューターシステム。 請求項18 有体の媒体上にあるコンピュータープログラム製品であって、該コンピュータープログラム製品は、コンピューターシステム上で実行可能な実行可能コードを含み、該コンピューターシステムは、プロセッサーとメモリーとを含み、該コンピュータープログラム製品は、該メモリーから芸術的に決定された動きを含む動きのデータを取り出すことを該プロセッサーに命令するように構成されたコードと、該動きのデータに応答して該アニマトロニクスユニットの少なくとも一部分の構成に対する設計を決定することを該プロセッサーに命令するように構成されたコードと、該アニマトロニクスユニットの構成に対する該設計を出力することを該プロセッサーに命令するように構成されたコードとを含む、コンピュータープログラム製品。 請求項19 前記動きのデータに応答して複数のグローバルな特徴的ポーズを決定することを前記プロセッサーに命令するように構成されたコードと、該複数のグローバルな特徴的ポーズに応答して複数のローカルな特徴的ポーズを決定することを該プロセッサーに命令するように構成されたコードと、該複数のローカルな特徴的ポーズに応答して前記アニマトロニクスユニットの構成に対する前記設計を決定することを該プロセッサーに命令するように構成されたコードとをさらに含む、請求項18に記載のコンピュータープログラム製品。 請求項20 前記芸術的に決定された動きは、時間に対して複数のポーズを含む、請求項18〜19のいずれか1項に記載のコンピュータープログラム製品。 請求項21 アニマトロニクスユニットを構成する方法であって、該方法は、該アニマトロニクスユニットの一部分の構成に対する設計を受信することと、該アニマトロニクスユニットの該一部分の構成に対する該設計に応答して該アニマトロニクスユニットの該一部分を構成することとを包含し、該アニマトロニクスユニットの該一部分の構成に対する該設計は、芸術的に決定された動きを含む動きのデータに応答して決定される、方法。 請求項22 前記アニマトロニクスユニットの前記一部分の構成に対する前記設計は、ローカルな特徴的ポーズを有する該アニマトロニクスユニットの該一部分と関連づけられた領域の仕様を含む、請求項21に記載の方法。 請求項23 前記アニマトロニクスユニットの前記一部分を構成することは、該アニマトロニクスユニットの該一部分と関連づけられた前記領域に制御構造を結合することを包含し、該制御構造は、液圧式駆動、空気式駆動、電気モーターからなる群から選択される、請求項21〜22のいずれか1項に記載の方法。 請求項24 請求項20〜23のいずれか1項に記載の方法に従って構成されるアニマトロニクスユニット。
类似技术:
公开号 | 公开日 | 专利标题 Laine et al.2017|Production-level facial performance capture using deep convolutional neural networks Ye et al.2012|Synthesis of detailed hand manipulations using contact sampling Zhang et al.2005|Geometry-driven photorealistic facial expression synthesis Beskow1997|Animation of talking agents Pighin et al.1999|Resynthesizing facial animation through 3d model-based tracking Cani-Gascuel et al.1997|Animation of deformable models using implicit surfaces Shapiro et al.2014|Rapid avatar capture and simulation using commodity depth sensors JP5344358B2|2013-11-20|演技から作り出される顔アニメーション Laszlo et al.2000|Interactive control for physically-based animation CN102596340B|2014-10-29|用于将动画或运动应用到角色的系统和方法 US5877778A|1999-03-02|Method and system to generate a complicated computer animation by using a combination of basic motion units Liu et al.2012|Terrain runner: control, parameterization, composition, and planning for highly dynamic motions. Cordier et al.2002|Real‐time animation of dressed virtual humans Vondrak et al.2008|Physical simulation for probabilistic motion tracking Ersotelos et al.2008|Building highly realistic facial modeling and animation: a survey US6888549B2|2005-05-03|Method, apparatus and computer program for capturing motion of a cartoon and retargetting the motion to another object Tao et al.1999|Explanation-based facial motion tracking using a piecewise bezier volume deformation model Zordan et al.1999|Tracking and modifying upper-body human motion data with dynamic simulation US6559849B1|2003-05-06|Animation of linear items US8284202B2|2012-10-09|Methods and apparatus for capturing and rendering dynamic surface deformations in human motion Witkin et al.1990|Fast animation and control of nonrigid structures Popović et al.2000|Interactive manipulation of rigid body simulations EP2680230A2|2014-01-01|Augmented reality simulation of interactions between physical and virtual objects US9536338B2|2017-01-03|Animating objects using the human body Kuffner1998|Goal-directed navigation for animated characters using real-time path planning and control
同族专利:
公开号 | 公开日 EP2227802A4|2012-04-25| CN101952879A|2011-01-19| EP2227802A1|2010-09-15| WO2009079514A1|2009-06-25|
引用文献:
公开号 | 申请日 | 公开日 | 申请人 | 专利标题
法律状态:
2011-12-08| A621| Written request for application examination|Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20111207 | 2012-11-27| A521| Written amendment|Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20121126 | 2013-03-05| A131| Notification of reasons for refusal|Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20130304 | 2013-06-01| A601| Written request for extension of time|Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20130531 | 2013-06-10| A602| Written permission of extension of time|Free format text: JAPANESE INTERMEDIATE CODE: A602 Effective date: 20130607 | 2013-06-29| A601| Written request for extension of time|Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20130628 | 2013-07-08| A602| Written permission of extension of time|Free format text: JAPANESE INTERMEDIATE CODE: A602 Effective date: 20130705 | 2013-08-02| A601| Written request for extension of time|Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20130801 | 2013-08-09| A602| Written permission of extension of time|Free format text: JAPANESE INTERMEDIATE CODE: A602 Effective date: 20130808 | 2013-08-28| A521| Written amendment|Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20130827 | 2013-11-01| A02| Decision of refusal|Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20131031 | 2014-03-01| A521| Written amendment|Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140228 | 2014-03-25| A911| Transfer to examiner for re-examination before appeal (zenchi)|Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20140324 | 2014-05-26| A912| Re-examination (zenchi) completed and case transferred to appeal board|Free format text: JAPANESE INTERMEDIATE CODE: A912 Effective date: 20140523 |
优先权:
[返回顶部]
申请号 | 申请日 | 专利标题 相关专利
Sulfonates, polymers, resist compositions and patterning process
Washing machine
Washing machine
Device for fixture finishing and tension adjusting of membrane
Structure for Equipping Band in a Plane Cathode Ray Tube
Process for preparation of 7 alpha-carboxyl 9, 11-epoxy steroids and intermediates useful therein an
国家/地区
|