![]() ビデオおよび奥行きの符号化
专利摘要:
様々なインプリメンテーションが開示されている。いくつかのインプリメンテーションは、ビデオ、および奥行きの符号化に関する。1つの方法は、画像に対するビデオ情報の成分を選択することを含む。動きベクトルは、画像に対する選択されたビデオ情報に対してまたは奥行き情報に対して特定される(1010、1040)。選択されたビデオ情報は、特定された動きベクトルに基づいて、符号化される(1015)。奥行き情報は、特定された動きベクトル(1035)に基づいて、符号化される。インジケータが生成され、選択されたビデオ情報、および奥行き情報が特定された動きベクトル(1030、1050)に基づいて、符号化されたことを示す。集合的に符号化されたビデオ情報、符号化された奥行き情報、および生成されたインジケータを含む一つ以上のデータ構造が生成される(1065、1070)。 公开号:JP2011509631A 申请号:JP2010542207 申请日:2008-12-18 公开日:2011-03-24 发明作者:イン,ペン;ティアン,ドン;パンディット,パーヴィン,ビバス 申请人:トムソン ライセンシングThomson Licensing; IPC主号:H04N7-32
专利说明:
[0001] 本明細書には、コード体系に関する実施例が記載されている。さまざまな特定の実施例は、ビデオおよび奥行きの符号化に関する。] 背景技術 [0002] [関連出願] 本出願は、2008年1月11日に出願の「ビデオおよび奥行きの符号化」と題する米国仮出願番号第61/010823号の利益を享受する。そして、全ての目的に対し、この内容の全部は、本願明細書に引用され組み込まれたものとする。 [背景] マルチビュービデオ符号化(MVC)は、例えば、自由な視点、および三次元の(3D)ビデオ・アプリケーション(家庭用娯楽機器、および監視)を含む多種多様なアプリケーションに貢献するする主要技術であると広く認識されている。奥行きデータは、各々のビューに関連づけられてもよい。奥行きデータはビューの合成に役立つ。そして、これは付加的なビューの作成である。] 発明が解決しようとする課題 [0003] マルチビューアプリケーションにおいて、ビデオの量、および関係する奥行きデータは、巨大となり得る。かくして、例えば、奥行きデータを使用する現在の・ビデオ符号化技術の符号化効率の精密化、そして、独立のビューの同時放送を実行するのを支援するフレームワークの構築が必要とされる。] 課題を解決するための手段 [0004] [概要] 一般の態様によれば、画像に対するビデオ情報の成分が選択される。動きベクトルが、選択されたビデオ情報に対し、または画像に対する奥行き情報に対して特定される。選択されたビデオ情報は、特定された動きベクトルに基づいて符号化される。奥行き情報は、特定された動きベクトルに基づいて符号化される。選択されたビデオ情報および奥行き情報が、特定された動きベクトルに基づいて、各々符号化されたことを示す、インジケータが生成される。符号化されたビデオ情報、符号化された奥行き情報、および生成されたインジケータを含む一つ以上のデータ構造が集合的に生成される。] [0005] 他の一般の態様によれば、信号は、データ構造を含むようフォーマットされる。データ構造は、画像に対する符号化されたビデオ情報、画像に対する符号化された奥行き情報、およびインジケータを含む。インジケータは、符号化されたビデオ情報、および符号化された奥行き情報が、ビデオ情報に対し、または奥行き情報に対して特定された動きベクトルに基づいて符号化されたことを示す。] [0006] 他の一般の態様によれば、画像のビデオ成分に対する符号化されたビデオ情報、画像に対する符号化された奥行き情報、および、符号化されたビデオ情報と符号化された奥行き情報とが、ビデオ情報に対し、または奥行き情報に対して特定された動きベクトルに基づいて符号化されたかを示すインジケータ、を含むデータが受信される。動きベクトルは、符号化されたビデオ情報、および符号化された奥行き情報を復号化するときに使用するために生成される。符号化されたビデオ情報は、画像のための復号化されたビデオ情報を生成するために、生成された動きベクトルに基づいて復号化される。そして、符号化された奥行き情報は、画像に対する復号化された奥行き情報を生成するために、生成された動きベクトルに基づいて復号化される。] [0007] 一つ以上のインプリメンテーションの詳細は、添付の図面、および下記の説明に記載する。あるインプリメンテーションが1つの特定の方法に記載されている場合であっても、さまざまな方法によって構成されてもよく、実施されてもよいことは明らかである。例えば、インプリメンテーションは、方法として実行されてもよく、または装置(例えば、一組のオペレーションを実行するように構成された装置または一組のオペレーションを実行するための命令を記憶している装置)として実施されてもよい。あるいは信号に表現されてもよい。他の態様、および特徴は、添付の図面、および請求項に基づいて記載された以下の詳細な説明から明らかになる。] 図面の簡単な説明 [0008] 8つのビューを備えるマルチビュービデオ符号化システムの符号化構造のインプリメンテーションの図である。 3つのビューを有する奥行きコード体系を加えたマルチビュービデオの符号化構造のインプリメンテーションの図である。 ビューiの奥行きデータの予測のインプリメンテーションのブロック図である。 マルチビュー・ビデオコンテンツ、および奥行きを符号化するための符号化器のインプリメンテーションのブロック図である。 マルチビュー・ビデオコンテンツ、および奥行きを復号化するための復号化器のインプリメンテーションのブロック図である。 ビデオ送信機のインプリメンテーションのブロック図である。 ビデオ受信器のインプリメンテーションのブロック図である。 ビュー、および奥行きデータの順序付けのインプリメンテーションの図である。 ビュー、および奥行きデータの順序付けの他のインプリメンテーションの図である。 符号化プロセスのインプリメンテーションのフローチャートである。 符号化プロセスの他のインプリメンテーションのフローチャートである。 符号化プロセスのさらにもう一つのインプリメンテーションのフローチャートである。 復号化方法のインプリメンテーションのフローチャートである。 符号化プロセスの他のインプリメンテーションのフローチャートである。 符号化器の他のインプリメンテーションのブロック図である。 復号化方法の他のインプリメンテーションのフローチャートである。 復号化器の他のインプリメンテーションのブロック図である。] [0009] [詳細な説明] 少なくとも一つのインプリメンテーションにおいて、出願人は、マルチビュービデオに加えて奥行きのデータを符号化するフレームワークを提案する。加えて、出願人は、ビデオ、および奥行きデータを符号化するために、符号化効率を向上させるいくつかの方法を提案する。さらに、出願人は、奥行き信号が、他の奥行き信号の符号化だけでなく、ビデオ信号の符号化の効率を向上させるために使用し得るアプローチを解説する。] [0010] 解決すべき多くの課題のうちの1つは、マルチビュー・ビデオシーケンスの効果的な符号化である。マルチビュー・ビデオシーケンスは、異なるビューの場所から同じ場面を撮った2つ以上のビデオシーケンスの一組である。マルチビュー・コンテンツの各々のビューに奥行きデータが関連づけられるため、一部分のマルチビュービデオ符号化アプリケーションのビデオおよび奥行きデータでも、その量は膨大なものとなり得る。かくして、奥行きデータを使用し、または独立ビューの同時放送を実行する現在のビデオ符号化の技術の符号化効率の向上に寄与するフレームワークの必要性が存在する。] [0011] マルチビュー・ビデオソースは同じ場面のマルチビューを含むため、通常は、マルチビューイメージ間の高い相関関係が存在する。したがって、ビュー冗長性は、時間的冗長性に加えて利用されてもよく、かつ異なるビューの間でのビュー予測を実行することによって利用される。] [0012] 1つの実際的なシナリオにおいては、異質なカメラまたは完全に変調されていないカメラを使用し、多数のカメラを有するマルチビュー・ビデオシステムが作られている。多くのカメラを使用することは、復号化器の必要メモリが増大し、かつ複雑度も増加しうる。加えて、特定のアプリケーションは、一組のビューからいくつかのビューだけを復号化することを必要とする。その結果、出力のために必要とされないビューを完全に再構築することは必要ではない。] [0013] 加えて、一部のビューは、奥行き情報だけを持っていてもよい。そして、関連づけられた奥行きデータを使用し、復号化器で合成される。奥行きデータは、また、中間的仮想ビューを生成するために使用されてもよい。] [0014] 現在のH.264/AVCのマルチビュービデオ符号化拡張(以下「MVC仕様」)は、ビデオデータだけに対する符号化を規定している。MVC仕様は、符号化効率を向上するために、時間的、およびビュー間(inter−view)依存を利用する。8つのビューを備えるマルチビュービデオ符号化システムに対し、MVC仕様でサポートされる例示的な符号化構造100が、図1に示されている。図1の矢印は、従属構造を示す。矢印は、参照用ピクチャから、参照用ピクチャに基づいて符号化される画像へポインティングしている。異なるビュー間の予測構造を示すために、高レベルの構文(syntax)が送られる。この構文は、表1に示されている。表1は、特に、インプリメンテーションに従って、MVC仕様に基づいて設定されたシーケンス・パラメータを示す。] 図1 [0015] 更なる符号化効率を精密化するために、照度補償(illumination compensation)、およびモーション・スキップ・モードのようないくつかのツールが提案される。モーション・スキップ・ツールを以下に簡潔に説明する。] [0016] [マルチビュービデオ符号化のためのモーション・スキップ・モード] モーション・スキップ・モードは、マルチビュービデオ符号化に対して符号化効率を精密化するために提案される。モーション・スキップ・モードは、少なくとも、動きの類似性が2つの隣接したビューの間に存在するというコンセプトに基づく。] [0017] モーション・スキップ・モードは、同じ時間的瞬間(時刻)の隣接したビューの対応するマクロブロックから直接に、動き情報を推定する。すなわち、例えば、マクロブロックタイプ、動きベクトル、参照インデックス(reference indices)を推定する。この方法は、二つのステージに分けることができる。例えば、第1のステージで対応するマクロブロックを検索し、第2のステージで動き情報を取り出す。この実施例の第1の段階において、大域的視差ベクトル(GDV:Global Disparity Vector)が、隣接したビューの画像の対応する位置を示すために使用される。この方法は、大域的視差ベクトルによって隣接したビューの対応するマクロブロックを設置する。大域的視差ベクトルは現在の画像、および隣接したビューの画像の間でマクロブロック・サイズのユニットにおいて測定されたものである。その結果、GDVはマクロブロック・サイズのユニットの大まかな(coarse)位置を示しているベクトルである。大域的視差ベクトルは、たとえばアンカー画像毎に、周期的に推定され復号化されてもよい。その場合、非アンカー画像の大域的視差ベクトルは、アンカー画像による最近の大域的視差ベクトルを使用して補間されてもよい。例えば、現在の画像cのGDVは、GDVc =w1*GDV1+w2*GDV2である。ここで、w1およびw2は、現在の画像から、アンカー画像1および画像2までの、それぞれの距離の逆数に基づくものである。第二のステージにおいて、動き情報は隣接したビューの画像の対応するマクロブロックから得られる。そして、その動き情報は現在のマクロブロックに適用するために複製される。] [0018] モーション・スキップ・モードは、現在のマクロブロックが、ジョイントマルチビュー・ビデオ・モデル(JMVM)において定義された、ベース・ビューに位置し、またはアンカー画像の画像に位置している場合、好ましくは、ディスエーブルとされる。なぜなら、隣接ビューからの画像は、インター予測方法のための他の方法に提示するために使用されるからである。すなわち、モーション・スキップ・モードについては、その動作の目的は、参照ビューから符号化モード/インター予測情報を借用することである。しかし、ベース・ビューは参照ビューを有しない。また、アンカー画像は、イントラ符号化されている。したがって、インター予測がなされていない。このため、これらのケースに対してMSMをディスエーブルにすることが、好ましい。] [0019] なお、JMVMではGDVsが送信される点に注意すべきである。] [0020] 復号化器にモーション・スキップ・モードを使用することを通知するために、新規なフラグmotion_skip_flagが、例えば、マルチビュービデオ符号化のためのマクロブロック・レイヤー構文のヘッダに含まれる。もし、motion_skip_flagが付与されている場合、現在のマクロブロックは、隣接したビューの対応するマクロブロックから、マクロブロックタイプ、動きベクトル、および参照インデックスを得る。] [0021] [ビデオデータとは別個に奥行きデータを符号化することについて] ジョイントビデオチーム(JVT)による作業における現在のマルチビュービデオ符号化仕様は、ビデオデータの符号化だけを規定している。その結果、奥行きを使用した中間のビュー(例えば、フリーな視点によるテレビ(FTV)、没入型のメディア(イマーシブメディア:immersive media)、および3Dテレコンファレンス)を生成することを必要とするアプリケーションは、完全にはサポートされていない。このフレームワークにおいては、再構築されたビューは、ビューの時間的予測に加えて、インタービュー(ビュー間)の参照として利用される。図1は、本発明の原理によるインプリメンテーションに従って、8つのビューを備えるマルチビュービデオ符号化システムに関する例示的な符号化構造100を示す。] 図1 [0022] 少なくとも一つのインプリメンテーションにおいて、マルチビュービデオ符号化フレームワークにおいて奥行きを付け加えることを提案する。奥行き信号のためのフレームワークは、各々のビュービデオ信号に対して使用されるフレームワークに類似したものを使用してもよい。これは、奥行きをビデオデータの他の一組として扱い、かつビデオデータに対して使用されたツールと同一のセットを使用することによって実行することができる。図2は、本発明の原理のインプリメンテーションに従った3つのビューを有するマルチビュービデオと奥行きの符号化システム200とを示す(上から下に、二つの行において、第1のビューのビデオおよび奥行き、次の二つの行で、第2のビューのビデオおよび奥行き、最後の二つの行で、第3のビューのビデオおよび奥行きが示されている)。] 図2 [0023] 実施例のフレームワークにおいて、ビデオ符号化ではなく奥行き符号化は、モーション・スキップ、およびビュー間予測に対する奥行きデータからの情報を使用する。この特定のインプリメンテーションをする意図は、ビデオ信号からそれぞれに奥行きデータを符号化することである。しかしながら、モーション・スキップ、およびビュー間予測は、それらがビデオ信号に適用されるのと類似した方式で、奥行き信号に適用されてもよい。符号化された奥行きデータの符号化効率を向上するために、ビューiデータの奥行きは、例えば、他のビューjの奥行きデータのビュー間予測および動き情報(モーション・スキップ・モード)、ビュー合成情報などのようなサイド情報ばかりでなく、ビューiに対応する関連するビデオデータからのこれらのサイド情報を使用することを提案する。図3は、ビューiの奥行きデータの予測300を示す。T0、T1、およびT2は、異なる時刻に対応する。たとえば、ビューiのビデオデータおよびビューjの奥行きデータから、ビューiの奥行きを予測する場合、同じ時刻から予測されることになるが、これは、単なる例示に過ぎない。他のシステムでは、いかなる時刻のデータを選択し使用してもよい。加えて、他のシステムおよびインプリメンテーションでは、ビューiの奥行きデータを、さまざまなビューおよび時刻からの奥行きデータおよび/またはビデオデータからの情報を組み合わせて予測してもよい。] 図3 [0024] ビューiに対する奥行きデータが、ビューiからのビデオデータに関連する、動き、モードおよび他の予測情報を使用しているか、他のビューjからのものを使用しているかを示すため、同様に構文要素を使用することを提案する。構文要素は、例えば、マクロブロック・レベルで信号として送られてもよく、かつ奥行きデータに帰属している現在のネットワーク抽象レイヤー(NAL)ユニットで条件化される。もちろん、本発明の原理の精神を維持する限り、この種の送信は他のレベルでなされてもよい。] [0025] インプリメンテーションに従って、表2は、モーション・スキップ・モードのためのマクロブロック・レイヤーの構文要素を示す。] [0026] インプリメンテーションにおいて、例えば、表2において、depth_dataの構文は、以下のセマンティック(semantic)を有する: depth_dataが0であることは、現在のマクロブロックが、現在のマクロブロックの動き予測に対する現在の奥行きデータに対応するビデオデータを使用しなければならないことを示す。] [0027] depth_dataが1であることは、現在のマクロブロックが、動き予測のための従属構造(dependency structure)に示される他のビューの奥行きデータに対応する奥行きデータを使用しなければならないことを示す。] [0028] 加えて、奥行きデータ、およびビデオデータは、異なる解像度を有してもよい。一部のビューはサブサンプリングされたビデオデータを有してもよく、他のビューは、サブサンプリングされたそれらの奥行きデータ、またはそれらの両方を有してもよい。この場合、depth_dataフラグの解釈は参照用ピクチャの解像度に依存する。解像度が異なる場合においては、動き情報の抽出のためにH.264/AVCスタンダードにスケーラブルビデオ符号化(SVC)の拡張を使用したのと同じ方法を使用してもよい。SVCにおいて、拡張レイヤーの解像度がベースレイヤの解像度の整数倍である場合、符号化器は、まず始めに、同じ解像度のアップサンプリングによって、動き、およびモードで、インター・レイヤー予測の実行を行うことを選択する。そして、動き補償をする。] [0029] 参照用ピクチャ(奥行きまたはビデオ)が符号化されている現在の奥行き画像より低い解像度を有する場合、符号化器はその参照用ピクチャから、動き、およびモードを実行しないよう選択してもよい。] [0030] 奥行き情報を復号化器に送信するための幾つかの方法がある。これらの方法のいくつかは、例示として以下説明する。なお、本発明の原理を維持する限り、奥行き情報を復号化器に送信することは、以下の方法に限られることはなく、他の方法を使用することができる。] [0031] 図4は、本発明の原理のインプリメンテーションに従って、例示的なマルチビュービデオ符号化(MVC)の符号化器400を示す。符号化器400において、コンバイナ405の出力は変換器410の入力に信号接続されている。変換器410の出力は、量子化器415の入力に信号接続されている。量子化器415の出力は、エントロピー符号化器420の入力、および逆量子化器425の入力に信号接続されている。逆量子化器425の出力は、逆変換器430の入力に信号接続されている。逆変換器430の出力は、コンバイナ435の第1の非反転入力に信号接続されている。コンバイナ435の出力は、イントラ予測手段445の入力、およびデブロッキングフィルタ450の入力に信号接続されている。デブロッキングフィルタ450の出力は、(ビューiに対する)参照用ピクチャ記憶装置455に信号接続されている。参照用ピクチャ記憶装置455の出力は、動き補償器475の第一入力、およびモーション推定器480の第一入力に信号接続されている。モーション推定器480の出力は、動き補償器475の第2の入力に信号接続されている。(他のビューに対する)参照用ピクチャ記憶装置460の出力は、差異/照度推定器470の第一入力、および差違/照度補償器465に信号接続されている。差異/照度推定器470の出力は、差異/照度補償器465の第2の入力に信号接続されている。] 図4 [0032] エントロピー符号化器420の出力は、符号化器400の出力として使われる。コンバイナ405の非反転入力は、符号化器400の入力として使われ、かつ差異/照度推定器470の第2の入力、およびモーション推定器480の第2の入力に信号接続されている。スイッチ485の出力は、コンバイナ435の第2の非反転入力およびコンバイナ405の反転入力端子に信号接続されている。スイッチ485は、動き補償器475の出力に信号接続されている第一入力と、差異/照度補償器465の出力に信号接続されている第2の入力と、イントラ予測手段445の出力信号接続されている第3入力とを有する。] [0033] モード決定モジュール440は、どの入力がスイッチ485によって選択されるかを制御するためのスイッチ485に接続された出力を有する。] [0034] 図5は、本発明の原理のインプリメンテーションに従った例示的なマルチビュービデオ符号化(MVC)復号化器を示す。復号化器500において、エントロピー復号化器505の出力は逆量子化器510の入力に信号接続されている。逆量子化器の出力は、逆変換器515の入力に信号接続されている。逆変換器515の出力は、コンバイナ520の第1の非反転入力に信号接続されている。コンバイナ520の出力は、デブロッキングフィルタ525の入力、およびイントラ予測手段530の入力に信号接続されている。デブロッキングフィルタ525の出力は、(ビューiに対する)参照用ピクチャ記憶装置540の入力に信号接続されている。参照用ピクチャ記憶装置540の出力は、動き補償器535の第一入力に信号接続されている。] 図5 [0035] (他のビューに対する)参照用ピクチャ記憶装置545の出力は、差異/照度補償器550の第一入力に信号接続されている。残差ビットストリームを受信するために、エントロピー複号器505の入力は、復号化器500への入力として使われる。さらに、モード・モジュール560の入力は、スイッチ555に入力されるコントロール構文の受信を選択制御するための復号化器500への入力として利用される。更に、動きベクトルを受信するために、動き補償器535の第2の入力は、復号化器500の入力として使われる。また、差異/照度補償器550の第2の入力は、差異(disparity)ベクトル、および照度補償の構文を受信するために、復号化器500への入力として使われる。] [0036] スイッチ555の出力は、コンバイナ520の第2の非反転入力に信号接続されている。スイッチ555の第一入力は、差異/照度補償器550の出力に信号接続されている。スイッチ555の第2の入力は、動き補償器535の出力に信号接続されている。スイッチ555の第3入力は、イントラ予測手段530の出力に信号接続されている。モード・モジュール560の出力は、どの入力がスイッチ555によって選択されるかを制御するためのスイッチ555に信号接続されている。デブロッキングフィルタ525の出力は、復号化器の出力として使われる。] [0037] 図6は、本発明の原理のインプリメンテーションに従ったビデオ伝送システム600を示す。ビデオ伝送システム600は、例えば、種々のメディア(例えば、衛星、ケーブル、電話線路または地上波による放送)のいずれかを用いる信号を送るためのヘッドエンド(head−end)または伝送システムであってもよい。伝送は、インターネットまたはその他のネットワークを通じて提供されてもよい。] 図6 [0038] ビデオ伝送システム600は、ビデオ、および奥行き情報を含むビデオコンテンツを生成し、かつ配信することが可能である。これは、ビデオおよび奥行き情報を含む符号化信号を生成することによって達成される。ビデオ伝送システム600は、符号化器610、および符号化信号を送信することが可能な送信機620を有する。符号化器610は、ビデオ情報、および奥行き情報を受信し、かつこれらの信号から、符号化信号を生成する。符号化器610は、例えば、上述した符号化器300であってもよい。] [0039] 送信機620は、例えば、符号化された画像および/または情報を表す一つ以上のビットストリームを有するプログラム信号を送るのに適している。送信機の典型的な機能としては、例えば、誤り訂正符号化、信号データのインターリーブ、信号のエネルギーのランダム化、および一つ以上のキャリアに対する信号の変調が含まれる。送信機は、アンテナまたは、アンテナとのインターフェースを含んでもよい(図示せず)。] [0040] 図7は、ビデオ受信側システム700のインプリメンテーションの図を示す。ビデオ受信システム700は、種々のメディア(例えば衛星、ケーブル、電話線路または地上波の放送)の信号を受信するように構成されてもよい。信号は、インターネットまたは一部の他のネットワークを通じて受信されてもよい。] 図7 [0041] ビデオ受信側システム700は、例えば、携帯電話、コンピュータ、セットトップボックス、テレビまたは他のデバイスであって、符号化されたビデオを受信しかつ復号化されたビデオをユーザに対して表示し、または記憶するものであればよい。したがって、例えば、ビデオ受信側システム700は、テレビのスクリーン、コンピュータ・モニタ、コンピュータ(記憶装置、処理装置または表示装置に対して)または一部の他の記憶装置処理またはディスプレイ装置に、のその出力を提供してもよい。] [0042] ビデオ受信側システム700は、ビデオ、および奥行き情報を含むビデオコンテンツの受信および処理が可能である。これは、ビデオ、および奥行き情報を含む符号化信号を受信することによって達成される。] [0043] ビデオ受信側システム700は、符号化信号を受信することが可能な受信器710(例えば本出願のインプリメンテーションに記載されている信号、および受信信号を復号化することが可能な復号化器720)を含む。] [0044] 受信器710は、例えば、符号化された画像を表す複数のビットストリームを有するプログラム信号を受信するのに適していてもよい。典型的な受信器は、例えば変調されたかつ符号化されたデータ信号を受信し、そして、一つ以上のキャリアからデータ信号を復調し、そして、信号のエネルギーをデランダマイズし、信号のデータをデインターリーブし、かつ信号の誤り訂正と復号化する一つ以上の機能を実行する。受信器710は、アンテナ(図示せず)または、アンテナとのインターフェースを有してもよい。] [0045] 復号化器720は、ビデオ情報、および奥行き情報を含むビデオ信号を出力する。復号化器720は、例えば、上述した復号化器400であってもよい。] [0046] [実施例1] 奥行きは、ビューのビデオデータiの後に関連づけられた奥行きデータが続くような形でビデオデータとインターリーブされる。図8は、ビューおよび奥行きデータの順序付け800を示す。この場合、1つのアクセスユニットは、与えられた時刻での全てのビューに対してビデオおよび奥行きデータを含むこととなる。ネットワーク抽象レイヤー・ユニットに対してビデオおよび奥行きデータを区別するために、例えば高レベルで、構文要素を付け加えることを提案する。そして、これはスライスがビデオまたは奥行きデータのいずれに帰属するかを示す。この高水準構文は、ネットワーク抽象レイヤー・ユニット・ヘッダ、スライス・ヘッダ、シーケンス・パラメータ・セット(SPS)、画像パラメータセット(PPS)、補足的強調情報(SEI:supplemental enhancement information)メッセージ、その他に存在してもよい。ネットワーク抽象レイヤー・ユニット・ヘッダに、この構文を付け加える一実施例を表3に示す。特に、インプリメンテーションに従って、表3は、MVC仕様のためのネットワーク抽象レイヤー・ユニット・ヘッダを示す。] 図8 [0047] 実施例において例えば、表2に対応する構文要素depth_flagは、以下のセマンティックを有してもよい depth_flagが0であることは、ネットワーク抽象レイヤー・ユニットがビデオデータを含むことを示す。] [0048] depth_flagが1であることは、NALユニットが奥行きデータを含むことを示す。] [0049] 他のインプリメンテーションは、符号化に関する他の標準に、または標準以外に対して適用されてもよい。インプリメンテーションは、ビデオおよび奥行きデータを組み立ててもよく、したがって、コンテンツの与えられたユニットに対し、奥行きデータはビデオデータに続くか、またはその逆でもよい。コンテンツのユニットは、例えば、与えられたビューからの一連の画像、与えられたビューからの単一の画像または与えられたビューからの画像のサブ画像の部分(例えばスライス、マクロブロックまたは下位マクロブロック部分)であってもよい。コンテンツのユニットは、例えば、与えられた時刻の全ての利用できるビューからの画像であってもよい。] [0050] [実施例2] 奥行きは、ビデオ信号から独立していてもよい。図9は、ビューおよび奥行きデータの他の順序付け900を示す。表2の提案された高レベル構文変化は、この場合に適用されてもよい。他のインプリメンテーションでは、奥行きデータ、およびビデオデータを別に送るが、奥行きデータがビデオデータを有するビットストリームの一部として送られる点に留意する必要がある。インターリーブは、ビデオ、および奥行きが各々の時刻に対してインターリーブされるようなものであってもよい。] 図9 [0051] 奥行きがビデオデータとともにビットストリームの一部として送信されるため、実施例1および2は、奥行きデータのバンド内の伝送と捉えることができる。実施例2は、システムまたはアプリケーション層で結合され得る2つのストリーム(1つのビデオ、および1つの奥行き)を生成する。したがって実施例2は、ビデオおよび奥行きデータに対して、種々の異なる構成の複合ストリームを可能とする。2つの別々のストリームは異なって処理されもよい。更に、(ビデオデータのためのエラー訂正と比較して)奥行きデータが重要であるアプリケーションにおいて、例えば付加的なエラー訂正を奥行きデータに提供する。] [0052] [実施例3] 奥行きデータは、奥行きを使う能力をサポートしない特定のアプリケーションに対しては必要ではない。そのような場合、奥行きデータは、アウトオブバンドとされてもよい。これは、ビデオ、および奥行きデータが分離され、かついずれかの媒体で別々のチャネルを経由して送られることを意味する。奥行きデータは、この奥行きデータを使用してビュー合成を実行するアプリケーションに対してのみ必要である。その結果、奥行きデータがこの種のアプリケーションに対して受信器に到着しない場合であっても、アプリケーションは通常に機能してもよい。] [0053] 例えば、奥行きデータが使用されたケースにおいて(FTV、およびイマーシブ(immersive)テレコンファレンスに制限されないが)、アプリケーションがタイムリな方法で奥行きデータを使用し得るように奥行きのデータの受信が保証されてもよい(これは、アウトオブバンドで送信される)。] [0054] [ビデオデータ成分としての奥行きデータの符号化] ビデオ信号は、ビデオ符号化器に対する入力として、輝度、およびクロマ・データから構成されると見なせる。] [0055] 第1の方式と異なり、奥行きマップをビデオ信号の付加的な成分と扱うことを提案する。入力として輝度およびクロマ・データに加えて奥行きマップを264/AVCに適応させることを提案する。本発明の原理の精神を維持する限りにおいて、このアプローチは、他の標準、ビデオ符号化器および/またはビデオ復号化器に適用されてもよいことは言うまでもない。特定のインプリメンテーションにおいて、ビデオ、および奥行きは、同じNALユニットにおいて存在する。] [0056] [実施例4] クロマ成分と同様に、奥行きは、輝度成分以外の位置でサンプリングされてもよい。一実施例では、奥行きは、4:2:0、4:2:2および4:4:4でサンプリングされてもよい。H.264/AVCの4:4:4のプロファイルと同様に、奥行き成分はルマ/クロマ成分によってそれぞれに符号化されてもよく(独立モード)、またはルマ/クロマ成分と結合して符号化されてもよい(結合モード)。特徴を理解しやすくするために、一組のパラメータのシーケンスの変更態様が表4に示されている。表4は、特に、インプリメンテーションに従って、奥行きサンプリング・フォーマットを示すことが可能な、修正されたシーケンス・パラメータを示す。] [0057] depth_format_idc構文要素のセマンティックは、以下の通りである。] [0058] depth_format_idcは、クロマ・サンプリング位置として、ルマサンプリングと関連して奥行きサンプリングを特定する。depth_format_idcの値は0〜3(0および3を含む)の範囲である。depth_format_idcがないときは、これは0に等しい(奥行きマップが示されていない)と推定される。SubWidthD、およびSubHeightDの変数は奥行きサンプリング・フォーマットに従い表5で示される。そして、それはdepth_format_idcによって特定される。] [0059] 本実施例において、depth_format_idc、およびchroma_format_idcは同じ値でなければならず、かつ3に等しくない。したがって、奥行き復号化はクロマ成分を復号化することと類似している。予測モードを含む符号化モード、参照リスト・インデックス、参照インデックス、および動きベクトルは、全てクロマ成分から得られる。構文coded_block_patternは、奥行き変換係数がどのように符号化されるかを示すために拡張されなければならない。1つの例は、以下の式を使用することである。] [0060] CodedBlockPatternDepthの値が0であることは、全ての奥行き変換係数レベルが0に等しいことを意味する。CodedBlockPatternDepthの値が1であることは、一つ以上の奥行きDC変換係数レベルが非ゼロの値であり、すべての奥行きAC変換係数レベルはゼロの値でなければならないことを意味する。CodedBlockPatternDepthの値が2であることは、0個以上の奥行きDC変換係数レベルが非ゼロであり、かつ一つ以上の奥行きAC変換係数レベルが非ゼロであることを意味する。奥行き残差は、表6のように符号化される。] [0061] [実施例5] 本実施例において、depth_format_idcは3に等しい。すなわち、奥行きは輝度と同じ位置でサンプリングされる。符号化モードを含む予測モード、参照リスト・インデックス、参照インデックス、および動きベクトルは、全て輝度成分から得られる。構文coded_block_patternは、実施例4と同様に拡張されてもよい。] [0062] [実施例6] 実施例4、および5において、動きベクトルは、ルマ成分またはクロマ成分のどちらにでもセットできる。動きベクトルが奥行きデータに基づいて精密化されれば、符号化効率は精密化され得る。動き精密化ベクトルは、表7に示すように転送される。精密化は、公知の技術のいずれかを使用して実行され得る。] [0063] 提案された構文のためのセマンティックは、以下の通りである: depth_motion_refine_flagは、動き精密化が現在のマクロブロックに対して使用可かどうかを示す。この値が1であることは、ルマ成分から複製した動きベクトルが精密化されることを意味する。他の場合は、動きベクトルの精密化は実行されない。] [0064] depth_motion_refineが現在のマクロブロックに設定された場合、motion_refinement_list0_x、motion_refinement_list0_yがある場合は、これらは、LIST1動きベクトルが、送信された精密化ブロックに付け加えられることを示す。] [0065] depth_motion_refineが現在のマクロブロックに設定された場合、motion_refinement_list1_x、motion_refinement_list1_yがある場合は、これらは、LIST1動きベクトルが。送信された精密化ブロックに付け加えられることを示す。] [0066] 表の部分のうち、説明を加えた部分は、イタリック体で表中に書かれていることに留意すべきである。] [0067] 図10は、本発明の原理のインプリメンテーションに従って、ビデオ、および奥行き情報を符号化する方法1000を示す。ステップS1005(S1005の「S」はステップでありオペレーションを表す。したがって、ステップ1005と読む)において、ルマおよび/またはクロマと関連する奥行きサンプリングが、選択される。例えば、選択された奥行きサンプリングは、ルマサンプリング位置と同じかまたは異なってもよい。S1010で、動きベクトルMV1が、ビデオ情報に基づいて生成される。S1015で、ビデオ情報が、動きベクトルMV1を使用して符号化される。S1020で、MV1を使用して、奥行き符号化のレートひずみコストRD1が算出される。] 図10 [0068] S1040で、動きベクトルMV2が、ビデオ情報に基づいて生成される。S1045で、MV1を使用して、奥行き符号化のレートひずみコストRD1が算出される。] [0069] S1025で、RD1がRD2より小さいかどうかが判断される。その場合は、制御はS1030に移る。それ以外の場合は、S1050に移る。] [0070] S1030で、depth_dataが0にセットされ、かつMVがMV1にセットされる。S1050で、depth_dataは1にセットされ、かつMVはMV2にセットされる。] [0071] 「depth_data」はフラグと称してもよい。そして、どんな動きベクトルが使用されるかを示す。depth_dataが0に等しいことは、ビデオデータから動きベクトルを使用しなければならないことを意味する。すなわち、現在の奥行きデータに対応するビデオデータが、現在のマクロブロックの動き予測のために使用される。] [0072] depth_dataが1に等しいことは、奥行きデータから動きベクトルを使用しなければならないことを意味する。すなわち、動き予測の従属構造(dependency structure)に示されているように、他のビューの奥行きデータが現在のマクロブロックの動き予測に対して使用される。] [0073] S1035で、奥行き情報が、MV(depth_dataは、ビットストリームにカプセル化されている)を使用して符号化される。S1055で、奥行きがインバンドで送信されることになっているか否かが判断される。その場合は、制御はS1060に移る。他の場合は、制御はS1075に移る。] [0074] S1060で、奥行きがビデオ成分として扱われることになっているかが判断される。その場合は、制御はS1065に移る。他の場合は、制御はS1070に移る。] [0075] S1065で、データ構造がビデオおよび奥行き情報を含むよう生成される。奥行き情報を(例えば第4の)ビデオ成分として扱い(例えば、ビデオおよび奥行き情報をインターリーブすることによってビューの中で奥行きデータiをビューiのビデオデータに続くようにする)、そして、depth_dataがデータ構造に含まれるようにする。ビデオ、および奥行きは、マクロブロック・レベルに符号化される。] [0076] S1070で、データ構造がビデオおよび奥行き情報を含むよう生成される。奥行き情報がビデオ成分として扱われないようにし(例えば、ビデオ、および奥行き情報が各々の時刻に対してインターリーブされるように、ビデオ、および奥行き情報をインターリーブし)、depth_dataがデータ構造に含まれるようにする。] [0077] S1075で、データ構造がビデオ情報を含むよう生成され、奥行き情報をデータ構造と分離して送るために奥行き情報は排除される。depth_dataは、データ構造に含まれてもよく、あるいは別個の奥行きデータであってもよい。データ構造と称するにせよ称さないにせよ、ビデオ情報は、フォーマット化されたデータの任意タイプに含まれてよい点に留意すべきである。更に、他のデータ構造が、奥行き情報を含むために生成されてもよい。奥行きデータは、アウトオブバンドで送られてもよい。depth_dataは、ビデオデータに(例えば、ビデオデータを含むデータ構造の中に)および/または奥行きデータに(例えば、奥行きデータを含むデータ構造の中に)含まれてもよい点に留意すべきである。] [0078] 図11は、本発明の原理のインプリメンテーションに従って、動きベクトル精密化(motion vector refinement)を有するビデオおよび奥行き情報を符号化する方法を示す。S1110で、動きベクトルMV1が、ビデオ情報に基づいて生成される。S1115で、ビデオ情報は、MV1を使用して(例えば、ビデオ情報と参照用ピクチャのビデオ情報との間の残差を特定することによって)符号化される。S1120で、奥行きを良好に符号化するために、MV1は、MV2に精密化される。動きベクトルを精密化する1つの例は、動きベクトルによって示されている領域周辺で、ローカライズされたサーチを行い、良好なマッチが見つかるかどうか判断することによって行える。] 図11 [0079] S1125で、精密化インジケータが生成される。S1130で、精密化された動きベクトルMV2が符号化される。例えば、MV2とMV1との差が計算されてもよく、かつ符号化されてもよい。] [0080] 一実施例では、精密化インジケータは、マクロブロック・レイヤーでセットされたフラグである。表7は、この種のフラグがどのように送信されるかを提供するために適用されてもよい。表7は、奥行きが四番目の次元として扱われたインプリメンテーションを示すために、既に述べたものである。しかしながら、表7は、これとは異なり、かつより幅広い対象に使用されてもよい。この場合、表7が使用されてもよく、構文に対して以下のセマンティックが(表7のために提案した構文に対するセマンティックに代えて)使用されてもよい。更に、表7の再利用のためのセマンティックで、depth_motion_refine_flagが1にセットされた場合、符号化されたMVは、ビデオ信号からコピーしたものに対する精密化ベクトルとして表される。] [0081] 表7の再利用のための、提案された構文間のセマンティックは、以下の通りである: depth_motion_refine_flagは、動き精密化が現在のマクロブロックに対してイネーブルかどうかを示す。この値が1であることは、ビデオ信号から複製した動きベクトルが精密化されることを意味する。他の場合は、動きベクトルの精密化は実行されない。] [0082] depth_motion_refineが現在のマクロブロックに対してセットされている場合、motion_refinement_list0_x、motion_refinement_list0_yは、それが有るときには、LIST0動きベクトルが、送信された精密化ベクトルに付け加えられることを示す。] [0083] depth_motion_refineが現在のマクロブロックに対してセットされている場合、motion_refinement_list1_x、motion_refinement_list1_yは、それが有るときには、LIST1動きベクトルが、送信された精密化ベクトルに付け加えられることを示す。] [0084] 上述した表の部分は、イタリック体で表に示されている点に留意すべきである。] [0085] S1135で、奥行き残差は、MV2を使用して符号化される。これは、S1115でビデオを符号化することに類似している。S1140で、データ構造は、精密化インジケータ(ビデオ情報および任意に奥行き情報)を含むよう生成される。] [0086] 図12は、本発明の原理のインプリメンテーションに従って、動きベクトル精密化、および差分を有するビデオ、および奥行き情報を符号化する方法を示す。S1210で、動きベクトルMV1がビデオ情報に基づいて生成される。S1215で、ビデオ情報がMV1を使用して符号化される。S1220で、適切に奥行きを符号化するために、MV1がMV2に精密化される。S1225で、MV1がMV2に等しいか否かが判断される。その場合は、制御はS1230に移る。他の場合は、制御はS1255に移る。] 図12 [0087] S1230で、精密化インジケータは、0(false)にセットされる。] [0088] S1235で、精密化インジケータが符号化される。S1240で、精密化インジケータが(S1255に基づき)trueに設定された場合、動きベクトルの差が符号化される(MV2−MV1)。S1245で、奥行き残差がMV2を使用して符号化される。S1250で、データ構造が精密化インジケータ(ビデオ情報および任意に奥行き情報)を含むよう生成される。] [0089] S1255で、精密化インジケータが1(true)に設定される。] [0090] 図13は、本発明の原理のインプリメンテーションに従って、ビデオおよび奥行き情報に対する復号化の方法を示す。S1302で、画像、画像に対する符号化された奥行き情報、およびdepth_dataインジケータ(この信号は、動きベクトルがビデオ情報か奥行き情報によって計算される場合に送られる)のビデオ成分の符号化されたビデオ情報を含む一つ以上のビットストリームが受信される。S1305で、画像のビデオ成分に対する符号化されたビデオ情報が抽出される。S1310で、画像に対する符号化された奥行き情報が、ビットストリームから抽出される。S1315で、depth_dataインジケータが解析される。S1320で、depth_dataが0に等しいか否かが判断される。その場合は、制御はS1325に移る。他の場合は、制御はS1340に移る。] 図13 [0091] S1325で、動きベクトルMVがビデオ情報に基づいて生成される。] [0092] S1330で、動きベクトルMVを使用してビデオ信号が復号化される。S1335で、奥行き信号が動きベクトルMVを使用して復号化される。S1345で、ビデオ、および奥行き情報を含む画像が出力される。] [0093] S1340で、動きベクトルMVが奥行き情報に基づいて生成される。] [0094] 精密化した動きベクトルが奥行き情報を符号化するために使用された場合、S1335の前に、精密化情報が抽出され、かつ精密化されたMVが生成される点に留意すべきである。それからS1335で、精密化したMVが利用され得る。] [0095] 図14に、方法1400が示されている。方法1400は、画像のためのビデオ情報の成分を選択するステップ(1410)を含む。成分は、例えば、輝度、クロミナンス、赤、緑または青であってもよい。] 図14 [0096] 方法1400は、選択されたビデオ情報のための動きベクトルまたは、画像のための奥行き情報を特定することを含む(1420)。オペレーション1420は、例えば、図10のオペレーション1010、および1040に示されるように実行されてもよい。] 図10 [0097] 特定された動きベクトルに基づいて、方法1400は、選択されたビデオ情報(1430)、および奥行き情報(1440)を符号化することを含む。オペレーション1430、および1440は、例えば、それぞれ、図10のオペレーション1015、および1035に示されているように、実行されてもよい。] 図10 [0098] 方法1400は、選択されたビデオ情報および奥行き情報が、特定された動きベクトルに基づいて符号化されたことを示すインジケータを生成することを含む(1450)。オペレーション1450は、例えば、図10のオペレーション1030、および1050に記載されているように実行されてもよい。] 図10 [0099] 方法1400は、符号化されたビデオ情報(符号化された奥行き情報)と、生成されたインジケータ(1460)とを集合的に含む、一つ以上のデータ構造を生成するステップを有する。オペレーション1460は、例えば、図10のオペレーション1065、および1070に記載されているように実行されてもよい。] 図10 [0100] 図15を参照すると、装置1500(例えばH.264符号化器)が示されている。装置1500の構造、およびオペレーションの実施例が示されている。装置1500は、符号化されたビデオを受信するセレクタ1510を含む。セレクタ1510は、画像のためのビデオ情報の成分を選択し、かつ動きベクトル発生器1530、および符号化器1540に選択されたビデオ情報1520を提供する。セレクタ1510は、方法1400のオペレーション1410を実行してもよい。] 図15 [0101] 動きベクトル発生器1530は、また、画像に対する奥行き情報を受信し、かつ選択されたビデオ情報1520に対してまたは奥行き情報に対して動きベクトルを特定する。動きベクトル・ジェネレータ1530は、例えば、図4の動き予測ブロック480に類似した方法で作動してもよい。動きベクトル発生器1530は、方法1400のオペレーション1420を実行してもよい。この動きベクトル発生器1530は、符号化器1540に動きベクトル1550を提供する。] 図4 [0102] 符号化器1540は、また、画像に対する奥行き情報を受信する。符号化器1540は、特定された動きベクトルに基づいて選択されたビデオ情報を符号化し、かつ特定された動きベクトルに基づいて奥行き情報を符号化する。符号化器1540は、生成器1580に符号化されたビデオ情報1560、および符号化された奥行き情報1570を提供する。符号化器1540は、例えば、図4のブロック410−435、450、455、および475に類似した方法で作動してもよい。他のインプリメンテーションは、例えば、ビデオ、および奥行きを符号化するために別々の符号化器を使用してもよい。符号化器1540は、方法1400のオペレーション1430、および1440を実行してもよい。] 図4 [0103] 生成器1580は、選択されたビデオ情報、および奥行き情報が、特定された動きベクトルに基づいて符号化されたことを示すインジケータを生成する。生成器1580は、また、符号化されたビデオ情報、符号化された奥行き情報、および生成されたインジケータを集合的に含む一つ以上の(出力1590として示された)データ構造を生成する。生成器1580は、例えば、図4の符号化器400のための出力ビットストリームを生成するエントロピー符号化ブロック420に類似した方法で作動してもよい。他のインプリメンテーションは、例えば、インジケータおよびデータ構造を生成するために、別々の生成器を使用してもよい。更に、インジケータは、例えば、動きベクトル発生器1530または符号化器1540によって生成されてもよい。生成器1580は、方法1400のオペレーション1450、および1460を実行してもよい。] 図4 [0104] 図16を参照すると、方法1600が示されている。方法1600は、データを受信するステップを含む(1610)。データは、画像のビデオ成分に対する符号化されたビデオ情報、画像に対する符号化された奥行き情報およびインジケータを含む。インジケータは、符号化されたビデオ情報および符号化された奥行き情報が、ビデオ情報に対して、または奥行き情報に対して特定された動きベクトルに基づいて符号化されたことを示す。インジケータは、動きベクトル・ソース・インジケータと称してもよい。例えば、ソースは、ビデオ情報か奥行き情報である。オペレーション1610は、例えば、図13のオペレーション1302に示したように実行されてもよい。] 図13 図16 [0105] 方法1600は、符号化されたビデオ情報、および符号化された奥行き情報を復号化するための動きベクトルを生成することを含む(1620)。オペレーション1620は、例えば、図13のオペレーション1325および1340に示したように実行されてもよい。] 図13 [0106] 方法1600は、生成された動きベクトルに基づいて符号化されたビデオ情報を復号化することを含む(1330)。そして、画像のための復号化されたビデオ情報を生成する(1630)。また、方法1600は、生成された動きベクトルに基づいて符号化された奥行き情報を復号化することを含む(1335)。そして、画像のための復号化された奥行き情報を生成する(1640)。オペレーション1630、および1640は、例えば、それぞれ、図13のオペレーション1330、および1335として示されているように実行されてもよい。] 図13 [0107] 図17を参照すると、例えばH.264復号化器の装置1700が示されている。装置1700の構造、およびオペレーションの実施例が提供される。装置1700は、バッファ1710を含む。バッファ1710は、(1)画像のビデオ成分に対する符号化されたビデオ情報、(2)画像に対する符号化された奥行き情報、(3)符号化されたビデオ情報および符号化された奥行き情報がビデオ情報に対してまたは奥行き情報に対して特定された動きベクトルに基づいて符号化されたことを示すインジケータを含むデータを受信するように構成されている。バッファ1710は、例えば、図5の符号化された情報を受信するエントロピー復号化ブロック505に類似した方法で作動してもよい。バッファ1710は、方法1600のオペレーション1610を実行してもよい。] 図17 図5 [0108] バッファ1710は、符号化されたビデオ情報1730、符号化された奥行き情報1740、およびインジケータ1750を、装置1700に含まれる動きベクトル発生器1760に提供する。動きベクトル発生器1760は、符号化されたビデオ情報および符号化された奥行き情報を復号化するために、動きベクトル1770を生成する。動きベクトル発生器1760は、種々の方法動きベクトル1770を生成してもよい。たとえば、前に受信されたビデオおよび/または奥行きデータに基づいて、または前に受信されたビデオおよび/または奥行きデータに対してすでに生成された動きベクトルを複製することによって、動きベクトル1770を生成することを含んでもよい点に留意すべきである。動きベクトル発生器1760は、方法1600のオペレーション1620を実行してもよい。動きベクトル発生器1760は、復号化器1780に動きベクトル1770を提供する。] [0109] 復号化器1780は、また、符号化されたビデオ情報1730、および符号化された奥行き情報1740を受信する。復号化器1780は、画像のための復号化されたビデオ情報を提供するために生成された動きベクトル1770に基づいて符号化されたビデオ情報1730を復号化するように構成される。復号化器1780は、画像のために復号化された奥行き情報を生成するべく生成された動きベクトル1770に基づいて、符号化された奥行き情報1740を復号化するように更に構成される。復号化されたビデオ、および奥行き情報は、図17の出力1790として示される。出力1790は、種々の方法、およびデータ構造でフォーマット化されてもよい。更に、復号化ビデオ、および奥行き情報は、出力として提供される必要はなく、他のフォーマット(例えばスクリーンの表示に適しているフォーマット)に変換されてもよい。復号化器1780は、例えば、受信されたデータを復号化する図5のブロック510−525、535、および540に類似した方法で作動してもよい。復号化器1780は、方法1600のオペレーション1630および1640を実行してもよい。] 図17 図5 [0110] 以上のように、様々なインプリメンテーションが提供される。例えば、(1)奥行きデータの符号化に対する、ビデオデータの符号化からの使用情報、(2)ビデオデータの符号化に対する、奥行きデータの符号化からの使用情報、(3)ビデオのY、U、およびVに加えて第4次元の(または付加的な)または成分としての符号化された奥行きデータ、および/または、(4)ビデオデータと別個の信号としての、奥行きデータの符号化、が挙げられる。加えて、この種のインプリメンテーションは、マルチビュービデオ符号化フレームワークの、他の標準の技術、または標準(例えば勧告、その他)を含まない技術に対して使用されてもよい。] [0111] したがって特定の特徴、および態様を有する一つ以上のインプリメンテーションを提供している。なお、記載されているインプリメンテーションの特徴、および態様は、また、他のインプリメンテーションに適していてもよい。インプリメンテーションにおいては、送信情報として、様々な技術が利用できる、たとえば、SEIメッセージ、他の高水準構文、非高水準構文、アウトオブバンドの情報、データストリームのデータ、および潜在的なシグナリングを含むが、これに限らず種々の技術を使用している信号情報が含まれる。したがって、本願明細書において記載されているインプリメンテーションが特定の実施例に付随して記載されていても、特徴、およびコンセプトをこの種のインプリメンテーションまたは実施例に制限するようにこの種の説明を理解してはならない。] [0112] 加えて、多くのインプリメンテーションは、符号化器、および復号化器のいずれかまたは両方にインプリメントされてもよい。] [0113] 本発明の原理に係る、「一実施例」または「実施例」または「1つのインプリメンテーション」または「インプリメンテーション」の用語は、本発明の、原理の少なくとも一つが実施例に含まれることを意味する。したがって、「実施例において」、「一つの実施例において」または「一つのインプリメンテーションにおいて」または「インプリメンテーションにおいて」という用語は、明細書の全体にわたるさまざまな場所に現れる全てが、同じ実施例に必ずしも関連しているというわけではない。] [0114] 「/」、「および/または」「少なくとも1つの」、という用語、たとえば、「A/B」、「Aおよび/またはB」「AおよびDのうち少なくとも1つの」は、第1の選択肢A、第2の選択肢B、または、AおよびBの両方のいずれかを意味することは言うまでもない。更なる例としては、「A、Bおよび/またはC」という言葉の意味は、Aのみ、Bのみ、Cのみ、AおよびB、BおよびC、AおよびC、またはA、BおよびCのいずれかを意味する。これは、さらに、多くの選択肢を使用した表現に拡張できる。] [0115] 例えば、本願明細書において記載されているインプリメンテーションは、方法、装置またはソフトウェアプログラムでインプリメントされてもよい。インプリメンテーションが、例えば、方法だけとして説明されている単一のカテゴリの文脈でされているだけの場合であっても、説明された特徴のインプリメンテーションは、また、他の形式、例えば装置またはプログラムでインプリメントされてもよい。例えば、装置は、適切なハードウェア、ソフトウェア、およびファームウェアによってインプリメントされてもよい。] [0116] 方法は例えば装置(例えばプロセッサ)によってインプリメントされてもよい。そして、それは一般の処理デバイスに関連する。そして、例えば、コンピュータ、マイクロプロセッサ、集積回路またはプログラマブル・ロジック・デバイスを含む。プロセッサは、通信装置、例えばコンピュータ、携帯電話、ポータブル/パーソナル携帯情報機器(PDA)を有し、エンドユーザ間の情報の通信を容易にする他のデバイスを含む。] [0117] 本願明細書において記載されているさまざまな方法、および特徴のインプリメンテーションは種々の異なる器材に表現されてもよい、または、アプリケーション、特に、例えば器材またはアプリケーションはデータの符号化、および復号化に関連する。装置の例としては、ビデオ・符号化器、ビデオ復号化器、ビデオ・コーデック、ウェブ・サーバ、セットトップボックス、ラップトップ、パソコン、携帯電話、PDA、その他の通信装置を含む。器材には、モバイル装置が含まれ、あるいはモバイル装置にインストールされてもよい。] [0118] 加えて、方法はプロセッサによって実行される命令によってインプリメントされてもよい。そして、例えば、この種の命令(および/またはインプリメンテーションによって生成されたデータ値)は集積回路、ソフトウェア・キャリアまたは例えば他の記憶装置(例えばハードディスク、コンパクト・ディスケット、ランダムアクセスメモリ((RAM)または読取り専用メモリ(ROM))のようなプロセッサ可読な媒体に記憶されてもよい。命令は、プロセッサ可読な媒体に明白に記憶されたアプリケーションプログラムを形成してもよい。命令は、例えば、ハードウェア、ファームウェア、ソフトウェアまたはこれらの組合せであってもよい。例えば、命令は、オペレーティングシステム、個別のアプリケーションまたは両者の組合せであってもよい。例えば、プロセッサは、したがって、方法を実行するように構成されたデバイス、および方法を実行する命令を有するプロセッサ可読媒体を含むデバイスとして特徴付けられてもよい。] [0119] 当業者に明らかなように、インプリメンテーションは、例えば、記憶されまたは送信されてもよい情報を伝送するためのフォーマット化された種々の信号を生成してもよい。情報は、例えば、方法を実行するための命令、または記載されているインプリメンテーションのうちの1つによって生成されたデータを含んでもよい。例えば、信号は、実施例の構文を書き込むかまたは読み込むことに対する規則のデータとしてフォーマット化されてもよく、あるいは、記載されている実施例によって書かれた実際の構文の値であってもよい。この種の信号は、例えば、(無線周波数の部分のスペクトルを使用する)電磁波として、またはベースバンド信号としてフォーマット化されてもよい。フォーマッティングは、例えば、データ列を符号化し、かつ符号化されたデータ列を有するキャリアを変調することを含んでもよい。信号が伝送する情報は、例えば、アナログまたはデジタル情報であってもよい。周知のように、信号は、有線あるいは無線の種々の異なるリンクを通じて送られてもよい。] 実施例 [0120] 多くのインプリメンテーションを述べた。もちろん、さまざまな修正がなされてもよいことが理解される。例えば、異なるインプリメンテーションの要素は、結合されてもよく、補充されてもよく、修正されてもよく、または、他のインプリメンテーションを生成するために取り除かれてもよい。加えて、当業者であれば、他の方法が開示されたそれらに対して代替されてもよいことを理解するであろう。この場合、少なくとも実質的に同じ方法で、結果として生じるインプリメンテーションは実質的に少なくとも同じ機能を実行し、インプリメンテーションが開示したように、実質的に少なくとも同じ結果を達成する。したがって、これら、および他のインプリメンテーションは、本出願によって考察され、かつ以下の請求項の範囲内である。]
权利要求:
請求項1 画像に対するビデオ情報の成分を選択するステップと;前記画像に対する、前記選択されたビデオ情報の、または奥行き情報の動きベクトルを特定するステップと;前記特定された動きベクトルに基づいて、前記選択されたビデオ情報を符号化するステップと;前記特定された動きベクトルに基づいて、前記奥行き情報を符号化するステップと;前記選択されたビデオ情報、および前記奥行き情報が前記特定された動きベクトルに基づいて、符号化されたことを示すインジケータを生成するステップと;前記符号化されたビデオ情報、前記符号化された奥行き情報、および前記生成されたインジケータを集合的に含む一つ以上のデータ構造を生成するステップと;を有する方法。 請求項2 前記特定された動きベクトルに基づいて、前記選択されたビデオ情報を符号化するステップは、前記選択されたビデオ情報と参照されたビデオ画像のビデオ情報との間の残差を特定するステップであって、前記参照ビデオ画像の前記ビデオ情報は、前記特定された動きベクトルによって示されているところのステップを有し、前記特定された動きベクトルに基づいて、前記奥行き情報を符号化するステップは、前記奥行き情報と参照奥行き画像の奥行き情報との間の残差を特定するステップであって、前記参照奥行き画像の奥行き情報は、前記特定された動きベクトルによって示されるところのステップを有する、請求項1記載の方法。 請求項3 前記動きベクトルを特定するステップは、前記選択されたビデオ情報の前記動きベクトルを特定するステップを有し、前記特定された動きベクトルに基づいて、前記選択されたビデオ情報を符号化するステップは、前記選択されたビデオ情報と参照ビデオ画像のビデオ情報との間の残差を特定するステップであって、前記参照ビデオ画像の前記ビデオ情報は前記特定された動きベクトルによって示されるところのステップを有し、かつ前記特定された動きベクトルに基づいて、前記奥行き情報を符号化するステップは、精密化した動きベクトルを生成するために前記特定された動きベクトルを精密化するステップと;前記奥行き情報と参照奥行き画像の前記奥行き情報との間の残差を特定するステップであって、参照奥行き画像の前記奥行き情報は、前記精密化した動きベクトルによって示されているところのステップと;を含む、請求項1記載の方法。 請求項4 前記特定された動きベクトルと前記精密化された動きベクトルとの差違を示す精密化インジケータを生成するステップと;前記精密化インジケータを前記生成されたデータ構造に含めるステップと;を更に有する請求項3記載の方法。 請求項5 前記画像は、フレームのマクロブロックである、請求項1記載の方法。 請求項6 前記画像の特定のスライスが前記選択されたビデオ情報または前記奥行き情報に帰属する指示を生成するステップを更に有し、前記データ構造は、前記特定のスライスに対する前記生成された指示を更に含む、請求項1記載の方法。 請求項7 前記指示は、少なくとも一つの高水準構文を使用して提供される、請求項6記載の方法。 請求項8 前記画像はマルチビュー・ビデオコンテンツに対応し、かつ前記画像の与えられたビューの前記奥行き情報が前記画像の前記与えられたビューの前記選択されたビデオ情報に続くように、前記データ構造は、前記画像の、前記奥行き情報および前記与えられたビューの前記選択されたビデオ情報をインターリーブすることによって生成される、請求項1記載の方法。 請求項9 前記画像はマルチビュー・ビデオコンテンツに対応し、かつ前記データ構造は、前記画像の与えられた時刻での与えられたビューの、前記奥行き情報および前記選択されたビデオ情報をインターリーブすることによって生成され、前記画像の前記与えられた時刻での、インターリーブされた奥行き情報および前記与えられたビューの前記選択されたビデオ情報は、前記画像の前記与えられた時刻での他のビューの、インターリーブされた奥行き情報および選択されたビデオ情報に先行するようにされる、請求項1記載の方法。 請求項10 前記画像はマルチビュー・ビデオコンテンツに対応し、かつ前記奥行き情報および前記選択されたビデオ情報が各々の時刻に対してビュー毎にインターリーブされるように、前記データ構造は、前記奥行き情報および前記選択されたビデオ情報をインターリーブすることによって生成される、請求項1記載の方法。 請求項11 前記画像はマルチビュー・ビデオコンテンツに対応し、かつマルチビューに対する奥行き情報およびマルチビューに対する選択されたビデオ情報が各々の時刻に対してインターリーブされるように、前記データ構造は前記奥行き情報、および前記選択されたビデオ情報をインターリーブすることによって生成される、請求項1記載の方法。 請求項12 前記データ構造は、前記選択されたビデオ情報の付加的な成分として前記奥行き情報を配置することによって生成され、前記選択されたビデオ情報が少なくとも一つのルマ成分、および少なくとも一つのクロマ成分を更に含む、請求項1記載の方法。 請求項13 前記奥行き情報、およびビデオ情報の前記選択された成分に対して同じサンプリングが使用される、請求項1記載の方法。 請求項14 ビデオ情報の前記選択された成分は、輝度成分または色成分である、請求項13記載の方法。 請求項15 当該方法は、符号化器によって実行される、請求項1記載の方法。 請求項16 画像に対するビデオ情報の成分を選択するための手段と;前記画像に対する、前記選択されたビデオ情報の、または奥行き情報の、動きベクトルを特定するための手段と;前記特定された動きベクトルに基づいて、前記選択されたビデオ情報を符号化するための手段と;前記特定された動きベクトルに基づいて、前記奥行き情報を符号化するための手段と;前記特定された動きベクトルに基づいて、前記選択されたビデオ情報、および前記奥行き情報が符号化されたことを示すインジケータを生成する手段と;前記符号化されたビデオ情報、前記符号化された奥行き情報、および前記生成されたインジケータを集合的に含む一つ以上のデータ構造を生成するための手段と;を有する装置。 請求項17 画像に対するビデオ情報の成分を選択するための手順と;前記画像に対する、前記選択されたビデオ情報の、または奥行き情報の、動きベクトルを特定するための手順と;前記特定された動きベクトルに基づいて、前記選択されたビデオ情報を符号化するための手順と;前記特定された動きベクトルに基づいて、前記奥行き情報を符号化するための手順と;前記特定された動きベクトルに基づいて、前記選択されたビデオ情報、および前記奥行き情報が符号化されたことを示すインジケータを生成する手順と;前記符号化されたビデオ情報、前記符号化された奥行き情報、および前記生成されたインジケータを集合的に含む一つ以上のデータ構造を生成するための手順と;を含む命令をコンピュータに実行させるプログラム。 請求項18 画像に対するビデオ情報の成分を選択するための手順と;前記画像に対する、前記選択されたビデオ情報の、または奥行き情報の、動きベクトルを特定するための手順と;前記特定された動きベクトルに基づいて、前記選択されたビデオ情報を符号化するための手順と;前記特定された動きベクトルに基づいて、前記奥行き情報を符号化するための手順と;前記特定された動きベクトルに基づいて、前記選択されたビデオ情報、および前記奥行き情報が符号化されたことを示すインジケータを生成する手順と;前記符号化されたビデオ情報、前記符号化された奥行き情報、および前記生成されたインジケータを集合的に含む一つ以上のデータ構造を生成するための手順と;を少なくとも実行するように構成されたプロセッサを有する装置。 請求項19 画像に対するビデオ情報の成分を選択するためのセレクタと;前記画像に対する、前記選択されたビデオ情報の、または奥行き情報の、動きベクトルを特定するための動きベクトル発生器と;前記特定された動きベクトルに基づいて、前記選択されたビデオ情報を符号化するための、および、前記特定された動きベクトルに基づいて、前記奥行き情報を符号化するための符号化器と;前記特定された動きベクトルに基づいて、前記選択されたビデオ情報、および前記奥行き情報が符号化されたことを示すインジケータを生成するための、並びに、前記符号化されたビデオ情報、前記符号化された奥行き情報、および前記生成されたインジケータを集合的に含む一つ以上のデータ構造を生成するための生成器と;を有する装置。 請求項20 前記セレクタと、前記動きベクトル発生器と、前記符号化器と、前記生成器とを含む符号化器を有する、請求項19記載の装置。 請求項21 画像に対する符号化されたビデオ情報と、前記画像に対する符号化された奥行き情報と、前記符号化されたビデオ情報および前記符号化された奥行き情報が前記ビデオ情報に対してまたは前記奥行き情報に対して特定された動きベクトルに基づいて符号化されていることを示すインジケータとを含むデータ構造を含むフォーマット化された信号。 請求項22 画像に対する符号化されたビデオ情報と、前記画像に対する符号化された奥行き情報と、前記符号化されたビデオ情報および前記符号化された奥行き情報が前記ビデオ情報に対してまたは前記奥行き情報に対して特定された動きベクトルに基づいて符号化されていることを示すインジケータとを含むデータ構造を記憶した、プロセッサ読み取り可能な媒体。 請求項23 画像に対する符号化されたビデオ情報と、前記画像に対する符号化された奥行き情報と、前記符号化されたビデオ情報および前記符号化された奥行き情報が前記ビデオ情報に対してまたは前記奥行き情報に対して特定された動きベクトルに基づいて符号化されていることを示すインジケータとを含むデータを受信するステップと;前記符号化されたビデオ情報、および前記符号化された奥行き情報を復号化するのに用いられる前記動きベクトルを生成するステップと;画像に対する復号化されたビデオ情報を生成するために、前記生成された動きベクトルに基づいて、前記符号化されたビデオ情報を復号化するステップと;画像に対する復号化された奥行き情報を生成するために、前記生成された動きベクトルに基づいて、前記符号化された奥行き情報を復号化するステップと;を有する方法。 請求項24 前記復号化されたビデオ情報および前記復号化された奥行き情報を含むデータ構造を生成するステップと;少なくとも一つの復号化のために、前記データ構造を記憶するステップと;少なくとも一部の前記画像を表示するステップと;を更に有する請求項23記載の方法。 請求項25 受信されたデータ構造内において、前記画像の特定のスライスが前記符号化されたビデオ情報または前記符号化された奥行き情報に帰属することを示す、指示を受信するステップを更に有する請求項23記載の方法。 請求項26 前記指示は、少なくとも一つの高水準構文を使用して提供される、請求項25記載の方法。 請求項27 前記受信されたデータは、前記画像に付加されたビデオ成分として配置された前記符号化された奥行き情報と共に受信される、請求項23記載の方法。 請求項28 当該方法は、復号化器によって実行される、請求項23記載の方法。 請求項29 画像に対する符号化されたビデオ情報と、前記画像に対する符号化された奥行き情報と、前記符号化されたビデオ情報および前記符号化された奥行き情報が前記ビデオ情報に対してまたは前記奥行き情報に対して特定された動きベクトルに基づいて符号化されていることを示すインジケータとを含むデータを受信する手段と;前記符号化されたビデオ情報、および前記符号化された奥行き情報を復号化するのに用いられる前記動きベクトルを生成する手段と;画像に対する復号化されたビデオ情報を生成するために、前記生成された動きベクトルに基づいて、前記符号化されたビデオ情報を復号化する手段と;画像に対する復号化された奥行き情報を生成するために、前記生成された動きベクトルに基づいて、前記符号化された奥行き情報を復号化する手段と;を有する装置。 請求項30 画像に対する符号化されたビデオ情報と、前記画像に対する符号化された奥行き情報と、前記符号化されたビデオ情報および前記符号化された奥行き情報が前記ビデオ情報に対してまたは前記奥行き情報に対して特定された動きベクトルに基づいて符号化されていることを示すインジケータとを含むデータを受信する手順と;前記符号化されたビデオ情報、および前記符号化された奥行き情報を復号化するのに用いられる前記動きベクトルを生成する手順と;画像に対する復号化されたビデオ情報を生成するために、前記生成された動きベクトルに基づいて、前記符号化されたビデオ情報を復号化する手順と;画像に対する復号化された奥行き情報を生成するために、前記生成された動きベクトルに基づいて、前記符号化された奥行き情報を復号化する手順と;をコンピュータに実行させるための命令を含むプログラム。 請求項31 画像に対する符号化されたビデオ情報と、前記画像に対する符号化された奥行き情報と、前記符号化されたビデオ情報および前記符号化された奥行き情報が前記ビデオ情報に対してまたは前記奥行き情報に対して特定された動きベクトルに基づいて符号化されていることを示すインジケータとを含むデータ構造を受信する手順と;前記符号化されたビデオ情報、および前記符号化された奥行き情報を復号化するのに用いられる前記動きベクトルを生成する手順と;画像に対する復号化されたビデオ情報を生成するために、前記生成された動きベクトルに基づいて、前記符号化されたビデオ情報を復号化する手順と;画像に対する復号化された奥行き情報を生成するために、前記生成された動きベクトルに基づいて、前記符号化された奥行き情報を復号化する手順と;を少なくとも実行するために構成されたプロセッサを有する装置。 請求項32 画像に対する符号化されたビデオ情報と、前記画像に対する符号化された奥行き情報と、前記符号化されたビデオ情報および前記符号化された奥行き情報が前記ビデオ情報に対してまたは前記奥行き情報に対して特定された動きベクトルに基づいて符号化されていることを示すインジケータとを含むデータを受信するためのバッファと;前記符号化されたビデオ情報、および前記符号化された奥行き情報を復号化するのに用いられる前記動きベクトルを生成するための動きベクトル生成器と;画像に対する復号化されたビデオ情報を生成するために、前記生成された動きベクトルに基づいて、前記符号化されたビデオ情報を復号化するための、および、画像に対する復号化された奥行き情報を生成するために、前記生成された動きベクトルに基づいて、前記符号化された奥行き情報を復号化するための、復号化器と;を有する装置。 請求項33 前記復号化されたビデオ情報、および前記復号化された奥行き情報を含むデータ構造を生成するためのアセンブラ、を有する請求項32記載の装置。 請求項34 前記バッファ、前記動きベクトル発生器、および前記復号化器を含む復号化器、を有する請求項32記載の装置。 請求項35 画像に対する符号化されたビデオ情報と、前記画像に対する符号化された奥行き情報と、前記符号化されたビデオ情報および前記符号化された奥行き情報が前記ビデオ情報に対してまたは前記奥行き情報に対して特定された動きベクトルに基づいて符号化されていることを示すインジケータとを含む信号を受信しかつ復調するように構成された復調器と;復号化器であって:前記符号化されたビデオ情報、および前記符号化された奥行き情報の両者を復号化するために使用する前記動きベクトルを生成し;前記画像に対する復号化されたビデオ情報を生成するために、前記生成された動きベクトルに基づいて、前記符号化されたビデオ情報を復号化し;かつ復号化された奥行き情報を生成するために、前記生成された動きベクトルに基づいて、前記画像に対する前記符号化された奥行き情報を復号化する;ことを少なくとも実行するように構成された復号化器と;を有する装置。 請求項36 符号化器であって:画像に対するビデオ情報の成分を選択し、前記画像に対する、前記選択されたビデオ情報の、または奥行き情報の、動きベクトルを特定し、前記特定された動きベクトルに基づいて、前記選択されたビデオ情報を符号化し、前記特定された動きベクトルに基づいて、前記奥行き情報を符号化し、前記選択されたビデオ情報および前記奥行き情報が、前記特定された動きベクトルに基づいて、符号化されたことを示すインジケータを生成し、かつ前記符号化されたビデオ情報、前記符号化された奥行き情報、および前記生成されたインジケータを集合的に含む、一つ以上のデータ構造を生成する、ことを実行する符号化器と;前記データ構造を変調し、かつ送信するように構成された変調器と;を有する装置。
类似技术:
公开号 | 公开日 | 专利标题 JP6605565B2|2019-11-13|スケーラブルなマルチビュービデオコーディングにおける高度な残差予測 US10397610B2|2019-08-27|Method and apparatus for video coding TWI688262B|2020-03-11|用於視訊寫碼之重疊運動補償 JP2019075823A|2019-05-16|ビデオ符号化・復号装置、方法、及びコンピュータプログラム US20190379904A1|2019-12-12|Inter-view prediction TWI666918B|2019-07-21|決定在視訊寫碼中之調色板寫碼區塊的調色板大小、調色板單元及過濾 JP5674873B2|2015-02-25|Tiling in video coding and decoding US9716897B2|2017-07-25|Prediction parameter inheritance for 3D video coding US9800857B2|2017-10-24|Inter-view residual prediction in multi-view or 3-dimensional video coding US9998726B2|2018-06-12|Apparatus, a method and a computer program for video coding and decoding US20190200038A1|2019-06-27|Methods and systems for intra block copy coding with block vector derivation AU2017204240B2|2019-02-14|Decoding device and decoding method, and encoding device and encoding method JP6559337B2|2019-08-14|360度パノラマビデオの符号化方法、符号化装置、及びコンピュータプログラム US20160277762A1|2016-09-22|Downsampling process for linear model prediction mode RU2577779C2|2016-03-20|Генерирование дополнительных кандидатов для слияния CN104584549B|2018-06-22|用于视频编码的方法和装置 JP6096217B2|2017-03-15|3dビデオコーディングにおけるビュー合成予測サポートのシグナリング JP2018110412A|2018-07-12|スケーラブルビデオコード化におけるダウンサンプリング位相情報の信号伝達 JP5866364B2|2016-02-17|ステレオビデオデータの符号化 JP6635184B2|2020-01-22|Image processing apparatus and method KR101630564B1|2016-06-14|비디오 코딩을 위한 방법 및 장치 EP2839660B1|2020-10-07|An apparatus, a method and a computer program for video coding and decoding US20140218473A1|2014-08-07|Method and apparatus for video coding and decoding US9942558B2|2018-04-10|Inter-layer dependency information for 3DV TWI533679B|2016-05-11|在視訊寫碼中之參數集
同族专利:
公开号 | 公开日 WO2009091383A3|2009-09-11| KR20100105877A|2010-09-30| BRPI0821500A2|2015-06-16| EP2232875A2|2010-09-29| JP2014003682A|2014-01-09| WO2009091383A2|2009-07-23| CN101911700A|2010-12-08| US20100284466A1|2010-11-11|
引用文献:
公开号 | 申请日 | 公开日 | 申请人 | 专利标题 US20070030356A1|2004-12-17|2007-02-08|Sehoon Yea|Method and system for processing multiview videos for view synthesis using side information| JP2006191357A|2005-01-06|2006-07-20|Victor Co Of Japan Ltd|再生装置および再生プログラム| JP2007036800A|2005-07-28|2007-02-08|Nippon Telegr & Teleph Corp <Ntt>|映像符号化方法、映像復号方法、映像符号化プログラム、映像復号プログラム及びそれらのプログラムを記録したコンピュータ読み取り可能な記録媒体| WO2007126508A2|2006-03-29|2007-11-08|Thomson Licensing|Multi-view video coding method and device|WO2012147622A1|2011-04-28|2012-11-01|ソニー株式会社|画像処理装置、及び、画像処理方法| WO2012147621A1|2011-04-28|2012-11-01|ソニー株式会社|符号化装置および符号化方法、並びに、復号装置および復号方法| JP2013528023A|2010-04-13|2013-07-04|フラウンホーファー−ゲゼルシャフト・ツール・フェルデルング・デル・アンゲヴァンテン・フォルシュング・アインゲトラーゲネル・フェライン|Interplane prediction| WO2013157439A1|2012-04-17|2013-10-24|ソニー株式会社|復号装置および復号方法、並びに、符号化装置および符号化方法| JP2014524707A|2011-08-11|2014-09-22|クゥアルコム・インコーポレイテッドQualcommIncorporated|非対称な空間解像度を持つ3次元ビデオ| JP2014526194A|2011-07-22|2014-10-02|クゥアルコム・インコーポレイテッドQualcommIncorporated|Slice header 3D video extension for slice header prediction| JP2014526193A|2011-07-22|2014-10-02|クゥアルコム・インコーポレイテッドQualcommIncorporated|内部ビュー動き予測(ivmp)モードをサポートするmvcベースの3dvcコーデック| JP2014195279A|2014-05-07|2014-10-09|Fraunhofer-Gesellschaft Zur Foerderung Der Angewandte Forschung E V|平面間予測| JP2015500589A|2011-11-30|2015-01-05|クゥアルコム・インコーポレイテッドQualcomm Incorporated|マルチビュービデオコード化(mvc)適合3次元ビデオコード化(3dvc)のためのパラメータセットのアクティブ化| JP2015509345A|2012-02-01|2015-03-26|ノキア コーポレイション|ビデオ符号化方法および装置| JP2015518338A|2012-04-25|2015-06-25|ノキア コーポレイション|ビデオコーディング方法および装置| JP2015180104A|2010-08-11|2015-10-08|フラウンホーファー−ゲゼルシャフト・ツール・フェルデルング・デル・アンゲヴァンテン・フォルシュング・アインゲトラーゲネル・フェライン|多視点信号コーデック| JP2015537491A|2012-12-14|2015-12-24|クゥアルコム・インコーポレイテッドQualcomm Incorporated|Internal view motion prediction within texture and depth view components with asymmetric spatial resolution| US9485503B2|2011-11-18|2016-11-01|Qualcomm Incorporated|Inside view motion prediction among texture and depth view components| US9591335B2|2010-04-13|2017-03-07|Ge Video Compression, Llc|Coding of a spatial sampling of a two-dimensional information signal using sub-division| JP2017147749A|2017-04-20|2017-08-24|シャープ株式会社|画像符号化装置、画像復号装置、画像符号化方法、画像復号方法およびプログラム| US9807427B2|2010-04-13|2017-10-31|Ge Video Compression, Llc|Inheritance in sample array multitree subdivision| US10248966B2|2010-04-13|2019-04-02|Ge Video Compression, Llc|Region merging and coding parameter reuse via merging|JP3104439B2|1992-11-13|2000-10-30|ソニー株式会社|高能率符号化及び/又は復号化装置| US5614952A|1994-10-11|1997-03-25|Hitachi America, Ltd.|Digital video decoder for decoding digital high definition and/or digital standard definition television signals| US6188730B1|1998-03-23|2001-02-13|Internatonal Business Machines Corporation|Highly programmable chrominance filter for 4:2:2 to 4:2:0 conversion during MPEG2 video encoding| US6504872B1|2000-07-28|2003-01-07|Zenith Electronics Corporation|Down-conversion decoder for interlaced video| US6940538B2|2001-08-29|2005-09-06|Sony Corporation|Extracting a depth map from known camera and model tracking data| US20030198290A1|2002-04-19|2003-10-23|Dynamic Digital Depth Pty.Ltd.|Image encoding system| US7003136B1|2002-04-26|2006-02-21|Hewlett-Packard Development Company, L.P.|Plan-view projections of depth image data for object tracking| JP4533895B2|2003-09-30|2010-09-01|コーニンクレッカフィリップスエレクトロニクスエヌヴィ|画像レンダリングのための動き制御| KR20060105409A|2005-04-01|2006-10-11|엘지전자 주식회사|영상 신호의 스케일러블 인코딩 및 디코딩 방법| NZ566935A|2005-09-27|2010-02-26|Qualcomm Inc|Methods and apparatus for service acquisition| JP4605715B2|2006-06-14|2011-01-05|Kddi株式会社|多視点画像圧縮符号化方法、装置及びプログラム| US20090290643A1|2006-07-12|2009-11-26|Jeong Hyu Yang|Method and apparatus for processing a signal| CN101690220B|2007-04-25|2013-09-25|Lg电子株式会社|用于解码/编码视频信号的方法和装置| JP5346076B2|2008-04-25|2013-11-20|トムソンライセンシングThomsonLicensing|奥行きを用いた視点間スキップモード| US20100188476A1|2009-01-29|2010-07-29|Optical Fusion Inc.|Image Quality of Video Conferences|JP6042943B2|1987-09-25|2016-12-14|サムスン エレクトロニクス カンパニー リミテッド|Method for guiding granular flow in a plurality of fluidized bed reactors and reactor plant for carrying out the method| JP5346076B2|2008-04-25|2013-11-20|トムソンライセンシングThomsonLicensing|奥行きを用いた視点間スキップモード| EP2338281A4|2008-10-17|2012-08-15|Nokia Corp|Sharing of motion vector in 3d video coding| KR101158491B1|2008-12-08|2012-06-20|한국전자통신연구원|다시점 영상 부호화, 복호화 방법 및 그 장치.| EP2384584B1|2009-01-30|2017-03-15|Thomson Licensing|Coding of depth maps| WO2010093351A1|2009-02-13|2010-08-19|Thomson Licensing|Depth map coding to reduce rendered distortion| WO2010126612A2|2009-05-01|2010-11-04|Thomson Licensing|Reference picture lists for 3dv| US9131279B2|2009-08-06|2015-09-08|Qualcomm Incorporated|Preparing video data in accordance with a wireless display protocol| KR101636539B1|2009-09-10|2016-07-05|삼성전자주식회사|입체영상 압축 처리 방법 및 장치| KR101660312B1|2009-09-22|2016-09-27|삼성전자주식회사|3차원 비디오의 움직임 탐색 장치 및 방법| US20110122225A1|2009-11-23|2011-05-26|General Instrument Corporation|Depth Coding as an Additional Channel to Video Sequence| KR101281961B1|2009-12-21|2013-07-03|한국전자통신연구원|깊이 영상 편집 방법 및 장치| KR101787133B1|2010-02-15|2017-10-18|톰슨 라이센싱|비디오 콘텐츠 처리 장치 및 방법| KR101628383B1|2010-02-26|2016-06-21|연세대학교 산학협력단|영상 처리 장치 및 방법| CN101873494B|2010-04-30|2012-07-04|南京邮电大学|基于切片级别的视频传输中动态交织的方法| EP2596635B1|2010-07-19|2020-05-20|Dolby Laboratories Licensing Corporation|Enhancement methods for sampled and multiplexed image and video data| US20130162774A1|2010-09-14|2013-06-27|Dong Tian|Compression methods and apparatus for occlusion data| EP3703373A1|2010-10-08|2020-09-02|GE Video Compression, LLC|Picture coding supporting block partitioning and block merging| CN103181171B|2010-11-04|2016-08-03|皇家飞利浦电子股份有限公司|深度指示图的产生| CN107071486B|2010-11-04|2020-10-30|Ge视频压缩有限责任公司|Decoding apparatus and method, encoding apparatus and method, and method for storing and transmitting image| WO2012070500A1|2010-11-22|2012-05-31|ソニー株式会社|符号化装置および符号化方法、並びに、復号装置および復号方法| HU1000640D0|2010-11-29|2011-02-28|Holografika Hologrameloeallito Fejlesztoe Es Forgalmazo Kft|Image coding and decoding method and apparatus for efficient encoding and decoding of 3d field content| US20120189060A1|2011-01-20|2012-07-26|Industry-Academic Cooperation Foundation, Yonsei University|Apparatus and method for encoding and decoding motion information and disparity information| US9628769B2|2011-02-15|2017-04-18|Thomson Licensing Dtv|Apparatus and method for generating a disparity map in a receiving device| ES2718654T3|2011-02-22|2019-07-03|Sun Patent Trust|Image coding method, image decoding method, image coding device, image decoding device and image coding / decoding device| US9826230B2|2011-02-22|2017-11-21|Tagivan Ii Llc|Encoding method and encoding apparatus| WO2012121052A1|2011-03-08|2012-09-13|ソニー株式会社|画像処理装置、画像処理方法、及び、プログラム| US9565449B2|2011-03-10|2017-02-07|Qualcomm Incorporated|Coding multiview video plus depth content| MX352224B|2011-03-18|2017-11-15|Sony Corp|IMAGE PROCESSING DEVICE AND IMAGE PROCESSING METHOD.| CN103621093B|2011-06-15|2018-07-03|联发科技股份有限公司|在三维视频编码系统中的纹理图像处理方法及装置| KR102023210B1|2011-07-19|2019-09-19|타지반 투 엘엘씨|필터 방법, 복호 방법, 및 부호화 방법| US9363535B2|2011-07-22|2016-06-07|Qualcomm Incorporated|Coding motion depth maps with depth range variation| MX2014001614A|2011-08-09|2014-05-28|Samsung Electronics Co Ltd|METHOD AND APPARATUS FOR CODING A DEPTH MAP OF VIDEO DATA OF VARIOUS VIEWPOINTS, AND METHOD AND APPARATUS FOR DECODING THE CODED DEPTH MAP.| MX335982B|2011-08-09|2016-01-07|Samsung Electronics Co Ltd|METHOD AND APPLIANCE FOR CODING MULTIPLE VIEW VIDEO DATA AND METHOD AND DECODING DEVICE.| JP2014527782A|2011-08-30|2014-10-16|インテル コーポレイション|多視点ビデオコード化方式| CA2842150A1|2011-08-31|2013-03-07|Sony Corporation|Encoding device, encoding method, decoding device, and decoding method| EP2777267B1|2011-11-11|2019-09-04|GE Video Compression, LLC|Efficient multi-view coding using depth-map estimate and update| WO2013068493A1|2011-11-11|2013-05-16|Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V.|Multi-view coding with effective handling of renderable portions| EP3462742A1|2011-11-11|2019-04-03|GE Video Compression, LLC|Multi-view coding with exploitation of renderable portions| EP3657796A1|2011-11-11|2020-05-27|GE Video Compression, LLC|Efficient multi-view coding using depth-map estimate for a dependent view| EP2781091B1|2011-11-18|2020-04-08|GE Video Compression, LLC|Multi-view coding with efficient residual handling| WO2013100635A1|2011-12-30|2013-07-04|휴맥스|3차원 영상 부호화 방법 및 장치, 및 복호화 방법 및 장치| US9674534B2|2012-01-19|2017-06-06|Samsung Electronics Co., Ltd.|Method and apparatus for encoding multi-view video prediction capable of view switching, and method and apparatus for decoding multi-view video prediction capable of view switching| US9602831B2|2012-03-07|2017-03-21|Lg Electronics Inc.|Method and apparatus for processing video signals| US9584806B2|2012-04-19|2017-02-28|Futurewei Technologies, Inc.|Using depth information to assist motion compensation-based video coding| US20150117514A1|2012-04-23|2015-04-30|Samsung Electronics Co., Ltd.|Three-dimensional video encoding method using slice header and method therefor, and three-dimensional video decoding method and device therefor| US9307252B2|2012-06-04|2016-04-05|City University Of Hong Kong|View synthesis distortion model for multiview depth video coding| US20130329800A1|2012-06-07|2013-12-12|Samsung Electronics Co., Ltd.|Method of performing prediction for multiview video processing| RU2506712C1|2012-06-07|2014-02-10|Корпорация "САМСУНГ ЭЛЕКТРОНИКС Ко., Лтд."|Способ межкадрового прогнозирования для кодирования многоракурсной видеопоследовательности| WO2014025294A1|2012-08-08|2014-02-13|Telefonaktiebolaget L M Ericsson |Processing of texture and depth images| US9998727B2|2012-09-19|2018-06-12|Qualcomm Incorporated|Advanced inter-view residual prediction in multiview or 3-dimensional video coding| US9554146B2|2012-09-21|2017-01-24|Qualcomm Incorporated|Indication and activation of parameter sets for video coding| WO2014053099A1|2012-10-03|2014-04-10|Mediatek Inc.|Method and apparatus for motion information inheritance in three-dimensional video coding| KR20140048783A|2012-10-09|2014-04-24|한국전자통신연구원|깊이정보값을 공유하여 움직임 정보를 유도하는 방법 및 장치| JP6027143B2|2012-12-27|2016-11-16|日本電信電話株式会社|画像符号化方法、画像復号方法、画像符号化装置、画像復号装置、画像符号化プログラム、および画像復号プログラム| JP6053200B2|2012-12-27|2016-12-27|日本電信電話株式会社|画像符号化方法、画像復号方法、画像符号化装置、画像復号装置、画像符号化プログラム及び画像復号プログラム| CN103929650B|2013-01-10|2017-04-12|乐金电子研究开发中心有限公司|一种深度编码单元编码方法、解码方法、编码器及解码器| US10080036B2|2013-05-16|2018-09-18|City University Of Hong Kong|Method and apparatus for depth video coding using endurable view synthesis distortion| KR101770211B1|2013-07-18|2017-09-05|엘지전자 주식회사|비디오 신호 처리 방법 및 장치| US9906768B2|2013-07-26|2018-02-27|Qualcomm Incorporated|Use of a depth condition in 3DV codec| WO2015109598A1|2014-01-27|2015-07-30|Mediatek Singapore Pte. Ltd.|Methods for motion parameter hole filling| CN103841405B|2014-03-21|2016-07-06|华为技术有限公司|深度图像的编解码方法和编解码装置| US20160050440A1|2014-08-15|2016-02-18|Ying Liu|Low-complexity depth map encoder with quad-tree partitioned compressed sensing|
法律状态:
2011-11-30| A621| Written request for application examination|Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20111129 | 2012-11-15| A977| Report on retrieval|Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20121114 | 2012-11-21| A131| Notification of reasons for refusal|Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20121120 | 2013-02-20| A601| Written request for extension of time|Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20130219 | 2013-02-27| A602| Written permission of extension of time|Free format text: JAPANESE INTERMEDIATE CODE: A602 Effective date: 20130226 | 2013-03-19| A521| Written amendment|Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20130318 | 2013-04-24| A02| Decision of refusal|Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20130423 | 2014-12-03| A601| Written request for extension of time|Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20141202 | 2014-12-10| A602| Written permission of extension of time|Free format text: JAPANESE INTERMEDIATE CODE: A602 Effective date: 20141209 |
优先权:
[返回顶部]
申请号 | 申请日 | 专利标题 相关专利
Sulfonates, polymers, resist compositions and patterning process
Washing machine
Washing machine
Device for fixture finishing and tension adjusting of membrane
Structure for Equipping Band in a Plane Cathode Ray Tube
Process for preparation of 7 alpha-carboxyl 9, 11-epoxy steroids and intermediates useful therein an
国家/地区
|