专利摘要:
複数のイベント群において撮影された写真の集合から人物間の関係を分類する方法は、写真集合を検索してその写真集合の中の人物を特定するステップと、特定された人物の性別と年齢層を判断するステップと、特定された人物と、それらの生起と共起、それらの性別およびそれらの年齢を使って、1つのルール群に基づいてその人物の間の社会的関係を推定するステップを含む。
公开号:JP2011514575A
申请号:JP2010544320
申请日:2009-01-21
公开日:2011-05-06
发明作者:ヘンリー カウツ;アンドリュー;チャールズ ギャラガー;パラグ シングラ;ジエボ ルオ
申请人:イーストマン コダック カンパニー;
IPC主号:G06F17-30
专利说明:

[0001] 本発明は、人工知能と機械学習、特に個人的写真集合から社会的関係を割り出すことに関する。]
背景技術

[0002] 一般的個人による収集写真(写真集合)はどこにでもある。このような写真集合から意味論的に重要な情報を抽出することは、機械学習とコンピュータビジョンの分野において、盛んに研究が進められている領域である。物体認識、すなわち顔、車、草、水、空その他、特定の種類の物体の検出に関する問題に焦点を当てた研究結果が数多く報告されている。そのほとんどは、画像の中から得られる低レベルの視覚的特徴(色、テクスチャ、線等)の利用に頼るものである。近年では、シーン検出や行動識別といった、意味論的により複雑な情報の抽出に対する関心がますます高まっている。たとえば、写真を、屋外で撮影されたか屋内で撮影されたかに基づいてまとめたり、あるいは仕事の写真とレジャーの写真を分類したりしたい場合があるかもしれない。このような問題を解決するには、基本的に、その画像に写っている人物、その画像におけるある種類の物体の有無等、そこから導き出される特徴を使用することが必要となる。一般に、このような場合には集合的推定の力を利用する。たとえば、ある1枚の写真について、それが仕事かレジャーかを区別するのは難しいかもしれないが、場所や時間が似通った他の複数の写真を見れば、その予測は容易になるかもしれない。このような研究は、人がデジタル写真集合を認識する方法を変革すること、すなわち、多数の画素値の集まりから、問い合わせにより情報を取り出し、あるいは使用者にとって意味のある方法で自動的に整理できる、非常に複雑で有意義な物体へと見方を変えることを目指している。]
先行技術

[0003] リチャードソン(Richardson)およびドミンゴス(Domingos),「マルコフ論理ネットワーク(Markov logic networks)」,機械学習(Machine Learning),62巻,p.107−136,2006年]
発明が解決しようとする課題

[0004] 意味論的理解をさらに一歩進めると、人間は、十分な枚数の写真を見ることによって、同じ写真の中に写っている人物の間の関係、つまり、それらの人物は家族か、友人か、ただの知り合いか、あるいは偶然同じ時間に同じ場所に居合わせた他人かを推定することができる。言い換えれば、一般的個人の写真は、通常は他人と一緒にではなく、友人や家族と撮影されることが多い。このような関係を検出または予測することは、知的カメラならびに知的画像管理システムの構築に向けた重要なステップとなりうる。]
課題を解決するための手段

[0005] 本発明の1つの態様によれば、複数のイベント群において撮影された写真集合から人物の関係を分類する方法が提供され、この方法は、
a.写真集合を検索して、その写真集合の中の人物を特定し、特定された人物の性別と年齢層を判断するステップと、
b.特定された人物、それらの生起と共起、それらの性別、それらの年齢を使って、人物間の社会的関係を1つのルール群に基づいて推定するステップと、
を含む。]
[0006] 本発明の他の態様によれば、ある写真集合の中の人物と、その写真の撮影者との関係を分類する方法が提供され、この方法は、
a.写真集合を検索して、その写真集合の中の人物を特定し、特定された人物の性別と年齢層を判断するステップと、
b.特定された人物、それらの生起と共起、それらの性別、それらの年齢を使って、人物と撮影者との間の関係を1つのルール群に基づいて推定するステップと、
を含む。]
[0007] 本発明の特徴と利点には、個人識別情報、年齢、性別情報に関連付けられた個人的な画像の集合を使って、その個人的な画像に写っている人物間の社会的関係の種類を自動的に割り出すことが含まれる。]
図面の簡単な説明

[0008] 本発明を利用するシステムを示す図である。
本発明の一実施例を実施するためのフローチャートである。
社会的関係の種類のオントロジ構造を示す表である。
画像とその画像から推定される社会的関係の例を示す図であり、特に、画像の中の人物間の関係を示す。
画像とその画像から推定される社会的関係の例を示す図であり、特に、画像の中の人物と撮影者との関係を示す。]
実施例

[0009] 本発明は、一般的個人の写真集合の中の社会的関係を自動的に検出する手段である。たとえば、1つの画像の中に2つの顔が写っている場合、人は、これらの人物が単なる友人同士ではなく、夫婦であることが推定できたらいいと考える。いろいろな顔の年齢、性別および本人の特定に関する追加の情報があっても、この作業は非常に難しい。友人と夫婦の関係を区別するには、写真の中にどのような情報がありうるか?しかしながら、関連する1まとまりの写真を集合的に見た場合、この作業はもっと容易になる。特に、(その写真の被写体と撮影者以外の)第三者は、たとえば、a)友人であれば一般的にはグループで写っているのに対し、カップルは2人だけで撮影される傾向が強い、b)小さな子供のいるカップルは、写真の中にその子供たちと一緒に写っていることが多い、等の経験則に基づいて、上記の区別を大体言い当てることができる。この方法の長所は、ある写真集合の中でまったく(またはほとんど)一緒に撮影されていない人々の間の関係に関してさえ、意味のある事柄を知りうるという点である。たとえば、A(男性)が多数の写真に1人の子供と一緒に写っており、他の写真にB(女性)が同じ子供と写っており、また別の数枚の写真にAとBが一緒に写っている場合、AとBは夫婦で、一緒に撮影されている子供の両親であるという可能性が最も高い。さらに、それらの写真の中の人物と撮影者の間の社会的な関係も同様にして推定することができる。]
[0010] 本発明は、意味のある方法で上記のような経験則を捉える。このようなルールを定める際に考慮しなければならない重要な点がいくつかある。
a)これらは経験則にすぎず、常に正しいとはかぎらない。
b)多くのルールは同時に適用されることがあり、注意深く組み合わせる必要がある。
c)場合によっては、複数のルールが相互に矛盾するかもしれない。]
[0011] 上記の点を扱うよい方法がマルコフ論理(非特許文献1)であり、これは一階論理のルールを数学的に適正な方法で組み合わせるための枠組みとなる。各ルールは、(論理の中の絶対制約(hard constraint)に対する)考慮制約(soft constraint)としてみることができ、考慮制約の重要性は、それに関わる実数値化された重みによって判断される。重みが大きいほど、そのルールは重要である。言い換えれば、2つの矛盾するルールがある場合、その他の事柄が同じであるとすると、重みの大きいルールをより高い信頼度で信用するべきである。重みは、訓練データから学習できる。さらに、マルコフ論理はまた、対象領域の専門家により提供されるルールに加え、データを使って新しいルールを学習することを可能にし、それによって背景知識が強化される。このように学習されたルール(およびその重み)は、考えられるさまざまな関係の集合的推定に用いられる。後述のように、システムへの入力としてノイズの多い予測変数(年齢と性別に関するもの)を使い、関係、年齢、性別の予測のための集合的モデルを構築することができる。1つの要素を予測することが他の要素の予測に役立ち、またその逆でもある。たとえば、2人の人物が同じ性別であると認識することによって夫婦の関係は排除され、またその逆でもある。1枚の写真について行われた推定の結果は他の写真に持ち越されるため、全体的な精度が高まる。]
[0012] 統計的関係モデルは、一階論理(first order logic)のような関係型言語(relational language)の力とマルコフネットワークのような確率的モデルとを組み合わせたものである。これにより、対象領域の関係(たとえば、本願の例では各種の社会的関係)を明確にモデル化し、また不確実性(たとえば、経験則が常に正しいとは限らないこと)を明確に考慮に入れることができる。最近、この分野で多くの研究が行われている。最も強力なこのようなモデルの1つがマルコフ論理(非特許文献1)である。これは、一階論理の力とマルコフネットワークとを結び付けて、基本の物体(object)の特性(たとえば、本願の対象領域では年齢、性別、顔の特徴等)とそれらの間の関係(たとえば、本願の対象領域では各種の社会的関係)についての分布を定義する。これは、一階論理の中の各論理式に重みの実数値を与えることによって実現され、この重みが(おおまかに)その論理式の重要性を表す。正式には、マルコフ論理ネットワークLは(Fi,wi)のペアとして定義され、Fiは一階論理の論理式、wiは実数である。定数群Cを考えた場合、基礎述語(ground predicates)群Xのうち特定の構成xになる確率は、次のように表される。



ただし、和はLの中の全論理式に関し、wiはi番目の論理式の重み、ni(x)はxを割り当てた場合にi番目の論理式において真となるグラウンディング(grounding)の数である。Zは正規化定数である。さらに詳しくは、非特許文献1を参照されたい。]
[0013] 図1に、本発明の実施に必要な要素、たとえばコンピュータデバイス12、インデクシングサーバ14、イメージサーバ16、通信ネットワーク20を含むシステム10が示されている。コンピュータデバイス12は、画像を保存するためのパーソナルコンピュータであってもよく、この画像には静止画と動画またはビデオ画像の両方が含まれるものとする。コンピュータデバイス12は、各種のデバイス、たとえばデジタルカメラや携帯電話のカメラ(図示せず)等と通信して、これらのデバイスによって撮影された画像を保存する。撮影された画像にはさらに、撮影デバイスによる(音声注釈やカメラ内でのタグ付けを用いた)画像の中の人物の名前等の個人的特定情報が含まれていてもよい。コンピュータデバイス12はまた、通信ネットワーク20を通じてインターネットサービスと通信することもでき、このインターネットサービスは個人特定情報のない状態で撮影された画像を使用し、またユーザや訓練された自動アルゴリズムがその画像に個人特定情報を追加できるようにする。いずれの場合も、個人特定情報を伴う画像は当業界で公知である。] 図1
[0014] インデクシングサーバ14は、通信ネットワーク20上で利用できる別のコンピュータ処理デバイスであり、画像のコンテンツを分析して個人特定情報、年齢、性別および社会的関係等の意味情報を抽出するコンピュータ命令としてのアルゴリズムを実行する。本発明は、インデクシングサーバ14を通じたウェブサービスとしてこの機能をシステム10に提供する形に限定されない点を理解するものとする。コンピュータデバイス12は、インデックスのために設けられた画像分析アルゴリズムを実行するように構成することもできる。]
[0015] イメージサーバ16は、通信ネットワーク20を通じて他のコンピュータデバイスと通信し、要求に応じて、イメージサーバ16は人物が写っていない、1人だけ写っている、あるいは大勢写っているかもしれないスナップショットの写真画像を提供する。イメージサーバ16に保存されている写真画像は、各種のデバイス、たとえばデジタルカメラやカメラ内蔵型携帯電話等によって撮影されたものである。このような画像は、人手または自動で、当初撮影時またはその後のいずれかに得られた個人特定情報をすでに含んでいてもよい。]
[0016] 図2に、本発明を実施するのに必要なステップのシーケンスを示す工程図が示されている。ステップ22で、個人的な画像集合が取得され、この中にはおそらく社会的に関係のある複数の人物が写っている。個人特定情報がメタデータの形態で画像に関連付けられていることが好ましいが、単に、その画像に関連付けて供給されるだけでもよく、これも本発明の範囲から逸脱しない。画像は、コンピュータデバイス12によってその内部記憶手段から、またはローカルネットワーク記憶デバイスやオンライン画像記憶サイト等のコンピュータデバイス12がアクセス可能ないずれの記憶デバイスまたはシステムからも供給され得る。個人特定情報が入手できない場合、ステップ24では、ステップ22で提供された画像集合を用いて、コンピュータデバイス12が個人特定情報をインデクシングサーバ14に供給し、自動顔検出や顔認識または人手による注釈付けを通じて、画像の各々に関連付けられる個人特定情報を取得する。] 図2
[0017] ステップ26で、コンピュータデバイス12は、取得したステップ24の写真画像を使い、各画像の中の人物の生起、その人物の年齢、性別を含めた証拠を、分類器(classifier)を使って次のように抽出する。顔年齢の分類器はこの分野でよく知られており、たとえば、A.ラニティス(Lanitis)、C.テイラ(Taylor)、T.クーツ(Cootes)の“Toward automatic simulation of aging effects on face images”,PAMI,2002、X.ゲン(Geng)、Z.H.ジョウ(Zhou)、Y.ジャン(Zhang)、G.リー(Li)、H.ダイ(Dai)の“Leaning from facial aging patterns for automatic age estimation”,Proceedings ofACMMULTIMEDIA,2006、A.ガラガ(Gallagher)の米国特許出願第20060045352号がある。性別もまた顔の画像から推定でき、これについてはM.H.ヤン(Yang)とB.モガダム(Moghaddam)の“Support vector machines for visual gender classification”,Proceedings of ICPR,2000、S.バルーヤ(Baluja)とH.ローリ(Rawley)の“Boosting sex identification performance”,International Journal of Computer Vision,2007に記載されている。]
[0018] 本発明の好ましい実施形態では、年齢分類のために、3名の一般的個人から画像集合を取得し、各画像の中の人物、合計117名の異なる人物にラベル付けを行う。各人物の生まれ年は、その画像集合の所有者が知っているか、または予測される。EXIF情報による画像撮影日と各人物の誕生日を使い、各画像の中の各人物の年齢を計算する。その結果、対応するグラウンドトゥルース(ground truth)の年齢を伴う2855の顔の独立した訓練セットが得られる。それぞれの顔のスケールを正規化し(49×61画素)、一連のFisherfaceに投影する(これについては、P.N.ベルミューラ(Belhumeur)、J.ヘスパナ(Hespanha)およびD.J.クリーグマン(Kriegman)のEigenfaces vs.Fisherfaces:Recognition using class specific linear projection,PAMI,1997に記載されている)。新規の問い合わせ対象の顔の年齢推定は、そのスケールを正規化し、一連のFisherfaceに投影し、投影空間内の最近傍(たとえば25)を探すことによって発見する。問い合わせが行われた顔の予測年齢は、これらの最近傍の年齢の中央値である。性別の推定には、サポートベクタマシンを用いる顔性別分類器を利用する。まず、Active Shape Model(T.クーツ(Cootes)、T.テイラ(Taylor)、D.クーパ(Cooper)、J.グラハム(Graham)のActive shape models−their training and application,CVIU,1995)を使って顔の特徴を抽出することにより、特徴の次元数を減らす。3546の顔の訓練セットを使い、確率密度予測を出力するサポートベクタマシンを学習する。]
[0019] 次に、ステップ28で、その集合の中の各画像について特定された人物と関連する証拠を保存し、推定作業に備える。コンピュータデバイス12またはインデクシングサーバ14は、作業の規模に応じて推定作業を実行することができる。ステップ30では、個人的データ集合の中にいる人物に関連付けられる社会的関係または、写真の中の人物とその写真を撮った撮影者との間の社会的関係、またはその両方を抽出された証拠から推定する。撮影者(またはより広い意味で、その写真集合の想定所有者)は通常、カメラのタイマモードを使用するか、別の誰かにシャッタを押すように頼まないかぎり、写真に写っていない。個人的画像集合の中の人物間の社会的関係を推定したことによって、最後に、ステップ32でコピュータデバイス12は、推定された社会的関係に関してその画像集合を整理または検索することができる。上記の工程は、新しい画像、新しい人物および新しい関係が適正に取り扱われるように、インクリメンタルな方法で実行することができる。さらに、この工程を使い、外見の変化という点での人物の進化と、たとえば新しい家族や新しい友人等の拡大という点での社会的関係の進化を追跡することが可能である。]
[0020] 本発明の好ましい実施形態において、ステップ30では、モデル、すなわち個人的な写真集合から予測可能な社会的関係の集合が、マルコフ論理で表される。以下に、関心の対象となる関連物体、述語(物体の特性とそれらの間の関係)、およびこれらの述語に特定の制約を与えるルールを説明する。その後、学習と推定作業について説明する。]
[0021] 図3は、社会的関係の種類(個人的写真集合の想定所有者に関する)のオントロジ構造35を示す表である。画像内の被写体間の一般的関係は同様に定義される。任意の人物間の、これより多くの任意の関係を定義することもでき、これも本発明の本質から逸脱しない。] 図3
[0022] 図4a,図4bは、個人的写真画像(40,50)の例と、これらの画像から推定される各々の社会的関係(42,52)を示している。特に、画像内の人物の間の関係を図4aに、画像内の人物と撮影者の関係を図4bに示す。] 図4a 図4b
[0023] 以下に、本発明の好ましい実施形態についてさらに詳しく説明する。本発明の対象領域の物体(objects)は3種類である。
・人物(person):世界の中の実際の人物
・顔(face):画像に映っている顔の具体的な外観
・画像(img):集合の中の1枚の画像]
[0024] 関心の対象となる物体について、2種類の述語(predicate)を定義する。これらの述語の数値は、推定時にデータを通じてわかる。証拠の述語の一例はOccursIn(face,img)であり、これは、ある画像の中に特定の顔が写っているか否かの真理値を表す。この証拠の述語を、以下の特性/関係について使用する。
・1枚の画像の中の人物の数:HasCount(img,cnt)
・1枚の画像に写っている1つの顔の年齢:HasAge(face,age)
・1枚の画像に写っている1つの顔の性別:HasGender(face,gender)
・1枚の画像の中に特定の顔が写っているか:OccursIn(face,img)
・ある人物とその人物の顔との対応:HasFace(person,face)]
[0025] 1つの顔の年齢(性別)は、1枚の画像の中に写っている1つの顔に関連する予測年齢(性別)の数値である。これは、問い合わせ述語としてモデル化された人物の実際の年齢(性別)とは異なる。1つの顔に関連する年齢(性別)は、前述のように各種の顔の特徴を使って顔の集合について別に訓練されたモデルから推定される。外観の違いや写真撮影時期の違いによる予測誤差により、同じ人物でも顔が違うと、その年齢/性別の数値が異なる可能性がある点に注意されたい。本願では、年齢を子供、ティーン、青年、中年、老人の5種類の瓶(bin)でモデル化する。]
[0026] 本発明の応用分野では、顔検出と顔認識が、自動または人手を用いた手段によって事前に行われていることを前提としている。したがって、どの顔がどの人物に対応するかが正確にわかる。この前提を緩和し、そのモデルの一部としてアルゴリズムによる顔検出と顔認識を折り込む(fold)ことは当然考えられる拡張版であり、これも同じマルコフ論理に基づくモデルとこれに関連する推定方法によって適正に取り扱うことができる。]
[0027] 上記の述語の数値は推定時には不明であるため、推定する必要がある。この種の述語の例はHasRelation(person1,person2,relation)であり、2人の人物が与えられた関係(relation)を共有するか否かの真理値を表す。次の問い合わせ述語を用いる。
・1人の人物の年齢:HasAge(person,age)
・1人の人物の性別:HasGender(person,gender)
・2人の人物の関係:HasRelation(person1,person2,relation)]
[0028] 本発明の好ましい実施形態では、親戚、友人、知人、子供、親、夫婦、子供の友人という7種類の社会的関係をモデル化する。親戚は、親子の関係以外のすべての血縁関係を含む。友人は、血縁関係がなく、友情関係の直感的定義を満たす人物である。親戚でも友人でもないものは、知人に分類される。子供の友人は、子供の友人をモデル化したものである。子供の友人の関係をモデル化することは、一般的個人の写真集合には子供が非常に多く、その子供は友達と写っていることが多いため、重要である。このような場合、子供とその友人を区別することが重要となる。]
[0029] ルールは、絶対ルール(hard rule)と考慮ルール(soft rule)の2種類である。これらのルールはすべて、一階論理の論理式として表される。]
[0030] 絶対ルールは、対象領域内の絶対制約を表す。すなわち、これらは常に真に保たれるべきである。絶対ルールの例は、OccursIn(face,img1)かつOccursIn(face,img2)−>(img1=img2)であり、これは単に、それぞれの顔が集合の中の多くとも1枚の画像の中に生起することを示している。
・親はその子供より年齢が上である。
・夫婦は反対の性別である。
・2人の人物は、その間で固有の関係を共有する。]
[0031] 本発明において、2名の人物の間に固有の関係がある点に注意されたい。この前提を緩和したもの(たとえば、2人は親戚(たとえば従兄弟)および友人であってもよい)を現在のモデルの拡張版とすることができる。]
[0032] 考慮ルールは、より興味深い制約群を表し、これらはほとんどの場合に真であるが、常に保持されるとは限らないと考えられる。考慮ルールの例は、OccursIn(person1,img)かつOccursIn(person2,img)−>!HasRelation(person1,person2,acquaintance)である。このルールは、1枚の写真に一緒に生起する2人の人物は、単なる知人である可能性が低いと述べている。これらの人物が一緒に生起する例がほかにあると(別の写真での共起)、さらにこの可能性は低くなる。本発明では、他にも以下のような考慮ルールを使用する。
・子供とその友人は年齢が近い。
・1人の子供とだけ生起する1人の若い成人は、親子の関係を共有する。
・一緒に写っている同年代で性別の異なる2人の人物(2人だけで写っている)は夫婦の関係を共有する。
・友人と親戚は、複数の写真において集団で写っている。2人の友人が1枚の写真に一緒に写っていれば、同じ写真の中に生起する第三者は友人である可能性が高い。同じことが親戚にも言える。]
[0033] 一般に、すべての絶対制約を同時に満足し(おそらくこのような解決策が常にある)、最大数の(重み付けされた)考慮制約を満足する解決策が望まれる。一般に、ルール群は、画像内の人物間(すなわち、被写体)の関係および撮影者と被写体との間の関係に適用される。撮影者(または写真集合の想定所有者)と被写体との間の関係に特有の他のルールの一例には次のものがある。
・写真集合の中で生起率の高い子供(複数の場合もある)は、撮影者の子供(複数の場合もある)である。]
[0034] 最後に、集合の中のランダムの2人の人物の間で特定の関係が保持される事前確率を表すと考えられるシングルトン(singleton)の述語、HasRelation(person1,person2,+relation)(+は、各関係について、異なる重みを学習したことを意味する)からなるルールがある。たとえば、親または子供の関係と比較して、友人の関係を有する可能性のほうがはるかに高い。同様に、シングルトンのルール、HasAge(person,+age)とHasGender(person,+gender)がある。これらは(直感的に)、それぞれ特定の年齢と性別を有する事前確率を表す。たとえば、HasAge(person,child)のルールに高い重みを与えることによって、子供たちははより頻繁に撮影される傾向があるという事実を容易に捉えることができる。]
[0035] そのモデル(ルールとそれらの重み)を考えると、推定とは、すべての証拠述語が与えられた問い合わせ述語、HasRelation、HasGender、HasAgeの周辺確率を見つけることに対応する。絶対(決定性の)制約と考慮制約の組み合わせを扱う必要があるため、本発明の好ましい実施形態では、PoonとDomingosのMC−SATアルゴリズム(Poon & Domingos,Sound and efficient inference with probabilistic and deterministic dependencies,Proceedings of AAAI−06,458−463.Boston,MA:AAAI Press参照)を用いる。]
[0036] 絶対制約と考慮制約を考えると、学習とは、考慮制約の各々についての好ましい重みを見つけることに対応する。まず、MAP重みを、ゼロに中心を置くガウシアン事前分布(Gaussian prior)で設定する。次に、LowdとDomingosの学習器を使用する(Lowd&Domingos.Efficient weight learning for Markov logic networks,Proc.PKDD−07,200−211.Warsaw,Poland:Springer)。KokとDomingosの構造学習アルゴリズム(Kok&Domingos,Learning the structure of Markov logic networks,Proceedings of ICML−05,441−448.Bonn,Germany:ACMPress)を使用して、標的とされる関係の予測に役立つルールを改良(し、新しい例を学習)する。これらによって表されるオリジナルのアルゴリズムによれば、部分的にグラウンディングされた節は検出されない。これは、異なる関係についての異なるルールを学習する必要があるため、本発明にとって重要である。ルールはまた、特定の年齢グループ(子供等)または性別によっても異なるかもしれない(たとえば、男女は、その社会的サークルの中で誰と撮影される傾向があるかという点で異なることが想像できる)。この特徴を持たせるためにアルゴリズムに必要となる変更は単純である。すなわち、述語の部分的グラウンディングのすべては、節の延長の検索中に加えることができる。特定の可変値(すなわち、関係、年齢、性別)だけが、これらの述語の中でグラウンディングされるようにして、検索空間の破裂を防止する。アルゴリズムの残りの部分は、前述のように進められる。]
[0037] 本発明について、その好ましい実施形態に特に関して詳細に説明したが、本発明の精神と範囲から逸脱することなく、変形や改変を加えることができると理解される。]
[0038] 10 現在のシステム、12コンピュータデバイス、14インデクシングサーバ、16イメージサーバ、20通信ネットワーク、35社会的関係の種類のオントロジ構造、40,50 画像の例、42,52 関係の例。]
权利要求:

請求項1
複数のイベント群で撮影された写真集合から人物の関係を分類する方法であって、a.前記写真集合を検索し、前記写真集合の中の人物を特定し、前記特定された人物の性別と年齢層を判断するステップと、b.前記特定された人物と、当該人物の生起および共起と、当該人物の性別と、当該人物の年齢とを使って、当該人物の間の社会的関係を1つのルール群に基づいて推定するステップと、を含むことを特徴とする方法。
請求項2
請求項1に記載の方法であって、前記関係は、親、子供、夫婦、その他の関係、子供の友人および知人を含むことを特徴とする方法。
請求項3
請求項1に記載の方法であって、ステップbにおいて、前記ルール群が、i.親はその子供より年齢が上である、ii.夫婦は反対の性別であるという絶対ルールの少なくとも1つを含むことを特徴とする方法。
請求項4
請求項3に記載の方法であって、前記ルール群が、さらに、iii.親と祖父母はその子供達または孫達と一緒に写っている、iv.友人と親戚は複数の写真において集団で写っている、v.知人が写っている写真は、友人の写真より少ない、vi.より近い関係の人物は、写真の中で、近い関係を持たない人物より接近して写っている、という考慮ルールの少なくとも1つを含むことを特徴とする方法。
請求項5
請求項1に記載の方法であって、前記推定は、マルコフ論理ネットワーク(MLN)を使って行われることを特徴とする方法。
請求項6
複数のイベント群で撮影され、想定所有者に帰属する写真集合から人物の関係を分類する方法であって、a.前記写真集合を検索して、前記写真集合の中の人物を特定し、前記特定された人物の性別と年齢層を判断するステップと、b.前記特定された人物と、当該人物の生起および共起と、当該人物の性別および年齢とを使って、当該人物と前記写真集合の前記想定所有者との間の社会的関係を推定するステップと、を含むことを特徴とする方法。
請求項7
請求項6に記載の方法であって、ステップbにおいて、前記ルール群が、i.親はその子供より年齢が上である、ii.夫婦は反対の性別であるという絶対ルールの少なくとも1つを含むことを特徴とする方法。
請求項8
請求項6に記載の方法であって、前記ルール群が、さらに、iii.前記写真集合の想定所有者の子供は、前記写真集合内により頻繁に生起する、iv.親と祖父母はその子供達または孫達と一緒に写っている、v.友人と親戚は複数の写真において集団で写っている、vi.知人が写っている写真は、友人の写真より少ない、vii.より近い関係の人物は、写真の中で、近い関係を持たない人物より接近して写っている、という考慮ルールの少なくとも1つを含むことを特徴とする方法。
請求項9
請求項6に記載の方法であって、前記推定は、マルコフ論理ネットワーク(MLN)を使って行われることを特徴とする方法。
請求項10
請求項1に記載の方法であって、c.前記画像集合に新しい画像を追加するステップと、d.前記新しい画像の中の新しい人物を特定するステップと、の1つまたはそれ以上をさらに含むことを特徴とする方法。
請求項11
請求項10に記載の方法であって、e.前記特定された新しい人物と、当該新しい人物の生起および共起と、当該新しい人物の性別と、当該新しい人物の年齢とを使って、前記新しい人物と前記特定された人物との間の社会的関係を1つのルール群に基づいて推定するステップをさらに含むことを特徴とする方法。
請求項12
請求項6に記載の方法であって、c.前記画像集合に新しい画像を追加するステップと、d.前記新しい画像の中の新しい人物を特定するステップと、の1つまたはそれ以上をさらに含むことを特徴とする方法。
請求項13
請求項12に記載の方法であって、e.前記特定された新しい人物と、当該新しい人物の生起および共起と、当該新しい人物の性別と、当該新しい人物の年齢とを使って、前記新しい人物と前記写真集合の前記想定所有者との間の社会的関係を1つのルール群に基づいて推定するステップをさらに含むことを特徴とする方法。
类似技术:
公开号 | 公开日 | 专利标题
US20200183965A1|2020-06-11|System and method for determining parameters based on multimedia content
US10438052B2|2019-10-08|Systems and methods for facial property identification
EP3084682B1|2019-07-24|System and method for identifying faces in unconstrained media
Zellers et al.2019|From recognition to cognition: Visual commonsense reasoning
Liu et al.2016|Transferring deep representation for nir-vis heterogeneous face recognition
US9275269B1|2016-03-01|System, method and apparatus for facial recognition
US9430719B2|2016-08-30|System and method for providing objectified image renderings using recognition information from images
Dhall et al.2015|Automatic group happiness intensity analysis
US20190171868A1|2019-06-06|Systems and methods for facial representation
US9330111B2|2016-05-03|Hierarchical ranking of facial attributes
CN104063683B|2017-05-17|一种基于人脸识别的表情输入方法和装置
Rathgeb et al.2012|Iris biometrics: from segmentation to template security
US8989451B2|2015-03-24|Computer-implemented method for performing similarity searches
Dantcheva et al.2011|Bag of soft biometrics for person identification
Xu et al.2016|Video structured description technology based intelligence analysis of surveillance videos for public security applications
US8917913B2|2014-12-23|Searching with face recognition and social networking profiles
US8897505B2|2014-11-25|System and method for enabling the use of captured images through recognition
KR101387147B1|2014-04-21|얼굴 인식을 이용한 이미지 식별
JP5818799B2|2015-11-18|デジタル画像の美的品質の推定方法
US9014510B2|2015-04-21|Method for presenting high-interest-level images
Zhou et al.2008|Activity analysis, summarization, and visualization for indoor human activity monitoring
US20150317511A1|2015-11-05|System, method and apparatus for performing facial recognition
Vaquero et al.2009|Attribute-based people search in surveillance environments
Xia et al.2012|Understanding kin relationships in a photo
US8645287B2|2014-02-04|Image tagging based upon cross domain context
同族专利:
公开号 | 公开日
US20090192967A1|2009-07-30|
JP5383705B2|2014-01-08|
WO2009094142A1|2009-07-30|
US7953690B2|2011-05-31|
EP2245580A1|2010-11-03|
引用文献:
公开号 | 申请日 | 公开日 | 申请人 | 专利标题
JP2004054376A|2002-07-17|2004-02-19|Hitoshi Hongo|グループ属性推定方法及びグループ属性推定装置|
JP2004227158A|2003-01-21|2004-08-12|Omron Corp|情報提供装置および情報提供方法|
JP2007110262A|2005-10-11|2007-04-26|Nikon Corp|画像鑑賞用ソフトウェア及び画像蓄積装置|
JP2007272896A|2006-03-31|2007-10-18|Fujifilm Corp|適応型文脈支援による人間分類を行うためのデジタル画像処理方法および装置|JP2011139441A|2009-12-03|2011-07-14|Panasonic Corp|視聴端末装置、視聴統計装置、視聴統計処理システムおよび視聴統計処理方法|
JP2017526989A|2015-07-31|2017-09-14|小米科技有限責任公司Xiaomi Inc.|関連ユーザー確定方法および装置|
JP2017167793A|2016-03-16|2017-09-21|富士フイルム株式会社|画像処理装置、画像処理方法、プログラムおよび記録媒体|US8000505B2|2004-09-01|2011-08-16|Eastman Kodak Company|Determining the age of a human subject in a digital image|
US8294763B2|2007-12-14|2012-10-23|Sri International|Method for building and extracting entity networks from video|US8356035B1|2007-04-10|2013-01-15|Google Inc.|Association of terms with images using image similarity|
US7904461B2|2007-05-01|2011-03-08|Google Inc.|Advertiser and user association|
US8055664B2|2007-05-01|2011-11-08|Google Inc.|Inferring user interests|
US9373076B1|2007-08-08|2016-06-21|Aol Inc.|Systems and methods for building and using social networks in image analysis|
US7853622B1|2007-11-01|2010-12-14|Google Inc.|Video-related recommendations using link structure|
US8041082B1|2007-11-02|2011-10-18|Google Inc.|Inferring the gender of a face in an image|
US8229865B2|2008-02-04|2012-07-24|International Business Machines Corporation|Method and apparatus for hybrid tagging and browsing annotation for multimedia content|
US7961986B1|2008-06-30|2011-06-14|Google Inc.|Ranking of images and image labels|
US20100106573A1|2008-10-25|2010-04-29|Gallagher Andrew C|Action suggestions based on inferred social relationships|
US9210313B1|2009-02-17|2015-12-08|Ikorongo Technology, LLC|Display device content selection through viewer identification and affinity prediction|
US10706601B2|2009-02-17|2020-07-07|Ikorongo Technology, LLC|Interface for receiving subject affinity information|
US9727312B1|2009-02-17|2017-08-08|Ikorongo Technology, LLC|Providing subject information regarding upcoming images on a display|
US8311950B1|2009-10-01|2012-11-13|Google Inc.|Detecting content on a social network using browsing patterns|
US8306922B1|2009-10-01|2012-11-06|Google Inc.|Detecting content on a social network using links|
US9619469B2|2009-12-22|2017-04-11|Apple Inc.|Adaptive image browsing|
JP5434569B2|2009-12-22|2014-03-05|ソニー株式会社|情報処理装置および方法、並びにプログラム|
JP5330530B2|2010-01-22|2013-10-30|パナソニック株式会社|画像管理装置、画像管理方法、プログラム、記録媒体及び集積回路|
US20110184953A1|2010-01-26|2011-07-28|Dhiraj Joshi|On-location recommendation for photo composition|
US8416997B2|2010-01-27|2013-04-09|Apple Inc.|Method of person identification using social connections|
US9465993B2|2010-03-01|2016-10-11|Microsoft Technology Licensing, Llc|Ranking clusters based on facial image analysis|
US8504490B2|2010-04-09|2013-08-06|Microsoft Corporation|Web-scale entity relationship extraction that extracts pattern based on an extracted tuple|
CN102483841B|2010-06-23|2016-08-03|松下电器(美国)知识产权公司|图像评价装置、图像评价方法、程序、集成电路|
US20120054190A1|2010-08-27|2012-03-01|Aiv Technology Llc|Electronic family tree generation and display system|
US8630494B1|2010-09-01|2014-01-14|Ikorongo Technology, LLC|Method and system for sharing image content based on collection proximity|
US8774533B2|2010-10-12|2014-07-08|Hewlett-Packard Development Company, L.P.|Quantifying social affinity from a plurality of images|
US9355329B2|2011-05-09|2016-05-31|Catherine G. McVey|Image analysis for determining characteristics of pairs of individuals|
US9552637B2|2011-05-09|2017-01-24|Catherine G. McVey|Image analysis for determining characteristics of groups of individuals|
US9104906B2|2011-05-09|2015-08-11|Catherine Grace McVey|Image analysis for determining characteristics of animals|
US8832080B2|2011-05-25|2014-09-09|Hewlett-Packard Development Company, L.P.|System and method for determining dynamic relations from images|
US8565539B2|2011-05-31|2013-10-22|Hewlett-Packard Development Company, L.P.|System and method for determining estimated age using an image collection|
US8977061B2|2011-06-23|2015-03-10|Hewlett-Packard Development Company, L.P.|Merging face clusters|
US9195679B1|2011-08-11|2015-11-24|Ikorongo Technology, LLC|Method and system for the contextual display of image tags in a social network|
US8885960B2|2011-10-05|2014-11-11|Microsoft Corporation|Linking photographs via face, time, and location|
US8837787B2|2012-04-05|2014-09-16|Ancestry.Com Operations Inc.|System and method for associating a photo with a data structure node|
US9407860B2|2012-04-06|2016-08-02|Melvin Lee Barnes, JR.|System, method and computer program product for processing image data|
US9014510B2|2012-06-29|2015-04-21|Intellectual Ventures Fund 83 Llc|Method for presenting high-interest-level images|
US8897485B2|2012-06-29|2014-11-25|Intellectual Ventures Fund 83 Llc|Determining an interest level for an image|
US9014509B2|2012-06-29|2015-04-21|Intellectual Ventures Fund 83 Llc|Modifying digital images to increase interest level|
US8873851B2|2012-06-29|2014-10-28|Intellectual Ventures Fund 83 Llc|System for presenting high-interest-level images|
WO2014024043A2|2012-08-06|2014-02-13|See-Out Pty. Ltd.|System and method for determining graph relationships using images|
US9311564B2|2012-10-05|2016-04-12|Carnegie Mellon University|Face age-estimation and methods, systems, and software therefor|
CN103886446A|2012-12-21|2014-06-25|比亚迪股份有限公司|移动终端及其联系人关系图形化呈现方法|
US20150032535A1|2013-07-25|2015-01-29|Yahoo! Inc.|System and method for content based social recommendations and monetization thereof|
US10243753B2|2013-12-19|2019-03-26|Ikorongo Technology, LLC|Methods for sharing images captured at an event|
US10417271B2|2014-11-25|2019-09-17|International Business Machines Corporation|Media content search based on a relationship type and a relationship strength|
US9872061B2|2015-06-20|2018-01-16|Ikorongo Technology, LLC|System and device for interacting with a remote presentation|
JP2018530079A|2015-07-15|2018-10-11|15 セカンズ オブ フェイム,インコーポレイテッド|Apparatus and method for video analysis techniques for identifying individuals in face recognition and contextual video streams|
US9769367B2|2015-08-07|2017-09-19|Google Inc.|Speech and computer vision-based control|
US20170053190A1|2015-08-20|2017-02-23|Elwha Llc|Detecting and classifying people observing a person|
US9934424B2|2015-10-05|2018-04-03|International Business Machines Corporation|Automated relationship categorizer and visualizer|
CN108369652A|2015-10-21|2018-08-03|15秒誉股份有限公司|用于面部识别应用中的误判最小化的方法和设备|
KR20170055254A|2015-11-11|2017-05-19|삼성전자주식회사|메타 데이터를 처리하기 위한 장치 및 방법|
US10225511B1|2015-12-30|2019-03-05|Google Llc|Low power framework for controlling image sensor mode in a mobile image capture device|
US9838641B1|2015-12-30|2017-12-05|Google Llc|Low power framework for processing, compressing, and transmitting images at a mobile image capture device|
US9836819B1|2015-12-30|2017-12-05|Google Llc|Systems and methods for selective retention and editing of images captured by mobile image capture device|
US10732809B2|2015-12-30|2020-08-04|Google Llc|Systems and methods for selective retention and editing of images captured by mobile image capture device|
US9836484B1|2015-12-30|2017-12-05|Google Llc|Systems and methods that leverage deep learning to selectively store images at a mobile image capture device|
US10277714B2|2017-05-10|2019-04-30|Facebook, Inc.|Predicting household demographics based on image data|
US10503843B2|2017-12-19|2019-12-10|Eagle View Technologies, Inc.|Supervised automatic roof modeling|
US10387487B1|2018-01-25|2019-08-20|Ikorongo Technology, LLC|Determining images of interest based on a geographical location|
法律状态:
2012-01-18| A621| Written request for application examination|Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20120117 |
2012-01-18| A521| Written amendment|Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120117 |
2013-01-17| A521| Written amendment|Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20130116 |
2013-04-04| A711| Notification of change in applicant|Free format text: JAPANESE INTERMEDIATE CODE: A711 Effective date: 20130403 |
2013-04-26| A977| Report on retrieval|Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20130425 |
2013-05-15| A131| Notification of reasons for refusal|Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20130514 |
2013-08-09| A521| Written amendment|Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20130808 |
2013-08-28| TRDD| Decision of grant or rejection written|
2013-09-04| A01| Written decision to grant a patent or to grant a registration (utility model)|Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20130903 |
2013-10-10| A61| First payment of annual fees (during grant procedure)|Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20131001 |
2013-10-11| R150| Certificate of patent or registration of utility model|Ref document number: 5383705 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
2016-10-11| R250| Receipt of annual fees|Free format text: JAPANESE INTERMEDIATE CODE: R250 |
2017-10-03| R250| Receipt of annual fees|Free format text: JAPANESE INTERMEDIATE CODE: R250 |
2018-10-02| R250| Receipt of annual fees|Free format text: JAPANESE INTERMEDIATE CODE: R250 |
2019-10-11| LAPS| Cancellation because of no payment of annual fees|
优先权:
申请号 | 申请日 | 专利标题
[返回顶部]