News Release

【News Release】パナソニック:パナソニックとStanford Vision & Learning Labが世界最大規模の 住空間向けAI開発用マルチモーダルデータセット 「Home Action Genome」を公開

2020/10/15 16:41

【News Release】パナソニック:パナソニックとStanford Vision & Learning Labが世界最大規模の 住空間向けAI開発用マルチモーダルデータセット 「Home Action Genome」を公開

2020/10/15 16:41

発表日:2020年10月15日
発表者:パナソニック
表 題:パナソニックとStanford Vision & Learning Labが世界最大規模の 住空間向けAI開発用マルチモーダルデータセット 「Home Action Genome」を公開

 パナソニック株式会社(以下、パナソニック)と米国のStanford Vision & Learning Lab(SVL)は、世界最大規模*1の住空間向けAI開発用マルチモーダルデータセット「Home Action Genome」を構築し、研究者向けに公開しました。また、本データセットを用いた行動認識アルゴリズムの開発コンペティション「International Challenge on Compositional and Multimodal Perception(CAMP)」を行います。

 「Home Action Genome」は、住宅内における人の日常行動を模したシーンを、カメラや熱センサなど数種類のセンサを用いて撮影・計測したデータセットです。データには、各シーンにおける人の行動内容を表すアノテーションが含まれています。

<データ入手方法およびCAMPへの参加方法>

 今まで公開されている住空間向けデータセットは、音声や映像のデータが主体で規模が小さいものが主流でした。今回、パナソニックのデータ計測技術とSVLのアノテーションノウハウを掛け合わせることで、世界最大規模の住空間向けマルチモーダルデータセットを実現しました。

 AI研究者は、本データセットを機械学習の学習用データとして用いることができるとともに、住宅内の人をサポートするAI研究に活用することができます。

 当社は、一人ひとりのくらしが日々良くなっていく「くらしアップデート」の実現に向けて、今後もデータセット公開を通した共創などにより、住宅分野向けAIの開発を加速してまいります。

<「Home Action Genome」データセットの詳細>

・データ規模
 70の行動カテゴリに対し、異なる場所および人物で取得した3500のシーンが含まれます。一つのシーンはおおよそ2~5分程度のシーケンスです。
・センサ情報



・アノテーション情報

 本マルチモーダルデータセットには下記の情報が付与されています。
- Videoに対して:人の位置、オブジェクトの位置
- シーンに対して:シーンにおいて人が行っている行動の種類

〔公式ページ〕 
パナソニックとStanford Vision & Learning Labが世界最大規模*1の 住空間向けAI開発用マルチモーダルデータセット 「Home Action Genome」を公開
※掲載テキストは発表情報の全文または一部抜粋です。元となるプレスリリースは発表元による発表当時のものであり、最新情報とは異なる場合があります。※詳細情報は公式ページをご参照ください