膨大な時間と手間がかかっていた調査
2018年2月22日、東京の虎ノ門ヒルズにてABEJAのプライベートイベント「SIX2018」が開催された。LIXILのセッションでは、キッチンの調理行動観察調査において、ヒト・設備・調理道具の関わり方を分析するために使っているDeep Learningを活用した映像解析の手法や研究事例が紹介された。
冒頭、LIXILのTechnology Research 本部 人間科学研究所 人間行動観察グループ 森梓氏は「つい最近まで、私はAIやITといった言葉と無縁な業務をしていたが、ここ2年ほどでユーザー視点の物作りの必要性を痛感。今はユーザーの行動観察に着目することで、新しいキッチンソリューションを提案している。ただ、一言で行動観察といっても、1つの調理動画から人やアイテム(食材や調理道具)の動きを目視と手作業で分析していたため、膨大な時間がかかっていた」と経緯を説明。
「例えば、1回の食事を作る1時間14分50秒の動画を分析するのに約3カ月もかかってしまい、複数回の分析が行えないという課題があった。膨大な工数や分析粒度のばらつき、分析者の経験やセンスに依存する部分もあったので、分析の深掘りにも限界があった」と森氏は振り返った。
面倒なので自分が取り組むつもりはなかったAI導入
上記のような課題に対して、エンジニアはどのように動いたのだろうか。
LIXILのマーケティング本部 デジタルテクノロジーセンター リサーチソフトウェアエンジニア 原田篤氏は「キッチンにおけるユーザーエクスペリエンスを高めるために、アシストするのがAIだ。これまでの調理行動観察は、ユーザーがキッチンでどのように調理するのかを事細かく解析をする前段階で非常に時間と労力がかかり、人によってばらつく結果になりがちだった。本当に時間がかかるので、自分がやるつもりはなかったが(苦笑)、エンジニアとしては1件あたり3カ月もかかる工程を何とかしたいと思い、調理行動観察に画像認識を取り入れた」と説明。
続いて、「まずは画像認識でキチンと要件定義をし、いざ取りかかろうとして最初に直面したのがデータセットの壁だった。車などの一般物体は割とデータセットがあるものの、食材のデータセットは少なく、特に調理のデータセットは公開されているもの自体がわずかだった。そこで、1からデータを作ることになったが、データのアノテーションをする人をアルバイトで確保してもあまりに単調で膨大な作業量のため、なかなか継続が難しかった。もっとシステマチックにやらないと工数が増えることもあり、ABEJAのAIプラットフォームでアノテーションを実現した。ABEJAがアノテーションマネジメントをBPOとして業務委託をしてくれるのも好都合だった」と原田氏は振り返る。
「次に、学習する運用環境を構築する必要があり、できるだけ現場の人が使いやすい簡単なシステムにしたいという思いがあった。当初は1からAWSに動画解析システムを構築してみたが、やってみて分かったのは、単体としてやるのはまだいいのだが、モデルの再学習面で問題があった。そこでABEJAのプラットフォームを使ってみたところ、AIの継続的インテグレーションを実現できた。モデルの再学習における品質管理、学習済みモデルでも詳細なレポートを出してくれるので、相性が良いと思った。何より、AIやITに詳しくない現場の人たちが運用することを見据えると、学習や推論環境を手軽に構築できること、細かいバージョン管理やインフラ回りを考えなくて済むのがABEJA Platformの優位性だ。AIを使うことで1件あたり3カ月もかかっていた作業を100分の1にまで短縮できたのは大きな成果だ」と述べた。
Copyright © ITmedia, Inc. All Rights Reserved.
ITmedia 総合記事一覧で全文を見る
0 件のコメント:
コメントを投稿