我々は,これまでに2本のマイクロフォンを使用した両耳聴に よるロボット聴覚機能を開発し,3話者同時発話認識を一種のベンチマーク として使用してきた.SIGやSIG2という上半身ヒューマノイドロボット上での ロボット聴覚では,1m 離れた所から30度間隔に立つ3話者の同時発話認識が それなりの精度で認識が可能となった [16]. しかし,このシステムは事前知識量や事前処理量が多く,どのような音環境でも 手軽に使えるロボット聴覚として機能を備えるのは難しいと判断せざるを得なかった. この性能限界を突破するために, マイクロフォンの本数を増やしたロボット聴覚の研究開発を開始し,HARK が 開発されたわけである.
したがって,HARKがベンチマークとして使用してきた3人が同時に料理の注文を するのを聞き分けるシステムに応用するのは必然であった.現 在,Robovie-R2,HRP-2 等のロボット上で動いている.3話者同時発話認識の変形 として,3人が口で行うじゃんけんの勝者判定を行う審判ロボットも Robovie-R2 上で開発を行った [17].
また,ロボットの応用ではないが,実時間で取得したデータ,あるいは,アー カイブされたデータに対して,HARKが定位・分離した音を可視化するシステム を開発してきた.音の提示において,多くの環境で正確な「音に気づかない」 状況がしばしば見受けられる.この問題を,聴覚的アウエアネス (音の 気づき) の欠如によるものと捉え,聴覚的アウエアネスを改善するために,音 環境理解の支援を行う3次元音環境可視化システムを設計し,HARKを用いて実装 を行った [18, 19].