2.3 人のように2本のマイクロフォンで聞き分ける

人や哺乳類は2つの耳で聞き分けを行っている.ただし,頭を固定した実験では 高々2音しか聞き分けれないことが報告されている.人の音源定位機能のモデル としては,両耳入力に遅延フィルタをかけて和を取る Jeffress モデルと,両耳 間相互相関関数によるモデルがよく知られている.中臺と筆者らは,ステレオ ビジョンにヒントを得て,調波構造を両耳で抽出し,同じ基本周波数の音に対 して,両耳間位相差と両耳間強度差を求めて,音源定位を行っている [11, 12].一対の参照点を求めるのに,ステレオビジョンでは エピポーラ幾何を使用し,我々の方法は調波構造を使用する.

2本のマイクロフォンによる混合音からの音源定位では,定位が安定せず大きく ぶれることが少なからずあり,また,前後問題,とくに,真正面と真後ろにあ る音源を区別するのが難しい.中臺らは視聴覚情報統合により安定した音源定 位を実現するとともに,SIGというロボットで呼びかけられたら振り向くロボッ トを実現している[14, 15, 27]. 前後問題の曖昧性解消は百聞一見に如かず,というわけである.

金と奥乃らは,SIG2というロボットに頭を動かすことにより音源定位の曖昧性の 解消するシステムを実現している.単純に頭を左右に10度動かすだけでなく, 音源が 70度〜80度にある時には,下向きに10度頷きを入れるとよい.実際,正 面の音源同定では97.6%と1.1%の性能向上に過ぎないのに対して,後ろの音源 同定では75.6%と10%大幅に性能が向上す る(図2.2).これは, Blauertが “Spatial Hearing”で報告している人の前後問題の解消時の頭の動きとよく一致してい る.曖昧性の解消のために挙動を用いる方法はアクティブオーディショ ンの1形態である.

公文のグループや中島のグループは,様々な耳介を用いて頭や耳介自身を動か すことで音源定位の性能向上に取り組んでいる[12].ちょう ど,ウサギの耳が通常は垂れ下がって広範囲な音を聞いており,異常音がする と耳が立ちあがり,特定方向の音を聞くために指向性を高める.このようなア クティブオーディションの実現法の基礎研究である.これが,ロボットだけで なく,様々な動物の聴覚機能の構成的解明に応用できると,新たなロボットの 耳の設計開発につながっていくと期待される.とくに,両耳聴は,ステレオ 入力装置がそのまま使えるので,高性能の両耳聴機能が実現できると,工学的 な貢献が大きいと考えられる.