研究者らは、人間がどのように音を見つけ出すかについての 1940 年代からの長年の理論に異議を唱え、この発見は聴覚技術に重大な影響を及ぼしました。この研究により、人間はアカゲザルやアレチネズミなどの他の哺乳類と同様に、空間聴覚のためにより単純でエネルギー効率の高いニューラルネットワークを利用していることが明らかになった。
このネットワークは音の位置を特定するだけでなく、音声を背景雑音から分離し、補聴器やスマートフォンが直面する「カクテルパーティー問題」にも対処します。これらの洞察は、補聴器やデジタルアシスタントの設計に革命をもたらし、より適応性と効率性を高める可能性があります。
重要な事実
- 古い理論の誤りを暴く: この研究は、人間の音の定位には複雑な専用のニューラル ネットワークが必要であるという古い仮定が反証したものです。
- より単純なニューラル ネットワーク: 調査結果によると、人間はより単純な哺乳類と同様に、空間聴覚のためにまばらでエネルギー効率の高い神経回路を使用しています。
- テクノロジーへの影響: この研究は、人間の複雑な言語プロセスを模倣することではなく、よりシンプルで直接的な音声処理技術を採用することで補聴器とスマートデバイスを改善できる可能性があることを示しています。
出典: マッコーリー大学
マッコーリー大学の研究者らは、人間が音の発信元をどのように判断するかについての 75 年にわたる理論の誤りを暴き、補聴器からスマートフォンに至る、適応性と効率性の高い次世代の聴覚デバイスを開発する秘密を解き明かす可能性があります。
1940 年代に、音がそれぞれの耳に到達する時間のわずか数千万分の 1 秒の違いに基づいて、人間がどのようにして音源を特定できるかを説明する工学モデルが開発されました。
あらゆるタイプの機械聴覚は、「カクテルパーティー問題」として知られる騒音下での聴覚の課題に直面しています。
このモデルは、専用のニューロンによって空間内の位置が表現され、音がどこから来ているかを判断することだけが唯一の機能である特殊な検出器のセットが必要であるという理論に基づいて動作しました。
それ以来、その仮定は研究とオーディオ技術の設計を導き、影響を与えてきました。
しかし、マッコーリー大学の聴覚研究者らによって『Current Biology』誌に発表された新しい研究論文は、空間聴覚専用のニューラルネットワークという考えが成り立たないことをついに明らかにしました。
主著者であるマッコーリー大学聴覚特別教授のデイビッド・マカルパイン氏は、過去 25 年間を費やして、次々と動物が実際にはるかにまばらなニューラル ネットワークを使用しており、脳の両側のニューロンが他のニューロンに加えてこの機能を実行していることを証明しました。
これを人間に実際に見せるのはさらに困難でした。
今回、特殊な聴覚検査、高度な脳画像処理、アカゲザルを含む他の哺乳類の脳との比較を組み合わせることにより、彼と彼のチームは、人間もこれらのより単純なネットワークを使用していることを初めて示しました。
「私たちは、自分たちの脳があらゆる面で他の動物よりもはるかに進んでいるに違いないと思いたがりますが、それは単なる傲慢です」とマカルパイン教授は言います。
「この点において、私たちはスナネズミがモルモットに似ており、モルモットがアカゲザルに似ており、アカゲザルが人間に似ていることを示すことができました。」
「まばらでエネルギー効率の高い形態の神経回路がこの機能を実行します。つまり、私たちのアレチネズミの脳です。」
研究チームはまた、同じニューラル ネットワークが音声と背景音を分離していることも証明しました。これは、補聴器と携帯電話の電子アシスタントの両方の設計にとって重要な発見です。
あらゆるタイプの機械聴覚は、「カクテルパーティー問題」として知られる騒音下での聴覚の課題に直面しています。そのため、補聴器を使用している人が混雑した空間で 1 つの声を聞き出すことや、スマート デバイスが話しかけたときに理解することが困難になります。
マカルパイン教授は、彼のチームの最新の発見は、現在使用されている大規模言語モデル (LLM) に焦点を当てるのではなく、はるかに単純なアプローチを取るべきであることを示唆していると述べています。
「LLM は文中の次の単語を予測することに優れていますが、あまりにも多くのことをやろうとしています」と彼は言います。
「ここでは音の発生源を特定できることが重要であり、そのためには「深層心理」の言語脳は必要ありません。他の動物もそれができますが、彼らは言語を持っていません。」
「私たちが聞いているとき、私たちの脳は、大きな言語プロセッサがそうしようとしているように、ずっと音を追跡し続けているわけではありません。」
「代わりに、私たちや他の動物は、「浅い脳」を使って音声を含む非常に小さな音の断片を選び出し、これらの断片を使用して場所や、場合によっては音源の身元をタグ付けします。」
「これを行うために高忠実度の信号を再構成する必要はありませんが、その代わりに、信号が皮質の言語中枢に到達するかなり前に、私たちの脳がその信号を神経的にどのように表現するかを理解します。」
「これは、機械が効果的に聞くことができるようにするために、人間の脳のように言語を訓練する必要がないことを示しています。」
「必要なのはアレチネズミの脳だけです。」
チームの次のステップは、サウンドで伝達できる最小限の情報量を特定しながら、最大限の空間リスニングを実現することです。
この聴覚神経科学研究ニュースについて
著者: Georgia Gowing
出典: マッコーリー大学
連絡先: Georgia Gowing – Macquarie University
画像: 画像は Neuroscience News にクレジットされています
元の研究: オープンアクセス。 「霊長類皮質における聴覚空間的合図の神経表現(The neural representation of an auditory spatial cue in the primate cortex)」Jaime Undurrag et al.現在の生物学
リンク先はアメリカのNeuroscience Newsというサイトの記事になります。(原文:英語)