脳が音楽と音声を区別する方法

脳が音楽と音声を区別する方法

要約

新しい研究により、脳が音楽と話し言葉を単純な音響パラメーターを用いて区別する方法が明らかになりました。研究者たちは、遅くて安定した音は音楽として知覚され、速くて不規則な音は話し言葉として知覚されることを発見しました。

これらの知見は、失語症のような言語障害の治療プログラムを最適化する可能性があります。この研究は、聴覚処理の理解を深めるものです。

主な事実
  • 単純なパラメーター: 脳は基本的な音響パラメーターを使用して音楽と話し言葉を区別する。
  • 治療の可能性: 発見は失語症のような言語障害の治療を改善する可能性がある。
  • 研究の詳細: 研究には合成音声クリップを聴く300人以上の参加者が含まれた。

    出典: NYU
音楽と話し言葉は、私たちが最も頻繁に耳にする音のタイプです。しかし、どうやってそれらの違いを認識するのでしょうか?

国際的な研究チームは、一連の実験を通じてこのプロセスを解明し、音楽を使って失語症に対処するための治療プログラムを最適化する可能性を示す知見を得ました。

脳が音楽と言葉を区別するイメージ画像
著者によると、人間の脳が音楽と話し言葉を区別する方法を理解することは、失語症などの聴覚または言語障害を持つ人々に利益をもたらす可能性があるとのことです。(出典: Neuroscience News)

この言語障害は、毎年300人に1人以上のアメリカ人に影響を及ぼしており、ウェンディ・ウィリアムスやブルース・ウィリスも含まれています。

「音楽と話し言葉は、ピッチや音色、音のテクスチャーなど多くの点で異なりますが、我々の研究結果は、聴覚システムが驚くほど単純な音響パラメーターを用いて音楽と話し言葉を区別していることを示しています」と、ニューヨーク大学心理学部のポスドク研究員でこの論文の主要著者であるアンドリュー・チャン氏は説明しています。この論文はジャーナル「PLOS Biology」に掲載されています。

「全体として、単なるノイズの遅くて安定した音声クリップは音楽のように聞こえ、速くて不規則なクリップは話し言葉のように聞こえます。」

科学者たちは、信号の速度をヘルツ(Hz)という正確な単位で測定します。Hzの数が多いほど、1秒あたりの発生回数(またはサイクル数)が多いことを意味します。例えば、人は通常1.5〜2ステップ毎秒(1.5〜2 Hz)のペースで歩きます。

スティーヴィー・ワンダーの1972年のヒット曲「Superstition」のビートは約1.6 Hzであり、アンナ・カリーナの1967年のヒット曲「Roller Girl」は2 Hzです。対照的に、話し言葉は通常その2〜3倍の速度で、4〜5 Hzです。

音楽の音量(ラウドネス)が時間とともに変化する「振幅変調」は、1〜2 Hzで比較的安定していることがよく知られています。対照的に、話し言葉の振幅変調は通常4〜5 Hzであり、音量が頻繁に変化します。

音楽と話し言葉が普遍的で身近なものであるにもかかわらず、科学者たちは以前はどのようにして我々が音を音楽や話し言葉として無意識に識別するのかについて明確な理解を持っていませんでした。

このプロセスをよりよく理解するために、チャン氏とその同僚は、PLOS Biology誌に掲載された研究で、一連の4つの実験を行いました。300人以上の参加者が、さまざまな振幅変調速度と規則性を持つ合成された音楽および話し言葉のようなノイズの音声セグメントを聴きました。

これらの音声ノイズクリップでは、音量と速度のみが検出可能でした。参加者には、ノイズにマスクされた音楽または話し言葉であると伝えられたこれらの曖昧なノイズクリップが、音楽のように聞こえるか話し言葉のように聞こえるかを判断するよう求められました。

何百ものノイズクリップを音楽か話し言葉のどちらかとして分類する参加者のパターンを観察することで、各速度および/または規則性の特徴が彼らの判断にどれほど影響を与えたかが明らかになりました。科学者たちは、「雲の中に顔を見つける」の聴覚版であると結論付けています。音波の中に音楽や話し言葉のように感じられる特定の特徴があれば、白いノイズクリップでさえ音楽や話し言葉のように聞こえるのです。

結果は、我々の聴覚システムが音楽と話し言葉を区別するために驚くほど単純で基本的な音響パラメーターを使用していることを示しました。参加者にとって、速度が遅く(<2Hz)振幅変調がより規則的なクリップは音楽のように聞こえ、速度が速く(約4Hz)振幅変調が不規則なクリップは話し言葉のように聞こえました。

著者は、人間の脳が音楽と話し言葉を区別する方法を知ることが、失語症などの聴覚または言語障害を持つ人々に利益をもたらす可能性があると指摘しています。

例えば、メロディックイントネーションセラピーは、失語症の人々が言いたいことを歌う訓練をする有望な方法であり、彼らの健全な「音楽のメカニズム」を使って損傷した言語のメカニズムを回避します。したがって、音楽と話し言葉が脳内でどのように似ているか、または異なっているかを知ることは、より効果的なリハビリテーションプログラムの設計に役立ちます。

この論文の他の著者には、香港中文大学のXiangbin Teng氏、メキシコ国立自治大学(UNAM)のM. Florencia Assaneo氏、およびニューヨーク大学心理学部教授でありフランクフルトのErnst Strüngmann神経科学研究所の管理ディレクターであるDavid Poeppel氏が含まれています。

資金提供

 この研究は、国立衛生研究所(NIH)の一部である国立聴覚障害およびその他のコミュニケーション障害研究所(F32DC018205)およびLeon Levy神経科学奨学金からの助成金によって支援されました。

この聴覚神経科学研究ニュースについて

著者: ジェームズ・デヴィット
出典: ニューヨーク大学(NYU)
連絡先: ジェームズ・デヴィット – NYU
画像: 画像のクレジットはNeuroscience Newsに帰属します

元の研究: オープンアクセス
タイトル: "The human auditory system uses amplitude modulation to distinguish music from speech"
著者: アンドリュー・チャン他
掲載誌: PLOS Biology

リンク先はアメリカのNeuroscience Newsというサイトの記事になります。(原文:英語)
ブログに戻る

コメントを残す