コーネル大学の研究者は、音響センサーと人工知能を使用して、唇と口の動きから最大31の未発声コマンドを継続的に認識する無声音声認識インターフェースを開発しました。
EchoSpeechと呼ばれるこの低消費電力のウェアラブルインターフェースは、コマンドを認識するまでにわずか数分のユーザー学習データを必要とし、スマートフォンで実行することが可能です。
騒がしいレストランや静かな図書館など、音声が不便な場所や不適切な場所で、スマートフォンを使って他の人とコミュニケーションをとるために使用される可能性があります。
リンク先はアメリカのNeuroscience Newsというサイトの記事になります。(英文)