最近一項研究發現,我們在聽旁人說話的時候,眼睛所看到的嘴唇的變化要比聲音早一步到達大腦。而且根據具體工作的不同,這一延遲信號的長度也有所差別。
這項研究是由來自倫敦大學的研究者們做出的。他們同時還發現這一信號延遲的一些正面作用,即在這一信號延遲現象的存在下,人們對于語言的
理解能力能夠得到明顯提升。相關結果發表在《ScienceficReports》雜志上。
該文章的作者,來自倫敦大學的心理學高級講師ElliotFreeman博士說道:“我們的研究為兩個世紀以來的一項疑問提出了新的解釋,即不同類型的信號進入大腦的時間是否同步。另外,我們還發現信號的延遲會提高人們對語言的理解能力。當我們在看電視時,由于信號是以同步化的方式被接收的,因此我們理解電視中的一些語言的能力反而會有所下降。我們相信,通過調整不同信號之間的時間延遲,能夠優化人們的理解能力”。
為了驗證這一效果,研究者們給36名志愿者提供了嘴部特寫的電影片段,同時通過提高噪音的方式減弱聲音信號的強度,此外,這些聲音與畫面存在不同程度的延遲。志愿者們在看完電影之后被要求對畫面中人說的詞語進行重復。
結果顯示,聲音延遲91ms左右的情況下,人們對音位的識別最準確,而當延遲時間達到113ms的情況下,人們對詞語的識別能力最佳。
有意思的是,對于每一個人來說,特定的一項任務需要的信號延遲是確定的,而對于不同的任務則需要不同的延遲時間。這說明我們的
大腦在處理不同任務的時候最佳的信號延遲是不同的。作者們希望這一研究能夠幫助我們設計聲音-畫面延遲的效果,從而提高觀眾們的理解能力。