Alex 發自 凹非寺

量子位 | 公眾號 QbitAI

鏟屎官們有沒有想過,每天向你撒嬌、求投餵的狗狗,它腦海里究竟在想什麼?

...

為什麼有時候投入大把精力養熟的狗子,轉頭就可以撲向別人的懷裡?

...

其實,狗狗這麼做並不故意是要氣你——

一項來自埃默里大學的實驗表明:狗狗對世界的看法可能與我們截然不同

人類更關注對象,但狗子卻不太關心看到的到底是誰或什麼物體,而更在意動作本身

所以按理來說,誰對狗子好它就可以親近誰。(當然,別忘了狗子嗅覺靈敏,許多狗狗也很認主)

此外,狗和人類的視覺系統也有很大差異,它們只能看到黃藍色調,但有一個靈敏的視覺感受器,用來觀察運動。

這項實驗採用了機器學習來弄清楚狗子的大腦活動,相關論文已在The Journal of Visualized Experiments上發表。

研究者指出,這種方法有一個明顯的好處:就是無創

而此方法之前只在靈長動物身上用過,所以這次在狗狗身上的實驗算是一個重大突破。

下面就來看看具體體驗過程。

對比狗和人的大腦活動

研究者通過機器學習和fMRI(功能磁共振成像),來探索狗狗看到不同類視頻時的大腦活動。

至於為什麼要選狗子而非其他動物?

因為狗子是一種比較好教的動物,通過一定訓練後可以乖乖配合MRI(核磁共振)掃描,而不需要注射鎮靜劑或使用其他約束方法。

不過儘管狗狗相對聽話,但要在本研究中,它們除了要參與MRI掃描,還要長時間觀看視頻。所以最終只有2隻狗入選,一隻是4歲的雄性拳師混血犬,另一隻11歲的雌性波士頓梗混血犬。

...
△狗狗正在看視頻

每隻狗狗看了三組不同的視頻,每組視頻時長30分鐘,共計256個視頻片段。為了控制變量,這些視頻都沒有聲音。

其中一些視頻主要展示不同的物體(如:人、狗、汽車),另一些視頻則側重於展示不同的動作(如:玩耍、吃東西、聞氣味)

為了作比較,兩名人類志願者也以同樣的程序觀看了這些視頻片段。

在志願者和狗狗看視頻的同時,研究人員用3T核磁共振掃掃描儀記錄了他們的大腦活動圖像。

然後他們使用神經網絡,訓練並測試了3個分類器(classifier),以區分「物體」和「行動」。

誒,為啥不是2個而是3個?

因為關於行為的分類器中,一個是在3種不同動作上訓練的,另一個則學習了5種動作。

結果顯示,人腦對物體和動作都有不錯的反應,而狗狗的大腦只對動作敏感,對於不同的人、物,它們似乎並不感冒。

...
△左為人腦MRI圖,右為狗腦MRI圖

為了評估模型性能、讓數據更有說服力,研究者還用了Ivis機器學習算法對收集的數據進行量化。

...

從人類志願者的數據來看,這些模型在將其大腦活動數據映射到不同分類器上時,準確性都超過99%。

而在對狗的大腦數據進行解碼時,該模型對基於物體的分類器基本不起作用;不過對於基於行為的分類器來說,準確率可達60%至88%。

由此可見,狗狗的思維方式和我們還是有很大區別的!

研究者簡介

研究者來自埃默里大學心理學系。

...

論文一作Erin M. Phillips,現為普林斯頓大學生態學和進化生物學系的在讀博士研究生。

...

她作為訪問學者來到埃默里大學,並參與了這項研究。

論文的共同作者Gregory S.Berns,現任埃默里大學教授,主要研究方向為人類決策的神經影像、狗的fMRI,以及比較神經生物學。

...

Berns教授本科畢業普林斯頓大學物理學系,並先後獲得2個博士學位:生物醫學工程博士以及醫學博士。

Berns認為,狗狗更關注動作其實是可以理解的,因為動物天生需要非常關注環境中的變化,以此來捕獵或者避免被吃掉。

雖然在本次研究中,最終只有2隻狗參與,不過研究者未來還會對更多狗子以及其他動物展開實驗,探索動物們是如何感知世界的。

論文地址:
https://www.jove.com/t/64442/through-dog-s-eyes-fmri-decoding-naturalistic-videos-from-dog

參考連結:
https://www.eurekalert.org/news-releases/964886

— 完 —

量子位 QbitAI · 頭條號簽約

關注我們,第一時間獲知前沿科技動態