自殺是美國15-34歲年輕人死亡的第二大原因,而臨床醫生只能使用有限的手段來(lái)識別那些具有自殺傾向的人。今日發(fā)表在《自然人類(lèi)行為》的一篇論文中記錄了一種新型機器學(xué)習技術(shù),該技術(shù)可幫助識別那些有自殺想法的人。
研究人員對34名年輕人進(jìn)行了調查,有自殺傾向的參與者和實(shí)驗對照組各人數占一半。每個(gè)實(shí)驗對象都經(jīng)過(guò)功能性磁共振成像(fMRI)檢查,并給出了三個(gè)包含10個(gè)單詞的列表。所有詞匯均與以下三個(gè)方面相關(guān),自殺(如“死亡”、“痛苦”或“致命”)、積極影響(“無(wú)憂(yōu)無(wú)慮”、“善良”、“天真”)或消極影響(“無(wú)聊”、“邪惡”、“內疚”)。研究人員還使用了之前繪制的神經(jīng)信號圖,這些信號可顯示大腦的情緒模式,比如“羞恥”和“憤怒”。
五個(gè)大腦定位,連同六個(gè)單詞,被發(fā)現是區分自殺患者和對照組的最佳標志。利用這些位置和詞匯,研究人員訓練了一種機器學(xué)習分類(lèi)器,它能夠正確識別17名自殺者中的15名有自殺傾向參與者,以及17名對照受試者中的16名無(wú)自殺傾向參與者。
隨后,研究人員將自殺的患者分成兩組,一組有過(guò)自殺經(jīng)歷(9人),另一組沒(méi)有自殺經(jīng)歷(8人),并訓練了一種新的分類(lèi)器,它能夠正確識別17名患者中的16名患者。
結果顯示,心理健康的參與者和有自殺想法的人對單詞的反應明顯不同。例如,當有自殺傾向的參與者看到“死亡”這個(gè)詞時(shí),他們大腦中的“羞恥”區域比對照組中參與者的大腦相應區域亮的多。同樣,“麻煩”這個(gè)單詞也會(huì )在“悲傷”區域引發(fā)更多的腦部活動(dòng)。
這是旨在將人工智能引入精神病學(xué)的最新嘗試。研究人員正在研究機器學(xué)習項目,從分析核磁共振波譜到預測重度抑郁癥,再到從人們的說(shuō)話(huà)模式中識別創(chuàng )傷后應激障礙(PTSD)。
今年早些時(shí)候,《連線(xiàn)》雜志曾報道過(guò)一些研究人員,他們建立了一個(gè)系統,可以通過(guò)分析健康記錄來(lái)標記有自殺風(fēng)險的人,準確率在80%到90%之間。Facebook正在使用文本挖掘技術(shù)來(lái)識別面臨自殺或自殘風(fēng)險的用戶(hù),然后將其指向心理健康資源(見(jiàn)“Facebook的自殺預防工具的幾大問(wèn)題”)。
人工智能已經(jīng)在醫學(xué)領(lǐng)域掀起了波瀾。有一些算法非常善于檢測腫瘤和CT掃描中出現的其他問(wèn)題,而杰弗里·新敦告訴《紐約客》,放射科醫生最終將會(huì )失業(yè)。他是深度學(xué)習領(lǐng)域最重要的研究人員之一。事實(shí)上,他說(shuō),“他們現在應該停止培養放射科醫生。”
在這種情況下,這項研究更有可能激發(fā)出新的人類(lèi)驅動(dòng)的治療方法,而不是讓一整個(gè)領(lǐng)域的醫生失去工作。這篇論文指出,識別不同的模式和區域可以為大腦刺激技術(shù)開(kāi)發(fā)新的領(lǐng)域。確定對自殺相關(guān)術(shù)語(yǔ)的特定情緒反應,也可用于心理治療師治療患者。
[聲明]本文僅代表作者觀(guān)點(diǎn),不代表機交網(wǎng)立場(chǎng)。如果你認為本網(wǎng)轉載的內容涉及侵權,請作品的作者盡快與我們聯(lián)系。