醫療保健是人工智慧最艱鉅的考驗

A magnetic MRI scan of a brain.

(SeaPRwire) –   如果你想了解人工智慧將如何真正影響世界,不要看程式碼、法律或金融。看看醫療保健。這是 AI 面臨最嚴峻測試的地方:層層法規、生死攸關的利害關係、複雜的生物學,以及大多數人認為機器最後才能複製的、深具人性且富有同情心的核心。

近十年前,電腦科學家兼諾貝爾獎得主 Geoffrey Hinton(被稱為「AI 教父」)曾表示,醫院應該停止培訓放射科醫生,因為在五年內,AI 的表現將超越人類。將近 10 年後,放射科醫生的數量比以往任何時候都多。在 1995 年至 2024 年間獲得 FDA 批准的人工智慧和機器學習工具中,有 723 個是放射科設備。機器進步了,人類卻沒有離開。

當我最近向 Hinton 提出這點時,他很快地重新界定了觀點,而非退縮。他說,他判斷錯誤的不是技術,而是經濟學。

「醫療保健是一個非常有彈性的市場,」他告訴我。「如果你讓一名醫療保健工作者能多做十倍的工作,我們就會得到十倍的醫療服務。特別是老年人,他們可以吸收無窮無盡的醫療服務。」

「AI 會取代醫生嗎?」這個標準問題結果是錯誤的。對醫療保健的需求實際上是無限的。總有另一張掃描圖需要判讀,另一種病症因無人有空查看而未被診斷。AI 不會縮減醫療勞動力,它將揭示一直以來有多少未被滿足的需求。

當 AI 表現優於醫生,以及當它失敗時

在某些環境下,AI 已經超越了醫生。心臟科醫生兼研究員 Eric Topol 指出,獨立運作的 AI 系統在某些研究中的表現優於將 AI 作為工具使用的醫生。「我仍然認為兩者結合更有可能勝出,」Topol 告訴我。「但我不像 2019 年時那麼有信心了。」

為什麼單獨的 AI 有時會比使用 AI 輔助的人類表現更好?一種解釋是研究人員所說的「自動化忽視」(automation neglect):醫生固守於最初的診斷而未能調整,即使系統建議了另一種選擇。另一種解釋是,我們根本還沒學會如何與這些工具進行有效協作。

並非所有證據都對機器有利。在發表於 Nature Medicine 的一項隨機對照試驗中,心臟科醫生 David Ouyang 及其同事測試了一個 AI 系統,處理涉及疑似舒張性心衰竭(HFpEF)的複雜心臟病案例,這是一種連資深臨床醫生都覺得難以診斷的疾病。

「專科醫生很稀缺,」他說。「AI 能否幫助全科醫生像他們一樣思考?」 

他們做到了。在 AI 輔助下,全科心臟科醫生產出的評估報告更受專科審查員青睞,且臨床顯著錯誤較少。但 AI 的回覆中有 6.5% 包含臨床顯著的幻覺。 

讓這項發現發揮作用的是接下來發生的事。「當人類心臟科醫生質疑 AI 模型:『你確定超音波心圖顯示心室肥厚嗎?』時,AI 會自我修正。」機器在有人詢問之前,並不知道自己錯了。

此外還有警示信號。Topol 指出,就在上個月,The Lancet Digital Health 的一篇論文評估了使用 ChatGPT 最先進模型進行的醫療分流。它的分流錯誤率超過一半,告訴急需急診的患者留在家中。「我們還有很長的路要走,」他說。

證據參差不齊。對於某些任務,單獨使用 AI 表現最好。對於其他任務,人類與機器協作的表現優於其中任何一方。而在另一些情況下,這項技術則危險地不可靠。真正的挑戰不在於 AI 是否有效,而在於知道何時有效。

從反應式醫學轉向預防性醫學

最顯著的轉變可能不是診斷準確性,而是時機。現代醫療體系是為了在症狀出現後治療疾病而建立的。Topol 認為 AI 可以幫助將醫學推向「上游」。

「三種主要的年齡相關疾病——神經退化、癌症和心血管疾病——在我們體內都有 15 到 20 年的潛伏期,」他告訴我。「我們有很長的跑道可以發揮,但我們過去沒有整合所有數據的方法。我們甚至沒有所有的數據。」

現在我們開始擁有了。Apple Watch 和其他穿戴式裝置會產生持續的心率變異性、血氧和睡眠數據流。Stanford 的研究人員最近展示,可以從蛋白質組學(Proteomics)中準確預測 130 種疾病。SomaLogic 和 Olink 現在可以估算生物年齡。根據 Topol 的說法,缺失的一環是免疫組(immunome),即一個人免疫功能的全面圖譜。 

「除了大腦,免疫系統是人體最複雜的系統,」他說。「而我們在臨床上沒有測量它的方法。在 2026 年,這太糟糕了。」 

他認為,失調的免疫系統是連接癌症、神經退化和心臟病的共同線索,而測量它將開啟風險預測的新時代。

機會不在於用單一突破性產品取代醫生,而在於圍繞新的上游預防性護理模式建立基礎設施:睡眠、穿戴式裝置、血液蛋白。AI 真正的承諾可能在於它安靜地監測身體最早的預警信號,並在疾病變得明顯之前很久就進行干預。

AI 在醫療保健中的法律、倫理和人為限制

然而,AI 在醫療保健領域的採用將不僅僅是技術問題。Hinton 指出了一種法律上的不對稱。如果醫生未能使用可用的 AI 工具而導致患者死亡,沒人會被起訴。但如果醫生使用了 AI 並隨後產生傷害,責任可能是即時的。該系統阻礙了早期採用。

同時,人為錯誤依然普遍存在。「我們知道在美國至少有診斷錯誤,導致了大約,」Topol 告訴我。「而我們往往不談論這些。我們一直在談論 AI 犯的錯誤。」

此外,同理心的問題仍未解決。當我問 Hinton,在生命盡頭是否願意接受 AI 的照顧時,他停頓了一下。「我可能會覺得它是裝出來的,」他說。接著補充道:「但我認為 AI 真的可以擁有同理心。」

Topol 則不認同。「AI 非常擅長傳達同理心,」他告訴我。「但機器不可能知道什麼是同理心。人們希望看著某人的眼睛,知道那個人關心他們。這是醫學的本質。沒有任何機器能真正取代這一點。」

本文由第三方廠商內容提供者提供。SeaPRwire (https://www.seaprwire.com/)對此不作任何保證或陳述。

分類: 頭條新聞,日常新聞

SeaPRwire為公司和機構提供全球新聞稿發佈,覆蓋超過6,500個媒體庫、86,000名編輯和記者,以及350萬以上終端桌面和手機App。SeaPRwire支持英、日、德、韓、法、俄、印尼、馬來、越南、中文等多種語言新聞稿發佈。