JKF 捷克論壇

搜尋
查看: 68 | 回覆: 1 | 跳轉到指定樓層
鄭玄琦
高級版主 | 昨天 23:10

AA1MWoai.png
醫生要被AI取代了嗎?這款模型預知癌症、阿茲海默,算出逾千種病痛風險—但專家警告AI不可盡信

雖然 AI 帶來客製化治療、全天候服務等醫療變革,但風險與機會並存,同時也引發對錯誤訊息、隱私以及缺乏監管的隱憂。(圖片:Open AI生成)
© The Storm Media
人工智慧(AI)正加速進軍醫療領域。英國與德國科學家合作,研發出一款新模型「Delphi-2M」,號稱能「預測一個人未來可能遭遇的 1,256 種疾病」,包括阿茲海默症、癌症與心肌梗塞等。《經濟學人》在17日的報導中指出,雖然距離實際應用仍有多年,但這項成果被視為醫學與 AI 結合的重要里程碑,未來不僅能協助醫師提早識別高風險病患,還暗示了疾病之間的潛在關聯,也可能幫助公共衛生單位更精準分配醫療資源。

雖然 AI 帶來醫療變革,但風險與機會並存。獨立記者卡維莎・雅拉加達(Kavitha Yarlagadda)在《日經亞洲》撰文指出,從亞洲到美國,已有案例因「聽信 AI 建議」住院,部分地區更明文禁止 AI 扮演醫師;這也引發對錯誤訊息、隱私以及缺乏監管的隱憂。專家強調,AI 目前對於專業醫療的價值主要在於提供輔助,而非直接取代醫師。

AI 成「預言醫生」,借鑑 LLM 訓練健康預測
Delphi-2M 的相關研究於 9 月 17 日刊登在《自然》期刊,由劍橋的「歐洲分子生物學實驗室」(EMBL)和位於海德堡的「德國癌症研究中心」合作開發。Delphi-2M的靈感來自大型語言模型(LLMs),像是 ChatGPT 的 GPT-5。LLM 透過大量網路文本學習,精準挑選下一個最可能出現的詞彙;研究團隊認為,若 AI 攝取的人類健康數據,也可能具備類似能力,預測病人未來的健康走向。
雖然 LLM 很適合這項任務,但研究人員在開發過程中遇到一個難題:LLM 的字詞是緊接著連續出現,但病歷中的診斷未必如此。舉例來說,若病患在懷孕檢測陽性後數週出現高血壓,這可能影響孕期;但若懷孕檢測陽性與高血壓症狀相隔數年,解讀方式就截然不同。也就是說,研究團隊必須讓模型學會考量病患情況與症狀之間的時間差。
為此,團隊將 LLM 編碼「字詞位置」的機制,改為「病人年齡」的時間軸,讓模型能理解醫療事件的前後關係。 這項設計雖然創新,但也出現烏龍:模型早期版本曾出現「人在死亡後仍被預測出新診斷」的荒謬情況,顯示醫療 AI 訓練的挑戰性。

因果關係越強的事件,預測越準確
Delphi-2M 是以英國「生物樣本庫」(UK Biobank)的 40 萬人數據作為訓練來源,這個樣本庫也被視為全球最完整的人體生物資料庫。模型根據「國際疾病分類」(ICD-10)診斷碼,輸入了 1,256 種疾病的發病時間與順序。隨後,研究團隊以額外 10 萬名樣本驗證模型,再進一步利用丹麥自 1978 年以來的 190 萬筆醫療紀錄進行測試,以確保樣本更具多樣性與代表性。

研究人員以「曲線下面積」(AUC)衡量模型表現,1 代表模型百分之百正確;0.5 則表示跟「隨便猜」一樣沒意義。以英國數據來看,Delphi-2M 在 5 年內的診斷預測準確度平均達 0.76;在丹麥數據則稍降至 0.67。若事件具有明確因果關聯,例如「敗血症後死亡」,模型表現相對出色;而隨機性較高的事件(例如感染病毒)則較難掌握。預測能力也會隨時間衰減,當時間拉長至 10 年,準確度平均落在 0.7。
實際應用仍須經臨床試驗,但潛力驚人
目前,Delphi-2M 距離臨床應用仍有一段路。研究團隊表示,模型必須先經過更嚴格的臨床試驗,讓醫師判斷是否真能改善病人治療結果,這過程可能需要多年。研究團隊也正努力更新模型,讓 Delphi-2M 接收更複雜的資料,而不僅限於病歷診斷清單。例如英國生物樣本庫中還包含基因組與醫學影像數據,若能整合進模型,準確率有望大幅提升。

值得注意的是,Delphi-2M 並非唯一的「健康預測 AI」。倫敦國王學院 2024 年推出「Foresight」模型,也能透過病歷預測未來健康事件。然而,因為英國國民保健署未經正式核準,就將數據授權給倫敦國王學院,導致 Foresight 的擴大版計畫在 6 月遭暫停。此外,哈佛大學正在研發的 ETHOS 模型,也同樣以疾病預測為目標。
儘管病患短期內還無法直接受益,科學界卻已將這些模型視為潛在寶藏,為生物學家提供了寶貴線索。Delphi-2M 不僅能揭示哪些疾病傾向會同時出現,還暗示了疾病間存在未被探索的關聯,未來更強大的 AI 模型一定能把研究推得更遠。研發模型的 EMBL 遺傳學家柏尼(Ewan Birney)表示:「我就像走進糖果店的小孩一樣興奮。」

AI 開藥成隱憂,各國祭出禁令
雖然人工智慧帶來醫療變革,但風險與機會並存。印度獨立記者雅拉加達(Kavitha Yarlagadda)在《日經亞洲》撰文指出,像 ChatGPT 這樣的 AI 平台,提供關於疾病、飲食和藥物的資訊,引發醫師、科技專家與病患,對錯誤訊息、隱私及監管不足的疑慮。

雅拉加達稱,AI 的建議有時過時、簡化,甚至忽視患者個別情境,導致自行用藥風險大增。已有案例因聽從 ChatGPT 建議而誤用藥物,最終送醫。若缺乏醫師監督,錯誤處方或不當治療會造成嚴重後果,長期濫用藥物更可能讓身體對藥物產生依賴。隨著 AI 加入這股自行用藥潮流,隱私資料遭濫用、病歷外洩的疑慮也日益升高。

在AI開始走進人們生活的情況下,病人仰賴 AI 工具自行用藥、尋求心理健康支持的情況在亞洲與美國都大幅增加。日本和南韓相繼制定規範,要求 AI 醫療數據必須合規使用。美國伊利諾州更進一步明定,直接禁止 AI 擔任心理治療師或諮商師:若無合格專業人員監督,AI 不得制定治療計畫或評估情緒狀態,違者最高可罰 1 萬美元(約新台幣 30 萬元),反映各界對「AI 醫師」的高度警惕。
AI 是助力,而非替代品
雖有爭議,但各地也在積極測試 AI 的正面潛力。中國清華大學成立「AI 代理醫院」,由虛擬 AI 醫師負責,在 21 個專科領域中進行訓練,診斷準確率達 93%。台灣的中國醫藥大學附設醫院(CMUH)自 2015 年起打造大型資料中心,既能保護病患資料,也能用於 AI 演算法訓練;2017 年成立 AI 診斷中心,目前設有 10 間 AI 門診,每週舉辦跨領域醫師與 AI 研究人員會議,討論新計畫並檢視現有研究進展。

雅拉加達指出,AI 有潛力改變人們的生活,引導大眾做出更健康、更聰明的選擇。在醫療領域,AI 的優勢顯而易見:更快、更準確的診斷;全天候服務、客製化治療,以及在醫師短缺時補位;它還能降低成本,並比傳統方式更早偵測疾病。

但疑慮依然存在,當過度依賴 AI 進行自行用藥,可能導致誤診與嚴重健康風險,AI 可能犯錯,或忽略需要醫師專業判斷的細節。最安全的做法,是將 AI 作為專業醫療的輔助工具,而非取而代之。

評分

已有 1 人評分名聲 收起 理由
732 + 30 感謝好友分享

總評分: 名聲 + 30   查看全部評分

分享分享 收藏收藏
FB分享
回覆 使用道具
732
皇帝 | 6 小時前

AI取代醫生的可能性,這是一個很熱門的話題,這就如同AI是否能夠取代老師,這樣學生都在家自學就好了。但目前看來,AI不太可能完全取代醫生,而是會成為醫生的得力助手。AI在醫學領域的應用發展非常迅速,特別是在影像診斷、數據分析和遠程醫療這幾個方面,可幫助醫生做出更精確的診斷和治療決策,讓醫療服務更普及。

儘管AI很強大,但它缺乏醫生獨有的特質,例如同理心和人際溝通、複雜的臨床判斷和手術技能和應變能力。AI更像是增強醫生的能力,而不是取代他們。未來的醫療模式,可能是一位善用AI工具的醫生,能比不使用AI的醫生提供更好的服務。

評分

已有 1 人評分名聲 金幣 收起 理由
鄭玄琦 + 30 + 30 樓主太有才啦!

總評分: 名聲 + 30  金幣 + 30   查看全部評分

引言 使用道具
您需要登入後才可以回覆 登入 | 加入會員

建議立即更新瀏覽器 Chrome 95, Safari 15, Firefox 93, Edge 94。為維護帳號安全,電腦作業系統建議規格使用Windows7(含)以上。
回頂部 下一篇文章 放大 正常倒序 快速回覆 回到列表