![]()
閱讀文摘
越來越多的人開始向AI聊天機器人咨詢健康問題、甚至某些疾病診療,但最新研究顯示,這種做法在真實世界中仍是弊大于利。這并非否定AI,而是疾病的復雜性和實時變化。
研究人員比較了兩組公眾應對常見健康問題的咨詢和AI機器人的表現:一組使用主流聊天機器人獲取建議,另一組則像平時一樣自行上網或查閱資料。
結果發現,使用AI聊天機器人的人,不僅在判斷疾病方面表現更差,在選擇應當去哪兒就醫方面,也沒有明顯優勢。或者說目前AI機器人咨詢系統仍是“摸棱兩可”。
這并不是因為AI聊天機器人缺乏醫學知識。事實上,當前大型語言模型在模擬考試中往往輕松通過醫師資質執照考試,對同樣的模擬病例進行解答時,在識別疾病和給出診療建議方面,表現相當出色。
問題出在人機互動過程:普通用戶(一般老百姓)往往不會完整、準確描述自己的病癥或不適,AI聊天機器人可能“誤解”關鍵信息或過度理解。即使AI聊天機器人在對話中提出正確診斷建議,用戶在領悟AI機器人時,也未必能抓住重點(通常情況下AI機器人不會給出明確疾病診斷,只是建議或可能性)。
在把AI引入臨床診療實踐中、尤其是高風險環節(如分診、診斷建議)之前,必須評估在真實場景中的表現,而不能只依賴標準化試題或“模型對模型”基準測試。
現實生活中,患者描述往往含糊不清、順序混亂、帶有誤解,這與考試題或精心設計的測試環境完全不同。一個在基準評估中表現優異的AI系統,面對真實患者或家屬的陳述,其判斷力和效果可能大打折扣。
醫學實踐不僅僅是知識和模式識別,更是一門依賴人際溝通和情境判斷的“藝術”。幾十年來,醫學教育一直強調以患者為中心溝通模式,建立信任關系、通過細致提問收集信息、理解患者擔憂和期望、解釋檢查結果,并與患者共同做出決策。
這些診療過程依賴醫生同理心、經驗以及個性化溝通和道德判斷,而這些人類技能目前都難以被AI聊天機器人真實復制。
總之,AI技術也許能“考過”醫生資格考試,但會考試并不等于會行醫。真正的臨床實踐需要判斷力、同理心,以及在復雜情境中做出平衡和負責決定的能力。在可以預見的未來,這些關鍵職能仍需由人類專業人員來承擔,無法交給AI聊天機器人系統。
咨詢微信:GlobalMD2026
(群規: 實名+機構)
從4月1日開始【亞太長壽醫學會】(Asia-Pacific Longevity Medicine Society)正式組建【會員群】。將以最快捷方式分享國際長壽醫學、長壽科技、數字健康以及AI驅動健康優化等領域前沿資訊、以及長壽診所模式迭代更新,同時還包括運動處方、營養處方、功能醫學等領域資訊。【會員】也可以咨詢個人感興趣內容的最新進展,我們將竭誠為【會員】提供專業服務。申請加入會員,微信聯系:GlobalMD2026;或APACLONGEVITYSOCIETY
![]()
關注我們,獲取生物醫學前沿最新資訊
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.