當前位置:法律站>醫療糾紛>醫療事故責任>

醫療人工智慧醫療事故責任認定是什麼

醫療事故責任 閱讀(2.21W)

一、醫療人工智慧醫療事故責任認定是什麼

醫療人工智慧醫療事故責任認定是什麼

醫療人工智慧導致的醫療損害要從兩個層面進行責任認定:法律責任的歸責原則及法律責任的承擔方式。醫療人工智慧有可能因硬體故障、程式漏洞、深度學習後的自主性等引發醫療事故。

法律規定:“責任醫師或醫療機構對患者在醫療服務中所受的損害有過錯的,醫療機構應承擔賠償責任。醫療器械產品缺陷導致的醫療損害,由醫療機構和生產者承擔連帶賠償責任,適用無過錯責任原則。

二、人工智慧的法律人格是什麼

醫療人工智慧的法律人格問題可以分為兩個層面:是否必須確定醫療人工智慧法律人格的問題及如何確立醫療人工智慧的法律人格問題。人工智慧通過深度學習,逐漸呈現出一些“自主性”的特徵。人工智慧的民事主體身份的確認是明確其法律行為、法律責任、歸責原則等問題的基礎。在傳統的民法體系中,民事主體有自然人、法人、非法人組織、國家與國際組織。深度學習的強人工智慧機器人是否可以被賦予有限的民事能力,是否能以“機器人”的名義位列民事主體是一個重大的法律問題。

法律是以國家名義頒佈的、以權利義務為內容的、以國家強制力保證實施的主體的行為規範。無論是設定醫療人工智慧的民事主體身份,還是把醫療人工智慧當作醫生的醫療輔助手段,都必須有相關的法律檔案對醫療人工智慧的診療行為進行規制。實際上,手術機器人不僅做心臟手術,還會做腦部、胸部、腹部、四肢等多部位手術,因而,相關法律法規的設立還在摸索階段,而國際公認的手術機器人標準也尚未形成。

三、醫療人工智慧的風險法律責任是什麼

隱私風險:患者個人的醫療資料如個人基本資訊包括姓名、年齡、性別、住所、籍貫、工作單位、聯絡方式等,還包括身體指標、既往病史、診療記錄、生物基因資訊等,這些資訊如何收集、儲存、使用等都是重要的法律問題。

資料安全:醫療人工智慧的深度學習需要收集並分析海量的資料資源,而這些資料資源關係到國計民生,甚至國家戰略決策,一旦洩露後果不堪設想。

倫理風險:人工智慧有可能因為設計者的偏見與歧視,或者經過深度學習後習得了偏見與歧視,這種有意或無意的偏見與歧視會對某些特定群體不利。要防止技術的濫用和異化,避免歧視與偏見,避免損害生命體的尊嚴。在真實世界中,昂貴的醫療人工智慧診療新技術的應用有可能侵犯貧困患者平等的生命健康權利;優生優育計算軟體有可能剝奪某些缺陷胎兒的生存權利等。當然還有戰爭機器人的倫理問題等。

最後,醫療人工智慧的運用有好處也有壞處,好處就是醫療人工智慧的使用可以讓國家醫療水平有很大的提升,可以讓更多的人擁有更多的機會,當然有好處就有風險,隱私風險、資料安全、倫理風險這些也是值得被關注的。