負責任 AI 中心
實施策略
落地申請流程

AI生命週期管理
AI生命週期管理簡介
人工智慧在醫療領域的應用須確保安全性、合規性及持續有效性,因此AI生命週期管理(AI Lifecycle)成為醫院導入AI的重要管理機制。AI技術應用全程均需納入風險評估與監測,以確保模型的穩定性、準確性與透明性。
醫院作法:監測標準與應變機制
本院對導入的AI技術採取全生命週期監測機制,透過以下措施確保其安全與穩定性:
- 監測標準:
- 依據九大透明性原則與可解釋性分析,訂定可量化的監測指標,如模型準確度、偏差率、解釋性評估分數等。
- 定期(如每年)進行監測,以確保AI系統符合標準。
- 異常應變機制:
- 若監測指標低於規範下限,負責任AI執行中心即啟動AI停用機制,防止潛在風險擴大。
- 相關異常將提報至負責任AI智慧醫療委員會進行審查,確保決策透明。
- 修正與重新驗證:
- 停用後,原申請單位須重新驗證並校調AI模型,確保其達到標準要求。
- 直至監測指標數據回復至合格範圍,才允許恢復AI應用,確保臨床決策輔助的安全性與可靠性。
透過上述機制,我們確保醫療AI應用符合臨床標準與監管要求,讓AI技術在醫療場域發揮價值,同時保障病患安全。
負責任AI三大落地實施策略
一、 資安維護及隱私保護–遵循資安法規與標準
本院內部為確保病患資料的保護與系統安全,定期進行維護與資安稽核以《醫療機構資通安全管理指引》、《資通安全管理法》及《個人資料保護法》作為重要指引參考,以確保系統安全及隱私保護符合衛生福利部之資安規範。
二、 標準化管理流程確保AI應用安全
本中心相關法規與標準,制定標準化流程涵蓋AI產品申請、審核及持續監測三大核心環節,以確保負責任AI應用的安全性與隱私保護,為醫療團隊及使用者提供更可靠的智慧醫療把關。
三、 九大透明性原則及可解釋性分析
透過九大透明性原則結合可解釋性分析(Explainability Analysis)確保醫療AI的決策過程可理解、可信賴並為醫療機構提供清晰的監管框架。
依據九大透明性原則裡的量化指標及可解釋性分析為標準依據,定期監測與管理機制為負責任AI落地管理重要原則,並落實停用或再調校機制,具有明確啟動停用程序權責單位、標準化作業流程、標準下限值等定義與執行方式。
本中心的目標是在新AI產品進入醫院執行時,導入負責任AI管理機制,確保AI決策過程資訊透明,有利於醫療使用團隊可理解,讓AI技術能真正提升醫療效益,而非增加風險。
九大透明性原則 | |
1 | AI詳情與輸出 |
2 | AI目的 |
3 | AI的警告範圍外使用 |
4 | AI開發詳情及輸入特徵 |
5 | 確保AI開發公平性的過程 |
6 | 外部驗證過程 |
7 | 模型表現的量化指標 |
8 | AI實施與使用的持續維護 |
9 | 更新和持續驗證或公平性評估計畫 |