OpenAI 的 ChatGPT 健康推送引發關於數據安全的疑問

Decrypt

簡要說明

  • OpenAI 表示 ChatGPT Health 將於本週開始向特定用戶推出,未來幾週將擴大使用範圍。
  • 該功能將健康對話與其他聊天內容分開存儲,且不會用於訓練 OpenAI 的模型。
  • 隱私倡導者警告,與 AI 工具共享的健康數據往往不受美國醫療隱私法的保護。

週三,OpenAI 宣布在 ChatGPT 中新增一項功能,允許用戶連接醫療記錄和健康數據,這引發了一些專家和倡導團體對個人數據使用的擔憂。這家總部位於加州舊金山的 AI 巨頭表示,名為 ChatGPT Health 的工具由醫生共同開發,旨在支持護理而非診斷或治療疾病。公司將其定位為幫助用戶更好理解自身健康狀況的方式。

對許多用戶來說,ChatGPT 已經成為詢問醫療照護和心理健康問題的首選平台。

OpenAI 告訴 Decrypt,ChatGPT Health 只分享一般的“事實性健康資訊”,不提供“個人化或不安全的醫療建議”。對於較高風險的問題,它將提供高層次的資訊,標示潛在風險,並鼓勵用戶與了解其具體情況的藥劑師或醫療提供者溝通。

此舉緊接著公司在十月報告每週有超過 100 萬用戶與聊天機器人討論自殺問題,約佔當時所有 ChatGPT 用戶的 0.15%。儘管這些數據在整體用戶中比例較小,但專家表示,大多數用戶仍需關注安全和數據隱私問題。

“即使公司聲稱有隱私保護措施,消費者往往缺乏實質的同意、透明度或對其數據的控制權,” 公民權利倡導者 J.B. Branch 在 Decrypt 中表示。“健康數據具有特殊敏感性,若沒有明確的法律限制和可執行的監管,自己監督的保護措施根本不足以防止濫用、重新識別或後續傷害。”

OpenAI 在聲明中表示,ChatGPT Health 中的健康數據預設為加密,與其他聊天內容分開存儲,且不會用於訓練其基礎模型。

根據民主與技術中心(Center for Democracy and Technology)高級政策顧問 Andrew Crawford 的說法,許多用戶誤以為健康數據因其敏感性而受到保護,實則不然,這取決於數據由誰持有。

“當你的健康數據由醫生或保險公司持有時,HIPAA 隱私規則適用,” Crawford 告訴 Decrypt。“但對於非 HIPAA 覆蓋的實體,比如健康應用開發商、可穿戴健康追蹤器或 AI 公司,則不適用。”

Crawford 表示,ChatGPT Health 的推出也凸顯了在缺乏全面聯邦隱私法規管理技術公司持有的健康數據的情況下,責任落在消費者身上的問題。

“很遺憾,我們目前的聯邦法律和規範將這個責任放在個人消費者身上,讓他們自行分析是否對日常使用的技術如何處理和分享數據感到安心,” 他說。

OpenAI 表示,ChatGPT Health 將首先向少數用戶推出。候補名單已開放給非歐盟和英國的 ChatGPT 用戶,並計劃在未來幾週內在網頁和 iOS 平台上擴大使用範圍。OpenAI 的公告未提及 Google 或 Android 裝置。

查看原文
免責聲明:本頁面資訊可能來自第三方,不代表 Gate 的觀點或意見。頁面顯示的內容僅供參考,不構成任何財務、投資或法律建議。Gate 對資訊的準確性、完整性不作保證,對因使用本資訊而產生的任何損失不承擔責任。虛擬資產投資屬高風險行為,價格波動劇烈,您可能損失全部投資本金。請充分了解相關風險,並根據自身財務狀況和風險承受能力謹慎決策。具體內容詳見聲明
留言
0/400
暫無留言