關閉資料授權設定恐清空紀錄 學者示警 ChatGPT 資料遺失風險

關閉資料授權設定恐清空紀錄 學者示警 ChatGPT 資料遺失風險
關閉資料授權設定恐清空紀錄 學者示警 ChatGPT 資料遺失風險

關閉設定導致研究資料全失 學者示警生成式 AI 資料風險

生成式人工智慧已成為學術與專業工作的重要輔助工具,但過度依賴平台本身,可能帶來難以挽回的後果。德國一名大學教授近日公開分享經驗,指出僅因調整 ChatGPT 帳號設定,便導致多年研究與教學資料瞬間消失,引發學界對 AI 使用與資料安全的廣泛討論。

※ 圖片為示意畫面,僅用於新聞報導與合理使用

調整資料授權設定 對話紀錄無預警消失

根據《Nature》期刊專欄報導,德國科隆大學植物科學教授 Marcel Bucher 表示,他在測試關閉帳號中與資料授權相關的設定後,發現過去兩年所有 ChatGPT 對話紀錄遭到永久刪除。這些內容涵蓋研究計畫申請草稿、論文修訂版本、課程教材與考試題目,對其教學與研究工作造成重大影響。

Bucher 指出,在進行設定變更時,系統未提供足夠明確的風險提示,事後也沒有任何資料復原機制,使他在毫無心理準備的情況下面臨資料全數流失。

事件引發爭議 學界反思 AI 使用習慣

事件曝光後,在學術與科技社群間引發兩極反應。有聲音質疑研究人員未建立本機備份的基本流程,也有人認為此案例反映出許多使用者對 AI 平台穩定性與資料保存的過度信任。

部分學界人士則表示,雖然當事人的工作流程確實存在疏失,但願意公開分享經驗,有助於提醒更多人正視生成式 AI 在專業應用上的潛在風險。

生成式 AI 衝擊學術體系 資料可信度受關注

相關討論也延伸至學術體系本身。近年已有多家媒體指出,大量由 AI 拼湊生成、來源不明的內容流入學術期刊,對同儕審查制度造成壓力,進一步影響研究品質與學術可信度。

數位雲端圖像置於城市背景中央,四周延伸大量資料流與科技圖示,象徵雲端運算與資料傳輸概念
數位雲端與資料流動視覺化畫面,象徵平台資料儲存與傳輸機制。(圖/示意圖)

官方回應:重要資料仍須自行備份

針對此事件,OpenAI 回應指出,聊天紀錄一旦被使用者執行永久刪除,即無法復原,系統也會在相關操作前提供確認提示。官方同時建議,使用者在處理研究、商業或其他專業用途時,應自行建立完善的備份機制,以降低資料遺失風險。

※ 本文內容依公開資料與媒體報導整理,僅供新聞資訊參考,實際服務設定與資料管理方式,請以平台官方說明為準。

The post 關閉資料授權設定恐清空紀錄 學者示警 ChatGPT 資料遺失風險 appeared first on 天天頭條 I 天天都有好新聞,最具專業性的商業、金融、科技與財經新聞來源,台灣首選.