ChatGPT已經透過每天十億個問題接管了我們的生活
Open AI的ChatGPT 改變了我們許多人的工作和日常生活方式;根據最近的統計數據,每天有超過 1 億人使用它來處理超過 10 億個查詢;但專家現在警告說,這是一個「隱私黑洞」可能會洩漏您的大部分個人資訊。
這款征服世界的 LLM 聊天機器人被描述為「隱私黑洞」,人們對它處理用戶輸入資料的方式感到擔憂,甚至導致它在某些國家(例如義大利)曾被短暫禁止。
它的創建者 OpenAI 毫不掩飾輸入的任何資料都可能不安全的事實;它不僅用來訓練模型,進一步的代理操作即輸出,可能導致其在過程中中暴露給其他人,還可以由人類進行審查,以檢查其是否符合有關使用的規則,因此發送到任何雲端服務的資料安全性,都取決於資料提供者的安全自覺。
這一切意味著,輸入的任何資料會被視為公共資訊;有了這一點個資洩漏的顧慮,有幾件事絕對不應該告訴它,或者任何其他開放雲端的聊天機器人也不可。且讓我們來看看這五件是哪些事:
非法或違反善良的請求
大多數人工智慧聊天機器人都有專門的安全措施,以防止它們被用於不道德的目的。如果您的問題或請求涉及非法活動,您可能會陷入困境;向公共聊天機器人詢問如何犯罪、進行詐欺活動、或操縱人們採取可能造成傷害的行動,提問這些事絕對是不明智的。
許多使用政策明確指出,非法請求或試圖使用人工智慧進行非法活動,可能會導致用戶被舉報給當局。根據您所在的位置,這些法律可能會有很大差異;例如,中國的人工智慧法禁止利用人工智慧破壞國家權威或社會穩定,歐盟人工智慧法案則規定,看似真人但實際上由人工智慧產生的「深度偽造」影像或影片必須清楚標註。在英國,《網路安全法》規定未經同意分享人工智慧產生的露骨影像屬於刑事犯罪。
輸入可能傷害他人的非法資料或資訊的請求不僅在道德上是錯誤的;這可能導致嚴重的法律後果和聲譽損害。
網路登入名稱和密碼
隨著代理人工智慧的興起,我們中的更多人會發現自己正在使用能夠連接和使用第三方服務的人工智慧。為了做到這一點,他們可能需要我們的登入憑證;然而,給予他們存取權限可能不是一個好主意。一旦資料進入公共聊天機器人,我們幾乎無法控制其後續行為,並且曾經出現過某個用戶輸入的個人資料在回覆其他用戶時被洩露的情況。顯然,這可能是一個隱私噩夢,所以就目前情況而言,最好避免與人工智慧進行任何涉及讓其訪問用戶名和帳戶的交互,除非你完全確定你使用的是一個非常安全的系統。
發送到任何雲端服務的資料安全性都取決於提供者的安全自覺
財務資訊
出於類似的原因,將銀行帳戶或信用卡號等資料輸入 genAI 聊天機器人可能不是一個好主意。這些資訊只能輸入用於電子商務或網路銀行的安全系統,這些系統具有內建的安全保護措施,例如加密和處理後自動刪除資料,聊天機器人沒有這些安全措施;事實上,一旦資料進入雲端空間,可能就無法知道會發生什麼,而輸入這些高度敏感的資訊可能會使您面臨詐欺、身分盜竊、網路釣魚和勒索軟體攻擊。
機密資訊
每個人都有保密義務,保護自己負責的敏感資訊。其中許多職責是自動的,例如專業人士(如醫生、律師和會計師及其客戶)之間的保密性;但許多員工也對其雇主負有默示的保密義務;共享商業文件(例如會議筆記和會議記錄或交易記錄)很可能構成共享商業機密和違反保密規定。因此,無論您有何種見解或誘因多麼誘人,除非您完全確定這些資訊可以安全共享,否則何AI提及機密資料絕不是一個好主意。
醫療資訊
我們都知道,讓 ChatGPT 成為您的醫生並診斷醫療問題可能很誘人,但這始終需要極其謹慎,特別是考慮到最近的更新使其能夠「記住」甚至從不同的聊天中提取訊息,以幫助它更好地了解用戶。這些功能都沒有任何隱私保障,因此最好意識到我們對於所輸入的任何資訊會發生什麼幾乎沒有控制權。當然,對於處理患者資訊的健康相關企業來說,情況更是如此,它們面臨巨額罰款和聲譽損害的風險。
總而言之,正如我們在網路上發布的任何內容一樣,最好假設它不能保證永遠保持私密。因此,最好不要透露任何你不願意讓全世界知道的事情。隨著聊天機器人和人工智慧代理在我們的生活中扮演著越來越重要的角色,這將成為一個更加緊迫的問題,而教育用戶了解風險將成為任何提供此類服務的人的重要責任。然而,我們應該記住,我們也負有個人責任,要照顧好自己的資料並了解如何確保其安全。