Lale智慧服務入口
Lale智慧服務入口

Lale是華苓科技出品的智慧服務入口。是一套裝載應用的社群平台。除了聊天,Lale讓您主導社交圈互動,開店做生意、辦公、推出微服務...無數成功機會等著被探索。

和聊天機器人互動竟存在這些風險和隱私問題,個資不知不覺全外洩!

(编辑过)
聊天機器人已被普遍用於各種行業與情境,像是飯店住宿的訂房服務、協助金融機構用戶查詢帳戶餘額及交易資訊,或是進行售前產品推薦、售後客戶服務回答基本問題等。然而當我們在享受科技帶來的便利時,往往會忽略許多聊天機器人所存在的風險和隱私問題,以下就帶大家瞭解聊天機器人用於即時通訊軟體時可能會有哪些潛在問題,需要評估哪些要點,避免重要資訊外洩。
圖片來源:Freepik

1.個人數據的收集和使用

和聊天機器人互動的過程當中,可能會要求使用者提供個人數據隱私相關資料,收集這些數據可用來優化使用者體驗或給予個性化服務,但收集的目的和範圍常會造成一些隱私上的疑慮。較常見的個人數據隱私資料內容如下:

  • 個人識別資訊:像是姓名、身分證號碼、護照號碼等,可用於唯一識別個人身分。
  • 財務資訊:像是銀行帳戶或信用卡密碼、交易紀錄等,屬於敏感性資料,絕不可輕易外洩。
  • 健康資訊:像是醫療記錄、藥物紀錄、病歷、體檢報告等,和個人健康相關的資訊,需遵守特定的法規。
  • 地理位置資訊:像是 GPS 定位數據、IP 位址、Wi-Fi 訊號等,可用於追蹤用戶的行動軌跡。
  • 網路活動行為:像是搜尋和瀏覽紀錄、點擊數據、加入購物車紀錄等,可用於分析使用者行為和追蹤、投放個性化廣告。
  • 社群媒體資訊:像是於社群媒體上的用戶名、個人照、好友列表、貼文等,可用於使用者洞察和個性化體驗。

2.對話內容遭監控

使用者與聊天機器人的對話內容可能會被即時通訊軟體,或提供聊天機器人服務的廠商紀錄,這些數據可用來優化機器人的回答內容和訓練模型,但也可能會有其他目的,企業的機密也可能因此遭到外洩。

3.第三方數據分享

即時通訊軟體或聊天機器人服務供應商可能會與第三方合作分享使用者的數據,可做為市場分析或是制定廣告內容的參考,使用者在這過程中,無法完全掌控這些數據的流向。

4.存在歧視或偏見

聊天機器人於回答問題時可能存在歧視的歧視和偏見可能涉及性別、年齡、地區位置、性取向等方面。

日前南韓新創公司 Scatter Lab 研發出一款聊天機器人露達(Lee Luda),是個模擬20歲女大學生的聊天機器人,主要運用深度學習技術,並以南韓最流行的即時通訊軟體 KakaoTalk 中的100億則真實對話訓練,但因曾被揭露針對少數族群發表歧視性言論,導致爭議爆發後20天內服務被迫暫停。

圖片來源:scatterlab,聊天機器人-露達(Lee Luda)

5.授予應用程式權限

與聊天機器人互動時,可能會要求使用者授予應用程式的特定權限,像是開啟相機、麥克風或通訊錄等,使用者應該確認僅授予必要的的權限範圍,以避免發生隱私風險。

6.語音和視訊通話

近期 App Store 上線一款新推出的 AI 視訊對話應用程式「Call Annie」,使用者能和一名設定為30歲的女性聊天機器人 Annie 進行互動,就如同透過文字和 ChatGPT 交談一樣,可透過視訊的方式向 Annie 發問問題、談心。目前 Annie 能夠模擬人類的表情、眼神和唇形動作,其回覆能力與 ChatGPT 相比雖尚有落差,但在未來還是具備相當的發展潛力。

圖片來源:App Store,AI 視訊對話應用程式-Call Annie

當聊天機器人支援語音和視訊通話功能,使用者就得評估自身的語音和視訊數據是否安全,像是數據是否有做加密、儲存期限多長等,在聊天的過程當中也留意不要提供過於隱私的資訊。

瞭解更多Lale EIM企業即時通訊軟體: https://www.flowring.com/lale-eim/

原文首發於「Lale快報」網站,原文頁面連結。

CC BY-NC-ND 2.0 版权声明

喜欢我的文章吗?
别忘了给点支持与赞赏,让我知道创作的路上有你陪伴。

加载中…

发布评论