窩DEMAA
窩DEMAA

這時空有太多的可能性 雖然常令人不容易理解 但只要不先去拒絕認識 另個視角也能讓你驚艷💃

WELCOME DATA LAND|文字探勘 (Data Analytics)

近期,由 OpenAI 於 2022 年 11 月開發並推出的 ChatGPT 充斥於各大平台,不管是新聞媒體、社群媒體,還是口耳相傳,大家對於 ChatGPT 的回覆深感驚喜。那麼,關於網路上的內容在文字探勘上該如何使用呢?所謂公平性(Fairness)、普惠(Inclusiveness)、可究責性(Accountability)、透明性(Transparency)又是什麼?讓我們看下去。

自1996年起,網路世代崛起,發佈於網路上的數據逐年提升。近幾週 OpenAI 推出的 ChatGPT 被民眾廣為使用,大家都想知道究竟 AI 能給予多專業的回應,然而,關於這些被新增在網路上的內容,包含文字、數字或圖表等資訊,發佈後誰能使用呢?使用文字探勘所隱藏的那條線究竟在哪裡?所謂公平性 (Fairness) 、普惠 (Inclusiveness) 、可究責性 (Accountability) 、透明性 (Transparency) 又是什麼呢?

01 公平性

演算法的公平性 (Algorithm Fairness) 絕非一種,包含群體公平性 (Group Fairness) 、個體公平性 (Individual Fairness) 、置換公平性 (Counterfactural Fairness) ,以及應用公平性(Application specific Fairness)。
  • 群體公平性 Group Fairness
    何謂群體?群體包含種族、宗教、身心障礙、性別及族群個性。若想知道演算法是否有符合群體公平性,可以思索演算法是否有將種族、宗教、身心障礙、性別及族群個性都考量在內,例如:公司人資部門藉由 AI 進行履歷篩選,面試機會是否有開放給所有族群,另外演算法的設置規劃,是否得利於某些群體。
  • 個體公平性 Individual Fairness
    個體公平性,指的是相容類型的個體經由演算法運算,能否擁有相同的結果。倘若相似之個體,所擁有的結果不同,我們就能說此演算法違反個體公平性。
  • 置換公平性 Counterfactural Fairness
    修正後的演算法,倘若會因而淘汰或移除掉某些個體或族群,我們就會說其違反置換公平性,例如:公司人資部門調整 AI 篩選履歷的流程,讓系統更精準的挑選出面試者,然而,此修正卻讓某些應徵者因而無法參與面試,我們就會說新修正的演算法在置換公平性上仍有需要調整的空間。
  • 應用公平性 Application specific Fairness
    應用公平性,指的是個體或族群是否擁有相同取得訊息的機會。現今,由於公司在進行產品行銷和商品宣傳時,都會依照特定族群進行對應圖文設置的曝光,因此便會需要特別留意演算法的應用公平性,確定能否將資訊曝光至所有群體。

02 普惠

普惠 (Inclusiveness) ,指的是在演算法中,所有民眾是否有同等機會不被排除。

03 可究責性

可究責性 (Accountability),指的是當演算法出了狀況,是否有相關單位能協助民眾後續的處理,包含責任歸屬、雲端上的資料,以及賠償責任等內容。

04 透明性

透明性 (Transparency),指的是該單位是否賦權,將檔案和演算法運算步驟公開,增加民眾對於資源及機會分配的理解,進而提供信任基礎,並確保可課責性。

💬 留言分享你覺得公平的演算法,也可以談談你和ChatGPT的對話^^

如果喜歡窩DEMAA的內容
追蹤分享「 窩DEMAA Instagram 」
鼓勵是我們最大的動力窩 ❤️
掃描進入「窩DEMAA」IG






CC BY-NC-ND 2.0 版权声明

你的支持鼓勵是給我們最大的動力窩 ❤️

第一个支持了这篇作品
加载中…

发布评论