人資管理

經營管理

AI企業應用

數據分析&雲端

缺工議題

【業鑫說法】當 AI 成為面試官,律師提醒:企業這樣用 AI 可能觸法

AI 在職場上愈來愈常見,從履歷篩選、面試表情偵測、內部專案配對都有AI的參與,在 DEI(Diversity, Equity, Inclusion)風潮下,日本更有企業委託徵信社使用AI爬蟲做背景調查,確認面試者過去在網路上是否曾發表歧視性言論。 這些應用雖能提高選育用留的精準度與效率,也會有侵犯隱私、AI 偏見的疑慮,近日歐盟議會通過全球首部《人工智慧法》,將針對職場上的 AI 應用做出規範,在「招聘過程」中使用 AI 分析、篩選面試者更被評估為「高風險」行為。在限縮 AI 使用的立法趨勢下,台灣企業該如何因應?

182

・2024/08/15

面試時用 AI 屬「高風險」行為

《人工智慧法》將 AI 依照風險高低分為完全禁止的「不可接受風險」、須建立配套合規的「高風險」、須義務揭露的「有限風險」,以及不須管制的「最低風險」,將 AI 使用在招聘過程,就被歸類為「高風險」,若 AI 在職場上的使用涉及「判讀情緒」,則被歸類在不可接受的風險範疇。


為什麼 AI 在職場上的應用需要被警示?陳業鑫認為,AI 可說是比 Google 更強大的一個搜尋引擎,還會把結論都整理給你,如果公司使用的訓練資料本身就有偏見,例如輸入人事資料,但公司員工的性別比例、學經歷分佈不均,像是有超過一半的員工都是台大畢業的男性,訓練出的演算法若用於篩選履歷,就會選出同質性高的候選人,造成隱性歧視。


台灣《就業服務法》第 5 條也有類似的立法精神,條文中明確規範任何求職者都不應受到就業歧視,雇主不能要求求職者提供與專業無關的私人資料,當然也不能透過 AI 工具爬出非公開的個人生活資訊,將候選人分級,作為錄取與否的判斷依據。


《就業服務法》第 5 條第 2 項第 2 款規定,雇主招募或僱用員工,不得要求提供非屬就業所需之隱私資料。施行細則第 1-1 條進一步定義「隱私資料」如下:


1. 生理資訊:基因檢測、藥物測試、醫療測試、HIV 檢測、智力測驗或指紋等。


2. 心理資訊:心理測驗、誠實測試或測謊等。


3. 個人生活資訊:信用紀錄、犯罪紀錄、懷孕計畫或背景調查等。


可以看出我國立法者早就將上述個資隱私列為就業範疇的保護對象,規定雇主應尊重當事人之權益,不得超過合理關聯,例如招聘記者可以要求提供語言檢定資料,但如果詢問其性向,就有違正當性,其精神與歐盟人工智慧法的精神相符。


《人工智慧法》下,提供高風險 AI 工具的系統商也需要建立配套措施供檢核,讓企業在選擇時參考,若企業選擇自己訓練 AI 而非使用外部工具,也須滿足合規條件。


相關配套措施包含:確保訓練數據有代表性、與模型使用目的相關;編列技術文件,記錄 AI 系統的設計和運作方式供審查;編撰使用說明給用戶參考,確保模型不會被誤用,乃至侵犯個人隱私或權益。


雖然台灣目前尚未因應國際立法趨勢,做相關法律修訂,但台灣企業要做歐盟超過 4 億人的生意,勢必與國際法律接軌,正視AI可能構成的歧視,創造更包容的職場。



作者:陳業鑫

更多陳業鑫律師相關資訊,都在【業鑫法律事務所】


 

快來【午後人資,饗受新知】頻道、新知識主動來報到!


延伸閱讀

我們使用本身的Cookie和第三方的Cookie進行分析,並根據您的瀏覽習慣和個人資料向您展示與您的偏好相關的廣告。如欲瞭解更多資訊,您可以查閱我們的隱私權政策