AI觀察站

運用AI面試新進員工要面對的法律風險

隨著人工智慧技術日漸成熟,目前已有不少公司提供人工智慧技術作為企業人資部門在面試新進員工時的輔助工具,然而此種做法可能讓企業面臨哪些倫理與法律的風險,卻仍很少評論者加以探討。今年四月的哈佛商業評論就對此提出初步的分析,在一篇名為“The Legal and Ethical Implications of Using AI in Hiring”的文章中,該雜誌以美國之就業保障相關法律為例檢討了人工智慧應用於篩選新進員工可能的法律問題。以下摘譯其內容並引申在我國法制上可能之意涵。


人工智慧領域的數位創新和進步使其應用層面更加廣泛,亦包括可應用於挑選人才的識別與評估工具,幫助雇主提高找到合適人選的效率與準確性。然創新工具的出現雖然具有高效、準確等特質,但亦引出與道德、法律及隱私等相關爭議,例如新技術是否會對求職者間平等機會產生負面影響。故文章將討論焦點放在雇主應用新技術挖掘求職者隱私的潛在問題,以及《美國殘障人士法》(Americans with Disabilities Act,以下簡稱ADA)與其他聯邦和州就業法對如何保護求職者。

過去評估求職者適任的方法,廣泛以心理測驗(Psychometric assessments)判斷,並分為三個評估項目:認知(cognitive ability)或智力(intelligence);個性(personality)或氣質(temperament);以及心理健康(mental health)或臨床診斷(clinical diagnosis)。但實務上,此三項評估的應用有所差異。

首先,認知或智力測驗屬於各類職業中,可有效預測求職者或員工是否具成功潛力。然若此類測驗的評估方式對某些受保護群體有不利影響,比如以性別、種族、年齡等界定成功標準,則可能有歧視嫌疑,雇主需證明該測驗之評估方式與工作所需高度相關。

再者,個性或氣質等人格評估,與工作績效、內容、環境等較有關聯,與受保護的群體,比如性別、種族等人口統計學變量或殘疾之間幾乎沒有關聯,故企業以此評估人才適用性較不會有歧視責任。反之,美國ADA禁止雇主查詢或以身體殘障、心理健康或臨床診斷等評估求職者,且此類資訊應屬於求職者私人訊息,在其就職前享有不被他人查詢窺探之權,雇主若違反而查詢並以此考量聘雇,將有侵害隱私及歧視的責任。

由上可見,過去數年以來,雇主在篩選人才時,應避免從求職者的私人訊息如家庭狀況、政治或性傾向或身體健康狀況等作為篩選標準,應客觀地從個人能力、智識與人格特質判斷是否適用。然隨人工智慧技術的發展,並為應用該新技術,而有許多非植基於人才篩選的科學方法或研究而生的工具問世,且可在沒有當事人的同意下,僅透過部分個資就能識別更私人的資訊。在此前提下,無論雇主有意或無意的使用此類工具,將有機會以違反平等並歧視的方法從中挑選人才。

這將導致某些未經科學驗證的的工具,存有潛在歧視性負面影響或結果,而雇主盲目或故意依賴,最終即需承擔相關法律責任。但實務上,對此類責任的結果尚未有相關定論。呈上關乎當事人同意的爭議,社交媒體(如Facebook或Twitter)的蓬勃應用亦成為雇主探究個人才智和性格的工具,但在未經求職者同意下,被雇主挖掘其在社交媒體上的個人資訊、貼文,這樣的行為是否已侵犯求職者個人隱私而不合乎道德或有法律責任皆有討論空間。


是以,文章認為新技術的使用固然有其優點,但亦點出與個人隱私相關的的道德與法律問題,以下共分為三大部分討論。

1.    雇主以求職者「個人傾向和特質」為聘僱決定?
如前所述,大數據和人工智慧可以精準偵測個人的特質或傾向,比如可從FB追蹤的專頁或點選喜歡的頁面,或是應用AI面部識別軟體,高度準確推斷個人性取向、種族、政治傾向或宗教信仰甚至內在情緒。而當雇主利用此類工具的分析結果作為標準而下的不利聘僱決定,與受保護群體如性別、種族或身心疾病相關,已屬違法。
另一方面,美國《員工測謊器保護法》(Employee Polygraph Protection Act)亦通常禁止雇主使用測謊器篩選人才,而《遺傳訊息非歧視法》(Genetic Information Nondiscrimination Act)則禁止雇主以遺傳訊息進行聘雇決定。文章在此拋磚引玉,除上述禁止挖掘與個人傾向有關的隱私為聘僱決定,那麼與事實和真相有關的隱私,法律應如何規範?又有何道德爭議?

2.    雇主以求職者的「生活方式和個人活動」為聘僱決定?
在數位時代,個人生活與活動已經被各種方式蒐集與紀錄,比如當上網時,相關瀏覽紀錄已透過大數據搜集匯總,進而分析出個人生活模式,若加以利用,可能成為雇主對於聘雇合適性的參考。類似的大數據工具僅會越發蓬勃,在此同時,應更加關注數據的應用方向,避免濫用或擴大歧視。

在此前提下,歐盟因應而生《通用資料保護法》(General Data Protection Regulation,GDPR)統一保護隱私,美國則以各州法各自推動隱私保護,於2012年始有20多個州制定與社交媒體隱私有關的立法,以防止雇主要求求職者提供個人社群網路帳密作為僱傭條件。如加州已通過立法,限制雇主使用求職者和受雇者的個資範圍,但就實務來看,州和聯邦法院尚未採用統一的見解來分析與新技術有關的僱傭隱私議題。

簡言之,用於篩選人才的新技術工具固然好用,然伴隨而生的蒐集、應用私人資訊於聘雇的合法性,及未經求職者同意的應用是否合乎道德,皆是此類新興工具必須面對的議題。

3.    禁止雇主挖掘求職者的「身心殘障」隱私。
美國ADA將精神與身體殘障列為該法規範主體,並定義若該人之殘障程度已影響主要生活活動,且有相關紀錄,則為殘障人士。美國平等就業機會委員會(The U.S. Equal Employment Opportunity Commission,EEOC)於十年前亦發布指引,指出精神病學文獻中所描述的人格障礙也為精神障礙。故綜合來看,ADA所保護主體,亦包含難以在社交場合溝通、集中注意力或與他人互動等有重大問題之人。

前已有述,利用新技術工具於篩選求職者時,若涉及以受法律保障的群體,或挖掘個人活動、身心隱私為聘雇決策皆會觸法,並引發隱私爭議,亦有因發現此類爭議而停止使用。如Amazon開發了一款自動人才搜索程式來檢閱履歷,然當使用的企業發現該程式未以性別中立的方式篩選求職者,即放棄使用以免觸法。而文章認為,要解決上述可能的偏見,資料越多越有機會減少偏見,也能訓練AI並更好的控制潛在偏差,但這僅能處理創新工具隱含的歧視性問題,而未解決資料搜集及隱私挖掘的合法性。

總而言之,創新技術的發展,憑藉AI、大數據、社交媒體已經可以廣泛的獲取公共和私人資訊,而雇主在利用此類工具下,亦可能掌握求職者的個人特質、生活方式與身心狀態等私人資訊,然這樣的資訊獲取與分析利用是否合乎法律與道德是值得討論的議題。

反觀台灣,利用此類創新工具篩選人才是現在進行式,但雇主或企業應避免使用隱含歧視之創新工具導致違法,如應遵照我國「性別工作平等法」第7條,平等看待各性別、性傾向求職者或受僱者之職場機會;並以「就業服務法」第5條,平等對待各求職者及受僱者,不得歧視其種族、宗教、黨派、性傾向、性別、身心障礙等個人特質或傾向,以保障國民之平等就業機會。另一方面,也應避免利用違法個資的創新工具,如利用「個人資料保護法」第6條所示之非自願或非法公開的個人資料,包含病歷、醫療、基因、性生活、健康檢查及犯罪前科等。

惟當創新工具涉及利用社交媒體、網路足跡、個人特質等深入分析求職者或受僱者的特質和傾向,此部分於我國仍為隱私權灰色地帶,但決策始終出於人為,並基於整體社會價值和道德,雇主或企業避免使用此類工具,也能獲得所需人才。簡言之,除了AI創新工具的開發需遵守相關法規及倫理準則,應用工具之人亦須謹慎揀選與評估。
(編譯者:高慧馨)