有研究表明:使用AI會對專業(yè)聲譽(yù)產(chǎn)生負(fù)面影響
根據(jù)杜克大學(xué)的一項(xiàng)新研究,使用人工智能可能是一把雙刃劍。雖然生成式人工智能工具可能會提高某些人的工作效率,但它們也可能會在不知不覺中損害你的職業(yè)聲譽(yù)。
本文引用地址:http://www.104case.com/article/202505/470243.htm周四,《美國國家科學(xué)院院刊》(PNAS)發(fā)表了一項(xiàng)研究,顯示在工作中使用像ChatGPT、Claude和Gemini這樣的人工智能工具的員工會受到同事和經(jīng)理對其能力和動機(jī)的負(fù)面評價(jià)。
杜克大學(xué)富卡商學(xué)院的研究人員杰西卡·A·賴夫(Jessica A. Reif)、理查德·P·拉里克(Richard P. Larrick)和杰克·B·索爾(Jack B. Soll)在論文中寫道:“我們的研究結(jié)果揭示了人們在考慮采用人工智能工具時(shí)面臨的一個(gè)困境:盡管人工智能可以提高生產(chǎn)力,但其使用會帶來社交成本。”
杜克團(tuán)隊(duì)進(jìn)行了四項(xiàng)實(shí)驗(yàn),共有4400多名參與者,以研究對人工智能工具用戶的預(yù)期和實(shí)際評價(jià)。他們的研究結(jié)果發(fā)表在題為“使用人工智能的社交評價(jià)懲罰的證據(jù)”的論文中,揭示了對那些從人工智能中獲得幫助的人存在一致的偏見。
研究人員發(fā)現(xiàn),這種懲罰尤其令人擔(dān)憂的是其在不同人群中的普遍性。他們發(fā)現(xiàn),對人工智能使用的社交污名并不局限于特定群體。
圖1. 預(yù)期感知差異和向他人披露的效果大小(研究1)。注:正的d值表示人工智能工具條件下的值更高,負(fù)的d值表示人工智能工具條件下的值更低。N=497。誤差條代表95%置信區(qū)間。變量之間的相關(guān)性范圍為|r|=0.53至0.88。 圖1來自論文“使用人工智能的社交評價(jià)懲罰的證據(jù)”。
“測試廣泛范圍的刺激使我們能夠檢驗(yàn)?zāi)繕?biāo)的年齡、性別或職業(yè)是否會影響從人工智能中獲得幫助對這些評價(jià)的影響,”作者在論文中寫道,“我們發(fā)現(xiàn),這些目標(biāo)人群的人口統(tǒng)計(jì)學(xué)屬性并不影響從人工智能獲得幫助對懶惰、勤奮、能力、獨(dú)立或自信的感知的影響。這表明,對人工智能使用的社交污名化并不局限于特定人群的使用。結(jié)果似乎是一個(gè)普遍現(xiàn)象。”
人工智能采用的隱藏社交成本
在杜克團(tuán)隊(duì)進(jìn)行的第一項(xiàng)實(shí)驗(yàn)中,參與者想象在工作中使用人工智能工具或儀表盤創(chuàng)建工具。結(jié)果顯示,人工智能組的人預(yù)計(jì)會被認(rèn)為比使用傳統(tǒng)技術(shù)的人更懶惰、能力更差、不那么勤奮、更容易被取代。他們還報(bào)告說,他們不太愿意向同事和經(jīng)理透露自己使用人工智能的情況。
第二項(xiàng)實(shí)驗(yàn)證實(shí)了這些擔(dān)憂是合理的。在對員工的描述進(jìn)行評估時(shí),參與者一致認(rèn)為那些從人工智能中獲得幫助的人比從非人工智能來源獲得類似幫助或根本沒有獲得幫助的人更懶惰、能力更差、不那么勤奮、不那么獨(dú)立且缺乏自信。
圖2 論文《使用人工智能的社交評價(jià)懲罰的證據(jù)》
研究人員發(fā)現(xiàn),這種偏見會影響真實(shí)的商業(yè)決策。在一項(xiàng)招聘模擬實(shí)驗(yàn)中,那些自己不使用人工智能的經(jīng)理更不愿意招聘經(jīng)常使用人工智能工具的候選人。然而,經(jīng)常使用人工智能的經(jīng)理則表現(xiàn)出相反的偏好,更傾向于選擇使用人工智能的候選人。
最后一項(xiàng)實(shí)驗(yàn)揭示了“懶惰”的感知直接解釋了這種評價(jià)懲罰。研究人員發(fā)現(xiàn),當(dāng)人工智能對分配的任務(wù)明顯有用時(shí),這種懲罰可以被抵消。當(dāng)使用人工智能對工作有意義時(shí),負(fù)面的感知會顯著減少。
值得注意的是,研究表明,評估者自己對人工智能的使用經(jīng)驗(yàn)顯著影響了他們的判斷。在研究中,那些頻繁使用人工智能的人不太可能認(rèn)為使用人工智能的候選人是懶惰的。
復(fù)雜的情況
杜克大學(xué)的人工智能研究還指出,歷史上其他新技術(shù)也曾引發(fā)類似的污名化擔(dān)憂。從柏拉圖質(zhì)疑寫作是否會削弱智慧,到現(xiàn)代關(guān)于教育中使用計(jì)算器的辯論,人們長期以來一直擔(dān)心節(jié)省勞動力的工具可能會反映使用者能力不足。
賴夫及其同事建議,這種社會影響可能成為工作場所采用人工智能的隱藏障礙。即使組織推動人工智能的實(shí)施,個(gè)別員工可能會因?yàn)閾?dān)心自己會被如何看待而抵制。
這種困境似乎已經(jīng)出現(xiàn)。去年8月,在報(bào)道ChatGPT活躍周用戶數(shù)達(dá)到2億時(shí),我們提到沃頓商學(xué)院教授埃森·莫利克(他經(jīng)常研究人工智能)稱那些使用人工智能卻不告訴老板的人為“秘密賽博格”。由于許多公司禁止使用人工智能輸出,許多員工據(jù)稱轉(zhuǎn)向了秘密使用人工智能。
如果這還不夠復(fù)雜的話,我們之前報(bào)道的另一項(xiàng)研究為人工智能工作場所問題增加了不同的層面。芝加哥大學(xué)和哥本哈根大學(xué)的經(jīng)濟(jì)學(xué)家發(fā)現(xiàn),盡管64%到90%的員工報(bào)告稱人工智能工具節(jié)省了時(shí)間,但這些好處有時(shí)會被技術(shù)創(chuàng)造的新任務(wù)所抵消。研究顯示,人工智能工具實(shí)際上為8.4%的員工創(chuàng)造了額外的工作,包括那些負(fù)責(zé)檢查人工智能輸出質(zhì)量或檢測學(xué)生作業(yè)中人工智能使用情況的非用戶。
因此,盡管使用人工智能完成某些任務(wù)可能節(jié)省時(shí)間,但員工可能會為自己或他人創(chuàng)造額外的工作。事實(shí)上,世界經(jīng)濟(jì)論壇的《2025年就業(yè)前景報(bào)告》指出,人工智能可能會在全球范圍內(nèi)創(chuàng)造1.7億個(gè)新職位,同時(shí)消除9200萬個(gè)職位,到2030年凈增加7800萬個(gè)職位。所以,情況雖然復(fù)雜,但人工智能對工作的影響正在以穩(wěn)定的步伐持續(xù)進(jìn)行。
評論