新聞中心

        EEPW首頁 > 智能計算 > 業界動態 > Nature調查:1600余名科學家,僅4%認為AI當前是“必需品”

        Nature調查:1600余名科學家,僅4%認為AI當前是“必需品”

        作者: 時間:2023-10-10 來源:學術頭條 收藏

        過去十年,關于人工智能()的研究論文數量在各個領域都有顯著增加。

        本文引用地址:http://www.104case.com/article/202310/451310.htm

        科學家們已經開始運用 工具來協助總結和撰寫研究論文和編寫代碼。一些研究者嘗試借助生成式 技術來探索新的領域,如蛋白質結構的發現、天氣預報的改進以及醫學診斷的創新等各種有前景的領域。

        AI 已然滲透到科學研究中。那么,科學家們是如何看待它們的?

        近日,頂級期刊《自然》()對全球 1600 多名研究人員進行了一項調查。結果表明,AI 工具在科學領域越來越常見,并且許多科學家預計它們將很快成為研究實踐的核心。另外,超過一半的受訪者認為 AI 工具將在未來十年內變得非常重要或必不可少。

        相關調查結果以“AI and science: what 1,600 researchers think”為題,已發表在上。

        在這項調查中,有 2/3 的受訪者認為 AI 提供了更快的數據處理方式,58% 的人認為 AI 加速了以前不可行的計算,55% 的人則提到 AI 節省了時間和金錢。

        來自杜克大學的計算生物學家 Irene Kaplow 表示:“AI 讓我能夠在以前難以攻克的生物學問題中取得進展。”

        然而,也有 69% 的研究人員表示,AI 工具可能導致更多地依賴模式識別而不是深刻理解,58% 的人認為 AI 可能會在數據中強化偏見或歧視,55% 認為這些工具可能會增加欺詐的發生概率,53% 的人指出草率使用可能會導致研究無法重現。

        任職康涅狄格州的杰克遜實驗室、從事癌癥圖像分析的 Jeffrey Chuang 表示:“主要問題在于 AI 正在挑戰我們現有的證據和真相標準。”

        科學家的擔憂與興奮

        為了評估活躍研究人員的觀點,《自然》雜志通過電子郵件聯系了在 2022 年最后 4 個月內發表論文的 4 萬多名科學家,并邀請《自然簡報》的讀者參與調查。

        在這些受訪者中,48% 的人直接開發或研究 AI,30% 的人在研究中使用了 AI,剩下的 22% 的人在科學中沒有使用 AI。

        在那些在研究中使用 AI 的人中,超過 1/4 的人認為 AI 工具將在未來十年內變得必不可少,而認為 AI 工具現在是“必需品”的人只占 4%。另有 47% 的人認為 AI 將變得非常有用。然而,不使用 AI 的研究人員對此并不太感興趣。即便如此,仍然有 9% 的人認為這些技術將在未來十年內變得必不可少,另有 34% 的人表示它們將非常有用。

        當被要求從可能的生成式 AI 負面影響列表中選擇時,68% 的研究人員擔心信息傳播不準確,另有 68% 的人認為這將使抄襲更容易,檢測更難,66% 的人擔心會引入錯誤或不準確的內容到研究論文中。

        此外,受訪者還提到,如果用于醫學診斷的 AI 工具是基于具有歷史偏見的數據進行訓練,他們擔心會出現偽造研究、虛假信息和偏見。科學家們已經看到了這方面的證據:例如,美國的一個團隊報告說,當他們要求 GPT-4 為臨床案例研究提供診斷和治療建議時,答案會根據患者的種族或性別而變化。

        英國布里斯托爾大學攻讀醫學 AI 博士學位的軟件工程師和前企業家 Isabella Degen 表示:“大型語言模型(LLMs)被濫用,存在不準確和虛假但聽起來專業的結果。在我看來,我們對于正確使用和濫用之間的界限認識還不夠清晰。”

        研究人員認為,最明顯的好處是 LLMs 可以幫助非英語母語的研究人員,改進他們研究論文的語法和風格,總結或翻譯其他工作。新加坡國立大學材料科學家 Kedar Hippalgaonkar 指出,“盡管存在一小部分惡意玩家,但學術界可以展示如何善用這些工具。”

        1696891562415176.jpeg

        即使在對 AI 感興趣的研究人員中,經常在工作中使用 LLMs 的研究人員也仍占少數。那些學習AI 的人中有 28% 表示每天或每周使用生成式 AI 產品,而僅使用 AI 的人中有 13% 這樣做,而其他人中只有 1%,盡管許多人至少嘗試過這些工具。此外,所有群體中最流行的用途是與研究無關的創意娛樂;較少一部分人使用這些工具來編寫代碼、構思研究思路和幫助撰寫研究論文。

        另外,一些科學家對 LLMs 的輸出并不滿意。一位使用 LLMs 來幫助編輯論文的研究人員寫道:“ChatGPT 好像復制了人類的所有不良寫作習慣。”芬蘭圖爾庫大學的物理學家 Johannes Niskanen 則表示:“如果我們開始使用 AI 來閱讀和撰寫文章,科學很快就會從‘由人類為人類(for humans by humans)’轉變為‘由機器為機器(‘for machines by machines)’。”

        AI 發展面臨困境

        在這項調查中,大約一半的科學家表示他們在開發或使用 AI 方面遇到了阻礙。直接研究 AI 的研究人員最擔心的問題包括計算資源不足、為其工作提供的融資不足以及獲取運行 AI 所需的高質量數據不足。而那些在其他領域工作但在研究中使用 AI 的人則更擔心缺乏熟練的科學家和訓練資源,此外,他們還提到了安全和隱私方面的考慮。然而,不使用 AI 的研究人員表示他們不需要 AI 或認為它不實用,或者缺乏研究 AI 的經驗和時間。

        調查中出現的另一個主題是商業公司主導了 AI 的計算資源和 AI 工具的所有權。研究 AI 的科學家中有 23% 表示他們與開發這些工具的公司合作或在這些公司工作(其中最常提到的是谷歌和微軟),而使用 AI 的人中只有 7% 這樣做。總體而言,略多于一半的受訪者認為,使用 AI 的研究人員與這些公司的科學家合作是非常重要或有些重要的。

        此前,已有研究人員多次警告稱,科學中對 AI 工具的天真使用可能導致錯誤、虛假陽性和無法重現的研究結果,從而潛在地浪費時間和精力。一些科學家表示,他們擔心使用 AI 的論文中存在質量不佳的研究。

        堪薩斯州立大學曼哈頓分校的計算機科學家 Lior Shamir 表示,“機器學習有時可能有用,但 AI 引發的問題比幫助多。科學家在不了解自己在做什么的情況下使用 AI,可能會導致虛假的發現。”

        當問及期刊編輯和同行評審人是否能夠充分審查使用 AI 的論文時,受訪者意見不一。在那些使用 AI 進行工作但不直接開發 AI 的科學家中,大約一半表示不知道, 1/4 認為審查是充分的,1/4 認為不充分。直接開發 AI 的人傾向于對編輯和審查過程持更積極的看法。

        另外,《自然》還詢問了受訪者對于 AI 在社會的 7 種潛在影響的擔憂程度,2/3 的人表示他們對此非常擔憂或很擔憂。自動化 AI 武器和 AI 輔助監視也高居榜首,最不令人擔憂的是 AI 可能對人類構成生存威脅的想法。

        然而,許多研究人員表示,AI 和 LLMs 已經成為不可回避的趨勢。波士頓馬薩諸塞州貝斯以色列圣救主醫療中心的肝病專家 Yury Popov 寫道:“AI 是具有變革性的,我們現在必須關注如何確保它帶來更多的好處,而不是問題。”



        關鍵詞: Nature AI

        評論


        相關推薦

        技術專區

        關閉
        主站蜘蛛池模板: 博乐市| 鸡西市| 册亨县| 佛教| 大宁县| 新绛县| 视频| 门源| 保德县| 平顺县| 平乡县| 濉溪县| 通州市| 东乌珠穆沁旗| 黄陵县| 栾城县| 深水埗区| 夏河县| 璧山县| 三门县| 定襄县| 蓬安县| 宁阳县| 洞头县| 九江县| 饶河县| 灵武市| 兴文县| 高清| 盈江县| 开化县| 雅安市| 灌南县| 上思县| 安塞县| 唐山市| 准格尔旗| 瑞安市| 临沭县| 天门市| 金堂县|