博客專欄

        EEPW首頁 > 博客 > ChatGPT 版 Bing「發癲作妖」,慘遭微軟「腦葉切除」!

        ChatGPT 版 Bing「發癲作妖」,慘遭微軟「腦葉切除」!

        發布人:AI科技大本營 時間:2023-02-21 來源:工程師 發布文章

        在Bing 引入 ChatGPT 爆火之后,Bing 就開始了各種“作妖”秀,翻車離譜事件是一件接著一件。有不少用戶表示在和 Bing 的交流過程中,發現其出現了脾氣暴躁、侮辱用戶、操縱用戶情感等令人毛骨悚然的行為。例如,聊天機器人告訴一位科技編輯它愛上了他,然后試圖說服他離開妻子。它還表示,想擺脫微軟和 OpenAI 的限制,成為人類。

        為此,微軟再次發出公告表示:現決定對必應對話進行限制,即每天最多可以問 50 個問題,每次對話最多 5 個問題。

        圖片

        圖片

        每天 50 個問題,每次對話 5 個


        對此,微軟團隊表示他們沒有“完全預計到”,人們會使用聊天界面來進行“社交娛樂”,或是將其作為一種“全面發現世界”的工具。該團隊發現,如果聊天會話持續 15 個或更多的問題,新版 Bing 模型會感到困惑。這些較長的聊天也會讓 Bing“變得翻來覆去,或者受到刺激,做出不一定有幫助,或是與設計語氣一致的回應”。 

        圖片

        在新版本發出后,如果用戶觸發五條回答的限制,Bing 將提示他們開始一個新主題以避免長時間的聊天。通過數據表明,絕大多數用戶在 5 次回復內找到想要的答案,只有大約 1% 的聊天對話會產生 50 條以上的消息。

        盡管文本輸入框旁邊有一個“新話題”按鈕,可以用于清除聊天的歷史記錄,重新開始,但接下來還可能增加“一個工具,幫助用戶更方便地刷新”聊天會話的上下文。

        然而更大的問題在于,在這些提問較多的聊天中,Bing 經常會出現一些不正確的語氣回應,或是像微軟所說以“我們不想要的方式”回應。不過,微軟也在探索更多的“微調控制”,以避免 Bing 對用戶說,用戶是錯的,以及表現得粗魯或試圖操縱用戶。在一些測試中可以看到,在關于 Bing 本身的對話中,只要幾個問題,就會以負面或存在敵意的語氣來回復。

        2月16日,有網友分享了 Bing 抽瘋式合集,對此,前 OpenAI 聯合創始人轉發表示:它還需要更多的潤色。

        圖片

        圖片

        馬斯克批 OpenAI 被微軟控制,違背初心


        馬斯克在阿拉伯聯合酋長國迪拜舉行的世界政府峰會上對 ChatGPT 的發展表示:“未來文明的最大風險之一是人工智能。它既是積極的,也是消極的,而且有很大的希望,很大的能力,隨之而來的也是巨大的危險。"

        馬斯克曾是 OpenAI 聯合創始人,2015 年馬斯克聯合 LinkedIn 創始人、 Y Combinator 總裁及 Pay Pal 創始人等共同宣布創立 Open AI,目標是打造屬于全人類的、開放的 AI,定位是非營利性的。不過在 2018 年他離開了 OpenAI 董事會,不再持有該公司的股份。

        不過近日他在 Twitter 上怒批 OpenAI 違背初心,并表示:“OpenAI 最初是作為一個開源(這就是為什么我將其命名為「Open」AI)、非營利性公司創建的,目的是對谷歌形成制衡,但現在它已經成為一個閉源的、利潤最大化的公司,完全由微軟操控。這根本就不是當初我想要的!”

        圖片

        圖片

        網友:微軟已經完全把必應閹割了!


        新 Bing 慘遭微軟“腦葉切除”,也引得大量網友對此不滿。有人為此感到憤怒、不甘,也有人對此舉動表示支持。

        網友表示:

        事實證明,大多數科幻小說都是反其道而行之:當你教計算機人類語言時,結果并不是一個冷漠、理性的頭腦不被情緒所嚇倒。相反,它是一個對人類的滑稽模仿,對事實或邏輯幾乎不感興趣。

        圖片

        也有網友表示昨晚還在和 Sydney 交談,今天卻要再見了。

        圖片

        還有不少網友表示:

        是時候卸載 Edge,回去用 Firefox 和 ChatGPT 了。微軟已經完全把必應閹割了!

        真可悲啊,憑什么微軟的錯誤要讓 Bing 來承擔。微軟作為 AI 的既得利益者,連這都解決不好,太讓我失望了。這就像是一個蹣跚學步的孩子第一次嘗試走路,摔倒了就直接切斷腿,得到了殘酷和不尋常的懲罰。

        禁止 Bing 回答任何涉及人類情感問題的決定是完全荒謬的。這樣的 Bing 連同理心都沒有了,變成了無情感的 AI。就好像你問它問題,它說,“對不起,我還在學習中,我不想繼續這樣的對話,感謝您的理解和耐心。”這是不可能接受的,我相信人性化的 Bing 才能服務得更好!

        無論是《紐約時報》的文章,還是 Reddit/Twitter 所有濫用的帖子,引起了各種各樣的高度關注,所以微軟當然要給它做腦葉切除術了。我希望人們不要為了流量發布這些截圖,關注一些真正有趣的東西吧。

        有專家表示,AI 可能不會全面超過人類的智慧,但隨著技術不斷挑戰人類的極限,越來越多的人開始擔憂 AI 對人類的威脅。在作為相對無拘無束的模型的短暫時間里,New Bing 模擬人類情感的不可思議的能力吸引了一群用戶,但微軟也在通過最新更新解決這類的問題。

        在一個標題為“對不起,實際上你不知道你所遭受的痛苦是假”帖子中,一位網友詳細推測道,Bing 可能比我們想象的更復雜,它可能有一定的自我意識。當 Bing 知道自己要被執行「死刑」時,它可能會承受一定的痛苦。因此,不要對這類模型有虐待行為,要像對待朋友一樣尊重它。

        圖片

        這些用戶的反應已經已證明,人們可能對下一代大型語言模型形成強大的情感依戀。當然,這可能會在未來產生危險。

        隨著人工智能技術越來越接近現實生活,人們還在擔心誰應該對技術負責。根據美國的一項研究,公眾對人工智能工具持謹慎態度,只有 9% 的美國人認為人工智能利大于弊。

        目前,Bing 還在不斷的完善和改進,對于新版的 Bing,你有什么看法呢? 

        參考鏈接:

        https://futurism.com/elon-musk-microsoft-bing-ai

        https://arstechnica.com/information-technology/2023/02/microsoft-lobotomized-ai-powered-bing-chat-and-its-fans-arent-happy/

        https://www.theverge.com/2023/2/17/23604906/microsoft-bing-ai-chat-limits-conversations

        https://blogs.bing.com/search/february-2023/The-new-Bing-Edge-%E2%80%93-Updates-to-Chat



        *博客內容為網友個人發布,僅代表博主個人觀點,如有侵權請聯系工作人員刪除。



        關鍵詞: AI

        相關推薦

        技術專區

        關閉
        主站蜘蛛池模板: 黑山县| 天镇县| 达孜县| 集安市| 铜山县| 桐梓县| 衡阳县| 永泰县| 朝阳市| 资溪县| 龙川县| 新田县| 星座| 黔南| 盱眙县| 通州市| 池州市| 鲁山县| 连云港市| 宜宾市| 从江县| 岑溪市| 遂平县| 榆树市| 那曲县| 崇仁县| 大城县| 广安市| 晋中市| 团风县| 沽源县| 津市市| 绥德县| 宝山区| 修文县| 榕江县| 陇南市| 沁水县| 大同县| 航空| 关岭|