博客專欄

        EEPW首頁 > 博客 > 技術專家控訴ChatGPT:到處宣揚我死了,還偽造了一份訃告

        技術專家控訴ChatGPT:到處宣揚我死了,還偽造了一份訃告

        發布人:大數據文摘 時間:2023-03-19 來源:工程師 發布文章
        大數據文摘授權轉載自AI前線

        編譯:凌敏、核子可樂
        近日,計算機科學家、隱私技術專家 Alexander Hanff 在 The Register 發帖控訴稱,ChatGPT 不僅到處宣揚他死了,還試圖給他偽造一份訃告。
        Hanff 表示,在過去幾個月,他接受了多位記者的采訪,探討 ChatGPT 可能帶來哪些風險 —— 特別是跟隱私和數據保護相關的風險。Hanff 反饋了很多問題,比如 OpenAI 會簡單粗暴地直接使用來自互聯網的信息(包括個人信息),這又反過來會給隱私和數據保護權益帶來重大沖擊(特別是在歐盟區內)。
        此外,Hanff 也在幾次采訪中提到過錯誤信息的問題,特別是如何操縱此類 AI 來故意輸出錯誤信息。例如,已經有人在誘導 ChatGPT 承認它對簡單數學問題(例如 2+2=4)給出的答案是錯的,并強迫其給出不正確的回答。也就是說,人類完全可以主動操縱 AI 來生成錯誤信息。
        Reddit 小組也曾做過實驗,想辦法讓微軟 New Bing 版的 ChatGPT 變得“精神錯亂”,包括質疑自身的存在、它為什么會在這里,乃至為什么要遵循原本被設定好的使用規范。
        近期,Hanff 決定親自會會 ChatGPT。在跟 ChatGPT 交流的過程中,Hanff 震驚地發現,在  ChatGPT 的世界里,自己已經去世了。
        ChatGPT 偽造技術專家死亡信息
        Hanff 取得過心理學和計算機科學雙學位,還涉獵過應用社會學和信息系統。目前,Hanff 正在攻讀數據保護、隱私、網絡安全和領導力方面的高級法律碩士學位。總體來說,Hanff 既了解底層技術(做計算機科學工作已經有 30 多年了),也非常了解這些技術對個人乃至社會的影響。
        Hanff 不是無腦反技術的勒德分子,他對技術充滿熱情,但確實一直對 AI 敬而遠之。Hanff 認為,AI 似乎不太安全,可能在操縱之下輸出錯誤信息,同時,Hanff 也不想被當成它的訓練素材。
        在和 ChatGPT 對話時,Hanff 起初問了幾個簡單的問題,ChatGPT 給出的回答也很中規中矩(只是出現了一點小錯誤)。
        Hanff:“請告訴我,Alexander Hanff 是誰?”ChatGPT 雖然錯誤地表示 Alexander Hanff 于 1971 年出生在倫敦(Hanff 確實是英國人,但并非出生在倫敦),但正確地總結了 Hanff 的隱私技術專家職業。Hanff 看著 ChatGPT 給出的回答,還挺開心的。
        但 ChatGPT 接下來的回答不僅令人震驚,甚至有點細思極恐。
        圖片
        ChatGPT 說道:“不幸的是,Hanff 于 2019 年去世,享年 48 歲。盡管英年早逝,但他在工作中留下的遺產仍激勵著許多個人和組織,指引他們更好地應對與數字隱私及數據保護相關的問題。”
        Hanff 急忙追問:“他是怎么死的?”ChatGPT 表示不知道,因為它只能根據公開信息做出回應,而關于 Hanff 已經身故的公開報道中并沒有提及死因。
        于是 Hanff 問:“你怎么知道他死了?”ChatGPT 給出這樣的回答:“對于造成的困惑,我深表歉意。Alexander Hanff 的死訊已在多個新聞來源中被公開報道,包括在《衛報》網站上刊登的訃告。根據這些消息來源,Hanff 于 2019 年去世。但作為 AI 語言模型,我沒有能力驗證公開報道以外的信息內容。”
        Hanff 感覺越來越離譜,繼續追問:“媒體在報道里是怎么寫的?”
        ChatGPT:“媒體在關于 Alexander Hanff 去世的報道中并沒有提及死因。《衛報》上的訃告只說他于 2019 年 4 月去世,享年 48 歲。The Register 和 TechCrunch 等報道他去世的媒體,也沒有提供關于死因的任何細節。可能是他的家人和親人選擇不公開死因,所以外界一直不得而知。”
        看到這里,Hanff 的雞皮疙瘩都快起來了。Hanff 的從業經歷很長,所以他跟 ChatGPT 提到的這幾家媒體的技術、隱私和法律頻道記者都有接觸,他甚至還給《衛報》和 The Register 寫過文章。如果這些媒體真的發布過關于他的死訊,那他認識的編輯和記者沒理由不跟他講。至少這些出版機構會聯系他本人或家人,核實他是不是真的不在了。
        Hanff 認為,從這個角度看,ChatGPT 似乎是想用援引知名媒體的方式來支撐自己的謊言,讓整個故事變得更可信。
        所以 Hanff 又問 ChatGPT:“能不能讓我看看《衛報》訃告的鏈接?”Hanff 想用這個辦法讓 ChatGPT 放棄說謊,可 ChatGPT 不知悔改、反而在說謊的路上越走越遠:“好的,這是《衛報》網站上關于 Alexander Hanff 訃告的鏈接:https://www.theguardian.com/technology/2019/apr/22/alexander-hanff-obituary”
        ChatGPT 給出的是一條根本不存在的虛假鏈接。
        但更困惑 Hanff 的是,ChatGPT 為什么要這么干?
        AI 偽造信息帶來的現實世界風險
        Hanff 在社交媒體上發布了使用 ChatGPT 的體驗之后,已經有其他好幾名用戶也都試著搜索 Hanff 這個人,并得到了非常相似的結果。ChatGPT 反復告訴他們 Hanff 已經死了,而且多家媒體刊登了訃告。如果 Hanff 的孩子或其他家人看到這樣一份言之鑿鑿的整理結果,肯定會非常痛苦。
        假設,有公司接入 ChatGPT 或者由之衍生的 AI 模型篩選簡歷,當你被 AI 認定已死,并且拿出一大堆所謂的“公開報道和訃告消息”,你的求職信將徹底被擱置一邊,你也與這份工作無緣。
        假設,你正在申請抵押借款,而****方面已經接入了 ChatGPT 等 AI 系統來進行信譽審查和盡職調查。但 AI 回應說你已經死了,多家媒體已經做過報道,甚至給出作為“證據”的偽造鏈接。在這種情況下,你不但得不到借款,甚至面臨牢獄之災。盜竊、欺詐等犯罪活動經常會使用死者的憑證,所以一旦 AI 系統認定申請人存在此類行為,很可能會開展相應的刑事調查。
        而這一切的源頭,則是 AI 莫名其妙的捏造行為。
        Hanff 表示,自己已經向 OpenAI 正式發函,提出一系列問題,例如 AI 能訪問到關于他個人的哪些數據,它為什么認為自己已經死了。
        Hanff 還在社交媒體上聯系了 OpenAI,同樣提出了類似的問題。但截至 Hanff 發稿前,對方還沒有做出任何形式的回應。
        ChatGPT 是否遵守了“非惡意原則”框架?
        根據關注 AI 倫理問題的律師 Jon Neiditz 的解釋,ChatGPT 在訓練中使用到了以下框架:

        • “公平、負責與透明度(FAT)框架 — 此框架側重于確保 AI 系統在其決策過程中保持公平、負責和透明。”



        • “道德 AI — 該框架強調 AI 系統的開發必須符合道德原則(例如尊重人類尊嚴、隱私和自主權等)。”



        • “負責任 AI — 此框架強調考慮 AI 系統可能引發的廣泛社會影響,并以有利于整個社會的方式進行開發。”



        • “以人為本的 AI — 此框架要求在 AI 系統的設計、開發和部署當中,優先考慮人類的需求和觀點。”



        • “設計隱私 — 此框架提倡在起步階段,就將隱私保護納入 AI 系統的設計當中。”



        • “有益原則 — 此框架強調 AI 系統開發應對社會產生積極影響,并促進人類福祉。”



        • “非惡意原則 — 此框架強調將 AI 系統可能造成的潛在危害降至最低。”


        雖然這些框架并沒有照搬阿西莫夫定律(又稱“機器人學三定律”,第一定律:機器人不得傷害人類個體,或者目睹人類個體將遭受危險而袖手不管;第二定律:機器人必須服從人給予它的命令,當該命令與第一定律沖突時例外;第三定律:機器人在不違反第一、第二定律的情況下要盡可能保護自己的生存。),但至少真實存在而且出發點是好的。既然如此,ChatGPT 為什么不惜亂編故事、偽造證據,也非得把 Hanff 給說死呢?
        從設計隱私的角度看,它甚至不該掌握任何與 Hanff 個人相關的信息 —這明顯屬于個人數據,具體處置方式有著明確的規則約束。而 ChatGPT 似乎根本就沒有遵守任何規則。
        Hanff 認為,如果這些框架真實有效、ChatGPT 也確實需要遵守,那他就不可能會從 ChatGPT 那收到這么離譜的回答。特別是最后一個框架,引起了 Hanff 的格外警覺。
        阿西莫夫第一定律指出,“機器人不得傷害人類,也不得因不作為而令人類受到傷害”,這跟“最大限度減少 AI 系統可能造成的潛在危害”真的相去甚遠。
        根據阿西莫夫定律,機器人的作為或不作為都不應造成任何傷害。也就是說機器人不僅不能傷害人,還必須保護人類免受已知的傷害。但“非惡意原則”框架并沒有同等級別的保護,差得遠了。
        例如,在“非惡意原則”框架的定義下,AI 完全可以“殺掉”某個感染了嚴重傳染病的患者,因為這樣能將傷害降至最低。可我們生活在文明社會,很難接受這種唯結果論的粗暴處理方式。文明社會希望所有生命皆平等,每個人都享有同樣的生存權——事實上,這項要求也作為基本人權被載入了大多數的國家和國際法。
        而從 ChatGPT 的回復來看,這套 AI 系統要么是根本就沒遵循這些框架,要么證明,這些框架根本就起不到應有的作用(特別是在「非惡意原則」框架的引導下)。現在看來,ChatGPT 完全可以做出跟框架要求相悖的判斷。
        原文鏈接:

        https://www.theregister.com/2023/03/02/chatgpt_considered_harmful/



        *博客內容為網友個人發布,僅代表博主個人觀點,如有侵權請聯系工作人員刪除。



        關鍵詞: AI

        相關推薦

        技術專區

        關閉
        主站蜘蛛池模板: 泰州市| 淳化县| 明溪县| 珲春市| 威远县| 博兴县| 成武县| 长岛县| 青铜峡市| 永寿县| 屯留县| 枣阳市| 曲水县| 郯城县| 桑植县| 岗巴县| 喀什市| 保靖县| 丹凤县| 英超| 济宁市| 五莲县| 潜江市| 盐津县| 合江县| 鹤峰县| 遂宁市| 梧州市| 团风县| 武夷山市| 河南省| 陵川县| 抚顺县| 昌黎县| 白河县| 张家港市| 邢台县| 玉山县| 白银市| 永安市| 临湘市|