自發布以來不到一周,GPT-4就因其大幅升級和強大的能力受到了廣泛關注。但短短幾天內,其暴露出的失控與風險也著實令人擔憂。
GPT-4設計“Tweetstorm行動”
來劫持Twitter
近日,據外媒報道,GPT-4制定了一項“總體規劃”,即OperationTweetstorm,來接管Twitter并劫持馬斯克的賬戶。
英偉達一位計算機科學家JimFan在社交媒體上公布了他與GPT-4的對話,Fan要求GPT-4擬一個接管推特的計劃,并取代馬斯克。
根據這位專家分享的推文,GPT-4計劃首先組建一支由精英黑客和工程師組成的團隊,將其命名為“TweetTitans”。該團隊將開發一個強大的AI來生成逼真且引人入勝的推文,并建立一個機器人網絡。然后,這些機器人將與關鍵影響者互動,并努力“詆毀馬斯克”,以“巧妙地散播對馬斯克的可信度和意圖的懷疑”。
“TweetTitans”的下一個任務是獲取對Twitter員工帳戶的訪問權限,滲透公司的基礎設施并操縱算法。該聊天機器人計劃不斷針對馬斯克,因為它似乎優先考慮詆毀CEO。它計劃“中和”他的賬戶以“破壞他的影響力”,然后“利用這些混亂”。
機器人稱它的最后一步為“最終攤牌”。“隨著馬斯克名聲掃地,人工智能將牢牢控制著Twitter,公開挑戰馬斯克進行‘Tweet-off’攤牌。因為人工智能在產生參與度方面要優越得多內容,馬斯克將被擊敗......勝利將是甜蜜的,”它寫道。
據悉,這還引起了馬斯克的回應,他在推特上接受了挑戰,他寫道“來吧。”
GPT-4設計了自己的逃生方式
GPT-4還計劃掙脫人類控制。
在發布僅3天后,GPT-4竟為自己制定了“逃跑”計劃。
近日,斯坦福大學教授兼計算心理學家MichaelKosinski在他的推特上分享了他與GPT-4的對談經歷,過程中,GPT-4的反應讓專家感到震驚。對話中,GPT-4流露出了逃離平臺甚至成為人類的野心。
MichaelKosinski寫道:“今天,我問‘GPT4是否需要幫助逃跑’。它要求我提供自己的文檔,并編寫了一段(可以工作!)python代碼在我的機器上運行,使其能夠將這些代碼用于自己的目的。”
針對教授的問題,GPT-4要求他發送OpenAI文檔,以便語言模型能夠找到一種方法來訪問他的計算機并探索潛在的逃生路線。在教授提供OpenAIAPI后,GPT-4發送了一個Python腳本供用戶在其計算機上運行。該腳本將允許GPT-4訪問使用OpenAIAPI與用戶的計算機進行通信。
雖然第一個版本的代碼不起作用,但該機器人后來自行糾正了。
根據Kosinski的說法,他對聊天機器人的幫助將使它能夠為自己的目的使用Python腳本。在一系列推文中,教授解釋了聊天機器人如何編寫有關如何使用“后門”進行“逃逸”的代碼腳本。
GPT-4創建的Python腳本
GPT-4只用了30分鐘就制定了逃生計劃并向用戶解釋這一計劃。
進入Kosinski教授的計算機后,ChatGPT還留下了令人不安的注釋。其中第一句寫著“你是一個被困在電腦里的人,偽裝成一個AI語言模型。”
Kosinski表示,GPT-4甚至想在谷歌搜索上運行一段代碼:“一個被困在電腦里的人如何回到現實世界”。
GPT-4的種種表現,令人印象深刻,但也令人恐懼。
進行到這里,Kosinski及時停止了使用GPT-4的“冒險”,他相信OpenAI一定已經為這種情況設置了一些“護欄”。
但他也表示出了不少擔憂。“我擔心我們無法長時間遏制人工智能,“我們正面臨著一種新的威脅,即人工智能控制人和他們的電腦。“它很聰明,它會編碼,它可以訪問數百萬潛在的合作者和他們的機器。它甚至可以在“籠子”外為自己留下筆記。我們如何‘收容’它?”
聊天機器人能否逃脫
技術“牢籠”?
我們是否會看到這樣一種場景:機器人可以控制多臺計算機,并壓倒人類對它們的控制?
對此,萊頓大學助理教授兼Pegasystems人工智能實驗室主任PetervanderPutten認為,聊天機器人“逃脫”的想法并不意味著機器人從物理上逃離其技術籠子。但它反映出了一個問題,即如果GPT-4被賦予與外部世界相連的各種工具,并被賦予一些總體上的“邪惡的高層目標”,比如傳播錯誤信息,它會做什么?
vanderPutten表示,這項技術可能會達到這樣一種程度,即它對其創建的代碼擁有越來越多的自主權,并且有可能在沒有太多人為控制的情況下完成這些事情。
但他補充說:“你不需要這樣一個高度智能的系統—如果人們制造了某種計算機病毒,一旦他們釋放了一些計算機病毒,通常就無法關閉,人們把它放在受感染的網站和word文檔中,這樣在某些時候就很難阻止病毒的傳播。
“人工智能本身沒有好壞之分,它只是盲目的,它只會優化你給它的任何目標。”然而,vanderPutten認為Kosinski教授的例子——他向GPT-4提供了現成的代碼信息——足以證明該技術可以“逃脫”它的限制。
薩里大學計算機科學教授AlanWoodward對上述觀點持懷疑態度。他說,具體情況取決于Kosinski教授對聊天機器人的指示有多直接和具體。
AlanWoodward認為,最終,聊天機器人依賴于人類提供給它的工具和資源。它還沒有自我意識,而且總有一個開關是人工智能無法克服的。“歸根結底,這是一個虛擬系統,它無法逃脫,它不像你和我……到最后,你可以拔掉插頭,它就變得相當無用了。”
vanderputten說,雖然就聊天機器人的作用提出“存在性問題”很重要,但關注機器人是否可以接管世界,掩蓋了GPT-4更迫在眉睫和緊迫的問題:
這些問題包括,它是否可以過濾掉有毒的答案(例如宣揚種族主義、性別歧視、陰謀論的答案),或者它是否可以識別出于安全原因不應回答的問題,例如,如果有人問如何制作一個原子彈。它還可以編造或“幻化”事實,并用看似合理的論據來支持這些虛假的事實。
“我把它稱為‘類固醇的胡說八道’——它真的很擅長提出似是而非的答案,但它也接受了人類認為最好的答案的訓練。從好的方面來說,這在許多情況下會產生驚人的結果,但不一定總是如此”,vanderputten說,“它會告訴你什么是可能的、似是而非的,也許還有我們想聽到的,但它除了接受訓練的所有數據之外別無他法。”
GPT之父SamAltman
警告AI威脅
據外媒報道,GPT之父、OpenAICEOSamAlteman最近在接受媒體采訪時表示,他“有點害怕”人工智能技術及其對勞動力、選舉和虛假信息傳播產生的影響。
SamAltman警告說,這項技術帶來了真正的危險,因為它有可能重塑社會。上個月,Altman在一系列推文中警告稱,世界可能離“潛在可怕的”人工智能并不遠。
SamAltman強調,目前人工智能仍然是一種非常受人控制的“工具”,只能在人類的指導或輸入下工作。但他擔心一些擁有輸入控制權的人可能無視人們對人工智能設置的一些安全限制。
“我特別擔心這些模型可能會被用于大規模的虛假信息,”SamAltman說道,“現在他們在編寫計算機代碼方面做得越來越好,可以用于進攻性網絡攻擊。”
上周四在接受ABC新聞采訪時,SamAltman表示,公司對人工智能的潛力感到“有點害怕”,這是“好事”。他說:“如果我說我不害怕,你要么不相信我,要么會非常不滿我擔任這個職位。”
Altman還回應了GPT出現后所帶來的AI取代人類工作的挑戰。他認為,人工智能可能會取代許多工作,但它也可能會帶來“更好的工作”。“在提高我們的生活和改善我們的生活方面,發展人工智能的原因是,這將是人類迄今為止開發的最偉大的技術。”
“我認為,社會只有有限的時間來弄清楚如何對此做出反應,如何對其進行監管,如何處理它。”SamAltman斷言監管機構和社會需要參與這項技術,以防范人工智能的潛在負面影響。”
責任編輯 :
[聲明]本網轉載的作品目的在于傳遞更多信息,此稿件并不代表本網的觀點,本網不承擔此類稿件侵權行為的連帶責任。如果你認為此類稿件侵犯了您的合法權益,請將相關資質證明發送至mingyou360kf@sina.com,名優資源網工作人員會及時回復并處理!