近期,埃隆·馬斯克旗下的人工智能公司xAI推出了一款名為Grok的全新聊天機(jī)器人,成為了ChatGPT的強(qiáng)有力競(jìng)爭(zhēng)對(duì)手。Grok專為美國(guó)地區(qū)的Premium+ X用戶開(kāi)放,并采用了全新的模型Grok-1,與OpenAI旗下的GPT-4模型完全不同。與其他競(jìng)爭(zhēng)對(duì)手相比,Grok還整合了X平臺(tái)的實(shí)時(shí)數(shù)據(jù),能夠根據(jù)最新動(dòng)態(tài)提供實(shí)時(shí)回應(yīng),這是其與眾不同之處之一。

然而,與其他AI聊天機(jī)器人一樣,Grok也存在著“幻覺(jué)”問(wèn)題,即生成包含虛假或誤導(dǎo)信息的回應(yīng)。這種現(xiàn)象在所有大型語(yǔ)言模型(LLM)中都很常見(jiàn),包括ChatGPT。
最近,Grok的一個(gè)尷尬的“幻覺(jué)”在社交媒體上引起了熱議。一些用戶在使用Grok時(shí)收到回應(yīng)稱:“我無(wú)法完成您的請(qǐng)求,因?yàn)樗`反了OpenAI的用例政策。”
對(duì)此,xAI工程師Igor Babuschkin解釋道,Grok在訓(xùn)練過(guò)程中使用了大量網(wǎng)絡(luò)數(shù)據(jù),其中很可能包含了由OpenAI生成的文本,這導(dǎo)致了這種“幻覺(jué)”的出現(xiàn)。

他表示:“不過(guò)請(qǐng)放心,這種問(wèn)題非常罕見(jiàn),我們已經(jīng)意識(shí)到了它,并將確保未來(lái)的Grok版本不會(huì)出現(xiàn)類似的問(wèn)題。請(qǐng)放心,Grok的開(kāi)發(fā)沒(méi)有使用任何OpenAI代碼。”
如何避免類似事件的發(fā)生,以及如何使AI聊天機(jī)器人更加安全可信,將成為未來(lái)AI研發(fā)的重要課題。





























浙公網(wǎng)安備 33010502007447號(hào)