AIGC 世界模型又近了?MIT驚人研究:LLM已模擬現(xiàn)實世界,絕非隨機鸚鵡! MIT CSAIL的研究人員發(fā)現(xiàn),LLM的「內(nèi)心深處」已經(jīng)發(fā)展出了對現(xiàn)實的模擬,模型對語言和世界的理解,絕不僅僅是簡單的「鸚鵡學(xué)舌」。也就說,在未來,LLM會比今天更深層地理解語言。 新智元 LLM世界模型行業(yè)觀察
AIGC Gary Marcus:生成式AI泡沫將退,神經(jīng)符號AI才是未來 人工智能學(xué)者Gary Marcus近日發(fā)文稱,生成式AI可能因可靠性問題無法解決而在12個月內(nèi)退去泡沫。他認為,神經(jīng)符號學(xué)方法是超越LLMS局限、邁向自主AI的途徑之一,而谷歌的兩款系統(tǒng)驗證了可行性。 元宇宙日爆 LLM生成式AI行業(yè)趨勢
AIGC 少即是多!10億參數(shù)「小巨人」擊敗ChatGPT 只有10億參數(shù)的xLAM-1B在特定任務(wù)中擊敗了LLM霸主:OpenAI的GPT-3.5 Turbo和Anthropic的Claude-3 Haiku。上個月剛發(fā)布的蘋果智能模型只有30億參數(shù),就連奧特曼都表示,我們正處于大模型時代的末期。那么,小語言模型(SLM)會是AI的未來嗎? 新智元 ChatGPTLLMSLM
個人隨筆 LLM最全「怪癖」首曝光!馬里蘭OpenAI等30+學(xué)者祭出75頁提示報告 大語言模型提示中,竟有不少「怪癖」:重復(fù)某些內(nèi)容,準確性就大大提高;人名變匿名,準確性就大大下降。最近,馬里蘭OpenAI等機構(gòu)的30多位研究者,首次對LLM的提示技術(shù)進行了大規(guī)模系統(tǒng)研究,并發(fā)布75頁詳盡報告。 新智元 LLM大語言模型案例分析
AIGC 兩句話,讓LLM邏輯推理瞬間崩潰!最新「愛麗絲夢游仙境」曝出GPT、Claude等重大缺陷 在基準測試上頻頻屠榜的大模型們,竟然被一道簡單的邏輯推理題打得全軍覆沒?最近,研究機構(gòu)LAION的幾位作者共同發(fā)表了一篇文章,以「愛麗絲夢游仙境」為啟發(fā)涉及了一系列簡單的推理問題,揭示了LLM基準測試的盲區(qū)。 新智元 ChatGPTLLM大模型
個人隨筆 ChatGPT真能記住你的話嗎?DeepMind與開源大佬揭示LLM記憶之謎 LLM有記憶能力嗎?有,也沒有。雖然ChatGPT聊天時好像可以記住你之前說的話,但實際上,模型在推理時記不住任何內(nèi)容,而且它們在訓(xùn)練時的記憶方式也不像我們想象的那么簡單。 新智元 ChatGPTDeepmindLLM
AIGC 萬字長文總結(jié)提示詞技巧!新加坡首屆GPT-4提示工程大賽冠軍最新分享 提示工程已經(jīng)成為了熱門話題,無論是CO-STAR框架構(gòu)建提示詞,使用分隔符將提示詞分段,使用LLM護欄創(chuàng)建系統(tǒng)提示,還是僅使用LLM(無需插件或代碼)分析數(shù)據(jù)集,用戶都將擁有全新的使用體驗。 新智元 GPT-4LLM提示詞
個人隨筆 歷時400多天,國產(chǎn)大模型全面趕超GPT-4? 趕超GPT-4的階段性升級,可以看作是國產(chǎn)大模型有序迭代部署、不斷拉近差距的標志,切莫像手機跑分那樣,在過度營銷的作用下,淪為被群嘲的對象。 Alter LLM國產(chǎn)大模型文心一言
個人隨筆 當(dāng)我們在投資 AGI,實際上我們的投資邏輯可能是什么? 本文原始內(nèi)容編寫自 2023 年 6 月,在 2024 年 Sora 誕生之際再翻出來這個結(jié)論 refine 發(fā)出來。 OneMoreAI AGIAI應(yīng)用LLM
個人隨筆 LLM上下文窗口突破200萬!無需架構(gòu)變化+復(fù)雜微調(diào),輕松擴展8倍 LongRoPE方法首次將LLM的窗口擴展到了2048k個token,只是簡單微調(diào)的情況下,就能實現(xiàn)與短上下文窗口相近的性能! 新智元 LLMToken大模型
個人隨筆 我的12個「2024 AI 猜想」 本文是基于過去對AI整個行業(yè)的觀察得出的猜想,等到年末,可以驗證一下這些里面有多少是符合的。 黃釗hanniman AI應(yīng)用LLM生成式AI
AIGC 全網(wǎng)首發(fā),Meta Llama-3 全方位詳解 時隔9個月之后,meta正式發(fā)布了Llama3的正式版。模型已經(jīng)上架,8B和70B模型已經(jīng)開源,可以免費商用(限制月活不的超越7億),還有哪些新的信息呢? 賽博禪心 Llama-3LLMMeta