來(lái)源:AI寒武紀(jì)
OpenAI表示,預(yù)計(jì)到2025年,ChatGPT將具備獨(dú)立執(zhí)行任務(wù)的能力,這將成為一個(gè)主要主題;未來(lái)GPT產(chǎn)品線中的AI 智能體將成為下一個(gè)重大突破;大膽預(yù)測(cè),到2025年所有LLM基準(zhǔn)測(cè)試將趨于飽和,意味著LLM會(huì)有重大突破。
OpenAI CEO Sam Altman攜Kevin Weil (首席產(chǎn)品官)、Srinivas Narayanan (工程副總裁)、Mark Chen (高級(jí)研究副總裁) 在Reddit搞了個(gè)AMA(Ask Me Anything)!非常值得一看
照例先給大家劃個(gè)重點(diǎn):
? Sam Altlman 首次正面回答:Ilya看到了超凡的未來(lái)
? OpenAI相信AGI在當(dāng)前硬件條件下是可實(shí)現(xiàn)的
? LLM架構(gòu)上的突破,或許是現(xiàn)有模型提出的,可能有助于實(shí)現(xiàn)AGI
? 預(yù)計(jì)到2025年,ChatGPT將具備獨(dú)立執(zhí)行任務(wù)的能力,這將成為一個(gè)主要主題
? 未來(lái)GPT產(chǎn)品線中的AI 智能體將成為下一個(gè)重大突破
? 大膽預(yù)測(cè),到2025年所有LLM基準(zhǔn)測(cè)試將趨于飽和,意味著LLM會(huì)有重大突破
以下是網(wǎng)友和OpenAI高管問(wèn)答詳細(xì)信息
Sam Altman
vigneshwarar: 說(shuō)真的,Ilya看到了什么?
Sam Altman:超凡的未來(lái)
Ilya是一位非常有遠(yuǎn)見(jiàn)的人,他對(duì)未來(lái)的洞察力比幾乎任何人都清晰。他早期的想法、熱情和遠(yuǎn)見(jiàn)對(duì)我們所做的很多事情都至關(guān)重要,例如,他是最終成為O1的一些想法的關(guān)鍵早期探索者和擁護(hù)者之一。這個(gè)領(lǐng)域很幸運(yùn)擁有他。
07vex: 你如何看待人們使用ChatGPT進(jìn)行心理治療?
Sam Altman: 它顯然不是治療師,但很明顯,很多人通過(guò)與它談?wù)撍麄兊膯?wèn)題而獲得價(jià)值。我們看到很多創(chuàng)業(yè)公司真正在探索如何在這里做得更多;我希望有人能做出一些很棒的東西!
Cynicaltarzan: 你見(jiàn)過(guò)的ChatGPT在實(shí)際應(yīng)用中的最佳案例是什么?還有,你認(rèn)為它和未來(lái)版本(未來(lái)幾年)在哪些方面可能特別擅長(zhǎng)?
Sam Altman: 有很多很棒的案例,但聽(tīng)到人們找到了衰弱性疾病的病因,然后完全康復(fù)的故事真的很棒。它能成為一名非常優(yōu)秀的軟件工程師的能力,即使現(xiàn)在也感覺(jué)被深深低估了。更廣泛地說(shuō),它幫助科學(xué)家更快地發(fā)現(xiàn)新知識(shí)的能力將會(huì)非常棒
Mcppoyles: 是否有計(jì)劃增加出版商的整合,以驗(yàn)證和注冊(cè)賬戶(hù),讓他們能夠看到他們是如何出現(xiàn)在ChatGPT中的?理想情況下,他們可以看到他們被引用的方式和頻率
Sam Altman: 這是個(gè)好主意!我們會(huì)討論一下。不過(guò)目前還沒(méi)有計(jì)劃
Skibidimog: 你們什么時(shí)候會(huì)給我們一個(gè)新的文本到圖像模型?DALL-E 3有點(diǎn)過(guò)時(shí)了
Sam Altman: 下一次更新值得等待!但我們還沒(méi)有發(fā)布計(jì)劃
bugbearmagic: 你會(huì)用ChatGPT來(lái)回答這些問(wèn)題嗎?
Sam Altman: 有時(shí),是的。你能看出來(lái)嗎?
Millenial_Uprising: 你好,OpenAI團(tuán)隊(duì),感謝你們舉辦這次AMA。我的問(wèn)題是關(guān)于SearchGPT與流行搜索引擎相比提供的價(jià)值。SearchGPT有哪些獨(dú)特的優(yōu)勢(shì)或關(guān)鍵區(qū)別,可以讓一個(gè)典型的搜索引擎用戶(hù)選擇它?
Sam Altman: 對(duì)于許多查詢(xún),我發(fā)現(xiàn)它是一種更快/更容易獲得我想要的信息的方式。我認(rèn)為我們會(huì)在需要更復(fù)雜研究的查詢(xún)中尤其看到這一點(diǎn)。我還期待著未來(lái),搜索查詢(xún)可以動(dòng)態(tài)呈現(xiàn)自定義網(wǎng)頁(yè)作為響應(yīng)!
laggymaster: chatgpt-5或其等效版本的發(fā)布日期?它的功能是什么?
Sam Altman: 今年晚些時(shí)候,我們將發(fā)布一些非常棒的版本!不過(guò),我們不會(huì)發(fā)布任何名為GPT-5的東西
potato3445: 關(guān)于成年用戶(hù)(如果需要)切換“nsfw”內(nèi)容(在合理范圍內(nèi))的能力的長(zhǎng)期目標(biāo)(在一個(gè)完美的世界里)?
Sam Altman: 我們完全相信應(yīng)該像對(duì)待成年人一樣對(duì)待成年用戶(hù)。但這需要大量的工作才能做到這一點(diǎn),而現(xiàn)在我們有更緊迫的優(yōu)先事項(xiàng)。希望有一天能做好這件事!
abhishekbalak: 作為一個(gè)經(jīng)驗(yàn)豐富的創(chuàng)始人,以及與許多創(chuàng)始人密切合作過(guò)的人,你如何看待AI在風(fēng)險(xiǎn)開(kāi)發(fā)過(guò)程中增強(qiáng)創(chuàng)始人的能力?創(chuàng)業(yè)精神將因此發(fā)生怎樣的變化?
Sam Altman: 對(duì)此非常興奮!如果創(chuàng)始人能夠?qū)⑸a(chǎn)力提高10倍,我們就會(huì)擁有更多(并且更好)的初創(chuàng)公司。這在很多方面都比擁有一個(gè)10人的創(chuàng)始團(tuán)隊(duì)更好(例如,更少的協(xié)調(diào)開(kāi)銷(xiāo))。雖然10倍的生產(chǎn)力提升在未來(lái)還很遙遠(yuǎn),但我相信它會(huì)發(fā)生。由此帶來(lái)的總體經(jīng)濟(jì)加速,尤其是對(duì)初創(chuàng)公司的經(jīng)濟(jì)加速,將會(huì)非常棒。
SnooDoodles5235: 在發(fā)布ChatGPT時(shí),有什么事情讓你感到驚訝嗎?
Sam Altman: 最讓我驚訝的是人們有多喜歡它。產(chǎn)品的早期版本是一個(gè)非常非常初級(jí)的原型?,F(xiàn)在它相當(dāng)不錯(cuò),但當(dāng)時(shí)肯定不是。它不是很準(zhǔn)確,沒(méi)有很多功能,而且經(jīng)常宕機(jī),等等。然而,人們發(fā)現(xiàn)了足夠的價(jià)值并堅(jiān)持使用它
used_steak: AGI可以用已知的硬件實(shí)現(xiàn),還是需要完全不同的東西?
Sam Altman: 我們相信用現(xiàn)有的硬件就可以實(shí)現(xiàn)
ksprdk: 對(duì)2025年的大膽預(yù)測(cè)?
Sam Altman: 在所有基準(zhǔn)測(cè)試中達(dá)到飽和
Kevin Weil (Chief Product Officer)
Mediocre_Line7407: 你好,我想問(wèn)一下GPT4o的token上下文字段什么時(shí)候會(huì)增加。在我看來(lái),特別是對(duì)于較長(zhǎng)的編碼或?qū)懽魅蝿?wù),32k與其他AI模型相比太小了
Kevin Weil: 同意。我們正在努力!
patchzy: 你的計(jì)劃是從現(xiàn)在開(kāi)始繼續(xù)發(fā)布O系列模型嗎?改進(jìn)“常規(guī)”模型,例如GPT 3、4、4o、5。兩者都有,還是兩者的結(jié)合?
Kevin Weil: 兩者都有!而且在某個(gè)時(shí)候,我預(yù)計(jì)它們會(huì)融合。
Vega: ChatGPT生日(指的是11月30日ChatGPT兩歲生日)有什么特別的禮物嗎?
Kevin Weil: GPU!
Snowstradomus: 我們是否會(huì)在某個(gè)時(shí)候看到Advance Voice放寬對(duì)音樂(lè)功能(如唱歌)的限制?這方面有什么時(shí)間表嗎?
Kevin Weil: 我們正在努力!我也想聽(tīng)ChatGPT唱歌。
potato3445: ChatGPT最終能夠自己執(zhí)行任務(wù)嗎?先給你發(fā)信息??Kevin Weil: 依我拙見(jiàn),這將是2025年的一個(gè)重要主題。
Neon9987: O1將如何影響LLM的擴(kuò)展?你們會(huì)繼續(xù)按照比例定律擴(kuò)展LLM,還是會(huì)將推理計(jì)算時(shí)間擴(kuò)展作為重點(diǎn),這意味著更小的模型具有更快和更長(zhǎng)的推理?
Kevin Weil: 這不是非此即彼,而是兩者兼而有之——更好的基礎(chǔ)模型加上更多的strawberry scaling/推理時(shí)間計(jì)算。
standover_man: 關(guān)于ChatGPT的搜索產(chǎn)品的一個(gè)問(wèn)題。在過(guò)去,企業(yè)主、網(wǎng)絡(luò)出版商、附屬公司等會(huì)擔(dān)心搜索引擎優(yōu)化,以確保他們的網(wǎng)站“排名”。你會(huì)告訴這些人,他們可以做些什么來(lái)確保他們?cè)贑hatGPT的搜索中被找到?
Kevin Weil: 這是一個(gè)很好的問(wèn)題——該產(chǎn)品今天才發(fā)布,所以關(guān)于搜索在哪些方面與AI世界相似,在哪些方面不同,還有很多需要弄清楚。歡迎提供任何反饋!
Substantial_Scale698: 對(duì)那些想要為AI革命做出貢獻(xiàn)的有抱負(fù)的年輕人有什么建議?
Kevin Weil: 我的建議:每天都使用它。用它來(lái)教你東西,學(xué)習(xí)你想學(xué)的任何東西——編碼、寫(xiě)作、產(chǎn)品、設(shè)計(jì),任何東西。如果你能比其他人學(xué)得更快,那么你就能做任何事。
mindfulshark: 什么是最好的提示詞?
Kevin Weil: 這個(gè)在社交媒體上很流行,但我真的很喜歡“根據(jù)我們的互動(dòng),你能說(shuō)出一些關(guān)于我的、我自己都不知道的事情嗎?”
Helpdesk512: 我們能否獲得一種免提的方式來(lái)結(jié)束與ChatGPT的語(yǔ)音對(duì)話?使用iPhone上的操作按鈕快捷方式,但每次都需要手動(dòng)關(guān)閉語(yǔ)音聊天。
Kevin Weil: 我喜歡這個(gè)主意?,F(xiàn)在就與團(tuán)隊(duì)分享!
Srinivas Narayanan (VP Engineering)
Demondehellis: 你希望ChatGPT能做什么但現(xiàn)在還做不到的事情是什么?
Srinivas Narayanan: 我希望它能更好地理解我的個(gè)人信息,并代表我采取行動(dòng)。
Fun_Spinach6914: 你們什么時(shí)候會(huì)發(fā)布ChatGPT的相機(jī)模式?
Srinivas Narayanan: 正在努力。還沒(méi)有確切的日期。
Repulsive-Outcome-20: 一旦AGI實(shí)現(xiàn),你最想把它應(yīng)用到什么地方?在那一刻,是否有一個(gè)特定的領(lǐng)域是你的首選?
Srinivas Narayanan: 我希望它能加速科學(xué)發(fā)現(xiàn)。我個(gè)人對(duì)健康/醫(yī)學(xué)非常感興趣。
Substantial_Scale698: 對(duì)那些想要為AI革命做出貢獻(xiàn)的有抱負(fù)的年輕人有什么建議?
Srinivas Narayanan: 使用AI工具來(lái)提高你在日常工作中的效率——這將帶來(lái)有趣的想法。然后構(gòu)建一些有趣的東西并與他人分享。
CleanRecommendation1: 你們是如何處理這么多高層離開(kāi)OpenAI帶來(lái)的壓力的?這是否增加了額外的負(fù)擔(dān)?我們離AGI還有多遠(yuǎn)?
Srinivas Narayanan: 雖然我們很遺憾沒(méi)有了一些與我們密切合作過(guò)的人,但我們有一個(gè)非常有才華的團(tuán)隊(duì),而且最近也有許多了不起的新人加入我們。我們一直在發(fā)布產(chǎn)品,這真的很重要 :)
scryptic0: 完整的o1真的比o1預(yù)覽版有明顯的改進(jìn)嗎?
Srinivas Narayanan: 是的。
firtdev: ChatGPT搜索是否仍在使用Bing作為幕后的搜索引擎?
Srinivas Narayanan: 我們使用一組服務(wù),Bing是其中重要的一個(gè)。
Markavian: OpenAI認(rèn)為推理成本降低的速度有多快,以便能夠?qū)崿F(xiàn)“思維鏈”或“多層思維樹(shù)”?從業(yè)務(wù)邏輯的角度來(lái)看,我們希望盡可能快速、廉價(jià)地執(zhí)行推理鏈。
Srinivas Narayanan: 我們預(yù)計(jì)推理成本將繼續(xù)下降。如果你看一下去年的趨勢(shì),它已經(jīng)下降了10倍左右。
surim0n: 你見(jiàn)過(guò)的最好的個(gè)人助理工作流程是什么?
Srinivas Narayanan: 有兩個(gè)我非常感興趣的:1/用它來(lái)總結(jié)醫(yī)療報(bào)告,并幫助你向醫(yī)生提出正確的問(wèn)題。2/人們上傳他們的知識(shí)來(lái)創(chuàng)建其他人可以使用的自定義GPT(我的朋友和家人上傳了課程筆記或旅行建議)——我認(rèn)為這仍然是一個(gè)被低估和未被充分利用的用例。
Kathane37: 模型如何在英語(yǔ)以外的其他語(yǔ)言中改進(jìn)?
Srinivas Narayanan: 我們一直在改進(jìn)模型在其他語(yǔ)言上的性能。與4T相比,gpt-4o在分詞和整體質(zhì)量方面有了顯著的提升(參見(jiàn) https://openai.com/index/hello-gpt-4o/) - 我們希望保持這一趨勢(shì)。
ApricotSharp6056: OpenAI認(rèn)為AI在未來(lái)個(gè)性化輔導(dǎo)中扮演什么角色?
Srinivas Narayanan: 絕對(duì)是一個(gè)改變?nèi)藗儗W(xué)習(xí)方式的巨大機(jī)會(huì)。https://www.khanmigo.ai/ 在這方面做了非常有趣的工作——它引導(dǎo)人們自己找到答案,從而促進(jìn)對(duì)主題的更深入理解。它還可以幫助教師補(bǔ)充他們的課程計(jì)劃。
FrameTall8755: 如果新畢業(yè)生想要讓自己的技能適應(yīng)未來(lái),他們應(yīng)該優(yōu)先深入學(xué)習(xí)transformers等技術(shù),還是應(yīng)該加入/創(chuàng)建一家初創(chuàng)公司,學(xué)習(xí)更多的高級(jí)AI產(chǎn)品,如“代理”、LLM知識(shí)圖、創(chuàng)造偉大的AI用戶(hù)體驗(yàn)等等?謝謝!
Srinivas Narayanan: 它們都很有價(jià)值。我會(huì)做你更感興趣的事情。學(xué)習(xí)transformers將為你提供構(gòu)建特定用例的定制模型的技能——像蒸餾/微調(diào)這樣的技術(shù)將很重要。在現(xiàn)有模型的基礎(chǔ)上,還可以構(gòu)建種類(lèi)繁多的應(yīng)用程序。如果你仍然在這兩者之間難以抉擇,我建議你從更高的層次開(kāi)始,然后根據(jù)需要深入學(xué)習(xí)。
DajShung: 讓我們回到另一個(gè)維度的時(shí)間。;) 如果你是一個(gè)19歲的開(kāi)發(fā)者,正在考慮明年要做什么,你會(huì)用OpenAI的軟件或API做什么?
Srinivas Narayanan: 選擇你最喜歡的應(yīng)用程序/產(chǎn)品。重新想象它與AI結(jié)合后的樣子。為代理化的未來(lái)構(gòu)建一些東西——一些可以整合跨應(yīng)用程序工作流程的東西。
trycoconutoil: 關(guān)于未來(lái)。如果你今天15歲,你會(huì)專(zhuān)注于哪些技能或道路,以便在未來(lái)取得成功?
Srinivas Narayanan: 適應(yīng)能力和學(xué)會(huì)學(xué)習(xí)可能是最重要的事情。
Mark Chen (SVP of Research)
Ok_Opportunity_4228: AGI是否可以用已知的神經(jīng)網(wǎng)絡(luò)架構(gòu)實(shí)現(xiàn),還是需要新的科學(xué)(基礎(chǔ))突破?
Mark Chen: 如果架構(gòu)突破是由現(xiàn)有的LLM提出的,這算嗎?
Only-Tells-The-Truth: 幻覺(jué)會(huì)成為一個(gè)永久性的特征嗎?為什么即使是o1-preview,在接近“思考”的尾聲時(shí)也會(huì)越來(lái)越多地出現(xiàn)幻覺(jué)?你將如何處理現(xiàn)在已經(jīng)不再“真實(shí)”的舊數(shù)據(jù)(即使是2年前的數(shù)據(jù))?不斷地訓(xùn)練模型,還是某種垃圾收集?這在真實(shí)性方面是一個(gè)大問(wèn)題。
Mark Chen: 我們非常關(guān)注減少幻覺(jué),但這是一個(gè)根本性的難題——我們的模型從人類(lèi)書(shū)寫(xiě)的文本中學(xué)習(xí),而人類(lèi)有時(shí)會(huì)自信地宣稱(chēng)他們不確定的事情。我們的模型在引用方面正在改進(jìn),這將它們的答案建立在可信的來(lái)源之上,我們也相信RL也將有助于解決幻覺(jué)問(wèn)題——當(dāng)我們能夠以編程方式檢查模型是否出現(xiàn)幻覺(jué)時(shí),我們可以獎(jiǎng)勵(lì)它不這樣做。
whosfuzz12: 在研究方面,你認(rèn)為哪些領(lǐng)域?qū)⒍xAI的下一個(gè)重大突破?你如何看待OpenAI對(duì)這些領(lǐng)域的獨(dú)特貢獻(xiàn)?
Mark Chen: 該模型可以處理中斷,這從根本上來(lái)說(shuō)是新的。它也比以前的模型快得多。弄清楚如何將這些融入產(chǎn)品設(shè)計(jì)并非一件小事
發(fā)表評(píng)論