版權(quán)說(shuō)明:本文檔由用戶(hù)提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡(jiǎn)介
人工智能專(zhuān)題:
Opena
i發(fā)布會(huì)梳理證券研究報(bào)告
|
2024年12月23日行業(yè)研究
·
行業(yè)專(zhuān)題
投資評(píng)級(jí):優(yōu)于大市(維持)請(qǐng)務(wù)必閱讀正文之后的免責(zé)聲明及其項(xiàng)下所有內(nèi)容OpenAI從12月5日連續(xù)12個(gè)工作日每天公布一個(gè)新應(yīng)用或功能。1
)DAY1:發(fā)布完整版o1;2
)DAY2
:發(fā)布強(qiáng)化微調(diào)技術(shù);3
)DAY3
:發(fā)布視頻大模型Sora;4
)DAY4
:發(fā)布協(xié)作平臺(tái)Canvas;5
)DAY5
:發(fā)布ChatGPT
×Apple
Intelligence;6)DAY6
:發(fā)布高級(jí)語(yǔ)音模式;7
)DAY7
:發(fā)布Projects
in
ChatGPT;8)DAY8
:發(fā)布ChatGPT搜索;9
)DAY9
:發(fā)布o(jì)1API;10)
DAY10
:發(fā)布通話訪問(wèn)模式;11)
DAY11
:發(fā)布全新桌面應(yīng)用;12)
DAY12
:發(fā)布新一代推理模型o3&o3mini。請(qǐng)務(wù)必閱讀正文之后的免責(zé)聲明及其項(xiàng)下所有內(nèi)容?風(fēng)險(xiǎn)提示:A
I應(yīng)用落地不及預(yù)期、行業(yè)競(jìng)爭(zhēng)加劇、大模型研發(fā)不及預(yù)期。摘要 Open
a
i
12天發(fā)布會(huì)
風(fēng)險(xiǎn)提示請(qǐng)務(wù)必閱讀正文之后的免責(zé)聲明及其項(xiàng)下所有內(nèi)容0201目錄
發(fā)布三大基礎(chǔ)模型
,模型性能跨越式提升?12天的發(fā)布會(huì)中
,
OpenAI推出了三款基礎(chǔ)模型
,分別是增強(qiáng)的ChatGPT
o1模型、
Sora視頻生成模型、
o3模型,新的模型在數(shù)學(xué)和科學(xué)領(lǐng)域均有
著卓越表現(xiàn)
,
同時(shí)也意味著openai在推理能力方面邁出了重要一步。?o3模型的發(fā)布
,更是標(biāo)志著AI在編程、科學(xué)推理等領(lǐng)域的巨大進(jìn)步。
o3模型接近通用人工智能(AGI)
的標(biāo)準(zhǔn)
,為復(fù)雜決策和高端問(wèn)題解決提供
了新的技術(shù)基礎(chǔ)。?Sora的發(fā)布將極大降低內(nèi)容創(chuàng)作的成本和時(shí)間。
為營(yíng)銷(xiāo)、培訓(xùn)、市場(chǎng)等各領(lǐng)域提供AI生成的高質(zhì)量視頻
,有望成為企業(yè)未來(lái)內(nèi)容創(chuàng)作的新標(biāo)準(zhǔn)。表1:openai
發(fā)布會(huì)基礎(chǔ)模型部分發(fā)布日期發(fā)布產(chǎn)品產(chǎn)品描述DAY1完整版o1o1的完整版本
,相較之前在推理方面具有更快的速度和更優(yōu)的性能DAY3Sora在文生視頻的基礎(chǔ)上
,加入多種編輯工具
,同時(shí)支持生成20s視頻輸出及多種分辨率和格式DAY12o3
&o3
mini預(yù)告更強(qiáng)的推理模型
,在ARC-AGI測(cè)試中達(dá)到87.5%
,超過(guò)人類(lèi)閾值
,是o1的三倍請(qǐng)務(wù)必閱讀正文之后的免責(zé)聲明及其項(xiàng)下所有內(nèi)容Openai發(fā)布會(huì)——基礎(chǔ)模型資料來(lái)源:OpenAI
,國(guó)信證券經(jīng)濟(jì)研究所整理
強(qiáng)化微調(diào)技術(shù)
,提升垂直行業(yè)模型能力?用戶(hù)可以根據(jù)極少量的數(shù)據(jù)
,訓(xùn)練特定領(lǐng)域的專(zhuān)家模型。這意味著企業(yè)構(gòu)建定制化的AI模型
,不再需要大量的特定數(shù)據(jù)
集標(biāo)注。?定制化能力:相較于通用AI
,強(qiáng)化微調(diào)技術(shù)為企業(yè)提供了更靈活的定制化路徑。企業(yè)可以通過(guò)這一技術(shù)打造專(zhuān)屬的AI助
手
,在提高生產(chǎn)效率的同時(shí)
,提供更具個(gè)性化的服務(wù)
,從而有效地提升用戶(hù)體驗(yàn)。?例如
,個(gè)性化推薦、A
I診療系統(tǒng)、A
I審查工具等特定場(chǎng)景均都可以通過(guò)這一技術(shù)快速部署。表2:openai發(fā)布會(huì)微調(diào)部分發(fā)布日期發(fā)布產(chǎn)品產(chǎn)品描述DAY2強(qiáng)化微調(diào)使用較小的數(shù)據(jù)集即可在特定場(chǎng)景創(chuàng)建專(zhuān)家模型
,對(duì)科研領(lǐng)域幫助較大DAY9o1APIopenai
向第三方開(kāi)放調(diào)用o1API權(quán)限
,可支持函數(shù)調(diào)用、結(jié)構(gòu)化輸出、開(kāi)發(fā)者消息、視覺(jué)功能請(qǐng)務(wù)必閱讀正文之后的免責(zé)聲明及其項(xiàng)下所有內(nèi)容Openai發(fā)布會(huì)——微調(diào)資料來(lái)源:OpenAI
,國(guó)信證券經(jīng)濟(jì)研究所整理發(fā)布日期發(fā)布產(chǎn)品產(chǎn)品描述DAY4Canvas集智能寫(xiě)作、代碼協(xié)作于一身的a
i工作臺(tái)DAY5ChatGPT
×AppleIntelligenceApple
Intelligence對(duì)ChatGPT的深度整合
,在Siri、協(xié)作工具和相機(jī)控制方面增加與ChatGPT的集成DAY6高級(jí)語(yǔ)音模式將5月發(fā)布的實(shí)時(shí)視頻通話功能全量開(kāi)放DAY7Projects
inChatGPT允許用戶(hù)創(chuàng)建特定項(xiàng)目
,設(shè)置自定義指令
,并將相關(guān)對(duì)話集中DAY8ChatGPT搜索可在實(shí)時(shí)對(duì)話中調(diào)用搜索功能
,并支持多模態(tài)搜索DAY10通話訪問(wèn)模式用戶(hù)可通過(guò)撥打電話的方式與ChatGPT對(duì)話DAY11桌面應(yīng)用在MAC其他程序中可輕松調(diào)取ChatGPT
多款a
i智能體升級(jí)
,大幅提升用戶(hù)體驗(yàn)?發(fā)布會(huì)發(fā)布了集智能寫(xiě)作&代碼協(xié)作于一身的a
i工作臺(tái)、新的桌面應(yīng)用、高級(jí)語(yǔ)音模式、通話訪問(wèn)模式等多款aiagent產(chǎn)品
,標(biāo)志著ChatGPT從簡(jiǎn)單的會(huì)話助手向更強(qiáng)大的代理工具的轉(zhuǎn)變
,從而可以代表客戶(hù)執(zhí)行更多任務(wù)
,為用戶(hù)帶來(lái)全新的便捷體驗(yàn)。表3:openai發(fā)布會(huì)ai
agent部分請(qǐng)務(wù)必閱讀正文之后的免責(zé)聲明及其項(xiàng)下所有內(nèi)容Openai發(fā)布會(huì)——ai
agent資料來(lái)源:OpenAI
,國(guó)信證券經(jīng)濟(jì)研究所整理
正式發(fā)布完整版o1
,性能大幅提升?
在今年9月份
,
OpenAI發(fā)布o(jì)1-preview
,對(duì)模型的技術(shù)思路進(jìn)行了改進(jìn)
:將更多算力運(yùn)用于推理側(cè)
,
o1是使用大規(guī)模強(qiáng)化學(xué)習(xí)訓(xùn)練并使用思維
鏈進(jìn)行推理的系列模型。?
今年12月
,
OpenAI正式發(fā)布了o1完整版
,
o1完整版在數(shù)學(xué)、編程、博士階段科學(xué)問(wèn)題(困難問(wèn)題)
領(lǐng)域的性能遠(yuǎn)超GPT4o
,在科學(xué)問(wèn)題領(lǐng)域
超越人類(lèi)專(zhuān)家
,并在數(shù)學(xué)、編程領(lǐng)域的性能較o1-preview有了大幅提升。?
相較于o1-preview
,
OpenAI對(duì)o1進(jìn)行了使用體驗(yàn)方面的改進(jìn):
o1目前對(duì)于簡(jiǎn)單問(wèn)題能夠回答更加迅速
,
OpenAI測(cè)試目前o1較o1-preview重
大錯(cuò)誤率降低了34%
,速度提升50%。?目前o1已面向所有Plus訂閱用戶(hù)推出
,用于替代o1-preview
,并將上線后續(xù)推出的Pro訂閱。
圖1:o1在數(shù)學(xué)、編程領(lǐng)域能力有了極大提升請(qǐng)務(wù)必閱讀正文之后的免責(zé)聲明及其項(xiàng)下所有內(nèi)容DAY1:
完整版o1發(fā)布資料來(lái)源:OpenAI
,國(guó)信證券經(jīng)濟(jì)研究所整理
支持多模態(tài)
,
可處理模糊問(wèn)題?OpenAI對(duì)o1進(jìn)行了改進(jìn)
,
目前支持圖像、
文本兩種輸入方式。在演示中
,對(duì)于一張手繪的太空太陽(yáng)能驅(qū)動(dòng)的數(shù)據(jù)中心示意圖
,
o1估計(jì)出了其
散熱器表面積并解答了兩個(gè)問(wèn)題
:如何處理太陽(yáng)和深空環(huán)境
,
以及這里如何體現(xiàn)了熱力學(xué)第一定律
,整個(gè)推理過(guò)程僅需10秒鐘。?
在示例中
,
OpenAI故意省略了冷卻面板的溫度等關(guān)鍵數(shù)據(jù)
,用以測(cè)試o1在處理模糊問(wèn)題時(shí)的能力。示例中o1自行識(shí)別了關(guān)鍵參數(shù)缺失
,并選
擇了合理的溫度范圍進(jìn)行后續(xù)的推理
,輸出了合理結(jié)果。?OpenAI表示
,
o1未來(lái)還會(huì)添加網(wǎng)頁(yè)瀏覽、文件上傳等功能
,
以及引入API
,具體上線時(shí)間未知。請(qǐng)務(wù)必閱讀正文之后的免責(zé)聲明及其項(xiàng)下所有內(nèi)容DAY1:
完整版o1發(fā)布資料來(lái)源:OpenAI
,國(guó)信證券經(jīng)濟(jì)研究所整理資料來(lái)源:OpenAI
,國(guó)信證券經(jīng)濟(jì)研究所整理圖3:研究人員用手繪圖片測(cè)試o1性能圖4:o1根據(jù)手繪圖像準(zhǔn)確回答問(wèn)題
推出PRO訂閱?OpenAI發(fā)布最新訂閱選項(xiàng)ChatGPT
Pro
,定
價(jià)200美金/月
,在這個(gè)套餐里
,
OpenAI
提
供了o1
pro
mode
,這個(gè)模式中o1處理非常
難的題目時(shí)
,用戶(hù)可要求o1
pro獲得更多算
力
,并強(qiáng)化思考。
o1
pro
mode在數(shù)學(xué)、編
程、科學(xué)問(wèn)題領(lǐng)域性能較o1均有提升
,但重
點(diǎn)在于o1
pro
mode的連續(xù)性。?OpenAI設(shè)計(jì)了“
四次測(cè)試”評(píng)估
:模型需要
連續(xù)四次都答對(duì)同一個(gè)問(wèn)題才算通過(guò)。
在這
種條件下
,
o1
pro模式保持了相當(dāng)高的可靠
性
:在競(jìng)賽數(shù)學(xué)中達(dá)到80%
,編程測(cè)試中達(dá)
到74.9%
,
科學(xué)問(wèn)題中達(dá)到74.2%。
遠(yuǎn)超普
通版o1。這說(shuō)明o1
pro能提供更佳的穩(wěn)定性
和一致性
,
對(duì)于需要AI協(xié)助完成重要工作的
專(zhuān)業(yè)人士來(lái)說(shuō)能夠有更好的保障。?同時(shí)
,
ChatGPT
Pro訂閱計(jì)劃能無(wú)限制訪問(wèn)OpenAI
o1
,
以及o1-mini
、
GPT-4o和Advanced
Voice。請(qǐng)務(wù)必閱讀正文之后的免責(zé)聲明及其項(xiàng)下所有內(nèi)容資料來(lái)源:OpenAI
,國(guó)信證券經(jīng)濟(jì)研究所整理圖6:o1pro模型具有更強(qiáng)穩(wěn)定性,適用于專(zhuān)業(yè)領(lǐng)域DAY1:
完整版o1發(fā)布圖7:Pro訂閱可以解鎖o1Pro及其他權(quán)益圖5:o1pro模型較o1性能有全方位提升資料來(lái)源:OpenAI
,國(guó)信證券經(jīng)濟(jì)研究所整理資料來(lái)源:OpenAI
,國(guó)信證券經(jīng)濟(jì)研究所整理
o1pro擁有更強(qiáng)的推理能力?
在示例中
,
OpenAI的研究員要求o1找到一種符合六個(gè)標(biāo)準(zhǔn)的特定蛋白質(zhì)。這個(gè)問(wèn)題的挑戰(zhàn)在于
,需要模型回憶起相當(dāng)專(zhuān)業(yè)的化學(xué)領(lǐng)域知識(shí),
而對(duì)于任何給定的標(biāo)準(zhǔn)
,可能會(huì)有數(shù)十種蛋白質(zhì)符合該標(biāo)準(zhǔn)。所以模型必須全面考慮所有候選者
,然后檢查它們是否符合所有標(biāo)準(zhǔn)。?o1-preview在此問(wèn)題經(jīng)常出錯(cuò)
,而示例中o1
pro僅使用53秒便準(zhǔn)確回答了相關(guān)問(wèn)題
,并可查看詳細(xì)的思考過(guò)程。?
在思考困難問(wèn)題時(shí)
,
目前o1模型的思考時(shí)間可達(dá)幾分鐘
,
因此OpenAI為模型添加了思考進(jìn)度條
,
以直觀展示目前模型的進(jìn)程。請(qǐng)務(wù)必閱讀正文之后的免責(zé)聲明及其項(xiàng)下所有內(nèi)容DAY1:
完整版o1發(fā)布資料來(lái)源:OpenAI
,國(guó)信證券經(jīng)濟(jì)研究所整理資料來(lái)源:OpenAI
,國(guó)信證券經(jīng)濟(jì)研究所整理圖8:o1長(zhǎng)時(shí)間思考將顯示進(jìn)度圖9:o1可展示詳細(xì)思考進(jìn)度?強(qiáng)化微調(diào)可讓開(kāi)發(fā)者使用強(qiáng)化學(xué)習(xí)針對(duì)具體任務(wù)對(duì)模型進(jìn)行進(jìn)一步微調(diào)
,并根據(jù)提供的參考答案對(duì)模型的響應(yīng)進(jìn)行評(píng)分具體來(lái)
說(shuō)
,強(qiáng)化微調(diào)不僅會(huì)教模型模仿其輸入
,更是會(huì)讓其學(xué)會(huì)在特定領(lǐng)域以新的方式進(jìn)行推理。
當(dāng)模型發(fā)現(xiàn)問(wèn)題時(shí)
,要為它提供思
考問(wèn)題的空間
,然后再對(duì)模型給出的響應(yīng)進(jìn)行打分。之后
,利用強(qiáng)化學(xué)習(xí)的力量
,可以強(qiáng)化模型得到正確答案的思維方式并抑
制導(dǎo)向錯(cuò)誤答案的思維方式。
強(qiáng)化微調(diào)的優(yōu)勢(shì)??快速高效
:相比于傳統(tǒng)技術(shù)
,強(qiáng)化微調(diào)技術(shù)更高效
,不需要大規(guī)模的數(shù)據(jù)集支持。?使用靈活
:用戶(hù)可根據(jù)需求即時(shí)調(diào)整模型
,使模型更加符合特定場(chǎng)景需求。?應(yīng)用廣泛
:強(qiáng)化微調(diào)技術(shù)可以推動(dòng)客服、教育、創(chuàng)意、研究等各個(gè)領(lǐng)域的應(yīng)用。圖10:OpenA
I公布強(qiáng)化微調(diào)技術(shù)DAY2:
強(qiáng)化微調(diào)技術(shù)
什么是強(qiáng)化微調(diào)?請(qǐng)務(wù)必閱讀正文之后的免責(zé)聲明及其項(xiàng)下所有內(nèi)容資料來(lái)源:OpenAI官方推特,國(guó)信證券經(jīng)濟(jì)研究所整理
強(qiáng)化微調(diào)后在特定領(lǐng)域性能明顯提升?
在官方演示里
,
OpenAI設(shè)置了一個(gè)實(shí)驗(yàn)
:在給定癥狀列表的情況下
,用模型預(yù)測(cè)可能導(dǎo)致罕見(jiàn)遺傳疾病的基因
,并讓模型解釋為什么選這些基
因。實(shí)驗(yàn)人員使用三種模型進(jìn)行對(duì)比:
o1
mini、
o1完整版、
o1
mini強(qiáng)化微調(diào)版。?
對(duì)于o1
mini強(qiáng)化微調(diào)版
,實(shí)驗(yàn)人員匯集了大約1100個(gè)病例報(bào)告作為訓(xùn)練和驗(yàn)證的數(shù)據(jù)集
,在使用訓(xùn)練數(shù)據(jù)集對(duì)模型進(jìn)行訓(xùn)練后
,上傳驗(yàn)證數(shù)據(jù)
集對(duì)模型推理能力進(jìn)行反復(fù)測(cè)試和調(diào)整
,
同時(shí)保證驗(yàn)證數(shù)據(jù)集和訓(xùn)練數(shù)據(jù)集之間的正確基因沒(méi)有重疊
,
以防模型作弊。評(píng)估結(jié)果時(shí)
,實(shí)驗(yàn)人員設(shè)
置了三項(xiàng)指標(biāo):
1)模型一次答對(duì)的概率;
2)模型前五次預(yù)測(cè)中有正確答案的概率;
3)模型預(yù)測(cè)中有正確答案的概率。?
結(jié)果顯示
,經(jīng)過(guò)強(qiáng)化微調(diào)的o1
mini在一次答對(duì)的準(zhǔn)確率上躍升180%達(dá)到了31%
,各方面全面超越了o1。
強(qiáng)化微調(diào)技術(shù)將使開(kāi)發(fā)者能夠通過(guò)更
快、成本更低的o1
mini模型獲得超越o1的專(zhuān)業(yè)性能
,將極大促進(jìn)AI在各領(lǐng)域的應(yīng)用。請(qǐng)務(wù)必閱讀正文之后的免責(zé)聲明及其項(xiàng)下所有內(nèi)容DAY2:
強(qiáng)化微調(diào)技術(shù)資料來(lái)源:OpenAI
,國(guó)信證券經(jīng)濟(jì)研究所整理資料來(lái)源:OpenAI
,國(guó)信證券經(jīng)濟(jì)研究所整理圖11:強(qiáng)化微調(diào)后o1mini模型超越o1圖12:強(qiáng)化微調(diào)后o1mini性能評(píng)測(cè)
正式發(fā)布視頻大模型Sora?
文本/圖像生成視頻:
Sora用戶(hù)可以使用文本、
圖像來(lái)提示Sora生成相關(guān)視頻?時(shí)間線編輯
:全新推出的故事板工具讓用戶(hù)可以精準(zhǔn)地指定每個(gè)幀的輸入和生成視頻的內(nèi)容
,并輕松進(jìn)行視頻剪輯
,用戶(hù)指令越少
,
Sora會(huì)嘗試
填充更多細(xì)節(jié)
,用戶(hù)指令越詳細(xì)
,
Sora會(huì)嘗試遵循要求方向生成視頻。用戶(hù)可在Sora中保存自己喜歡的風(fēng)格
,并在后續(xù)視頻生成任務(wù)中重復(fù)調(diào)
用。?
高分辨率、
多種格式支持:
Sora可以生成480p-1080p分辨率、
5-20秒、寬屏、豎屏或方形的視頻。并且用戶(hù)可以利用資源進(jìn)行擴(kuò)展、
remix(用戶(hù)只需描述對(duì)視頻的更改
,
Sora將自行完成)和融合。對(duì)于同一指示
,
Sora可生成多個(gè)不同視頻方向的變體
,供用戶(hù)選擇。圖13:用戶(hù)可通過(guò)故事板工具直接描述生成相應(yīng)視頻請(qǐng)務(wù)必閱讀正文之后的免責(zé)聲明及其項(xiàng)下所有內(nèi)容DAY3:
視頻大模型Sora發(fā)布資料來(lái)源:OpenAI
,國(guó)信證券經(jīng)濟(jì)研究所整理
多種工具支持Sora?1)
Remix:使用Remix替換、刪除或重新構(gòu)想視頻中的元素;?2)
Re-cut:找到并提取最佳幀或視頻段落
,然后向任一方向延伸它們以完成特定場(chǎng)景
,例如可對(duì)之前生成的視頻進(jìn)行裁剪
,要求Sora生成全新
開(kāi)頭或結(jié)尾;?3)
Loop
:使用Loop剪輯并創(chuàng)建無(wú)限重復(fù)的視頻
,例如
:用戶(hù)喜歡燈塔視頻
,可使用Loop工具
,
Sora將自動(dòng)生成內(nèi)容將重復(fù)視頻的開(kāi)頭和結(jié)尾
連接
,生成可重復(fù)視頻;?
4)
Blend
:將兩個(gè)視頻合并為一個(gè)視頻
,給Sora兩個(gè)視頻場(chǎng)景
,
Sora會(huì)將其中元素合并生成全新視頻
,用戶(hù)可用指令提示Sora兩個(gè)視頻的合并
方向;?5)
Style
presets
:使用Presets創(chuàng)建和分享自己的視頻風(fēng)格。圖14:Sora定價(jià)
Sora定價(jià)?Sora目前已在歐洲和英國(guó)以外的其他地區(qū)上線,Plus用戶(hù)可獲得一個(gè)月生成50個(gè)優(yōu)先視頻的權(quán)限,Pro用戶(hù)可獲得無(wú)限生成權(quán)限,以及500次優(yōu)先生成權(quán)限。資料來(lái)源:OpenAI
,國(guó)信證券經(jīng)濟(jì)研究所整理請(qǐng)務(wù)必閱讀正文之后的免責(zé)聲明及其項(xiàng)下所有內(nèi)容DAY3:
視頻大模型Sora發(fā)布
正式發(fā)布Canvas協(xié)作平臺(tái)?Canvas全面開(kāi)放
,
已被整合進(jìn)ChatGPT中;?
提升了代碼功能
,用戶(hù)可以直接在Canvas上運(yùn)行Python代碼
,并可直觀看到代碼結(jié)果輸出;?Canvas目前可被CustomGPT調(diào)用圖15:Canvas工具目前已被整合進(jìn)ChatGPT中請(qǐng)務(wù)必閱讀正文之后的免責(zé)聲明及其項(xiàng)下所有內(nèi)容DAY4:
Canvas協(xié)作平臺(tái)發(fā)布資料來(lái)源:OpenAI
,國(guó)信證券經(jīng)濟(jì)研究所整理
Canvas主要功能?
用戶(hù)編輯文字:在使用Canvas工具后
,交互頁(yè)面將被分為兩部分
,左側(cè)為與模型的對(duì)話
,右側(cè)為用戶(hù)可直接編輯的文檔
,用戶(hù)可直接在Canvas工具中刪除、添加、修改ChatGPT回復(fù)的內(nèi)容
,
以及進(jìn)行加粗等格式調(diào)整。不論是寫(xiě)信、寫(xiě)公文還是論文
,這種新生成模式都可以大幅提升效率。
同時(shí)OpenAI在Canvas工具右下角集成了部分快捷工具
,用戶(hù)只需點(diǎn)擊即可實(shí)現(xiàn)包括詢(xún)問(wèn)模型反饋(
Suggest
edits)
、文檔長(zhǎng)度調(diào)整(
Adjustthe
length)
、語(yǔ)言風(fēng)格轉(zhuǎn)化(
Reading
level)
、文檔潤(rùn)色(Add
final
polish)
、添加表情(Add
emojis)這些用戶(hù)在處理文檔時(shí)的常用功能。?
審稿
:很多人使用ChatGPT幫助寫(xiě)作
,但以前一問(wèn)一答的形式非常繁瑣
,現(xiàn)在用戶(hù)只需要把文章復(fù)制粘貼到ChatGPT的文本框中
,通過(guò)文本輸
入讓其給出修改建議
,大模型給出的建議會(huì)以逐條批注的形式出現(xiàn)。用戶(hù)可在頁(yè)面中對(duì)應(yīng)位置看到ChatGPT給出的修改建議
,并決定是否根據(jù)批
注進(jìn)行潤(rùn)色
,之后關(guān)閉建議
,或者直接選擇Apply
,讓ChatGPT自行對(duì)內(nèi)容進(jìn)行修改。這使用戶(hù)可以更直觀的使用模型幫助自己審閱文章
,并給
出建議。請(qǐng)務(wù)必閱讀正文之后的免責(zé)聲明及其項(xiàng)下所有內(nèi)容DAY4:
Canvas協(xié)作平臺(tái)發(fā)布圖17:Canvas可讓用戶(hù)更直觀的看到ChatGPT對(duì)文章的修改建議圖16:Canvas可快捷實(shí)現(xiàn)對(duì)模型回復(fù)的修改資料來(lái)源:OpenAI
,國(guó)信證券經(jīng)濟(jì)研究所整理資料來(lái)源:OpenAI
,國(guó)信證券經(jīng)濟(jì)研究所整理
Canvas主要功能?
編程:
Canvas可以直接識(shí)別代碼
,并轉(zhuǎn)變成為代碼編輯模式。
用戶(hù)還可以在Canvas上直接運(yùn)行測(cè)試
,
以及錯(cuò)誤識(shí)別和修改錯(cuò)誤的建議。
用戶(hù)想
要Debug時(shí)
,可直接代碼復(fù)制到ChatGPT上
,
即可讓模型解釋問(wèn)題
,給出正確代碼的示例。如果在ChatGPT上點(diǎn)運(yùn)行代碼出錯(cuò)了
,還可以使用A
I給出的comment
,與文本編輯內(nèi)容類(lèi)似
,如果用戶(hù)點(diǎn)擊Fix
Bug按鈕
,
ChatGPT可自行對(duì)Bug進(jìn)行修改
,修改的位置可以高亮顯示。?引入CustomGPT:
CustomGPT允許用戶(hù)根據(jù)自己的需求和偏好定制GPT模型
,通過(guò)給予GPT自定義指令以及自定義上下文等方法
,使其更好
地適應(yīng)特定的應(yīng)用場(chǎng)景或任務(wù)
,并支持將模型與他人分享
,使用GPT
Store平臺(tái)
,用戶(hù)可快速瀏覽、購(gòu)買(mǎi)、下載和使用由OpenAI或第三方開(kāi)發(fā)
的定制GPT模型和插件。圖17:Canvas可直接進(jìn)行代碼修改、運(yùn)行等功能
圖18:CustomGPT可對(duì)模型進(jìn)行自定義請(qǐng)務(wù)必閱讀正文之后的免責(zé)聲明及其項(xiàng)下所有內(nèi)容DAY4:
Canvas協(xié)作平臺(tái)發(fā)布資料來(lái)源:OpenAI
,國(guó)信證券經(jīng)濟(jì)研究所整理資料來(lái)源:OpenAI
,國(guó)信證券經(jīng)濟(jì)研究所整理
Day5,蘋(píng)果公司發(fā)布了其iPhone、
iPad和Mac軟件的更新(iOS和iPadOS
18.2)
,將ChatGPT進(jìn)一步嵌入蘋(píng)果系統(tǒng)當(dāng)中
,此次更新包括在Siri、寫(xiě)作工具和視覺(jué)智能中與ChatGPT的集成。
據(jù)彭博社消息,
ChatGPT在回答問(wèn)題時(shí)的準(zhǔn)確率比Siri高出25%
,且能回答30%更多的問(wèn)題,
蘋(píng)果選擇與OpenAI合作
,將ChatGPT整合進(jìn)iOS、
iPadOS和macOS系統(tǒng)將極大提升其智能體驗(yàn)。
目前
,在iPhone、
Mac、
iPad等設(shè)備中
,新版的蘋(píng)果智能已經(jīng)包含ChatGPT拓展功能,
用戶(hù)可在設(shè)置中自行選擇是否調(diào)用
ChatGPT。圖19:ChatGPT已集成在App
le
intelligence中DAY5:
Chatgpt進(jìn)一步集成到Apple生態(tài)系統(tǒng)請(qǐng)務(wù)必閱讀正文之后的免責(zé)聲明及其項(xiàng)下所有內(nèi)容資料來(lái)源:OpenAI
,國(guó)信證券經(jīng)濟(jì)研究所整理
增強(qiáng)版高級(jí)語(yǔ)音模式?
增強(qiáng)版高級(jí)語(yǔ)言模式具備屏幕共享和視覺(jué)功能
,
ChatGPT可以協(xié)助理解手機(jī)攝像頭以及屏幕上所查看的內(nèi)容。這些功能在高級(jí)語(yǔ)音模式已有的基
礎(chǔ)上進(jìn)一步增強(qiáng)
,
目前ChatGPT支持像人類(lèi)的自然對(duì)話對(duì)話
,
同時(shí)對(duì)話可以被中斷
,具有多輪交互
,并理解非線性的思維過(guò)程。?
實(shí)時(shí)視頻通話:
用戶(hù)現(xiàn)在可以使用視頻與ChatGPT進(jìn)行交流
,
這使得溝通更加直觀和生動(dòng)
。
在官方展示案例中
,
OpenAI的工作人員通過(guò)ChatGPT的視頻功能現(xiàn)場(chǎng)獲取了如何制作一杯咖啡的指引。
當(dāng)演示者按照步驟操作時(shí)
,
ChatGPT會(huì)同時(shí)口頭提供見(jiàn)解和指導(dǎo)。?
實(shí)時(shí)屏幕共享:用戶(hù)可以將自己的屏幕內(nèi)容分享給ChatGPT
,
以獲取ChatGPT提供的技術(shù)支持或協(xié)助處理屏幕內(nèi)容。在官方演示中
,
OpenAI的
工作人員通過(guò)與ChatGPT共享屏幕
,獲得了關(guān)于如何回復(fù)其消息的建議。請(qǐng)務(wù)必閱讀正文之后的免責(zé)聲明及其項(xiàng)下所有內(nèi)容DAY6:
增強(qiáng)版高級(jí)語(yǔ)音模式發(fā)布圖21:增強(qiáng)版高級(jí)語(yǔ)音功能支持屏幕共享圖20:增強(qiáng)版高級(jí)語(yǔ)音功能支持視頻交互資料來(lái)源:OpenAI
,國(guó)信證券經(jīng)濟(jì)研究所整理資料來(lái)源:OpenAI
,國(guó)信證券經(jīng)濟(jì)研究所整理?
可以將ChatGPT的各種功能整合至一處
,便于用戶(hù)創(chuàng)建并管理各類(lèi)項(xiàng)目
,不僅支持Canvas界面
,還能通過(guò)ChatGPT
Search輕松接入互聯(lián)網(wǎng)資源。?
分項(xiàng)目管理ChatGPT:
Projects賦予用戶(hù)將聊天與數(shù)據(jù)分組的能力
,從而使用戶(hù)能夠依據(jù)自身需求更加便捷地定制ChatGPT。在創(chuàng)建Projects的
過(guò)程中
,用戶(hù)可以在界面內(nèi)設(shè)定標(biāo)題、
自定義文件夾的顏色、上傳與項(xiàng)目相關(guān)的文件
,并編寫(xiě)說(shuō)明來(lái)指導(dǎo)ChatGPT如何最高效地協(xié)助用戶(hù)完成項(xiàng)
目。在項(xiàng)目?jī)?nèi)部
,用戶(hù)可以即刻開(kāi)啟聊天
,并通過(guò)側(cè)邊欄輕松地將過(guò)往的聊天記錄添加到項(xiàng)目中
,
同樣支持利用上下文信息來(lái)回答問(wèn)題。聊天內(nèi)
容能夠保存在項(xiàng)目中
,便于支持用戶(hù)稍后繼續(xù)對(duì)話
,并清楚地知道在哪里查找所需內(nèi)容。DAY7:
Projects對(duì)話管理工具上
Projectsin
ChatGPT請(qǐng)務(wù)必閱讀正文之后的免責(zé)聲明及其項(xiàng)下所有內(nèi)容圖23:Projects自動(dòng)啟動(dòng)Canvas并生成郵件資料來(lái)源:OpenAI
,國(guó)信證券經(jīng)濟(jì)研究所整理資料來(lái)源:OpenAI
,國(guó)信證券經(jīng)濟(jì)研究所整理圖22:用戶(hù)可根據(jù)自身需求創(chuàng)建項(xiàng)目
搜索功能全新升級(jí)?
全方位體驗(yàn)升級(jí):用戶(hù)現(xiàn)在可以直接訪問(wèn)嵌入式Y(jié)ouTube視頻、
圖片、
電影資源
,還能便捷地使用商業(yè)地圖和餐廳導(dǎo)航。在官方演示中
,演示者
只需與ChatGPT自然對(duì)話
,
ChatGPT便可自行判斷是否需要調(diào)用ChatGPT
search
,
同時(shí)
,
用戶(hù)也可以選擇開(kāi)啟ChatGPT
search功能
。ChatGPT
search將自動(dòng)根據(jù)要求總結(jié)網(wǎng)頁(yè)內(nèi)容
,并允許用戶(hù)追溯網(wǎng)站來(lái)源。?
移動(dòng)設(shè)備的優(yōu)化體驗(yàn):針對(duì)移動(dòng)設(shè)備
,
OpenAI根據(jù)用戶(hù)反饋優(yōu)化了聊天搜索的體驗(yàn)。在官方演示中
,演示者搜索了Mission附近的墨西哥餐廳
,ChatGPT
search可自行進(jìn)行篩選
,并展示了路線、
網(wǎng)站、
電話和營(yíng)業(yè)時(shí)間等詳細(xì)信息。用戶(hù)可進(jìn)一步提問(wèn)哪些餐廳支持室外用餐
,
ChatGPTsearch可自行進(jìn)行下一步篩選
,并列示符合要求的選項(xiàng)
,用戶(hù)可點(diǎn)擊商家地址
,
即可調(diào)用蘋(píng)果地圖規(guī)劃路線。?
在Advance
Voice模式中集成
:可以在高級(jí)語(yǔ)音模式中使用搜索
,通過(guò)語(yǔ)音命令訪問(wèn)最新的網(wǎng)絡(luò)信息
,增強(qiáng)了ChatGPT的交互性和便利性。在
官方演示中
,演示者通過(guò)語(yǔ)音向ChatGPT提問(wèn)在12月23日蘇黎世有什么活動(dòng)
,
ChatGPT可在搜索后語(yǔ)音進(jìn)行回復(fù)
,并支持用戶(hù)對(duì)感興趣的活動(dòng)
進(jìn)一步提問(wèn)
,如舉辦時(shí)間、地點(diǎn)、活動(dòng)舉辦當(dāng)天的天氣等。請(qǐng)務(wù)必閱讀正文之后的免責(zé)聲明及其項(xiàng)下所有內(nèi)容DAY8:
ChatGPT搜索功能更新圖24:用戶(hù)可在ChatGPT網(wǎng)站中直接播放來(lái)自YouTube的視頻圖25:通過(guò)ChatGPT
search調(diào)用蘋(píng)果地圖資料來(lái)源:OpenAI
,國(guó)信證券經(jīng)濟(jì)研究所整理資料來(lái)源:OpenAI
,國(guó)信證券經(jīng)濟(jì)研究所整理?Function
calling
:允許開(kāi)發(fā)者將外部API和數(shù)據(jù)庫(kù)連接到o1模型;?Structured
Outputs
:確保模型輸出遵循開(kāi)發(fā)者定義的JSON模式
,使解析和使用模型輸出更加容易;?Developer
messages
:為模型指定指令
,例如定義語(yǔ)氣、風(fēng)格及其他行為;?
Vision
capabilities
:支持對(duì)圖像進(jìn)行推理
,解鎖科學(xué)、制造或編碼等領(lǐng)域中更多依賴(lài)視覺(jué)輸入的應(yīng)用;?Lower
latency:
o1在每個(gè)請(qǐng)求中平均使用比o1-preview少用60%的推理tokens;?Reasoning_effort:一個(gè)全新參數(shù)
,允許開(kāi)發(fā)者控制模型在回答前思考的時(shí)間長(zhǎng)度。DAY9:
o1正式版API全面上線
o1API全面開(kāi)放請(qǐng)務(wù)必閱讀正文之后的免責(zé)聲明及其項(xiàng)下所有內(nèi)容圖26:開(kāi)發(fā)者可調(diào)用o1API尋找文檔中的錯(cuò)誤資料來(lái)源:OpenAI
,國(guó)信證券經(jīng)濟(jì)研究所整理資料來(lái)源:OpenAI
,國(guó)信證券經(jīng)濟(jì)研究所整理圖27:模型通過(guò)自定義格式輸出信息
o1在各領(lǐng)域性能顯著提升?
現(xiàn)場(chǎng)展示了對(duì)o1API調(diào)用的測(cè)試結(jié)果
,
o1在函數(shù)調(diào)用、
內(nèi)部結(jié)構(gòu)化輸出、數(shù)學(xué)、編程等領(lǐng)域均達(dá)到了目前所有模型的最高準(zhǔn)確度。?
在數(shù)學(xué)領(lǐng)域
,
OpenAI測(cè)試了經(jīng)過(guò)自定義輸出結(jié)果的o1模型(
o1with
Structured
Outputs)
,結(jié)果顯示其仍能保持極高的準(zhǔn)確度
,
因此開(kāi)發(fā)者
對(duì)模型進(jìn)行自定義調(diào)整后
,模型仍能夠保持其性能。圖28:o1在函數(shù)調(diào)用領(lǐng)域準(zhǔn)確度明顯高于GPT4o圖29:o1在內(nèi)部結(jié)構(gòu)化輸出領(lǐng)域準(zhǔn)確度明顯高于GPT4o圖30:o1在編程領(lǐng)域準(zhǔn)確度明顯高于GPT4o圖31:o1在數(shù)學(xué)試題場(chǎng)景準(zhǔn)確度明顯高于GPT4o請(qǐng)務(wù)必閱讀正文之后的免責(zé)聲明及其項(xiàng)下所有內(nèi)容DAY9:
o1正式版API全面上線資料來(lái)源:OpenAI
,國(guó)信證券經(jīng)濟(jì)研究所整理
實(shí)時(shí)API集成Web
RTC(網(wǎng)頁(yè)實(shí)時(shí)通信)?
實(shí)時(shí)API現(xiàn)在支持Web
RTC
,這將簡(jiǎn)化實(shí)時(shí)語(yǔ)音體驗(yàn)的構(gòu)建
,使得在各類(lèi)平臺(tái)(包括基于瀏覽器的應(yīng)用、移動(dòng)客戶(hù)端、物聯(lián)網(wǎng)設(shè)備或直接的服務(wù)
器到服務(wù)器部署)
上構(gòu)建和擴(kuò)展實(shí)時(shí)語(yǔ)音產(chǎn)品更加容易。
通過(guò)Web
RTC
,
現(xiàn)在只需幾行Javascript代碼
,
開(kāi)發(fā)者就能為應(yīng)用添加實(shí)時(shí)功能。Web
RTC提供了許多優(yōu)勢(shì)
,例如更好的網(wǎng)絡(luò)適應(yīng)性、
回聲消除和更簡(jiǎn)單的代碼實(shí)現(xiàn)。
以及將GPT-4o音頻價(jià)格降低60%
,
同時(shí)將Realtime
API測(cè)
試版中引入GPT-4o
mini。?
在官方演示中
,演示者只需極短的代碼
,就可以在網(wǎng)頁(yè)端構(gòu)建一個(gè)語(yǔ)音助手。
同時(shí)
,僅需將網(wǎng)頁(yè)端與帶有音頻交互功能的玩具連接
,就可實(shí)現(xiàn)玩
具的語(yǔ)音交互功能。演示者提到
,后續(xù)開(kāi)發(fā)者可自行將Realtime交互的應(yīng)用場(chǎng)景擴(kuò)展到可穿戴設(shè)備、攝影等領(lǐng)域。圖32:開(kāi)發(fā)者只需幾行代碼就可以調(diào)用Realtime
API
圖33:開(kāi)發(fā)者只需幾行代碼就可以構(gòu)建網(wǎng)頁(yè)端語(yǔ)音助手請(qǐng)務(wù)必閱讀正文之后的免責(zé)聲明及其項(xiàng)下所有內(nèi)容DAY9:
o1正式版API全面上線資料來(lái)源:OpenAI
,國(guó)信證券經(jīng)濟(jì)研究所整理資料來(lái)源:OpenAI
,國(guó)信證券經(jīng)濟(jì)研究所整理
新微調(diào)方法Preference
Fine-Tuning?
偏好微調(diào)允許開(kāi)發(fā)者通過(guò)提供成對(duì)的響應(yīng)來(lái)訓(xùn)練模型
,其中一個(gè)響應(yīng)比另一個(gè)響應(yīng)更受歡迎
,模型可自行學(xué)習(xí)
,并減少不受歡迎的輸出結(jié)果。與
監(jiān)督微調(diào)(提供確切的輸入和輸出)不同
,偏好微調(diào)側(cè)重于優(yōu)化模型以捕獲用戶(hù)偏好中的細(xì)微差別。通過(guò)微調(diào)
,開(kāi)發(fā)者可以利用自己的數(shù)據(jù)集對(duì)
模型進(jìn)行訓(xùn)練
,從而提高模型在特定場(chǎng)景下的性能和準(zhǔn)確性。?
在官方演示中
,演示者提到Rogo
AI正通過(guò)偏好微調(diào)在構(gòu)建一款面向金融分析師的AI助手
,偏好微調(diào)使模型能夠更準(zhǔn)確的響應(yīng)準(zhǔn)確性從75%提升
至80%以上
,而監(jiān)督微調(diào)則無(wú)法達(dá)到準(zhǔn)確性提升的效果。圖34:偏好微調(diào)允許模型學(xué)習(xí)更受歡迎的響應(yīng)請(qǐng)務(wù)必閱讀正文之后的免責(zé)聲明及其項(xiàng)下所有內(nèi)容DAY9:
o1正式版API全面上線資料來(lái)源:OpenAI
,國(guó)信證券經(jīng)濟(jì)研究所整理
通話訪問(wèn)模式?
ChatGPT通話開(kāi)放:
目前美國(guó)用戶(hù)可通過(guò)電話與ChatGPT溝通
,具體號(hào)碼為:
1-800-242-8478
,用戶(hù)可將其添加為手機(jī)聯(lián)系人
,通話會(huì)被審
查以確保安全。在官方演示中
,演示者通過(guò)直接撥入電話的方式接入ChatGPT
,并提問(wèn)在舊金山的280號(hào)洲際公路上看到的圓頂房子是什么
,ChatGPT準(zhǔn)確回復(fù)房子的名字
,并進(jìn)行了簡(jiǎn)短介紹
,
同時(shí)支持用戶(hù)對(duì)問(wèn)題進(jìn)行進(jìn)一步溝通。用戶(hù)可以通過(guò)任何設(shè)備撥號(hào)連接ChatGPT
,包括非
智能手機(jī)、
固定電話等
,這意味著老年人也可以通過(guò)其老年機(jī)接入ChatGPT
,并獲得相應(yīng)回復(fù)。?
WhatsApp聊天
:全球范圍內(nèi)
,用戶(hù)可在WhatsApp上與ChatGPT聊天
,用戶(hù)可以像與聯(lián)系人中的任何人一樣
,通過(guò)文本輸入問(wèn)題
,
即可獲得
基于4o-mini模型生成的回復(fù)。在官方演示中
,演示者通過(guò)WhatsApp詢(xún)問(wèn)ChatGPT意面香蒜醬的制作方法
,
ChatGPT可生成詳細(xì)的制作方法
,
包括原材料、制作步驟等。
同時(shí)
,
ChatGPT能根據(jù)用戶(hù)的不同要求(如素食、特定飲食偏好等)更新食譜
,并回復(fù)相應(yīng)配菜建議。請(qǐng)務(wù)必閱讀正文之后的免責(zé)聲明及其項(xiàng)下所有內(nèi)容DAY10:
ChatGPT通話訪問(wèn)模式圖35:使用者可將ChatGPT添加到聯(lián)系人,并電話接入圖36:用戶(hù)可在WhatsApp中與ChatGPT直接聊天資料來(lái)源:OpenAI
,國(guó)信證券經(jīng)濟(jì)研究所整理資料來(lái)源:OpenAI
,國(guó)信證券經(jīng)濟(jì)研究所整理?MacOS桌面應(yīng)用更新:
輕量級(jí)且資源占用少
,
擁有單獨(dú)窗口
,應(yīng)用時(shí)無(wú)需在不同的應(yīng)用程序、
窗口之間切換。
用
戶(hù)可通過(guò)快捷鍵快速調(diào)用ChatGPT
,
同時(shí)在對(duì)話窗口下方
,
用戶(hù)可點(diǎn)擊使用應(yīng)用程序的選項(xiàng)
,
ChatGPT可自動(dòng)提
取已完成的工作進(jìn)度
,
用戶(hù)無(wú)需上傳任何信息即可與ChatGPT進(jìn)行交互。?
在官方演示中
,
演示者通過(guò)ChatGPT與正在運(yùn)行的應(yīng)用程序Warp進(jìn)行協(xié)同
,
用戶(hù)可直接向ChatGPT提問(wèn)編寫(xiě)分
析每日指令數(shù)量的代碼
,
ChatGPT編寫(xiě)完成后
,
只需粘貼至相應(yīng)應(yīng)用中即可。
同時(shí)
,
支持用戶(hù)在原有生成數(shù)據(jù)的
基礎(chǔ)上進(jìn)一步下達(dá)指令
,例如生成可視化圖表等。請(qǐng)務(wù)必閱讀正文之后的免責(zé)聲明及其項(xiàng)下所有內(nèi)容DAY11:
桌面應(yīng)用新功能圖37:使用者可通過(guò)ChatGPT與正在運(yùn)行的應(yīng)用協(xié)同資料來(lái)源:OpenAI
,國(guó)信證券經(jīng)濟(jì)研究所整理資料來(lái)源:OpenAI
,國(guó)信證券經(jīng)濟(jì)研究所整理圖38:ChatGPT與Warp協(xié)同
強(qiáng)大的數(shù)學(xué)和編程能力?
編程能力:
o3在編程方面相較o1大幅提升。在SWE-bench
Verified基準(zhǔn)測(cè)試中
,
o3的準(zhǔn)確率達(dá)到了71.7%
,
比前輩o1高出20%以上。這意味
著
,
o3在編寫(xiě)高質(zhì)量代碼方面
,
已經(jīng)超過(guò)了大多數(shù)軟件工程師。?
數(shù)學(xué)能力:在AI
EM
2024
,
o3幾乎拿到了滿(mǎn)分
,這是AI在AI
EM數(shù)學(xué)競(jìng)賽中取得的最好成績(jī)。
此外
,在GPQA
Diamond博士級(jí)科學(xué)考試中
,
o3
的準(zhǔn)確率達(dá)到了87.7%
,
比o1高出近10%。這表明
,
o3在處理復(fù)雜數(shù)學(xué)問(wèn)題時(shí)
,
已經(jīng)達(dá)到了頂尖水平。請(qǐng)務(wù)必閱讀正文之后的免責(zé)聲明及其項(xiàng)下所有內(nèi)容DAY12:
全新o3模型亮相資料來(lái)源:OpenAI
,國(guó)信證券經(jīng)濟(jì)研究所整理資料來(lái)源:OpenAI
,國(guó)信證券經(jīng)濟(jì)研究所整理圖40:o3在數(shù)學(xué)方面性能圖39:o3在編程方面性能
推理能力里程碑式突破?o3在ARC-AGI基準(zhǔn)測(cè)試中的表現(xiàn)尤為突出
,達(dá)到了87.5%的準(zhǔn)確率
,遠(yuǎn)超人類(lèi)的85%閾值。ARC-AGI基準(zhǔn)測(cè)試旨在評(píng)估AI系統(tǒng)的抽象和推理能
力
,要求AI識(shí)別模式并解決新問(wèn)題。
o3實(shí)現(xiàn)了AI領(lǐng)域第一次超越人類(lèi)的成績(jī)
,完成了里程碑式的突破。圖41:o3在ARC-AGI測(cè)試表現(xiàn)請(qǐng)務(wù)必閱讀正文之后的免責(zé)聲明及其項(xiàng)下所有內(nèi)容DAY12:
全新o3模型亮相資料來(lái)源:OpenAI
,國(guó)信證券經(jīng)濟(jì)研究所整理
o3
mini模型?o3
Mini是
o3系列中的高效推理模型
,適用于任何需要數(shù)學(xué)和編碼能力的人。
由于成本低
,
o3
Mini可能會(huì)在全球范圍內(nèi)開(kāi)放使用。
o3
Mini支持低中高三種不同的推理時(shí)間選項(xiàng)
,可以根據(jù)自己的使用情況自由調(diào)整模型的推理時(shí)間。?
編程能力
:支持自適應(yīng)推理時(shí)間
,低中位數(shù)推理時(shí)間下代碼性能優(yōu)于o1
Mini
,在速度和成本方面出色。?
數(shù)學(xué)能力
:在AIME
2024測(cè)試中
,低推理選項(xiàng)與o1
Mini和o3
Mini性能相當(dāng)
,
中位數(shù)推理時(shí)間性能更好
,高推理可進(jìn)一步提升;延遲大幅減
少
,支持函數(shù)調(diào)用等功能
,性能優(yōu)于多數(shù)模型。圖42:o3mini在數(shù)學(xué)方面性能請(qǐng)務(wù)必閱讀正文之后的免責(zé)聲明及其項(xiàng)下所有內(nèi)容DAY12:
全新o3模型亮相資料來(lái)源:OpenAI
,國(guó)信證券經(jīng)濟(jì)研究所整理?
OpenAI為o3引入了協(xié)商對(duì)齊(de
liberative
alignment)
的安全評(píng)估方法。這種方法可以讓模型在回答問(wèn)題前明確回憶安全規(guī)范并準(zhǔn)確執(zhí)行推
理
,從而確保o3的行為符合OpenAI的安全政策
,使其保持良好的行為規(guī)范。
發(fā)布計(jì)劃?目前
,
o3還處于早期訪問(wèn)階段
,僅對(duì)部分安全研究人員開(kāi)放。?OpenAI計(jì)劃在2024年1月底推出o3-miniDAY12:
全新o3模型亮相
安全性請(qǐng)務(wù)必閱讀正文之后的免責(zé)聲明及其項(xiàng)下所有內(nèi)容 Open
a
i
12天發(fā)布會(huì)
風(fēng)險(xiǎn)提示請(qǐng)務(wù)必閱讀
溫馨提示
- 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶(hù)所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶(hù)上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶(hù)上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶(hù)因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。
最新文檔
- 現(xiàn)代熱風(fēng)系統(tǒng)在醫(yī)療設(shè)備中的應(yīng)用案例
- 現(xiàn)代口腔門(mén)診的通風(fēng)與空氣質(zhì)量設(shè)計(jì)
- 烘焙坊經(jīng)營(yíng)中的供應(yīng)鏈優(yōu)化
- 現(xiàn)代科技助力教育普及與均衡發(fā)展
- 環(huán)境友好的商業(yè)產(chǎn)品設(shè)計(jì)案例分享
- 10《雨和雪》 說(shuō)課稿-2024-2025學(xué)年科學(xué)六年級(jí)上冊(cè)人教鄂教版
- 2023三年級(jí)數(shù)學(xué)上冊(cè) 五 解決問(wèn)題的策略練習(xí)十(2)說(shuō)課稿 蘇教版
- 2024-2025學(xué)年高中歷史 專(zhuān)題二 近代中國(guó)資本主義的曲折發(fā)展 2.2 民國(guó)時(shí)期民族工業(yè)的曲折發(fā)展說(shuō)課稿1 人民版必修2
- 《11 剪紙花邊》 說(shuō)課稿-2024-2025學(xué)年科學(xué)一年級(jí)上冊(cè)湘科版
- 12在天晴了的時(shí)候(說(shuō)課稿)-2024-2025學(xué)年語(yǔ)文四年級(jí)下冊(cè)統(tǒng)編版
- 沈陽(yáng)市第一屆“舒心傳技 莘紳向陽(yáng)”職業(yè)技能大賽技術(shù)工作文件-27-全媒體運(yùn)營(yíng)師
- 安全生產(chǎn)網(wǎng)格員培訓(xùn)
- 統(tǒng)編版語(yǔ)文三年級(jí)下冊(cè)第三單元綜合性學(xué)習(xí)中華傳統(tǒng)節(jié)日 活動(dòng)設(shè)計(jì)
- 2024年山東泰安市泰山財(cái)金投資集團(tuán)有限公司招聘筆試參考題庫(kù)含答案解析
- GB/T 16818-2008中、短程光電測(cè)距規(guī)范
- (七圣)七圣娘娘簽詩(shī)
- 內(nèi)鏡下粘膜剝離術(shù)(ESD)護(hù)理要點(diǎn)及健康教育
- 新媒體文案創(chuàng)作與傳播精品課件(完整版)
- 2022年全省百萬(wàn)城鄉(xiāng)建設(shè)職工職業(yè)技能競(jìng)賽暨“華衍杯”江蘇省第三屆供水安全知識(shí)競(jìng)賽題庫(kù)
- 廣西北海LNG儲(chǔ)罐保冷施工方案
- 產(chǎn)業(yè)園工程施工組織設(shè)計(jì)(技術(shù)標(biāo)近200頁(yè))
評(píng)論
0/150
提交評(píng)論