【國(guó)信證券】人工智能專(zhuān)題:Openai發(fā)布會(huì)梳理_第1頁(yè)
【國(guó)信證券】人工智能專(zhuān)題:Openai發(fā)布會(huì)梳理_第2頁(yè)
【國(guó)信證券】人工智能專(zhuān)題:Openai發(fā)布會(huì)梳理_第3頁(yè)
【國(guó)信證券】人工智能專(zhuān)題:Openai發(fā)布會(huì)梳理_第4頁(yè)
【國(guó)信證券】人工智能專(zhuān)題:Openai發(fā)布會(huì)梳理_第5頁(yè)
已閱讀5頁(yè),還剩29頁(yè)未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說(shuō)明:本文檔由用戶(hù)提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

人工智能專(zhuān)題:

Opena

i發(fā)布會(huì)梳理證券研究報(bào)告

|

2024年12月23日行業(yè)研究

·

行業(yè)專(zhuān)題

投資評(píng)級(jí):優(yōu)于大市(維持)請(qǐng)務(wù)必閱讀正文之后的免責(zé)聲明及其項(xiàng)下所有內(nèi)容OpenAI從12月5日連續(xù)12個(gè)工作日每天公布一個(gè)新應(yīng)用或功能。1

)DAY1:發(fā)布完整版o1;2

)DAY2

:發(fā)布強(qiáng)化微調(diào)技術(shù);3

)DAY3

:發(fā)布視頻大模型Sora;4

)DAY4

:發(fā)布協(xié)作平臺(tái)Canvas;5

)DAY5

:發(fā)布ChatGPT

×Apple

Intelligence;6)DAY6

:發(fā)布高級(jí)語(yǔ)音模式;7

)DAY7

:發(fā)布Projects

in

ChatGPT;8)DAY8

:發(fā)布ChatGPT搜索;9

)DAY9

:發(fā)布o(jì)1API;10)

DAY10

:發(fā)布通話訪問(wèn)模式;11)

DAY11

:發(fā)布全新桌面應(yīng)用;12)

DAY12

:發(fā)布新一代推理模型o3&o3mini。請(qǐng)務(wù)必閱讀正文之后的免責(zé)聲明及其項(xiàng)下所有內(nèi)容?風(fēng)險(xiǎn)提示:A

I應(yīng)用落地不及預(yù)期、行業(yè)競(jìng)爭(zhēng)加劇、大模型研發(fā)不及預(yù)期。摘要 Open

a

i

12天發(fā)布會(huì)

風(fēng)險(xiǎn)提示請(qǐng)務(wù)必閱讀正文之后的免責(zé)聲明及其項(xiàng)下所有內(nèi)容0201目錄

發(fā)布三大基礎(chǔ)模型

,模型性能跨越式提升?12天的發(fā)布會(huì)中

OpenAI推出了三款基礎(chǔ)模型

,分別是增強(qiáng)的ChatGPT

o1模型、

Sora視頻生成模型、

o3模型,新的模型在數(shù)學(xué)和科學(xué)領(lǐng)域均有

著卓越表現(xiàn)

,

同時(shí)也意味著openai在推理能力方面邁出了重要一步。?o3模型的發(fā)布

,更是標(biāo)志著AI在編程、科學(xué)推理等領(lǐng)域的巨大進(jìn)步。

o3模型接近通用人工智能(AGI)

的標(biāo)準(zhǔn)

,為復(fù)雜決策和高端問(wèn)題解決提供

了新的技術(shù)基礎(chǔ)。?Sora的發(fā)布將極大降低內(nèi)容創(chuàng)作的成本和時(shí)間。

為營(yíng)銷(xiāo)、培訓(xùn)、市場(chǎng)等各領(lǐng)域提供AI生成的高質(zhì)量視頻

,有望成為企業(yè)未來(lái)內(nèi)容創(chuàng)作的新標(biāo)準(zhǔn)。表1:openai

發(fā)布會(huì)基礎(chǔ)模型部分發(fā)布日期發(fā)布產(chǎn)品產(chǎn)品描述DAY1完整版o1o1的完整版本

,相較之前在推理方面具有更快的速度和更優(yōu)的性能DAY3Sora在文生視頻的基礎(chǔ)上

,加入多種編輯工具

,同時(shí)支持生成20s視頻輸出及多種分辨率和格式DAY12o3

&o3

mini預(yù)告更強(qiáng)的推理模型

,在ARC-AGI測(cè)試中達(dá)到87.5%

,超過(guò)人類(lèi)閾值

,是o1的三倍請(qǐng)務(wù)必閱讀正文之后的免責(zé)聲明及其項(xiàng)下所有內(nèi)容Openai發(fā)布會(huì)——基礎(chǔ)模型資料來(lái)源:OpenAI

,國(guó)信證券經(jīng)濟(jì)研究所整理

強(qiáng)化微調(diào)技術(shù)

,提升垂直行業(yè)模型能力?用戶(hù)可以根據(jù)極少量的數(shù)據(jù)

,訓(xùn)練特定領(lǐng)域的專(zhuān)家模型。這意味著企業(yè)構(gòu)建定制化的AI模型

,不再需要大量的特定數(shù)據(jù)

集標(biāo)注。?定制化能力:相較于通用AI

,強(qiáng)化微調(diào)技術(shù)為企業(yè)提供了更靈活的定制化路徑。企業(yè)可以通過(guò)這一技術(shù)打造專(zhuān)屬的AI助

,在提高生產(chǎn)效率的同時(shí)

,提供更具個(gè)性化的服務(wù)

,從而有效地提升用戶(hù)體驗(yàn)。?例如

,個(gè)性化推薦、A

I診療系統(tǒng)、A

I審查工具等特定場(chǎng)景均都可以通過(guò)這一技術(shù)快速部署。表2:openai發(fā)布會(huì)微調(diào)部分發(fā)布日期發(fā)布產(chǎn)品產(chǎn)品描述DAY2強(qiáng)化微調(diào)使用較小的數(shù)據(jù)集即可在特定場(chǎng)景創(chuàng)建專(zhuān)家模型

,對(duì)科研領(lǐng)域幫助較大DAY9o1APIopenai

向第三方開(kāi)放調(diào)用o1API權(quán)限

,可支持函數(shù)調(diào)用、結(jié)構(gòu)化輸出、開(kāi)發(fā)者消息、視覺(jué)功能請(qǐng)務(wù)必閱讀正文之后的免責(zé)聲明及其項(xiàng)下所有內(nèi)容Openai發(fā)布會(huì)——微調(diào)資料來(lái)源:OpenAI

,國(guó)信證券經(jīng)濟(jì)研究所整理發(fā)布日期發(fā)布產(chǎn)品產(chǎn)品描述DAY4Canvas集智能寫(xiě)作、代碼協(xié)作于一身的a

i工作臺(tái)DAY5ChatGPT

×AppleIntelligenceApple

Intelligence對(duì)ChatGPT的深度整合

,在Siri、協(xié)作工具和相機(jī)控制方面增加與ChatGPT的集成DAY6高級(jí)語(yǔ)音模式將5月發(fā)布的實(shí)時(shí)視頻通話功能全量開(kāi)放DAY7Projects

inChatGPT允許用戶(hù)創(chuàng)建特定項(xiàng)目

,設(shè)置自定義指令

,并將相關(guān)對(duì)話集中DAY8ChatGPT搜索可在實(shí)時(shí)對(duì)話中調(diào)用搜索功能

,并支持多模態(tài)搜索DAY10通話訪問(wèn)模式用戶(hù)可通過(guò)撥打電話的方式與ChatGPT對(duì)話DAY11桌面應(yīng)用在MAC其他程序中可輕松調(diào)取ChatGPT

多款a

i智能體升級(jí)

,大幅提升用戶(hù)體驗(yàn)?發(fā)布會(huì)發(fā)布了集智能寫(xiě)作&代碼協(xié)作于一身的a

i工作臺(tái)、新的桌面應(yīng)用、高級(jí)語(yǔ)音模式、通話訪問(wèn)模式等多款aiagent產(chǎn)品

,標(biāo)志著ChatGPT從簡(jiǎn)單的會(huì)話助手向更強(qiáng)大的代理工具的轉(zhuǎn)變

,從而可以代表客戶(hù)執(zhí)行更多任務(wù)

,為用戶(hù)帶來(lái)全新的便捷體驗(yàn)。表3:openai發(fā)布會(huì)ai

agent部分請(qǐng)務(wù)必閱讀正文之后的免責(zé)聲明及其項(xiàng)下所有內(nèi)容Openai發(fā)布會(huì)——ai

agent資料來(lái)源:OpenAI

,國(guó)信證券經(jīng)濟(jì)研究所整理

正式發(fā)布完整版o1

,性能大幅提升?

在今年9月份

,

OpenAI發(fā)布o(jì)1-preview

,對(duì)模型的技術(shù)思路進(jìn)行了改進(jìn)

:將更多算力運(yùn)用于推理側(cè)

,

o1是使用大規(guī)模強(qiáng)化學(xué)習(xí)訓(xùn)練并使用思維

鏈進(jìn)行推理的系列模型。?

今年12月

,

OpenAI正式發(fā)布了o1完整版

,

o1完整版在數(shù)學(xué)、編程、博士階段科學(xué)問(wèn)題(困難問(wèn)題)

領(lǐng)域的性能遠(yuǎn)超GPT4o

,在科學(xué)問(wèn)題領(lǐng)域

超越人類(lèi)專(zhuān)家

,并在數(shù)學(xué)、編程領(lǐng)域的性能較o1-preview有了大幅提升。?

相較于o1-preview

OpenAI對(duì)o1進(jìn)行了使用體驗(yàn)方面的改進(jìn):

o1目前對(duì)于簡(jiǎn)單問(wèn)題能夠回答更加迅速

,

OpenAI測(cè)試目前o1較o1-preview重

大錯(cuò)誤率降低了34%

,速度提升50%。?目前o1已面向所有Plus訂閱用戶(hù)推出

,用于替代o1-preview

,并將上線后續(xù)推出的Pro訂閱。

圖1:o1在數(shù)學(xué)、編程領(lǐng)域能力有了極大提升請(qǐng)務(wù)必閱讀正文之后的免責(zé)聲明及其項(xiàng)下所有內(nèi)容DAY1:

完整版o1發(fā)布資料來(lái)源:OpenAI

,國(guó)信證券經(jīng)濟(jì)研究所整理

支持多模態(tài)

,

可處理模糊問(wèn)題?OpenAI對(duì)o1進(jìn)行了改進(jìn)

,

目前支持圖像、

文本兩種輸入方式。在演示中

,對(duì)于一張手繪的太空太陽(yáng)能驅(qū)動(dòng)的數(shù)據(jù)中心示意圖

,

o1估計(jì)出了其

散熱器表面積并解答了兩個(gè)問(wèn)題

:如何處理太陽(yáng)和深空環(huán)境

,

以及這里如何體現(xiàn)了熱力學(xué)第一定律

,整個(gè)推理過(guò)程僅需10秒鐘。?

在示例中

OpenAI故意省略了冷卻面板的溫度等關(guān)鍵數(shù)據(jù)

,用以測(cè)試o1在處理模糊問(wèn)題時(shí)的能力。示例中o1自行識(shí)別了關(guān)鍵參數(shù)缺失

,并選

擇了合理的溫度范圍進(jìn)行后續(xù)的推理

,輸出了合理結(jié)果。?OpenAI表示

,

o1未來(lái)還會(huì)添加網(wǎng)頁(yè)瀏覽、文件上傳等功能

,

以及引入API

,具體上線時(shí)間未知。請(qǐng)務(wù)必閱讀正文之后的免責(zé)聲明及其項(xiàng)下所有內(nèi)容DAY1:

完整版o1發(fā)布資料來(lái)源:OpenAI

,國(guó)信證券經(jīng)濟(jì)研究所整理資料來(lái)源:OpenAI

,國(guó)信證券經(jīng)濟(jì)研究所整理圖3:研究人員用手繪圖片測(cè)試o1性能圖4:o1根據(jù)手繪圖像準(zhǔn)確回答問(wèn)題

推出PRO訂閱?OpenAI發(fā)布最新訂閱選項(xiàng)ChatGPT

Pro

,定

價(jià)200美金/月

,在這個(gè)套餐里

OpenAI

供了o1

pro

mode

,這個(gè)模式中o1處理非常

難的題目時(shí)

,用戶(hù)可要求o1

pro獲得更多算

,并強(qiáng)化思考。

o1

pro

mode在數(shù)學(xué)、編

程、科學(xué)問(wèn)題領(lǐng)域性能較o1均有提升

,但重

點(diǎn)在于o1

pro

mode的連續(xù)性。?OpenAI設(shè)計(jì)了“

四次測(cè)試”評(píng)估

:模型需要

連續(xù)四次都答對(duì)同一個(gè)問(wèn)題才算通過(guò)。

在這

種條件下

o1

pro模式保持了相當(dāng)高的可靠

:在競(jìng)賽數(shù)學(xué)中達(dá)到80%

,編程測(cè)試中達(dá)

到74.9%

科學(xué)問(wèn)題中達(dá)到74.2%。

遠(yuǎn)超普

通版o1。這說(shuō)明o1

pro能提供更佳的穩(wěn)定性

和一致性

,

對(duì)于需要AI協(xié)助完成重要工作的

專(zhuān)業(yè)人士來(lái)說(shuō)能夠有更好的保障。?同時(shí)

,

ChatGPT

Pro訂閱計(jì)劃能無(wú)限制訪問(wèn)OpenAI

o1

以及o1-mini

、

GPT-4o和Advanced

Voice。請(qǐng)務(wù)必閱讀正文之后的免責(zé)聲明及其項(xiàng)下所有內(nèi)容資料來(lái)源:OpenAI

,國(guó)信證券經(jīng)濟(jì)研究所整理圖6:o1pro模型具有更強(qiáng)穩(wěn)定性,適用于專(zhuān)業(yè)領(lǐng)域DAY1:

完整版o1發(fā)布圖7:Pro訂閱可以解鎖o1Pro及其他權(quán)益圖5:o1pro模型較o1性能有全方位提升資料來(lái)源:OpenAI

,國(guó)信證券經(jīng)濟(jì)研究所整理資料來(lái)源:OpenAI

,國(guó)信證券經(jīng)濟(jì)研究所整理

o1pro擁有更強(qiáng)的推理能力?

在示例中

,

OpenAI的研究員要求o1找到一種符合六個(gè)標(biāo)準(zhǔn)的特定蛋白質(zhì)。這個(gè)問(wèn)題的挑戰(zhàn)在于

,需要模型回憶起相當(dāng)專(zhuān)業(yè)的化學(xué)領(lǐng)域知識(shí),

而對(duì)于任何給定的標(biāo)準(zhǔn)

,可能會(huì)有數(shù)十種蛋白質(zhì)符合該標(biāo)準(zhǔn)。所以模型必須全面考慮所有候選者

,然后檢查它們是否符合所有標(biāo)準(zhǔn)。?o1-preview在此問(wèn)題經(jīng)常出錯(cuò)

,而示例中o1

pro僅使用53秒便準(zhǔn)確回答了相關(guān)問(wèn)題

,并可查看詳細(xì)的思考過(guò)程。?

在思考困難問(wèn)題時(shí)

目前o1模型的思考時(shí)間可達(dá)幾分鐘

,

因此OpenAI為模型添加了思考進(jìn)度條

,

以直觀展示目前模型的進(jìn)程。請(qǐng)務(wù)必閱讀正文之后的免責(zé)聲明及其項(xiàng)下所有內(nèi)容DAY1:

完整版o1發(fā)布資料來(lái)源:OpenAI

,國(guó)信證券經(jīng)濟(jì)研究所整理資料來(lái)源:OpenAI

,國(guó)信證券經(jīng)濟(jì)研究所整理圖8:o1長(zhǎng)時(shí)間思考將顯示進(jìn)度圖9:o1可展示詳細(xì)思考進(jìn)度?強(qiáng)化微調(diào)可讓開(kāi)發(fā)者使用強(qiáng)化學(xué)習(xí)針對(duì)具體任務(wù)對(duì)模型進(jìn)行進(jìn)一步微調(diào)

,并根據(jù)提供的參考答案對(duì)模型的響應(yīng)進(jìn)行評(píng)分具體來(lái)

說(shuō)

,強(qiáng)化微調(diào)不僅會(huì)教模型模仿其輸入

,更是會(huì)讓其學(xué)會(huì)在特定領(lǐng)域以新的方式進(jìn)行推理。

當(dāng)模型發(fā)現(xiàn)問(wèn)題時(shí)

,要為它提供思

考問(wèn)題的空間

,然后再對(duì)模型給出的響應(yīng)進(jìn)行打分。之后

,利用強(qiáng)化學(xué)習(xí)的力量

,可以強(qiáng)化模型得到正確答案的思維方式并抑

制導(dǎo)向錯(cuò)誤答案的思維方式。

強(qiáng)化微調(diào)的優(yōu)勢(shì)??快速高效

:相比于傳統(tǒng)技術(shù)

,強(qiáng)化微調(diào)技術(shù)更高效

,不需要大規(guī)模的數(shù)據(jù)集支持。?使用靈活

:用戶(hù)可根據(jù)需求即時(shí)調(diào)整模型

,使模型更加符合特定場(chǎng)景需求。?應(yīng)用廣泛

:強(qiáng)化微調(diào)技術(shù)可以推動(dòng)客服、教育、創(chuàng)意、研究等各個(gè)領(lǐng)域的應(yīng)用。圖10:OpenA

I公布強(qiáng)化微調(diào)技術(shù)DAY2:

強(qiáng)化微調(diào)技術(shù)

什么是強(qiáng)化微調(diào)?請(qǐng)務(wù)必閱讀正文之后的免責(zé)聲明及其項(xiàng)下所有內(nèi)容資料來(lái)源:OpenAI官方推特,國(guó)信證券經(jīng)濟(jì)研究所整理

強(qiáng)化微調(diào)后在特定領(lǐng)域性能明顯提升?

在官方演示里

,

OpenAI設(shè)置了一個(gè)實(shí)驗(yàn)

:在給定癥狀列表的情況下

,用模型預(yù)測(cè)可能導(dǎo)致罕見(jiàn)遺傳疾病的基因

,并讓模型解釋為什么選這些基

因。實(shí)驗(yàn)人員使用三種模型進(jìn)行對(duì)比:

o1

mini、

o1完整版、

o1

mini強(qiáng)化微調(diào)版。?

對(duì)于o1

mini強(qiáng)化微調(diào)版

,實(shí)驗(yàn)人員匯集了大約1100個(gè)病例報(bào)告作為訓(xùn)練和驗(yàn)證的數(shù)據(jù)集

,在使用訓(xùn)練數(shù)據(jù)集對(duì)模型進(jìn)行訓(xùn)練后

,上傳驗(yàn)證數(shù)據(jù)

集對(duì)模型推理能力進(jìn)行反復(fù)測(cè)試和調(diào)整

同時(shí)保證驗(yàn)證數(shù)據(jù)集和訓(xùn)練數(shù)據(jù)集之間的正確基因沒(méi)有重疊

,

以防模型作弊。評(píng)估結(jié)果時(shí)

,實(shí)驗(yàn)人員設(shè)

置了三項(xiàng)指標(biāo):

1)模型一次答對(duì)的概率;

2)模型前五次預(yù)測(cè)中有正確答案的概率;

3)模型預(yù)測(cè)中有正確答案的概率。?

結(jié)果顯示

,經(jīng)過(guò)強(qiáng)化微調(diào)的o1

mini在一次答對(duì)的準(zhǔn)確率上躍升180%達(dá)到了31%

,各方面全面超越了o1。

強(qiáng)化微調(diào)技術(shù)將使開(kāi)發(fā)者能夠通過(guò)更

快、成本更低的o1

mini模型獲得超越o1的專(zhuān)業(yè)性能

,將極大促進(jìn)AI在各領(lǐng)域的應(yīng)用。請(qǐng)務(wù)必閱讀正文之后的免責(zé)聲明及其項(xiàng)下所有內(nèi)容DAY2:

強(qiáng)化微調(diào)技術(shù)資料來(lái)源:OpenAI

,國(guó)信證券經(jīng)濟(jì)研究所整理資料來(lái)源:OpenAI

,國(guó)信證券經(jīng)濟(jì)研究所整理圖11:強(qiáng)化微調(diào)后o1mini模型超越o1圖12:強(qiáng)化微調(diào)后o1mini性能評(píng)測(cè)

正式發(fā)布視頻大模型Sora?

文本/圖像生成視頻:

Sora用戶(hù)可以使用文本、

圖像來(lái)提示Sora生成相關(guān)視頻?時(shí)間線編輯

:全新推出的故事板工具讓用戶(hù)可以精準(zhǔn)地指定每個(gè)幀的輸入和生成視頻的內(nèi)容

,并輕松進(jìn)行視頻剪輯

,用戶(hù)指令越少

Sora會(huì)嘗試

填充更多細(xì)節(jié)

,用戶(hù)指令越詳細(xì)

,

Sora會(huì)嘗試遵循要求方向生成視頻。用戶(hù)可在Sora中保存自己喜歡的風(fēng)格

,并在后續(xù)視頻生成任務(wù)中重復(fù)調(diào)

用。?

高分辨率、

多種格式支持:

Sora可以生成480p-1080p分辨率、

5-20秒、寬屏、豎屏或方形的視頻。并且用戶(hù)可以利用資源進(jìn)行擴(kuò)展、

remix(用戶(hù)只需描述對(duì)視頻的更改

,

Sora將自行完成)和融合。對(duì)于同一指示

Sora可生成多個(gè)不同視頻方向的變體

,供用戶(hù)選擇。圖13:用戶(hù)可通過(guò)故事板工具直接描述生成相應(yīng)視頻請(qǐng)務(wù)必閱讀正文之后的免責(zé)聲明及其項(xiàng)下所有內(nèi)容DAY3:

視頻大模型Sora發(fā)布資料來(lái)源:OpenAI

,國(guó)信證券經(jīng)濟(jì)研究所整理

多種工具支持Sora?1)

Remix:使用Remix替換、刪除或重新構(gòu)想視頻中的元素;?2)

Re-cut:找到并提取最佳幀或視頻段落

,然后向任一方向延伸它們以完成特定場(chǎng)景

,例如可對(duì)之前生成的視頻進(jìn)行裁剪

,要求Sora生成全新

開(kāi)頭或結(jié)尾;?3)

Loop

:使用Loop剪輯并創(chuàng)建無(wú)限重復(fù)的視頻

,例如

:用戶(hù)喜歡燈塔視頻

,可使用Loop工具

Sora將自動(dòng)生成內(nèi)容將重復(fù)視頻的開(kāi)頭和結(jié)尾

連接

,生成可重復(fù)視頻;?

4)

Blend

:將兩個(gè)視頻合并為一個(gè)視頻

,給Sora兩個(gè)視頻場(chǎng)景

,

Sora會(huì)將其中元素合并生成全新視頻

,用戶(hù)可用指令提示Sora兩個(gè)視頻的合并

方向;?5)

Style

presets

:使用Presets創(chuàng)建和分享自己的視頻風(fēng)格。圖14:Sora定價(jià)

Sora定價(jià)?Sora目前已在歐洲和英國(guó)以外的其他地區(qū)上線,Plus用戶(hù)可獲得一個(gè)月生成50個(gè)優(yōu)先視頻的權(quán)限,Pro用戶(hù)可獲得無(wú)限生成權(quán)限,以及500次優(yōu)先生成權(quán)限。資料來(lái)源:OpenAI

,國(guó)信證券經(jīng)濟(jì)研究所整理請(qǐng)務(wù)必閱讀正文之后的免責(zé)聲明及其項(xiàng)下所有內(nèi)容DAY3:

視頻大模型Sora發(fā)布

正式發(fā)布Canvas協(xié)作平臺(tái)?Canvas全面開(kāi)放

已被整合進(jìn)ChatGPT中;?

提升了代碼功能

,用戶(hù)可以直接在Canvas上運(yùn)行Python代碼

,并可直觀看到代碼結(jié)果輸出;?Canvas目前可被CustomGPT調(diào)用圖15:Canvas工具目前已被整合進(jìn)ChatGPT中請(qǐng)務(wù)必閱讀正文之后的免責(zé)聲明及其項(xiàng)下所有內(nèi)容DAY4:

Canvas協(xié)作平臺(tái)發(fā)布資料來(lái)源:OpenAI

,國(guó)信證券經(jīng)濟(jì)研究所整理

Canvas主要功能?

用戶(hù)編輯文字:在使用Canvas工具后

,交互頁(yè)面將被分為兩部分

,左側(cè)為與模型的對(duì)話

,右側(cè)為用戶(hù)可直接編輯的文檔

,用戶(hù)可直接在Canvas工具中刪除、添加、修改ChatGPT回復(fù)的內(nèi)容

,

以及進(jìn)行加粗等格式調(diào)整。不論是寫(xiě)信、寫(xiě)公文還是論文

,這種新生成模式都可以大幅提升效率。

同時(shí)OpenAI在Canvas工具右下角集成了部分快捷工具

,用戶(hù)只需點(diǎn)擊即可實(shí)現(xiàn)包括詢(xún)問(wèn)模型反饋(

Suggest

edits)

、文檔長(zhǎng)度調(diào)整(

Adjustthe

length)

、語(yǔ)言風(fēng)格轉(zhuǎn)化(

Reading

level)

、文檔潤(rùn)色(Add

final

polish)

、添加表情(Add

emojis)這些用戶(hù)在處理文檔時(shí)的常用功能。?

審稿

:很多人使用ChatGPT幫助寫(xiě)作

,但以前一問(wèn)一答的形式非常繁瑣

,現(xiàn)在用戶(hù)只需要把文章復(fù)制粘貼到ChatGPT的文本框中

,通過(guò)文本輸

入讓其給出修改建議

,大模型給出的建議會(huì)以逐條批注的形式出現(xiàn)。用戶(hù)可在頁(yè)面中對(duì)應(yīng)位置看到ChatGPT給出的修改建議

,并決定是否根據(jù)批

注進(jìn)行潤(rùn)色

,之后關(guān)閉建議

,或者直接選擇Apply

,讓ChatGPT自行對(duì)內(nèi)容進(jìn)行修改。這使用戶(hù)可以更直觀的使用模型幫助自己審閱文章

,并給

出建議。請(qǐng)務(wù)必閱讀正文之后的免責(zé)聲明及其項(xiàng)下所有內(nèi)容DAY4:

Canvas協(xié)作平臺(tái)發(fā)布圖17:Canvas可讓用戶(hù)更直觀的看到ChatGPT對(duì)文章的修改建議圖16:Canvas可快捷實(shí)現(xiàn)對(duì)模型回復(fù)的修改資料來(lái)源:OpenAI

,國(guó)信證券經(jīng)濟(jì)研究所整理資料來(lái)源:OpenAI

,國(guó)信證券經(jīng)濟(jì)研究所整理

Canvas主要功能?

編程:

Canvas可以直接識(shí)別代碼

,并轉(zhuǎn)變成為代碼編輯模式。

用戶(hù)還可以在Canvas上直接運(yùn)行測(cè)試

,

以及錯(cuò)誤識(shí)別和修改錯(cuò)誤的建議。

用戶(hù)想

要Debug時(shí)

,可直接代碼復(fù)制到ChatGPT上

即可讓模型解釋問(wèn)題

,給出正確代碼的示例。如果在ChatGPT上點(diǎn)運(yùn)行代碼出錯(cuò)了

,還可以使用A

I給出的comment

,與文本編輯內(nèi)容類(lèi)似

,如果用戶(hù)點(diǎn)擊Fix

Bug按鈕

ChatGPT可自行對(duì)Bug進(jìn)行修改

,修改的位置可以高亮顯示。?引入CustomGPT:

CustomGPT允許用戶(hù)根據(jù)自己的需求和偏好定制GPT模型

,通過(guò)給予GPT自定義指令以及自定義上下文等方法

,使其更好

地適應(yīng)特定的應(yīng)用場(chǎng)景或任務(wù)

,并支持將模型與他人分享

,使用GPT

Store平臺(tái)

,用戶(hù)可快速瀏覽、購(gòu)買(mǎi)、下載和使用由OpenAI或第三方開(kāi)發(fā)

的定制GPT模型和插件。圖17:Canvas可直接進(jìn)行代碼修改、運(yùn)行等功能

圖18:CustomGPT可對(duì)模型進(jìn)行自定義請(qǐng)務(wù)必閱讀正文之后的免責(zé)聲明及其項(xiàng)下所有內(nèi)容DAY4:

Canvas協(xié)作平臺(tái)發(fā)布資料來(lái)源:OpenAI

,國(guó)信證券經(jīng)濟(jì)研究所整理資料來(lái)源:OpenAI

,國(guó)信證券經(jīng)濟(jì)研究所整理

Day5,蘋(píng)果公司發(fā)布了其iPhone、

iPad和Mac軟件的更新(iOS和iPadOS

18.2)

,將ChatGPT進(jìn)一步嵌入蘋(píng)果系統(tǒng)當(dāng)中

,此次更新包括在Siri、寫(xiě)作工具和視覺(jué)智能中與ChatGPT的集成。

據(jù)彭博社消息,

ChatGPT在回答問(wèn)題時(shí)的準(zhǔn)確率比Siri高出25%

,且能回答30%更多的問(wèn)題,

蘋(píng)果選擇與OpenAI合作

,將ChatGPT整合進(jìn)iOS、

iPadOS和macOS系統(tǒng)將極大提升其智能體驗(yàn)。

目前

,在iPhone、

Mac、

iPad等設(shè)備中

,新版的蘋(píng)果智能已經(jīng)包含ChatGPT拓展功能,

用戶(hù)可在設(shè)置中自行選擇是否調(diào)用

ChatGPT。圖19:ChatGPT已集成在App

le

intelligence中DAY5:

Chatgpt進(jìn)一步集成到Apple生態(tài)系統(tǒng)請(qǐng)務(wù)必閱讀正文之后的免責(zé)聲明及其項(xiàng)下所有內(nèi)容資料來(lái)源:OpenAI

,國(guó)信證券經(jīng)濟(jì)研究所整理

增強(qiáng)版高級(jí)語(yǔ)音模式?

增強(qiáng)版高級(jí)語(yǔ)言模式具備屏幕共享和視覺(jué)功能

,

ChatGPT可以協(xié)助理解手機(jī)攝像頭以及屏幕上所查看的內(nèi)容。這些功能在高級(jí)語(yǔ)音模式已有的基

礎(chǔ)上進(jìn)一步增強(qiáng)

,

目前ChatGPT支持像人類(lèi)的自然對(duì)話對(duì)話

,

同時(shí)對(duì)話可以被中斷

,具有多輪交互

,并理解非線性的思維過(guò)程。?

實(shí)時(shí)視頻通話:

用戶(hù)現(xiàn)在可以使用視頻與ChatGPT進(jìn)行交流

,

這使得溝通更加直觀和生動(dòng)

。

在官方展示案例中

OpenAI的工作人員通過(guò)ChatGPT的視頻功能現(xiàn)場(chǎng)獲取了如何制作一杯咖啡的指引。

當(dāng)演示者按照步驟操作時(shí)

,

ChatGPT會(huì)同時(shí)口頭提供見(jiàn)解和指導(dǎo)。?

實(shí)時(shí)屏幕共享:用戶(hù)可以將自己的屏幕內(nèi)容分享給ChatGPT

,

以獲取ChatGPT提供的技術(shù)支持或協(xié)助處理屏幕內(nèi)容。在官方演示中

OpenAI的

工作人員通過(guò)與ChatGPT共享屏幕

,獲得了關(guān)于如何回復(fù)其消息的建議。請(qǐng)務(wù)必閱讀正文之后的免責(zé)聲明及其項(xiàng)下所有內(nèi)容DAY6:

增強(qiáng)版高級(jí)語(yǔ)音模式發(fā)布圖21:增強(qiáng)版高級(jí)語(yǔ)音功能支持屏幕共享圖20:增強(qiáng)版高級(jí)語(yǔ)音功能支持視頻交互資料來(lái)源:OpenAI

,國(guó)信證券經(jīng)濟(jì)研究所整理資料來(lái)源:OpenAI

,國(guó)信證券經(jīng)濟(jì)研究所整理?

可以將ChatGPT的各種功能整合至一處

,便于用戶(hù)創(chuàng)建并管理各類(lèi)項(xiàng)目

,不僅支持Canvas界面

,還能通過(guò)ChatGPT

Search輕松接入互聯(lián)網(wǎng)資源。?

分項(xiàng)目管理ChatGPT:

Projects賦予用戶(hù)將聊天與數(shù)據(jù)分組的能力

,從而使用戶(hù)能夠依據(jù)自身需求更加便捷地定制ChatGPT。在創(chuàng)建Projects的

過(guò)程中

,用戶(hù)可以在界面內(nèi)設(shè)定標(biāo)題、

自定義文件夾的顏色、上傳與項(xiàng)目相關(guān)的文件

,并編寫(xiě)說(shuō)明來(lái)指導(dǎo)ChatGPT如何最高效地協(xié)助用戶(hù)完成項(xiàng)

目。在項(xiàng)目?jī)?nèi)部

,用戶(hù)可以即刻開(kāi)啟聊天

,并通過(guò)側(cè)邊欄輕松地將過(guò)往的聊天記錄添加到項(xiàng)目中

,

同樣支持利用上下文信息來(lái)回答問(wèn)題。聊天內(nèi)

容能夠保存在項(xiàng)目中

,便于支持用戶(hù)稍后繼續(xù)對(duì)話

,并清楚地知道在哪里查找所需內(nèi)容。DAY7:

Projects對(duì)話管理工具上

Projectsin

ChatGPT請(qǐng)務(wù)必閱讀正文之后的免責(zé)聲明及其項(xiàng)下所有內(nèi)容圖23:Projects自動(dòng)啟動(dòng)Canvas并生成郵件資料來(lái)源:OpenAI

,國(guó)信證券經(jīng)濟(jì)研究所整理資料來(lái)源:OpenAI

,國(guó)信證券經(jīng)濟(jì)研究所整理圖22:用戶(hù)可根據(jù)自身需求創(chuàng)建項(xiàng)目

搜索功能全新升級(jí)?

全方位體驗(yàn)升級(jí):用戶(hù)現(xiàn)在可以直接訪問(wèn)嵌入式Y(jié)ouTube視頻、

圖片、

電影資源

,還能便捷地使用商業(yè)地圖和餐廳導(dǎo)航。在官方演示中

,演示者

只需與ChatGPT自然對(duì)話

ChatGPT便可自行判斷是否需要調(diào)用ChatGPT

search

,

同時(shí)

用戶(hù)也可以選擇開(kāi)啟ChatGPT

search功能

。ChatGPT

search將自動(dòng)根據(jù)要求總結(jié)網(wǎng)頁(yè)內(nèi)容

,并允許用戶(hù)追溯網(wǎng)站來(lái)源。?

移動(dòng)設(shè)備的優(yōu)化體驗(yàn):針對(duì)移動(dòng)設(shè)備

OpenAI根據(jù)用戶(hù)反饋優(yōu)化了聊天搜索的體驗(yàn)。在官方演示中

,演示者搜索了Mission附近的墨西哥餐廳

,ChatGPT

search可自行進(jìn)行篩選

,并展示了路線、

網(wǎng)站、

電話和營(yíng)業(yè)時(shí)間等詳細(xì)信息。用戶(hù)可進(jìn)一步提問(wèn)哪些餐廳支持室外用餐

,

ChatGPTsearch可自行進(jìn)行下一步篩選

,并列示符合要求的選項(xiàng)

,用戶(hù)可點(diǎn)擊商家地址

,

即可調(diào)用蘋(píng)果地圖規(guī)劃路線。?

在Advance

Voice模式中集成

:可以在高級(jí)語(yǔ)音模式中使用搜索

,通過(guò)語(yǔ)音命令訪問(wèn)最新的網(wǎng)絡(luò)信息

,增強(qiáng)了ChatGPT的交互性和便利性。在

官方演示中

,演示者通過(guò)語(yǔ)音向ChatGPT提問(wèn)在12月23日蘇黎世有什么活動(dòng)

,

ChatGPT可在搜索后語(yǔ)音進(jìn)行回復(fù)

,并支持用戶(hù)對(duì)感興趣的活動(dòng)

進(jìn)一步提問(wèn)

,如舉辦時(shí)間、地點(diǎn)、活動(dòng)舉辦當(dāng)天的天氣等。請(qǐng)務(wù)必閱讀正文之后的免責(zé)聲明及其項(xiàng)下所有內(nèi)容DAY8:

ChatGPT搜索功能更新圖24:用戶(hù)可在ChatGPT網(wǎng)站中直接播放來(lái)自YouTube的視頻圖25:通過(guò)ChatGPT

search調(diào)用蘋(píng)果地圖資料來(lái)源:OpenAI

,國(guó)信證券經(jīng)濟(jì)研究所整理資料來(lái)源:OpenAI

,國(guó)信證券經(jīng)濟(jì)研究所整理?Function

calling

:允許開(kāi)發(fā)者將外部API和數(shù)據(jù)庫(kù)連接到o1模型;?Structured

Outputs

:確保模型輸出遵循開(kāi)發(fā)者定義的JSON模式

,使解析和使用模型輸出更加容易;?Developer

messages

:為模型指定指令

,例如定義語(yǔ)氣、風(fēng)格及其他行為;?

Vision

capabilities

:支持對(duì)圖像進(jìn)行推理

,解鎖科學(xué)、制造或編碼等領(lǐng)域中更多依賴(lài)視覺(jué)輸入的應(yīng)用;?Lower

latency:

o1在每個(gè)請(qǐng)求中平均使用比o1-preview少用60%的推理tokens;?Reasoning_effort:一個(gè)全新參數(shù)

,允許開(kāi)發(fā)者控制模型在回答前思考的時(shí)間長(zhǎng)度。DAY9:

o1正式版API全面上線

o1API全面開(kāi)放請(qǐng)務(wù)必閱讀正文之后的免責(zé)聲明及其項(xiàng)下所有內(nèi)容圖26:開(kāi)發(fā)者可調(diào)用o1API尋找文檔中的錯(cuò)誤資料來(lái)源:OpenAI

,國(guó)信證券經(jīng)濟(jì)研究所整理資料來(lái)源:OpenAI

,國(guó)信證券經(jīng)濟(jì)研究所整理圖27:模型通過(guò)自定義格式輸出信息

o1在各領(lǐng)域性能顯著提升?

現(xiàn)場(chǎng)展示了對(duì)o1API調(diào)用的測(cè)試結(jié)果

,

o1在函數(shù)調(diào)用、

內(nèi)部結(jié)構(gòu)化輸出、數(shù)學(xué)、編程等領(lǐng)域均達(dá)到了目前所有模型的最高準(zhǔn)確度。?

在數(shù)學(xué)領(lǐng)域

,

OpenAI測(cè)試了經(jīng)過(guò)自定義輸出結(jié)果的o1模型(

o1with

Structured

Outputs)

,結(jié)果顯示其仍能保持極高的準(zhǔn)確度

因此開(kāi)發(fā)者

對(duì)模型進(jìn)行自定義調(diào)整后

,模型仍能夠保持其性能。圖28:o1在函數(shù)調(diào)用領(lǐng)域準(zhǔn)確度明顯高于GPT4o圖29:o1在內(nèi)部結(jié)構(gòu)化輸出領(lǐng)域準(zhǔn)確度明顯高于GPT4o圖30:o1在編程領(lǐng)域準(zhǔn)確度明顯高于GPT4o圖31:o1在數(shù)學(xué)試題場(chǎng)景準(zhǔn)確度明顯高于GPT4o請(qǐng)務(wù)必閱讀正文之后的免責(zé)聲明及其項(xiàng)下所有內(nèi)容DAY9:

o1正式版API全面上線資料來(lái)源:OpenAI

,國(guó)信證券經(jīng)濟(jì)研究所整理

實(shí)時(shí)API集成Web

RTC(網(wǎng)頁(yè)實(shí)時(shí)通信)?

實(shí)時(shí)API現(xiàn)在支持Web

RTC

,這將簡(jiǎn)化實(shí)時(shí)語(yǔ)音體驗(yàn)的構(gòu)建

,使得在各類(lèi)平臺(tái)(包括基于瀏覽器的應(yīng)用、移動(dòng)客戶(hù)端、物聯(lián)網(wǎng)設(shè)備或直接的服務(wù)

器到服務(wù)器部署)

上構(gòu)建和擴(kuò)展實(shí)時(shí)語(yǔ)音產(chǎn)品更加容易。

通過(guò)Web

RTC

,

現(xiàn)在只需幾行Javascript代碼

開(kāi)發(fā)者就能為應(yīng)用添加實(shí)時(shí)功能。Web

RTC提供了許多優(yōu)勢(shì)

,例如更好的網(wǎng)絡(luò)適應(yīng)性、

回聲消除和更簡(jiǎn)單的代碼實(shí)現(xiàn)。

以及將GPT-4o音頻價(jià)格降低60%

,

同時(shí)將Realtime

API測(cè)

試版中引入GPT-4o

mini。?

在官方演示中

,演示者只需極短的代碼

,就可以在網(wǎng)頁(yè)端構(gòu)建一個(gè)語(yǔ)音助手。

同時(shí)

,僅需將網(wǎng)頁(yè)端與帶有音頻交互功能的玩具連接

,就可實(shí)現(xiàn)玩

具的語(yǔ)音交互功能。演示者提到

,后續(xù)開(kāi)發(fā)者可自行將Realtime交互的應(yīng)用場(chǎng)景擴(kuò)展到可穿戴設(shè)備、攝影等領(lǐng)域。圖32:開(kāi)發(fā)者只需幾行代碼就可以調(diào)用Realtime

API

圖33:開(kāi)發(fā)者只需幾行代碼就可以構(gòu)建網(wǎng)頁(yè)端語(yǔ)音助手請(qǐng)務(wù)必閱讀正文之后的免責(zé)聲明及其項(xiàng)下所有內(nèi)容DAY9:

o1正式版API全面上線資料來(lái)源:OpenAI

,國(guó)信證券經(jīng)濟(jì)研究所整理資料來(lái)源:OpenAI

,國(guó)信證券經(jīng)濟(jì)研究所整理

新微調(diào)方法Preference

Fine-Tuning?

偏好微調(diào)允許開(kāi)發(fā)者通過(guò)提供成對(duì)的響應(yīng)來(lái)訓(xùn)練模型

,其中一個(gè)響應(yīng)比另一個(gè)響應(yīng)更受歡迎

,模型可自行學(xué)習(xí)

,并減少不受歡迎的輸出結(jié)果。與

監(jiān)督微調(diào)(提供確切的輸入和輸出)不同

,偏好微調(diào)側(cè)重于優(yōu)化模型以捕獲用戶(hù)偏好中的細(xì)微差別。通過(guò)微調(diào)

,開(kāi)發(fā)者可以利用自己的數(shù)據(jù)集對(duì)

模型進(jìn)行訓(xùn)練

,從而提高模型在特定場(chǎng)景下的性能和準(zhǔn)確性。?

在官方演示中

,演示者提到Rogo

AI正通過(guò)偏好微調(diào)在構(gòu)建一款面向金融分析師的AI助手

,偏好微調(diào)使模型能夠更準(zhǔn)確的響應(yīng)準(zhǔn)確性從75%提升

至80%以上

,而監(jiān)督微調(diào)則無(wú)法達(dá)到準(zhǔn)確性提升的效果。圖34:偏好微調(diào)允許模型學(xué)習(xí)更受歡迎的響應(yīng)請(qǐng)務(wù)必閱讀正文之后的免責(zé)聲明及其項(xiàng)下所有內(nèi)容DAY9:

o1正式版API全面上線資料來(lái)源:OpenAI

,國(guó)信證券經(jīng)濟(jì)研究所整理

通話訪問(wèn)模式?

ChatGPT通話開(kāi)放:

目前美國(guó)用戶(hù)可通過(guò)電話與ChatGPT溝通

,具體號(hào)碼為:

1-800-242-8478

,用戶(hù)可將其添加為手機(jī)聯(lián)系人

,通話會(huì)被審

查以確保安全。在官方演示中

,演示者通過(guò)直接撥入電話的方式接入ChatGPT

,并提問(wèn)在舊金山的280號(hào)洲際公路上看到的圓頂房子是什么

,ChatGPT準(zhǔn)確回復(fù)房子的名字

,并進(jìn)行了簡(jiǎn)短介紹

,

同時(shí)支持用戶(hù)對(duì)問(wèn)題進(jìn)行進(jìn)一步溝通。用戶(hù)可以通過(guò)任何設(shè)備撥號(hào)連接ChatGPT

,包括非

智能手機(jī)、

固定電話等

,這意味著老年人也可以通過(guò)其老年機(jī)接入ChatGPT

,并獲得相應(yīng)回復(fù)。?

WhatsApp聊天

:全球范圍內(nèi)

,用戶(hù)可在WhatsApp上與ChatGPT聊天

,用戶(hù)可以像與聯(lián)系人中的任何人一樣

,通過(guò)文本輸入問(wèn)題

即可獲得

基于4o-mini模型生成的回復(fù)。在官方演示中

,演示者通過(guò)WhatsApp詢(xún)問(wèn)ChatGPT意面香蒜醬的制作方法

,

ChatGPT可生成詳細(xì)的制作方法

,

包括原材料、制作步驟等。

同時(shí)

,

ChatGPT能根據(jù)用戶(hù)的不同要求(如素食、特定飲食偏好等)更新食譜

,并回復(fù)相應(yīng)配菜建議。請(qǐng)務(wù)必閱讀正文之后的免責(zé)聲明及其項(xiàng)下所有內(nèi)容DAY10:

ChatGPT通話訪問(wèn)模式圖35:使用者可將ChatGPT添加到聯(lián)系人,并電話接入圖36:用戶(hù)可在WhatsApp中與ChatGPT直接聊天資料來(lái)源:OpenAI

,國(guó)信證券經(jīng)濟(jì)研究所整理資料來(lái)源:OpenAI

,國(guó)信證券經(jīng)濟(jì)研究所整理?MacOS桌面應(yīng)用更新:

輕量級(jí)且資源占用少

擁有單獨(dú)窗口

,應(yīng)用時(shí)無(wú)需在不同的應(yīng)用程序、

窗口之間切換。

戶(hù)可通過(guò)快捷鍵快速調(diào)用ChatGPT

,

同時(shí)在對(duì)話窗口下方

,

用戶(hù)可點(diǎn)擊使用應(yīng)用程序的選項(xiàng)

ChatGPT可自動(dòng)提

取已完成的工作進(jìn)度

,

用戶(hù)無(wú)需上傳任何信息即可與ChatGPT進(jìn)行交互。?

在官方演示中

,

演示者通過(guò)ChatGPT與正在運(yùn)行的應(yīng)用程序Warp進(jìn)行協(xié)同

,

用戶(hù)可直接向ChatGPT提問(wèn)編寫(xiě)分

析每日指令數(shù)量的代碼

,

ChatGPT編寫(xiě)完成后

,

只需粘貼至相應(yīng)應(yīng)用中即可。

同時(shí)

,

支持用戶(hù)在原有生成數(shù)據(jù)的

基礎(chǔ)上進(jìn)一步下達(dá)指令

,例如生成可視化圖表等。請(qǐng)務(wù)必閱讀正文之后的免責(zé)聲明及其項(xiàng)下所有內(nèi)容DAY11:

桌面應(yīng)用新功能圖37:使用者可通過(guò)ChatGPT與正在運(yùn)行的應(yīng)用協(xié)同資料來(lái)源:OpenAI

,國(guó)信證券經(jīng)濟(jì)研究所整理資料來(lái)源:OpenAI

,國(guó)信證券經(jīng)濟(jì)研究所整理圖38:ChatGPT與Warp協(xié)同

強(qiáng)大的數(shù)學(xué)和編程能力?

編程能力:

o3在編程方面相較o1大幅提升。在SWE-bench

Verified基準(zhǔn)測(cè)試中

,

o3的準(zhǔn)確率達(dá)到了71.7%

,

比前輩o1高出20%以上。這意味

o3在編寫(xiě)高質(zhì)量代碼方面

,

已經(jīng)超過(guò)了大多數(shù)軟件工程師。?

數(shù)學(xué)能力:在AI

EM

2024

,

o3幾乎拿到了滿(mǎn)分

,這是AI在AI

EM數(shù)學(xué)競(jìng)賽中取得的最好成績(jī)。

此外

,在GPQA

Diamond博士級(jí)科學(xué)考試中

,

o3

的準(zhǔn)確率達(dá)到了87.7%

,

比o1高出近10%。這表明

,

o3在處理復(fù)雜數(shù)學(xué)問(wèn)題時(shí)

已經(jīng)達(dá)到了頂尖水平。請(qǐng)務(wù)必閱讀正文之后的免責(zé)聲明及其項(xiàng)下所有內(nèi)容DAY12:

全新o3模型亮相資料來(lái)源:OpenAI

,國(guó)信證券經(jīng)濟(jì)研究所整理資料來(lái)源:OpenAI

,國(guó)信證券經(jīng)濟(jì)研究所整理圖40:o3在數(shù)學(xué)方面性能圖39:o3在編程方面性能

推理能力里程碑式突破?o3在ARC-AGI基準(zhǔn)測(cè)試中的表現(xiàn)尤為突出

,達(dá)到了87.5%的準(zhǔn)確率

,遠(yuǎn)超人類(lèi)的85%閾值。ARC-AGI基準(zhǔn)測(cè)試旨在評(píng)估AI系統(tǒng)的抽象和推理能

,要求AI識(shí)別模式并解決新問(wèn)題。

o3實(shí)現(xiàn)了AI領(lǐng)域第一次超越人類(lèi)的成績(jī)

,完成了里程碑式的突破。圖41:o3在ARC-AGI測(cè)試表現(xiàn)請(qǐng)務(wù)必閱讀正文之后的免責(zé)聲明及其項(xiàng)下所有內(nèi)容DAY12:

全新o3模型亮相資料來(lái)源:OpenAI

,國(guó)信證券經(jīng)濟(jì)研究所整理

o3

mini模型?o3

Mini是

o3系列中的高效推理模型

,適用于任何需要數(shù)學(xué)和編碼能力的人。

由于成本低

o3

Mini可能會(huì)在全球范圍內(nèi)開(kāi)放使用。

o3

Mini支持低中高三種不同的推理時(shí)間選項(xiàng)

,可以根據(jù)自己的使用情況自由調(diào)整模型的推理時(shí)間。?

編程能力

:支持自適應(yīng)推理時(shí)間

,低中位數(shù)推理時(shí)間下代碼性能優(yōu)于o1

Mini

,在速度和成本方面出色。?

數(shù)學(xué)能力

:在AIME

2024測(cè)試中

,低推理選項(xiàng)與o1

Mini和o3

Mini性能相當(dāng)

,

中位數(shù)推理時(shí)間性能更好

,高推理可進(jìn)一步提升;延遲大幅減

,支持函數(shù)調(diào)用等功能

,性能優(yōu)于多數(shù)模型。圖42:o3mini在數(shù)學(xué)方面性能請(qǐng)務(wù)必閱讀正文之后的免責(zé)聲明及其項(xiàng)下所有內(nèi)容DAY12:

全新o3模型亮相資料來(lái)源:OpenAI

,國(guó)信證券經(jīng)濟(jì)研究所整理?

OpenAI為o3引入了協(xié)商對(duì)齊(de

liberative

alignment)

的安全評(píng)估方法。這種方法可以讓模型在回答問(wèn)題前明確回憶安全規(guī)范并準(zhǔn)確執(zhí)行推

,從而確保o3的行為符合OpenAI的安全政策

,使其保持良好的行為規(guī)范。

發(fā)布計(jì)劃?目前

,

o3還處于早期訪問(wèn)階段

,僅對(duì)部分安全研究人員開(kāi)放。?OpenAI計(jì)劃在2024年1月底推出o3-miniDAY12:

全新o3模型亮相

安全性請(qǐng)務(wù)必閱讀正文之后的免責(zé)聲明及其項(xiàng)下所有內(nèi)容 Open

a

i

12天發(fā)布會(huì)

風(fēng)險(xiǎn)提示請(qǐng)務(wù)必閱讀

溫馨提示

  • 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶(hù)所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶(hù)上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶(hù)上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶(hù)因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

最新文檔

評(píng)論

0/150

提交評(píng)論