OpenAI升級GPT-4 API,視覺和更長文本版本上線
激石Pepperstone(http://dsgkdz.com/)報道:
OpenAI宣布GPT-4 Turbo全面升級!
一款具有視覺處理能力的最新GPT-4 Turbo模型——GPT-4 Turbo with Vision已通過OpenAI API正式上線。
雖然GPT-4-Turbo發(fā)布已久,但一直以“預(yù)覽版”的方式提供,和其他 GPT-4 Turbo 預(yù)覽版一樣,GPT-4 Turbo支持128k上下文窗口,可以在單個 prompt中處理超過300頁的文本,模型訓(xùn)練的數(shù)據(jù)截止日期為2023年12月,更長的上下文意味著模型輸出結(jié)果更加準(zhǔn)確。
此次發(fā)布的GPT-4-Turbo正式版最大的革新之處在于,其新增的視覺理解能力,且視覺請求支持JSON格式和函數(shù)調(diào)用方式。
開發(fā)者現(xiàn)在可以通過文本格式JSON和函數(shù)調(diào)用來運(yùn)用模型的視覺識別和分析功能,生成的JSON代碼片段可用于自動化連接應(yīng)用中的操作,如發(fā)郵件、發(fā)帖、購物等。OpenAI建議在執(zhí)行這類操作前先設(shè)置用戶確認(rèn)流程。
價格方面,本次發(fā)布的GPT-4-Turbo正式版和之前的?GPT-4-Turbo“預(yù)覽版 保持一致:輸入:$10.00 / 100萬?tokens;輸出:$30.00 /?100萬?tokens;?讀圖:最低$0.00085 /圖。
OpenAI發(fā)言人表示,在過去開發(fā)者需要調(diào)用不同的模型來處理文本和圖像信息,而GPT-4 Turbo with Vision則將兩者合二為一,極大簡化了開發(fā)流程,同時可以分析圖像和文本并應(yīng)用推理。
OpenAI還重點(diǎn)介紹了客戶使用GPT-4 Turbo with Vision的幾個案例,如Cognition的AI編程助手——Devin,由GPT-4 Turbo提供支持,利用視覺功能來執(zhí)行各種編程任務(wù)。
健康健身應(yīng)用程序Healthify使用GPT-4 Turbo with Vision 掃描用戶上傳的飲食照片,通過圖像識別提供營養(yǎng)分析。
英國初創(chuàng)公司TLDraw使用 GPT-4 Turbo with Vision 為其虛擬白板提供支持,并將用戶的繪圖轉(zhuǎn)換為功能網(wǎng)站:
目前,GPT-4 Turbo with Vision尚未應(yīng)用于ChatGPT或開放給大眾使用,不過 OpenAI暗示該功能即將登陸ChatGPT。
從網(wǎng)友評價來看,有網(wǎng)友對于將視覺理解能力融入API表示贊賞,認(rèn)為API中有了視覺識別功能很酷。
也有網(wǎng)友對于OpenAI在推文中用了“majorly improved”(顯著改善)這一詞表達(dá)了質(zhì)疑,讓OpenAI好好解釋一下什么是顯著改善。
也有網(wǎng)友稱,請下一條推文發(fā)布和GPT-5有關(guān)的內(nèi)容,否則就別發(fā)了。
當(dāng)然,網(wǎng)友的評價里也少不了和Claude 3的比較,有網(wǎng)友稱,現(xiàn)在可以看看到底能不能打敗Claude 3 Opus了。
掃描二維碼推送至手機(jī)訪問。
版權(quán)聲明:本文由激石Pepperstone發(fā)布,如需轉(zhuǎn)載請注明出處。