**劃重點:**
- ?? Perplexity AI 推出兩款新的在線大語言模型,通過API公開訪問,標志著公眾首次能夠使用'pplx-7b-online'和'pplx-70b-online'。
- ?? 與傳統(tǒng)的離線LLM不同,這些模型利用實時互聯(lián)網(wǎng)數(shù)據(jù),實現(xiàn)對查詢的即時、精確響應,解決了獲取最新體育比分等實時信息的難題。
- ?? 這兩款模型在新鮮度、真實性和整體偏好方面持續(xù)優(yōu)于同類模型,開發(fā)者可立即通過Perplexity的API創(chuàng)建應用程序,體驗其獨特功能。
站長之家(ChinaZ.com)12月4日 消息:Perplexity AI,一家創(chuàng)新的人工智能初創(chuàng)公司,近日推出了一項能夠改變信息檢索系統(tǒng)的解決方案。該公司推出了兩款新的大語言模型(LLMs),分別是'pplx-7b-online'和'pplx-70b-online',標志著首次通過API公開訪問在線LLMs。與傳統(tǒng)的離線LLMs(如Claude2)不同,這些模型利用實時互聯(lián)網(wǎng)數(shù)據(jù),能夠實現(xiàn)對查詢的即時、精確響應,克服了獲取最新體育比分等實時信息的難題。
Perplexity在線模型在人工智能領域的獨特之處在于其通過API提供的獨特功能。雖然現(xiàn)有的LLMs如Google Bard、ChatGPT和BingChat在在線瀏覽方面取得了進展,但沒有通過API擴展這一功能。該公司將這一能力歸功于其內部搜索基礎設施,該基礎設施涵蓋了大量高質量網(wǎng)站,優(yōu)先考慮權威來源,并采用先進的排名機制,以實時呈現(xiàn)相關可靠信息。這些實時的“片段”被整合到LLMs中,以促進及時的響應。這兩個模型都是基于mistral-7b和llama2-70b基礎模型構建的。
值得注意的是,Perplexity AI不僅將這些模型與最先進的技術整合在一起,還對其進行了優(yōu)化,以實現(xiàn)最佳性能。這一精心的過程涉及利用內部數(shù)據(jù)承包商策劃的多樣、頂級培訓集。這一持續(xù)的優(yōu)化確保這些模型在幫助性、真實性和新鮮度方面表現(xiàn)卓越。
為驗證這些模型的有效性,Perplexity AI進行了全面的評估,使用各種提示,評估了幫助性、真實性和新鮮度等因素。這些評估涉及與OpenAI的gpt-3.5和Meta AI的llama2-70b等領先模型的比較,重點關注整體性能和具體標準。
這些評估的結果令人印象深刻。無論是pplx-7b-online還是pplx-70b-online,在新鮮度、真實性和整體偏好方面都持續(xù)優(yōu)于其同類產品。例如,在新鮮度標準下,pplx-7b和pplx-70b分別達到了1100.6和1099.6的估計Elo分數(shù),超過了gpt-3.5和llama2-70b。
從即日起,開發(fā)者可以訪問Perplexity的API,利用這些模型的獨特功能創(chuàng)建應用程序。定價結構基于使用情況,對早期測試者提供了特別計劃。
這一Perplexity的創(chuàng)新發(fā)布引入了人工智能驅動的信息檢索系統(tǒng)的一場變革。通過API引入pplx-7b-online和pplx-70b-online模型解決了現(xiàn)有離線LLMs的局限性,并展示了在提供準確、實時和真實信息方面的卓越性能。
pplx-api:https://docs.perplexity.ai/docs/getting-started
使用Perplexity Labs免費試用在線模型:https://labs.perplexity.ai/
(舉報)