五一期間,NVIDIA可同樣沒閑著,倒不是說他又出了啥新卡,而是整了個新活兒——推出了一款可以本地運行的AI工具。大家可能也有所印象,不過并不是今年2月發布的Chat with RTX,而是它的“全新升級版”ChatRTX。
和其它GPT不同,ChatRTX是一款經過客制化的可以在本地運行的大語言模型(LLM),可以根據用戶選擇“連接”電腦中的部分內容(如圖片、文檔、筆記以及其它數據),再結合檢索增強生成技術(RAG)、TensorRT-LLM與RTX加速,實現基于本地資源的問答與幫助。
作為一款本地AI工具,ChatRTX最大的優勢莫過于隱私安全性更高,不過,相較于其它在線GPT的穩定輸出,它的性能高低完全取決于你顯卡的“強度”。此外,雖然它叫ChatRTX,實際上也并非所有的RTX顯卡都能用,起碼得RTX 3060往上的水平才可一戰。
ChatRTX下載地址: https://www.nvidia.com/zh-tw/ai-on-rtx/chat-with-rtx-generative-ai/
NVIDIA ChatRTX作為Chat with RTX的全新升級版,首先自然是改進了穩定性;其二就是對依賴的大語言模型進行了大幅度的更新,并增加了對其它大預言模型的支持。新增大預言模型甚至包括和谷歌Gemini同根同源的本地LLM:Gemma。
此外,由于集成了 OpenAI 的 CLIP,ChatRTX的圖像識別能力也獲得大幅度的升級,無需元數據就能與圖像庫進行交互。當然,對于國內用戶來說,對中文的支持才是關鍵,好消息是由于ChatGLM3的更新,ChatRTX將支持中/英雙語提示。最后,就是支持語音輸入。
與之前技術演示時的 Chat with RTX一樣,ChatRTX同樣允許用戶自由選擇AI模型,以及選擇自己所要操作的“數據”。簡單說來就是我們可以選擇一個包含圖像/文檔/其它支持格式的文件夾,然后ChatRTX就可以根據該文件夾內容開始學習,并根據用戶需要輸出結果。
不過,理想雖如此,但實際卻仍讓人稍有失望。NVIDIA ChatRTX的不足之處尤為明顯,上下文能力的不足,讓問答的連貫性出現了明顯的問題;此外,牛頭不對馬嘴的情況也時有發生。目前瀏覽器的前端支持也僅僅包括Chrome和Edge,其它瀏覽器包括火狐都存在明顯的問題。
相較于其它在線AI工具而言,NVIDIA ChatRTX在功能性方面肯定是遠遠不如的,不過更強的隱私安全性也足以成為不少朋友選擇它的理由??傊镜卮笳Z言模型還是有很長的路要走的。
本文編輯:@ 江城子
?本文著作權歸電手所有,未經電手許可,不得轉載使用。