冰楓論壇

 找回密碼
 立即註冊
搜索
查看: 505|回覆: 1
打印 上一主題 下一主題

[其它程式] Ollama v0.5.7 Deepseek 本地運行

[複製鏈接]

6120

主題

0

好友

6140

積分

論壇元老

Rank: 8Rank: 8

UID
469567
帖子
6123
主題
6120
精華
0
積分
6140
楓幣
39
威望
6131
存款
0
贊助金額
0
推廣
0
GP
0
閱讀權限
90
在線時間
182 小時
註冊時間
2024-12-17
最後登入
2025-11-5
跳轉到指定樓層
1
發表於 2025-2-6 17:46:36 |只看該作者 |倒序瀏覽
軟體名稱:Ollama (deepseek 本地運行)
軟體版本:v0.5.7
軟體語言:繁、簡、英
檔案大小:751mb

Ollama是一款功能強大的開源工具,旨在幫助用戶輕松地在本地部署和運行大型語言模型(LLM)。這款軟件的出現,極大地降低了普通開發者使用大語言模型的門檻,使得本地部署和體驗大模型變得簡單易行。無論是對於想要搭建自己AI應用的開發者,還是希望針對特定任務調優模型的科研人員,Ollama都是一個不可或缺的工具。
首先,Ollama具備跨平台的能力,支持在windows、Linux和MacOS等多個操作系統上運行。這意味着用戶無需擔心自己的操作系統與Ollama不兼容的問題,可以輕松地在不同平台上部署和使用大型語言模型。此外,Ollama還提供了丰富的模型庫,涵蓋了Llama、Gemma、Phi等多種大型語言模型,用戶可以在Ollama的官方模型庫(https://ollama.com/library)中直接下載並使用這些模型。同時,Ollama還支持用戶上傳自己的模型,無論是huggingface等地方的ggml格式模型,還是基於PyTorch等格式的模型,都可以通過一定的轉換后導入到Ollama中使用。
在功能方面,Ollama同樣表現出色。它允許用戶通過編寫Modelfile配置文件來自定義模型的推理參數,如temperature、top_p等,從而調節模型生成效果。這種靈活性使得用戶可以根據自己的需求對模型進行個性化適配。此外,Ollama還支持多GPU并行推理加速,在多卡環境下,用戶可以設置環境變量來指定特定GPU進行推理,從而進一步提高模型的運行效率。
除了基本的模型運行功能外,Ollama還提供了模型創建、顯示信息、推送到注冊表等高級功能。用戶可以使用“ollama create”命令從Modelfile創建模型,使用“ollama show”命令查看模型信息,以及使用“ollama push”命令將模型推送到注冊表。這些功能使得Ollama成為了一個功能齊全的模型管理平台。
值得一提的是,Ollama還提供了多種接口訪問方式,包括本地CLI、HTTP接口以及通過OpenAI客戶端的集成。這使得用戶可以通過多種方式訪問和使用Ollama的推理服務,極大地提高了使用的便捷性。同時,Ollama還支持通過環境變量進行配置,用戶可以根據自己的需求自定義推理設備(GPU/CPU)、緩存路徑、并發數、日志級別等參數,從而進一步優化模型的運行效果。
總的來說,Ollama是一款功能強大、易於使用的大型語言模型部署工具。它具備跨平台支持、丰富的模型庫、靈活的參數配置、高效的推理加速以及多種接口訪問方式等優點,使得用戶可以在本地輕松部署和運行大型語言模型。如果你對大型語言模型感興趣,或者希望在自己的項目中應用這些模型,那么Ollama絕對是一個值得嘗試的工具。

接下來:
安裝Deepseek(老頭子上傳的分享包是簡易安裝方式 下面的介紹不看也可以)

打开官方模型库
1.png
2.png
3.png
4.png
20250205




檔案下載
下載 (進門左下0205)


簡易安裝說明
安裝好Ollama
再打開一鍵啟動DeepSeek+webui\DeepSeek
Done
Enjoy it
Ho 7121
[發帖際遇]: doudou10722 為了預防「武漢肺炎」,整天在家自主隔離,獲得防疫獎勵 1 鑰匙 幸運榜 / 衰神榜
收藏收藏0 推0 噓0

分享這篇文章



把本文推薦給朋友或其他網站上,每次被點擊增加您在本站積分: 1鑰匙
複製連結並發給好友,以賺取推廣點數
簡單兩步驟,註冊、分享網址,即可獲得獎勵! 一起推廣文章換商品、賺$$

2

主題

1

好友

293

積分

中級會員

Rank: 3Rank: 3

UID
193984
帖子
21528
主題
2
精華
0
積分
293
楓幣
40962
威望
200
存款
0
贊助金額
0
推廣
0
GP
400
閱讀權限
30
性別
保密
在線時間
1857 小時
註冊時間
2017-6-27
最後登入
2025-12-8

2024聖誕節紀念勳章 2025端午節紀念勳章 2025中秋節紀念勳章

2
發表於 2025-2-7 10:54:38 |只看該作者
Ollama是一款功能強大的開源工具,旨在幫助用戶輕松地在本地部署和運行大型語言模型(LLM)。這個軟体很實用,感謝大大分享 !!
[發帖際遇]: pig55570 不幸喝到「英狗狼」的毒茶飲,因而獲得健康賠償 1 楓幣 幸運榜 / 衰神榜
點評回覆

使用道具 舉報

高級模式
B Color Image Link Quote Code Smilies

廣告刊登意見回饋關於我們管群招募本站規範DMCA隱私權政策詐騙防範及資料調閱

Copyright © 2011-2025 冰楓論壇, All rights reserved

免責聲明:本網站是以即時上載留言的方式運作,本站對所有留言的真實性、完整性及立場等,不負任何法律責任。

而一切留言之言論只代表留言者個人意見,並非本網站之立場,用戶不應信賴內容,並應自行判斷內容之真實性。

小黑屋|手機版|冰楓論壇

GMT+8, 2025-12-8 18:44

回頂部