Skip to content

Latest commit

 

History

History
16 lines (8 loc) · 1.52 KB

Local_Server_Inference.md

File metadata and controls

16 lines (8 loc) · 1.52 KB

在本地伺服器中推論 Phi-3

我們可以在本地伺服器上部署 Phi-3。用戶可以選擇 OllamaLM Studio 解決方案,或者他們可以編寫自己的程式碼。你可以通過 Semantic KernelLangchain 連接 Phi-3 的本地服務來建構 Copilot 應用程式。

使用 Semantic Kernel 存取 Phi-3-mini

在 Copilot 應用程式中,我們通過 Semantic Kernel / LangChain 建立應用程式。這種類型的應用程式框架通常與 Azure OpenAI Service / OpenAI 模型相容,並且也可以支援 Hugging Face 上的開源模型和本地模型。如果我們想使用 Semantic Kernel 訪問 Phi-3-mini 該怎麼辦?以 .NET 為例,我們可以將其與 Semantic Kernel 中的 Hugging Face Connector 結合使用。預設情況下,它可以對應 Hugging Face 上的模型 id(第一次使用時,模型將從 Hugging Face 下載,這需要很長時間)。你也可以連接到已建構的本地服務。相比之下,我們建議使用後者,因為它具有更高的自主性,特別是在企業應用中。

sk

從圖中通過 Semantic Kernel 訪問本地服務可以輕鬆連接到自建的 Phi-3-mini 模型伺服器。這是執行結果

skrun

範例程式碼 https://github.com/kinfey/Phi3MiniSamples/tree/main/semantickernel