Technology sharing

LLM locales cum FastAPI, Llama.cpp et Langchain .

2024-07-11

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

Quaeritur quid sit:

Locorum magnae linguae exempla passim utentes FastAPI, Llama.cpp et Langchain

Problema background:

Habeo FastAPI setup cum Llama.cpp et Langchain. Nunc in responsionibus FastAPI fluere cupio. Opera cum Llama.cpp in mea terminali, sed cum responsione FastAPI eam efficere non potui.

FastAPI posui utens Llama.cpp et Langchain. Nunc volo ut in responsione FastAPI diffluant. In meo termino, effusis cum Llama.cpp operatur, sed non possum illam cum responsione FastAPI laborare.

Maxime tutorials feruntur ut in exemplar OpenAI diffluant, sed locali LLM (Mistral quantus) cum llama.cpp usus sum. Callbackhandler modificare me videor, sed nihil operatum consequat. Hic codex meus est:

Maxime tutorials focus in quam ut exempla effusa utendo OpenAI, sed exemplar linguae magnae indigena (Mistral quantum) cum llama.cpp. Callbackhandler modificari opus puto, sed nihil invenio quod opera doceo. Infra codicem meum est:

  1. from fastapi import FastAPI, Request, Response
  2. from langchain_community.llms import LlamaCpp
  3. from langchain.callbacks.manager import CallbackManager
  4. from langchain.callbacks.streaming_stdout import StreamingStdOutCallbackHandler
  5. import copy
  6. from langchain.chains import LLMChain
  7. from langchain.prompts import PromptTemplate
  8. model_path = "../modelle/mixtral-8x7b-instruct-v0.1.Q5_K_M.gguf"
  9. prompt= """