Il modello di grandi dimensioni è l’IA più potente a partire dalla prima metà del 2024 e Qwen2 è un modello open source di grandi dimensioni appena rilasciato che si ritiene sia il più potente in Cina. Questo è il primo articolo della serie di modelli di grandi dimensioni. È progettato per distribuire rapidamente e vedere come si comportano i modelli di grandi dimensioni rilasciati di recente. Se l'effetto è OK, ottimizzare i propri GPT.
Seleziona Windos, fai clic su Download per Windows (Anteprima), qui fq sarà molto più veloce
Installazione di default
2. Scarica e installa Qwen2
1. Scarica Qwen2
Accedi al tutorial ufficiale: https://qwen.readthedocs.io/zh-cn/latest/getting_started/installation.html
Per prima cosa fai clic su Valutazione efficienza in basso, guarda la memoria video occupata da ciascun modello e scegli quella più adatta a te Ad esempio, la mia scheda grafica è 4070 e ha una memoria video 12G. Il modello che ho scelto è Qwen2-7B-. Istruire GPTQ-Int4.
Vedrai diversi suffissi, q” + il numero di cifre utilizzate per memorizzare i pesi (precisione) + la variante specifica, maggiore è il numero migliore è la prestazione.
Maggiore è il numero, maggiore è la precisione. k migliora la precisione di 2 cifre su tutti i tensori attenzione e feed_forward e m migliora la precisione di 2 cifre su metà dei tensori attenzione e feed_forward.
Scegli un modello in base alle tue esigenze Ho scelto direttamente Q8 qui.
2. Eseguire Qwen2
Crea una nuova cartella, assegnale un nome inglese (qwen) e sposta qwen2-7b-instruct-q8_0.gguf nella cartella.
Crea un nuovo file denominato Modelfile nella cartella e compilalo
FROM ./qwen2-7b-instruct-q8_0.gguf
1
Quindi utilizza la riga di comando per creare il modello Qwen2-7B tramite ollama:
ollama create Qwen2-7B -f ./Modelfile
1
Se viene visualizzato il successo, significa che la creazione è riuscita.
Corri, inserisci il comando
ollama run Qwen2-7B
1
Quando viene visualizzata una finestra di dialogo, puoi chattare
Se vuoi vedere quali modelli grandi sono disponibili localmente: elenco ollama Se vuoi eliminare questo modello: ollama rm xxx Se vuoi vedere quali modelli di grandi dimensioni sono stati eseguiti: ollama ps
Ma chattare in DOS è sempre uguale a chattare nel secolo scorso, quindi per ritrovare la sensazione di GPT, continueremo a implementarlo nel web.