Suuri malli on vahvin tekoäly vuoden 2024 ensimmäisellä puoliskolla, ja Qwen2 on hiljattain julkaistu suuri avoimen lähdekoodin malli, jonka väitetään olevan Kiinan vahvin. Tämä on ensimmäinen artikkeli suuresta mallisarjasta. Se on suunniteltu ottamaan nopeasti käyttöön ja katsomaan, kuinka äskettäin julkaistut suuret mallit toimivat.
Valitse Windos, napsauta Lataa Windowsille (esikatselu), fq on paljon nopeampi täällä
Oletusasennus
2. Lataa ja asenna Qwen2
1. Lataa Qwen2
Syötä virallinen opetusohjelma: https://qwen.readthedocs.io/zh-cn/latest/getting_started/installation.html
Napsauta ensin Tehokkuusarviointia alareunassa, katso kunkin mallin käyttämää videomuistia ja valitse sinulle sopiva. Esimerkiksi näytönohjain on 4070 ja siinä on 12G videomuisti. Ohjeita GPTQ-Int4.
Näet erilaisia jälkiliitteitä, q” + painojen tallentamiseen käytettyjen numeroiden määrä (tarkkuus) + tietty variantti, mitä suurempi numero, sitä parempi suorituskyky.
Mitä suurempi luku, sitä suurempi tarkkuus k parantaa tarkkuutta 2 numerolla kaikissa huomio- ja feed_forward-tensoreissa, ja m parantaa tarkkuutta 2 numerolla puolessa huomio- ja feed_forward-tensoreista.
Valitse malli omien tarpeidesi mukaan. Valitsin suoraan Q8:n tästä.
2. Suorita Qwen2
Luo uusi kansio, anna sille englanninkielinen nimi (qwen) ja siirrä qwen2-7b-instruct-q8_0.gguf kansioon.
Luo kansioon uusi tiedosto nimeltä Modelfile ja täytä se
FROM ./qwen2-7b-instruct-q8_0.gguf
1
Luo sitten Qwen2-7B-malli komentorivillä ollaman kautta:
ollama create Qwen2-7B -f ./Modelfile
1
Jos menestys näkyy, se tarkoittaa, että luominen on onnistunut.
Suorita, anna komento
ollama run Qwen2-7B
1
Kun valintaikkuna tulee näkyviin, voit keskustella
Jos haluat nähdä mitä isoja malleja on saatavilla paikallisesti: ollama lista Jos haluat poistaa tämän mallin: ollama rm xxx Jos haluat nähdä mitä suuria malleja ajettiin: ollama ps
Mutta DOS-keskustelu tuntuu aina samalta kuin viime vuosisadalla, joten GPT:n tunteen löytämiseksi jatkamme sen toteuttamista verkossa.