Model besar adalah AI terkuat pada paruh pertama tahun 2024, dan Qwen2 adalah model open source besar yang baru dirilis yang diklaim sebagai yang terkuat di Tiongkok. Ini adalah artikel pertama dalam seri model besar. Artikel ini dirancang untuk menerapkan dengan cepat dan melihat kinerja model besar yang baru dirilis. Jika efeknya oke, sesuaikan GPT Anda sendiri.
Pilih Windos, klik Download for Windows (Preview), fq akan jauh lebih cepat di sini
Instalasi bawaan
2. Unduh dan instal Qwen2
1. Unduh Qwen2
Masuk ke tutorial resmi: https://qwen.readthedocs.io/zh-cn/latest/getting_started/installation.html
Klik pertama pada Evaluasi Efisiensi di bagian bawah, lihat memori video yang digunakan oleh masing-masing model, dan pilih salah satu yang cocok untuk Anda. Misalnya, kartu grafis saya 4070 dan memiliki memori video 12G. Model yang saya pilih adalah Qwen2-7B-. Instruksikan GPTQ-Int4.
Anda akan melihat sufiks yang berbeda, q” + jumlah digit yang digunakan untuk menyimpan bobot (presisi) + varian spesifik, semakin tinggi angkanya semakin baik performanya.
Semakin besar angkanya, semakin tinggi akurasinya. k meningkatkan akurasi sebesar 2 digit pada semua tensor perhatian dan feed_forward, dan m meningkatkan akurasi sebesar 2 digit pada separuh tensor perhatian dan feed_forward.
Pilih model sesuai kebutuhan Anda sendiri. Saya langsung memilih Q8 di sini.
2. Jalankan Qwen2
Buat folder baru, beri nama bahasa Inggris (qwen), dan pindahkan qwen2-7b-instruct-q8_0.gguf ke dalam folder tersebut.
Buat file baru bernama Modelfile di folder dan isi
FROM ./qwen2-7b-instruct-q8_0.gguf
1
Kemudian gunakan baris perintah untuk membuat model Qwen2-7B melalui ollama:
ollama create Qwen2-7B -f ./Modelfile
1
Jika muncul kesuksesan berarti penciptaan berhasil.
Jalankan, masukkan perintah
ollama run Qwen2-7B
1
Ketika kotak dialog muncul, Anda dapat mengobrol
Jika Anda ingin melihat model besar apa yang tersedia secara lokal: daftar ollama Jika Anda ingin menghapus model ini: ollama rm xxx Jika Anda ingin melihat model besar mana yang dijalankan: ollama ps
Namun ngobrol di DOS selalu terasa sama dengan ngobrol di abad lalu, jadi untuk merasakan sensasi GPT, kami akan terus menerapkannya di web.