प्रौद्योगिकी साझेदारी

Gemma2 - Google इत्यस्य नूतनस्य मुक्तस्रोतस्य बृहत्-परिमाणस्य भाषा-प्रतिरूपस्य कृते सम्पूर्णः अनुप्रयोगमार्गदर्शकः

2024-07-12

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

० प्रस्तावना

गेम्मा २ पूर्ववर्ती इत्यस्य आधारेण एतत् वर्धितं कार्यक्षमतां कार्यक्षमतां च प्रदाति, तथैव अभिनवविशेषतानां श्रेणीं प्रदाति, येन अनुसन्धान-व्यावहारिक-अनुप्रयोगयोः कृते विशेषतया आकर्षकं भवति गेम्मा २ इत्येतत् यत् पृथक् करोति तत् अस्ति यत् एतत् बृहत्तरस्वामित्वयुक्तैः मॉडलैः सह तुलनीयं प्रदर्शनं प्रदाति, परन्तु सह...सॉफ्टवेयर संकुलम्व्यापकसुलभतायै अधिकमामूलीहार्डवेयरसेटअपषु उपयोगाय च डिजाइनं कृतम् ।

यथा यथा अहं गेम्मा २ इत्यस्य तकनीकीविशिष्टतासु वास्तुकलासु च गहनतया गच्छामि तथा तथा तस्य डिजाइनस्य परिष्कारेण अहं अधिकाधिकं प्रभावितः अस्मि ।अस्मिन् आदर्शे उपन्यासः सहितं विविधाः उन्नताः प्रौद्योगिकीः समाविष्टाः सन्तिध्यानतन्त्रम्तथा अभिनवप्रशिक्षणस्थिरताविधयः, ये सर्वे तस्य असाधारणप्रदर्शने योगदानं ददति।

अस्मिन् व्यापकमार्गदर्शके Gemma 2 इत्यस्य वास्तुकला, प्रमुखविशेषताः, व्यावहारिकप्रयोगाः च दृष्ट्वा गहनतया अन्वेषणं भविष्यति । भवान् अनुभवी एआइ-अभ्यासकः अस्ति वा क्षेत्रे उत्साही नवीनः अस्ति वा, अस्य लेखस्य उद्देश्यं गेम्मा 2 कथं कार्यं करोति इति बहुमूल्यं अन्वेषणं प्रदातुम् अस्ति तथा च भवान् स्वस्य परियोजनासु तस्य क्षमतां कथं लाभान्वितुं शक्नोति इति।

1. गेम्मा 2 किम् ?

गेम्मा २ गूगलस्य नवीनतमः मुक्तस्रोतस्य बृहत्-परिमाणस्य अस्तिभाषा प्रतिरूप , उत्तमरीत्या निर्मितं किन्तु शक्तिशाली। इदं गूगल-मिथुन-माडल-निर्माणार्थं प्रयुक्ते एव शोध-प्रौद्योगिक्याः आधारेण निर्मितम् अस्ति, यत् अधिकसुलभ-सङ्कुल-मध्ये अत्याधुनिक-प्रदर्शनं प्रदाति । गेम्मा २ द्वयोः आकारयोः भवति : १.

गेम्मा २ ९ख: ९ अरब पैरामीटर् मॉडल्
गेम्मा २ २७ख: एकं बृहत्तरं २७ अरबं पैरामीटर् मॉडलम्

प्रत्येकं आकारः द्वयोः शैल्याः भवति : १.

मूलभूतप्रतिरूपम्: पाठदत्तांशस्य बृहत्मात्रायां पूर्वप्रशिक्षणम्
निर्देश ट्यूनिंग (IT) मॉडल: विशिष्टकार्य्येषु उत्तमप्रदर्शनार्थं सूक्ष्मरूपेण व्यवस्थितम्

गूगल एआइ स्टूडियो इत्यत्र अभिगमस्य मॉडल्गूगल ए आई स्टूडियो – गेम्मा 2
अत्र पत्रं पठन्तु: गेम्मा २ तकनीकी प्रतिवेदन

2.मुख्यविशेषताः सुधाराः च

गेम्मा २ इत्यनेन पूर्ववर्ती इत्यस्य अपेक्षया अनेकाः महत्त्वपूर्णाः सुधाराः प्रवर्तन्ते:

2.1.प्रशिक्षणदत्तांशं योजयन्तु

एतेषां प्रतिमानानाम् अधिकदत्तांशस्य प्रशिक्षणं कृतम् अस्ति:

गेम्मा २ २७ख: १३ खरब टोकनेन सह प्रशिक्षणं कृत्वा
गेम्मा २ ९ख: ८ खरब टोकनेन सह प्रशिक्षणं कृत्वा

अस्मिन् विस्तारिते दत्तांशसमूहे मुख्यतया संजालदत्तांशः (प्रायः आङ्ग्लभाषायां), कोडः, गणितं च भवति, येन भवतः आदर्शानां कार्यक्षमतां बहुमुख्यतां च सुधारयितुम् साहाय्यं भवति

2.2.स्लाइडिंग विण्डो ध्यान

गेम्मा २ एकं नवीनं ध्यानतन्त्रपद्धतिं कार्यान्वयति:

अन्यः प्रत्येकं स्तरः स्लाइडिंग् विण्डो ध्यानतन्त्रस्य उपयोगं करोति, स्थानीयसन्दर्भः च ४०९६ टोकनः अस्ति ।
वैकल्पिकस्तरः सम्पूर्णस्य ८१९२ टोकनसन्दर्भस्य कृते पूर्णतया द्विघातवैश्विकं ध्यानतन्त्रं स्वीकरोति ।

अस्य संकरपद्धतेः उद्देश्यं भवति यत् निवेशे दीर्घदूरपर्यन्तं निर्भरतां गृहीतुं क्षमता च दक्षतायाः सन्तुलनं करणीयम् ।

२.३.मृदुटोपी

प्रशिक्षणस्य स्थिरतां कार्यक्षमतां च सुधारयितुम् गेम्मा २ एकं मृदुं उच्चसीमातन्त्रं प्रवर्तयति:

def soft_cap(x, cap):
    return cap * torch.tanh(x / cap)
# Applied to attention logits
attention_logits = soft_cap(attention_logits, cap=50.0)
# Applied to final layer logits
final_logits = soft_cap(final_logits, cap=30.0)
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6

एषा प्रविधिः कठिनच्छेदनं विना लॉजिट्-इत्येतत् अतिविशालं न भवति, अतः प्रशिक्षणप्रक्रियायाः स्थिरीकरणं कुर्वन् अधिकानि सूचनानि धारयन्ति ।

  1. गेम्मा २ ९ख: ९ अरब पैरामीटर मॉडल
  2. गेम्मा २ २७ख: बृहत्तरं २७ अरबं पैरामीटर् मॉडलम्

प्रत्येकं आकारः द्वयोः शैल्याः भवति : १.

  • आधारप्रतिरूपः : पाठदत्तांशस्य बृहत्मात्रायां पूर्वप्रशिक्षितः
  • निर्देश ट्यूनिङ्ग (IT) मॉडलः : विशिष्टकार्य्येषु उत्तमप्रदर्शनार्थं सूक्ष्मरूपेण ट्यूनिङ्ग् कृतम्

2.4 ज्ञानस्य आसवनम्

9B मॉडलस्य कृते Gemma 2 ज्ञाननिष्कासनप्रौद्योगिक्याः उपयोगं करोति:

  • पूर्वप्रशिक्षणम् : 9B मॉडल् प्रारम्भिकप्रशिक्षणकाले बृहत्तरशिक्षकप्रतिरूपात् शिक्षते
  • प्रशिक्षणानन्तरं : 9B तथा 27B इत्येतयोः मॉडलयोः कार्यप्रदर्शनस्य उन्नयनार्थं ऑनलाइन नीति-आसवनस्य उपयोगः भवति

एषा प्रक्रिया लघुतरस्य प्रतिरूपस्य बृहत्तरस्य प्रतिरूपस्य कार्यक्षमतां अधिकप्रभावितेण ग्रहीतुं साहाय्यं करोति ।

2.5.प्रतिरूपविलयनम्

गेम्मा २ वार्प् इति नूतनं मॉडल् विलयिंग् प्रौद्योगिक्याः उपयोगं करोति, यत् त्रिषु चरणेषु बहुविधं मॉडल् संयोजयति:

  1. सुदृढीकरणशिक्षणस्य सूक्ष्म-समायोजनस्य समये घातीय-चलसरासरी (EMA)
  2. अनेकरणनीतिभिः सह सूक्ष्म-समायोजनस्य अनन्तरं गोलाकार-रेखीय-प्रक्षेपः (SLERP)
  3. अन्तिमपदस्य रूपेण रेखीयप्रक्षेपप्रारम्भीकरणम् (LITI)

अस्य दृष्टिकोणस्य उद्देश्यं अधिकं दृढं दृढं च अन्तिमप्रतिरूपं निर्मातुं वर्तते ।

3. कार्यप्रदर्शनमापदण्डाः

गेम्मा २ विविधमापदण्डेषु प्रभावशालिनः प्रदर्शनं प्रदर्शयति:

गेम्मा २ इत्यस्मिन् उत्तमप्रदर्शनार्थं अनुमानदक्षतायै च डिजाइनं कृत्वा पुनः परिकल्पितं वास्तुकला दृश्यते

6. गेम्मा इत्यनेन सह आरम्भः 2

स्वस्य परियोजनासु Gemma 2 इत्यस्य उपयोगं आरभ्यतुं भवतः समीपे निम्नलिखितविकल्पाः सन्ति ।

6.1.गुगल आर्टिफिशियल इन्टेलिजेन्स स्टूडियो

गेम्मा २ गूगल एआइ स्टूडियो, ९.गूगल आर्टिफिशियल इंटेलिजेंस स्टूडियो.

६.२. आलिंगन मुखम्

गेम्मा २ तथा आलिंगनमुखम् परिवर्तक पुस्तकालय एकीकरण। अत्र तस्य उपयोगः कथं भवति :

<div class="relative flex flex-col rounded-lg">
<div class="text-text-300 absolute pl-3 pt-2.5 text-xs">
from transformers import AutoTokenizer, AutoModelForCausalLM
# Load the model and tokenizer
model_name = "google/gemma-2-27b-it" # or "google/gemma-2-9b-it" for the smaller version
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForCausalLM.from_pretrained(model_name)
# Prepare input
prompt = "Explain the concept of quantum entanglement in simple terms."
inputs = tokenizer(prompt, return_tensors="pt")
# Generate text
outputs = model.generate(**inputs, max_length=200)
response = tokenizer.decode(outputs[0], skip_special_tokens=True)
print(response)
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14

6.3.TensorFlow/केरसः

TensorFlow उपयोक्तृणां कृते Gemma 2 Keras मार्गेण उपलभ्यते:

import tensorflow as tf
from keras_nlp.models import GemmaCausalLM
# Load the model
model = GemmaCausalLM.from_preset("gemma_2b_en")
# Generate text
prompt = "Explain the concept of quantum entanglement in simple terms."
output = model.generate(prompt, max_length=200)
print(output)
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8

7. उन्नतः उपयोगः : स्थानीयं RAG प्रणालीं निर्मातुं Gemma 2 इत्यस्य उपयोगं कुर्वन्तु

गेम्मा २ इत्यस्य एकः शक्तिशाली अनुप्रयोगः पुनर्प्राप्ति-वर्धित-जनरेशन (RAG) प्रणालीनां निर्माणं कुर्वन् अस्ति । Gemma 2 तथा Nomic embeddings इत्यस्य उपयोगेन सरलं, पूर्णतया देशीयं RAG प्रणालीं निर्मामः ।

Step 1: वातावरणं स्थापयन्तु

प्रथमं सुनिश्चितं कुर्वन्तु यत् भवतां कृते आवश्यकाः पुस्तकालयाः संस्थापिताः सन्ति:

pip install langchain ollama nomic chromadb
  • 1

Step 2: अनुक्रमणिका दस्तावेजाः

दस्तावेजान् संसाधितुं अनुक्रमणिकां रचयन्तु:

import os
from langchain.text_splitter import RecursiveCharacterTextSplitter
from langchain.document_loaders import DirectoryLoader
from langchain.vectorstores import Chroma
from langchain.embeddings import HuggingFaceEmbeddings
class Indexer:
    def __init__(self, directory_path):
    self.directory_path = directory_path
    self.text_splitter = RecursiveCharacterTextSplitter(chunk_size=1000, chunk_overlap=200)
    self.embeddings = HuggingFaceEmbeddings(model_name="nomic-ai/nomic-embed-text-v1")
  
def load_and_split_documents(self):
    loader = DirectoryLoader(self.directory_path, glob="**/*.txt")
    documents = loader.load()
    return self.text_splitter.split_documents(documents)
def create_vector_store(self, documents):
    return Chroma.from_documents(documents, self.embeddings, persist_directory="./chroma_db")
def index(self):
    documents = self.load_and_split_documents()
    vector_store = self.create_vector_store(documents)
    vector_store.persist()
    return vector_store
# Usage
indexer = Indexer("path/to/your/documents")
vector_store = indexer.index()
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  • 22
  • 23
  • 24
  • 25

Step 3: RAG प्रणालीं स्थापयन्तु

अधुना, Gemma 2 इत्यस्य उपयोगेन RAG प्रणालीं रचयन्तु:

from langchain.llms import Ollama
from langchain.chains import RetrievalQA
from langchain.prompts import PromptTemplate
class RAGSystem:
    def __init__(self, vector_store):
        self.vector_store = vector_store
        self.llm = Ollama(model="gemma2:9b")
        self.retriever = self.vector_store.as_retriever(search_kwargs={"k": 3})
self.template = """Use the following pieces of context to answer the question at the end.
If you don't know the answer, just say that you don't know, don't try to make up an answer.
{context}
Question: {question}
Answer: """
self.qa_prompt = PromptTemplate(
template=self.template, input_variables=["context", "question"]
)
self.qa_chain = RetrievalQA.from_chain_type(
llm=self.llm,
chain_type="stuff",
retriever=self.retriever,
return_source_documents=True,
chain_type_kwargs={"prompt": self.qa_prompt}
)
def query(self, question):
return self.qa_chain({"query": question})
# Usage
rag_system = RAGSystem(vector_store)
response = rag_system.query("What is the capital of France?")
print(response["result"])
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  • 22
  • 23
  • 24
  • 25
  • 26
  • 27
  • 28
  • 29

एषा RAG प्रणाली Gemma 2 to Ollama इत्यस्य उपयोगं भाषाप्रतिरूपरूपेण करोति तथा च दस्तावेजपुनर्प्राप्त्यर्थं Nomic एम्बेडिंग् इत्यस्य उपयोगं करोति । एतत् भवन्तं अनुक्रमितदस्तावेजानां आधारेण प्रश्नान् पृच्छितुं प्रासंगिकस्रोताभ्यां सन्दर्भात्मकानि उत्तराणि च दातुं शक्नोति ।

सूक्ष्म-समायोजनं गेम्मा २

विशिष्टकार्यस्य अथवा डोमेनस्य कृते, भवद्भिः Gemma 2 इत्यस्य सूक्ष्म-समायोजनं कर्तुं शक्यते । अत्र Hugging Face Transformers पुस्तकालयस्य उपयोगेन मूलभूतं उदाहरणम् अस्ति:

from transformers import AutoTokenizer, AutoModelForCausalLM, TrainingArguments, Trainer
from datasets import load_dataset
# Load model and tokenizer
model_name = "google/gemma-2-9b-it"
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForCausalLM.from_pretrained(model_name)
# Prepare dataset
dataset = load_dataset("your_dataset")
def tokenize_function(examples):
return tokenizer(examples["text"], padding="max_length", truncation=True)
tokenized_datasets = dataset.map(tokenize_function, batched=True)
# Set up training arguments
training_args = TrainingArguments(
output_dir="./results",
num_train_epochs=3,
per_device_train_batch_size=4,
per_device_eval_batch_size=4,
warmup_steps=500,
weight_decay=0.01,
logging_dir="./logs",
)
# Initialize Trainer
trainer = Trainer(
model=model,
args=training_args,
train_dataset=tokenized_datasets["train"],
eval_dataset=tokenized_datasets["test"],
)
# Start fine-tuning
trainer.train()
# Save the fine-tuned model
model.save_pretrained("./fine_tuned_gemma2")
tokenizer.save_pretrained("./fine_tuned_gemma2")
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  • 22
  • 23
  • 24
  • 25
  • 26
  • 27
  • 28
  • 29
  • 30
  • 31
  • 32
  • 33

विशिष्टापेक्षाणां गणनासंसाधनानाञ्च आधारेण प्रशिक्षणमापदण्डान् समायोजयन्तु।

नैतिकविचाराः सीमाः च

यद्यपि गेम्मा २ प्रभावशालिनीं कार्यक्षमतां प्रदाति तथापि तस्य सीमानां नैतिकविचारानाञ्च विषये अवगतं भवितुमर्हति:

  • पूर्वाग्रहं : सर्वेषां भाषाप्रतिमानानाम् इव गेम्मा २ अपि स्वस्य प्रशिक्षणदत्तांशेषु उपस्थितान् पूर्वाग्रहान् प्रतिबिम्बयितुं शक्नोति। तस्य उत्पादनस्य सदैव समीक्षात्मकरूपेण मूल्याङ्कनं कुर्वन्तु।
  • तथ्यात्मकसटीकता : यद्यपि गेम्मा २ शक्तिशाली अस्ति तथापि कदाचित् अशुद्धानि अथवा असङ्गतानि सूचनानि उत्पादयति । कृपया विश्वसनीयस्रोताभ्यां महत्त्वपूर्णतथ्यानि सत्यापयन्तु।
  • सन्दर्भदीर्घता : गेम्मा २ इत्यस्य सन्दर्भदीर्घता ८१९२ टोकन अस्ति । दीर्घतरदस्तावेजानां वा वार्तालापानां वा कृते सन्दर्भस्य प्रभावीरूपेण प्रबन्धनार्थं भवद्भिः रणनीतयः कार्यान्वितुं आवश्यकाः भवितुम् अर्हन्ति ।
  • कम्प्यूटिंग संसाधन: विशेषतः 27B मॉडल् कृते प्रभावी अनुमानस्य सूक्ष्म-समायोजनस्य च कृते महत्त्वपूर्ण-गणना-संसाधनानाम् आवश्यकता भवितुम् अर्हति ।
  • उत्तरदायी प्रयोग: Google इत्यस्य Responsible AI अभ्यासानां पालनम् कुर्वन्तु तथा च Gemma 2 इत्यस्य भवतः उपयोगः नैतिक AI सिद्धान्तैः सह सङ्गतः इति सुनिश्चितं कुर्वन्तु।

8.उपसंहारः

गेम्मा 2 इत्यस्य उन्नतविशेषताः, यथा स्लाइडिंग् विण्डो ध्यानं, मृदुः उपरितनसीमाः, नवीनमाडलविलयनप्रविधयः च, प्राकृतिकभाषासंसाधनकार्यस्य विस्तृतश्रेणीं कृते एकं शक्तिशालीं साधनं कुर्वन्ति

स्वस्य परियोजनासु Gemma 2 इत्यस्य लाभं गृहीत्वा, भवेत् तत् सरल-अनुमानस्य माध्यमेन, जटिल-RAG-प्रणालीनां माध्यमेन, अथवा डोमेन-विशिष्टस्य सूक्ष्म-समायोजित-माडलस्य माध्यमेन, भवान् स्वस्य आँकडानां प्रक्रियाणां च नियन्त्रणं निर्वाहयन् SOTA AI इत्यस्य शक्तिं लाभान्वितुं शक्नोति

मूल पता : १.https://www.unite.ai/complete-guide-on-gemma-2-googles-नव-खुले-बृहत्-भाषा-प्रतिरूप/