2024-07-12
한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina
गेम्मा २ पूर्ववर्ती इत्यस्य आधारेण एतत् वर्धितं कार्यक्षमतां कार्यक्षमतां च प्रदाति, तथैव अभिनवविशेषतानां श्रेणीं प्रदाति, येन अनुसन्धान-व्यावहारिक-अनुप्रयोगयोः कृते विशेषतया आकर्षकं भवति गेम्मा २ इत्येतत् यत् पृथक् करोति तत् अस्ति यत् एतत् बृहत्तरस्वामित्वयुक्तैः मॉडलैः सह तुलनीयं प्रदर्शनं प्रदाति, परन्तु सह...सॉफ्टवेयर संकुलम्व्यापकसुलभतायै अधिकमामूलीहार्डवेयरसेटअपषु उपयोगाय च डिजाइनं कृतम् ।
यथा यथा अहं गेम्मा २ इत्यस्य तकनीकीविशिष्टतासु वास्तुकलासु च गहनतया गच्छामि तथा तथा तस्य डिजाइनस्य परिष्कारेण अहं अधिकाधिकं प्रभावितः अस्मि ।अस्मिन् आदर्शे उपन्यासः सहितं विविधाः उन्नताः प्रौद्योगिकीः समाविष्टाः सन्तिध्यानतन्त्रम्तथा अभिनवप्रशिक्षणस्थिरताविधयः, ये सर्वे तस्य असाधारणप्रदर्शने योगदानं ददति।
अस्मिन् व्यापकमार्गदर्शके Gemma 2 इत्यस्य वास्तुकला, प्रमुखविशेषताः, व्यावहारिकप्रयोगाः च दृष्ट्वा गहनतया अन्वेषणं भविष्यति । भवान् अनुभवी एआइ-अभ्यासकः अस्ति वा क्षेत्रे उत्साही नवीनः अस्ति वा, अस्य लेखस्य उद्देश्यं गेम्मा 2 कथं कार्यं करोति इति बहुमूल्यं अन्वेषणं प्रदातुम् अस्ति तथा च भवान् स्वस्य परियोजनासु तस्य क्षमतां कथं लाभान्वितुं शक्नोति इति।
गेम्मा २ गूगलस्य नवीनतमः मुक्तस्रोतस्य बृहत्-परिमाणस्य अस्तिभाषा प्रतिरूप , उत्तमरीत्या निर्मितं किन्तु शक्तिशाली। इदं गूगल-मिथुन-माडल-निर्माणार्थं प्रयुक्ते एव शोध-प्रौद्योगिक्याः आधारेण निर्मितम् अस्ति, यत् अधिकसुलभ-सङ्कुल-मध्ये अत्याधुनिक-प्रदर्शनं प्रदाति । गेम्मा २ द्वयोः आकारयोः भवति : १.
गेम्मा २ ९ख: ९ अरब पैरामीटर् मॉडल्
गेम्मा २ २७ख: एकं बृहत्तरं २७ अरबं पैरामीटर् मॉडलम्
प्रत्येकं आकारः द्वयोः शैल्याः भवति : १.
मूलभूतप्रतिरूपम्: पाठदत्तांशस्य बृहत्मात्रायां पूर्वप्रशिक्षणम्
निर्देश ट्यूनिंग (IT) मॉडल: विशिष्टकार्य्येषु उत्तमप्रदर्शनार्थं सूक्ष्मरूपेण व्यवस्थितम्
गूगल एआइ स्टूडियो इत्यत्र अभिगमस्य मॉडल्:गूगल ए आई स्टूडियो – गेम्मा 2
अत्र पत्रं पठन्तु: गेम्मा २ तकनीकी प्रतिवेदन
गेम्मा २ इत्यनेन पूर्ववर्ती इत्यस्य अपेक्षया अनेकाः महत्त्वपूर्णाः सुधाराः प्रवर्तन्ते:
एतेषां प्रतिमानानाम् अधिकदत्तांशस्य प्रशिक्षणं कृतम् अस्ति:
गेम्मा २ २७ख: १३ खरब टोकनेन सह प्रशिक्षणं कृत्वा
गेम्मा २ ९ख: ८ खरब टोकनेन सह प्रशिक्षणं कृत्वा
अस्मिन् विस्तारिते दत्तांशसमूहे मुख्यतया संजालदत्तांशः (प्रायः आङ्ग्लभाषायां), कोडः, गणितं च भवति, येन भवतः आदर्शानां कार्यक्षमतां बहुमुख्यतां च सुधारयितुम् साहाय्यं भवति
गेम्मा २ एकं नवीनं ध्यानतन्त्रपद्धतिं कार्यान्वयति:
अन्यः प्रत्येकं स्तरः स्लाइडिंग् विण्डो ध्यानतन्त्रस्य उपयोगं करोति, स्थानीयसन्दर्भः च ४०९६ टोकनः अस्ति ।
वैकल्पिकस्तरः सम्पूर्णस्य ८१९२ टोकनसन्दर्भस्य कृते पूर्णतया द्विघातवैश्विकं ध्यानतन्त्रं स्वीकरोति ।
अस्य संकरपद्धतेः उद्देश्यं भवति यत् निवेशे दीर्घदूरपर्यन्तं निर्भरतां गृहीतुं क्षमता च दक्षतायाः सन्तुलनं करणीयम् ।
प्रशिक्षणस्य स्थिरतां कार्यक्षमतां च सुधारयितुम् गेम्मा २ एकं मृदुं उच्चसीमातन्त्रं प्रवर्तयति:
def soft_cap(x, cap):
return cap * torch.tanh(x / cap)
# Applied to attention logits
attention_logits = soft_cap(attention_logits, cap=50.0)
# Applied to final layer logits
final_logits = soft_cap(final_logits, cap=30.0)
एषा प्रविधिः कठिनच्छेदनं विना लॉजिट्-इत्येतत् अतिविशालं न भवति, अतः प्रशिक्षणप्रक्रियायाः स्थिरीकरणं कुर्वन् अधिकानि सूचनानि धारयन्ति ।
प्रत्येकं आकारः द्वयोः शैल्याः भवति : १.
9B मॉडलस्य कृते Gemma 2 ज्ञाननिष्कासनप्रौद्योगिक्याः उपयोगं करोति:
एषा प्रक्रिया लघुतरस्य प्रतिरूपस्य बृहत्तरस्य प्रतिरूपस्य कार्यक्षमतां अधिकप्रभावितेण ग्रहीतुं साहाय्यं करोति ।
गेम्मा २ वार्प् इति नूतनं मॉडल् विलयिंग् प्रौद्योगिक्याः उपयोगं करोति, यत् त्रिषु चरणेषु बहुविधं मॉडल् संयोजयति:
अस्य दृष्टिकोणस्य उद्देश्यं अधिकं दृढं दृढं च अन्तिमप्रतिरूपं निर्मातुं वर्तते ।
गेम्मा २ विविधमापदण्डेषु प्रभावशालिनः प्रदर्शनं प्रदर्शयति:
गेम्मा २ इत्यस्मिन् उत्तमप्रदर्शनार्थं अनुमानदक्षतायै च डिजाइनं कृत्वा पुनः परिकल्पितं वास्तुकला दृश्यते
स्वस्य परियोजनासु Gemma 2 इत्यस्य उपयोगं आरभ्यतुं भवतः समीपे निम्नलिखितविकल्पाः सन्ति ।
गेम्मा २ गूगल एआइ स्टूडियो, ९.गूगल आर्टिफिशियल इंटेलिजेंस स्टूडियो.
गेम्मा २ तथा आलिंगनमुखम् परिवर्तक पुस्तकालय एकीकरण। अत्र तस्य उपयोगः कथं भवति :
<div class="relative flex flex-col rounded-lg">
<div class="text-text-300 absolute pl-3 pt-2.5 text-xs">
from transformers import AutoTokenizer, AutoModelForCausalLM
# Load the model and tokenizer
model_name = "google/gemma-2-27b-it" # or "google/gemma-2-9b-it" for the smaller version
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForCausalLM.from_pretrained(model_name)
# Prepare input
prompt = "Explain the concept of quantum entanglement in simple terms."
inputs = tokenizer(prompt, return_tensors="pt")
# Generate text
outputs = model.generate(**inputs, max_length=200)
response = tokenizer.decode(outputs[0], skip_special_tokens=True)
print(response)
TensorFlow उपयोक्तृणां कृते Gemma 2 Keras मार्गेण उपलभ्यते:
import tensorflow as tf
from keras_nlp.models import GemmaCausalLM
# Load the model
model = GemmaCausalLM.from_preset("gemma_2b_en")
# Generate text
prompt = "Explain the concept of quantum entanglement in simple terms."
output = model.generate(prompt, max_length=200)
print(output)
गेम्मा २ इत्यस्य एकः शक्तिशाली अनुप्रयोगः पुनर्प्राप्ति-वर्धित-जनरेशन (RAG) प्रणालीनां निर्माणं कुर्वन् अस्ति । Gemma 2 तथा Nomic embeddings इत्यस्य उपयोगेन सरलं, पूर्णतया देशीयं RAG प्रणालीं निर्मामः ।
प्रथमं सुनिश्चितं कुर्वन्तु यत् भवतां कृते आवश्यकाः पुस्तकालयाः संस्थापिताः सन्ति:
pip install langchain ollama nomic chromadb
दस्तावेजान् संसाधितुं अनुक्रमणिकां रचयन्तु:
import os
from langchain.text_splitter import RecursiveCharacterTextSplitter
from langchain.document_loaders import DirectoryLoader
from langchain.vectorstores import Chroma
from langchain.embeddings import HuggingFaceEmbeddings
class Indexer:
def __init__(self, directory_path):
self.directory_path = directory_path
self.text_splitter = RecursiveCharacterTextSplitter(chunk_size=1000, chunk_overlap=200)
self.embeddings = HuggingFaceEmbeddings(model_name="nomic-ai/nomic-embed-text-v1")
def load_and_split_documents(self):
loader = DirectoryLoader(self.directory_path, glob="**/*.txt")
documents = loader.load()
return self.text_splitter.split_documents(documents)
def create_vector_store(self, documents):
return Chroma.from_documents(documents, self.embeddings, persist_directory="./chroma_db")
def index(self):
documents = self.load_and_split_documents()
vector_store = self.create_vector_store(documents)
vector_store.persist()
return vector_store
# Usage
indexer = Indexer("path/to/your/documents")
vector_store = indexer.index()
अधुना, Gemma 2 इत्यस्य उपयोगेन RAG प्रणालीं रचयन्तु:
from langchain.llms import Ollama
from langchain.chains import RetrievalQA
from langchain.prompts import PromptTemplate
class RAGSystem:
def __init__(self, vector_store):
self.vector_store = vector_store
self.llm = Ollama(model="gemma2:9b")
self.retriever = self.vector_store.as_retriever(search_kwargs={"k": 3})
self.template = """Use the following pieces of context to answer the question at the end.
If you don't know the answer, just say that you don't know, don't try to make up an answer.
{context}
Question: {question}
Answer: """
self.qa_prompt = PromptTemplate(
template=self.template, input_variables=["context", "question"]
)
self.qa_chain = RetrievalQA.from_chain_type(
llm=self.llm,
chain_type="stuff",
retriever=self.retriever,
return_source_documents=True,
chain_type_kwargs={"prompt": self.qa_prompt}
)
def query(self, question):
return self.qa_chain({"query": question})
# Usage
rag_system = RAGSystem(vector_store)
response = rag_system.query("What is the capital of France?")
print(response["result"])
एषा RAG प्रणाली Gemma 2 to Ollama इत्यस्य उपयोगं भाषाप्रतिरूपरूपेण करोति तथा च दस्तावेजपुनर्प्राप्त्यर्थं Nomic एम्बेडिंग् इत्यस्य उपयोगं करोति । एतत् भवन्तं अनुक्रमितदस्तावेजानां आधारेण प्रश्नान् पृच्छितुं प्रासंगिकस्रोताभ्यां सन्दर्भात्मकानि उत्तराणि च दातुं शक्नोति ।
विशिष्टकार्यस्य अथवा डोमेनस्य कृते, भवद्भिः Gemma 2 इत्यस्य सूक्ष्म-समायोजनं कर्तुं शक्यते । अत्र Hugging Face Transformers पुस्तकालयस्य उपयोगेन मूलभूतं उदाहरणम् अस्ति:
from transformers import AutoTokenizer, AutoModelForCausalLM, TrainingArguments, Trainer
from datasets import load_dataset
# Load model and tokenizer
model_name = "google/gemma-2-9b-it"
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForCausalLM.from_pretrained(model_name)
# Prepare dataset
dataset = load_dataset("your_dataset")
def tokenize_function(examples):
return tokenizer(examples["text"], padding="max_length", truncation=True)
tokenized_datasets = dataset.map(tokenize_function, batched=True)
# Set up training arguments
training_args = TrainingArguments(
output_dir="./results",
num_train_epochs=3,
per_device_train_batch_size=4,
per_device_eval_batch_size=4,
warmup_steps=500,
weight_decay=0.01,
logging_dir="./logs",
)
# Initialize Trainer
trainer = Trainer(
model=model,
args=training_args,
train_dataset=tokenized_datasets["train"],
eval_dataset=tokenized_datasets["test"],
)
# Start fine-tuning
trainer.train()
# Save the fine-tuned model
model.save_pretrained("./fine_tuned_gemma2")
tokenizer.save_pretrained("./fine_tuned_gemma2")
विशिष्टापेक्षाणां गणनासंसाधनानाञ्च आधारेण प्रशिक्षणमापदण्डान् समायोजयन्तु।
यद्यपि गेम्मा २ प्रभावशालिनीं कार्यक्षमतां प्रदाति तथापि तस्य सीमानां नैतिकविचारानाञ्च विषये अवगतं भवितुमर्हति:
गेम्मा 2 इत्यस्य उन्नतविशेषताः, यथा स्लाइडिंग् विण्डो ध्यानं, मृदुः उपरितनसीमाः, नवीनमाडलविलयनप्रविधयः च, प्राकृतिकभाषासंसाधनकार्यस्य विस्तृतश्रेणीं कृते एकं शक्तिशालीं साधनं कुर्वन्ति
स्वस्य परियोजनासु Gemma 2 इत्यस्य लाभं गृहीत्वा, भवेत् तत् सरल-अनुमानस्य माध्यमेन, जटिल-RAG-प्रणालीनां माध्यमेन, अथवा डोमेन-विशिष्टस्य सूक्ष्म-समायोजित-माडलस्य माध्यमेन, भवान् स्वस्य आँकडानां प्रक्रियाणां च नियन्त्रणं निर्वाहयन् SOTA AI इत्यस्य शक्तिं लाभान्वितुं शक्नोति
मूल पता : १.https://www.unite.ai/complete-guide-on-gemma-2-googles-नव-खुले-बृहत्-भाषा-प्रतिरूप/