प्रौद्योगिकी साझेदारी

Deep LearningDeepLearning बहु रेखीय प्रतिगमन अध्ययन टिप्पणियाँ

2024-07-12

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

बहुआयामी विशेषताएँ

चर एवं पद

स्तम्भ विशेषता xगुणसंख्या n x ⃗ वेक्{x}x (अहम्‌)पङ्क्ति सदिशएकं निश्चितं मूल्यम् x ⃗ जी वेच{x}_j^ix अहम्‌उपरि अधः च
माध्य μमानकीकरणम्मानक विचलन σसिग्मा (σ) २.

सूत्रम्

w ⃗ वेक्{व}w = [व1 w2 w3 …]
x ⃗ वेक्{x}x = [x1 x2 x3 …]

fw ⃗ , ख ( x ⃗ ) = w ⃗ ∗ x ⃗ + b = w 1 x 1 + w 2 x 2 + ... + wnxn + b f_{vec{w},b} (vec{x}) = vec{ w} * वेक्{x} + ख = w_1x_1 + w_2x_2 + ... + w _nx_n + bw ,(x )=w x +=w1x1+w2x2++wx+

बहु रेखीय प्रतिगमन

import numpy
f = np.dot(w, x) + b
  • 1
  • 2

नोटः- n बृहत् भवति चेत् अतीव द्रुतं भवति (समानांतरप्रक्रियाकरणम्)

सामान्य समीकरण विधि

  1. १००० तः अधिकं अकुशलम् अस्ति
  2. अन्येषु अल्गोरिदम्षु यथा लॉजिस्टिक रिग्रेशन, न्यूरल नेटवर्क् इत्यादिषु सामान्यीकरणं कर्तुं न शक्यते ।
  3. न पुनरावृत्तिः

wn = wn − α 1 m ∑ i = 1 mfw ⃗ , b ( x ⃗ ( i ) − y ( i ) ) xn ( i ) w_n = w_n - αdfrac{1}{m} शिखर_{i=1}^mf_ {वेक{व},ख}(वेक{x}^{(i)}-य^{(i)})x_n^{(i)}w=wαपु1अहम्‌=1पुw ,(x (अहम्‌)य्(अहम्‌))x(अहम्‌)

ख = ख − α 1 m ∑ i = 1 m ( fw ⃗ , b ( x ⃗ ( i ) − y ( i ) ) ख = ख - α{dfrac{1}{m}}राशि_{i=1}^ m(f_{vec{w},b}(vec{x}^{(i)}-y^{(i)})=αपु1अहम्‌=1पु(w ,(x (अहम्‌)य्(अहम्‌))

स्वतन्त्रचरानाम् बृहत्तरपरिधिसम्बद्धं भारं लघुतरं भवति, स्वतन्त्रचरानाम् लघुतरपरिधिसम्बद्धं भारं च बृहत्तरं भवति

सामान्यीकरणस्य अर्थः

स्वतन्त्रचरस्य भारं विरुद्धं [0, 1] अन्वेष्टुं श्रेणीयाः अधिकतममूल्येन विभज्य

अब्सिस्सा : १. x 1 = x 1 − μ 1 2000 − 300 x_1 = dfrac{x_1-μ_1}{2000-300}x1=2000300x1μ1 य-अक्षः : १. x 2 = x 2 − μ 2 5 − 0 x_2 = dfrac{x_2 - μ_2}{5-0}x2=50x2μ2

− ०.१८ ≤ x १ ≤ ०.८२ -०.१८ले x_१ले०.८२0.18x10.82 − ०.४६ ≤ x २ ≤ ०.५४ -०.४६ले x_२ले०.५४0.46x20.54

Z-स्कोर सामान्यीकरण

300 ≤ x 1 ≤ 2000 300le x_1le2000300x12000 ० ≤ x २ ≤ ५ ०ले x_२ले५0x25

x 1 = x 1 − μ 1 σ 1 x1 = dfrac{x_1-μ_1}{σ_1} .x1=σ1x1μ1 − ०.६७ ≤ x १ ≤ ३.१ -०.६७ले x_१ले३.१0.67x13.1

सर्वेषां विशेषतानां मूल्यानि स्केलिंग् मार्गेण समानपरिधिमध्ये स्थापयितुं प्रयतध्वं, येन पूर्वानुमानितमूल्यानां उपरि तेषां परिवर्तनानां प्रभावः (-3,3) इत्यस्य समीपे भवति ।

यदि मूल्यकार्यं J बृहत् भवति तर्हि तस्य अर्थः भवति यत् चरणस्य आकारः (शिक्षणदरः) अनुचितः अस्ति अथवा कोडः गलतः अस्ति ।

अत्र चित्रविवरणं सम्मिलितं कुर्वन्तु

नोटः- यन्त्रे यन्त्रे पुनरावृत्तीनां संख्या भिन्ना भवति

पुनरावृत्तिबिन्दुनिर्धारणाय वक्रानाम् आकर्षणस्य अतिरिक्तं स्वचालित-अभिसरणपरीक्षणस्य अपि उपयोगः कर्तुं शक्यते
ε समं भवतु 1 0 − 3 10^{-3} 103, यदि J इत्यस्य न्यूनता अस्याः अल्पसंख्यायाः अपेक्षया न्यूना भवति तर्हि तत् अभिसरणं मन्यते ।

समुचितं शिक्षणदरं निर्धारयन्तु

  1. परीक्षणकाले भवान् J न्यूनः भवति वा इति द्रष्टुं अत्यल्पं मूल्यं सेट् कर्तुं शक्नोति ।
  2. पुनरावृत्तेः समये शिक्षणस्य दरः अत्यधिकः अल्पः वा न भवेत् ।
  3. प्रत्येकं समये * 3 परीक्षणस्य समये, यथासम्भवं बृहत्, अथवा उचितमूल्यात् किञ्चित् लघु शिक्षणदरं चिनुत

विशेषता अभियांत्रिकी

अधिकविकल्पान् दातुं परिवर्तनस्य अथवा संयोजनस्य माध्यमेन फीचर अभियांत्रिकी निर्माणं कुर्वन्तु

fw ⃗ , ख ( x ⃗ ) = w 1 x 1 + w 2 x 2 + w 3 x 3 + b f_{vec{w},b}(vec{x}) = w_1x_1+w_2x_2+w_3x_3+bw ,(x )=w1x1+w2x2+w3x3+

नोटः- रेखीय-अरेखीय-फिटिंग्-कृते बहुपद-प्रतिगमनस्य उपयोगः कर्तुं शक्यते