Berbagi teknologi

Pembelajaran MendalamDeepLearning Catatan Studi Regresi Linier Berganda

2024-07-12

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

Fitur multidimensi

Variabel dan Ketentuan

Atribut kolom xJJumlah atribut n x ⃗ vec{x}X (Saya)vektor barisnilai tertentu x ⃗ ji vec{x}_j^iX JSayaNaik dan turun
berarti μstandardisasiSimpangan baku σsigma (σ)

rumus

w ⃗ vec{w}aku = [kamu]1 aku2 aku3 …]
x ⃗ vec{x}X = [x1 X2 X3 …]

Bahasa Indonesia: fw ⃗ , b ( x ⃗ ) = w ⃗ ∗ x ⃗ + b = w 1 x 1 + w 2 x 2 + … + wnxn + b f_{vec{w},b} (vec{x}) = vec{w} * vec{x} + b = w_1x_1 + w_2x_2 + … + w _nx_n + bFaku ,B(X )=aku X +B=aku1X1+aku2X2++akuNXN+B

regresi linier berganda

import numpy
f = np.dot(w, x) + b
  • 1
  • 2

Catatan: Ini sangat cepat ketika n besar (pemrosesan paralel)

metode persamaan normal

  1. Lebih dari 1000 tidak efisien
  2. Ini tidak dapat digeneralisasikan ke algoritma lain seperti regresi logistik, jaringan saraf atau lainnya.
  3. tidak ada iterasi

Bahasa Indonesia: wn = wn − α 1 m ∑ i = 1 mfw ⃗ , b ( x ⃗ ( i ) − y ( i ) ) xn ( i ) w_n = w_n - αdfrac{1}{m} sumlimit_{i=1}^mf_{vec{w},b}(vec{x}^{(i)}-y^{(i)})x_n^{(i)}akuN=akuNαM1Saya=1MFaku ,B(X (Saya)kamu(Saya))XN(Saya)

Bahasa Indonesia: b = b − α 1 m ∑ i = 1 m ( fw ⃗ , b ( x ⃗ ( i ) − y ( i ) ) b = b - α{dfrac{1}{m}}jumlah limit_{i=1}^m(f_{vec{w},b}(vec{x}^{(i)}-y^{(i)})B=BαM1Saya=1M(Faku ,B(X (Saya)kamu(Saya))

Bobot yang terkait dengan rentang variabel independen yang lebih besar cenderung lebih kecil, dan bobot yang terkait dengan rentang variabel independen yang lebih kecil cenderung lebih besar.

Normalisasi rata-rata

Bagilah dengan nilai maksimum rentang untuk mencari bobot versus [0, 1] variabel independen

Absis: x1 = x1 − μ1 2000 − 300 x_1 = frak{x_1-μ_1}{2000-300}X1=2000300X1μ1 sumbu Y: x2 = x2 − μ2 5 − 0 x_2 = frak{x_2 - μ_2}{5-0}X2=50X2μ2

- 0,18 ≤ x 1 ≤ 0,82 -0,18le x_1le0,820.18X10.82 - 0,46 ≤ x 2 ≤ 0,54 -0,46le x_2le0,540.46X20.54

Normalisasi skor Z

300 ≤ x 1 ≤ 2000 300le x_1le2000300X12000 0 ≤ x 2 ≤ 5 0le x_2le50X25

x1 = x1 − μ1 σ1 x1 = frak{x_1-μ_1}{σ_1}X1=σ1X1μ1 - 0,67 ≤ x 1 ≤ 3,1 -0,67le x_1le3,10.67X13.1

Usahakan untuk menjaga nilai semua fitur dalam rentang yang sama melalui penskalaan, sehingga dampak perubahannya terhadap nilai prediksi mendekati (-3,3)

Jika fungsi biaya J menjadi besar berarti ukuran langkah (learning rate) tidak sesuai atau kodenya salah.

Masukkan deskripsi gambar di sini

Catatan: Jumlah iterasi bervariasi dari mesin ke mesin

Selain menggambar kurva untuk menentukan titik iterasi, pengujian konvergensi otomatis juga dapat digunakan
Biarkan ε sama 1 0 − 3 10^{-3} 103, jika penurunan J kurang dari angka kecil tersebut maka dianggap konvergen.

Tetapkan kecepatan pembelajaran yang sesuai

  1. Saat menguji, Anda dapat menetapkan nilai yang sangat kecil untuk melihat apakah J berkurang.
  2. Kecepatan pembelajaran selama iterasi tidak boleh terlalu besar atau terlalu kecil.
  3. Setiap kali *3 selama pengujian, pilih kecepatan pemelajaran sebesar mungkin, atau sedikit lebih kecil dari nilai wajar

Rekayasa fitur

Bangun rekayasa fitur melalui transformasi atau kombinasi untuk memberikan lebih banyak opsi

Bahasa Indonesia: fw ⃗ , b ( x ⃗ ) = w 1 x 1 + w 2 x 2 + w 3 x 3 + b f_{vec{w},b}(vec{x}) = w_1x_1+w_2x_2+w_3x_3+bFaku ,B(X )=aku1X1+aku2X2+aku3X3+B

Catatan: Regresi polinomial dapat digunakan untuk pemasangan linier dan nonlinier