기술나눔

딥러닝DeepLearning 다중 선형 회귀 연구 노트

2024-07-12

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

다차원적 특징

변수 및 용어

열 속성 x제이속성 수 n x ⃗ vec{x}엑스 (나)행 벡터특정 값 x ⃗ 지벡{x}_j^i엑스 제이위아래로
μ를 의미한다표준화표준편차 σ시그마(σ)

공식

w ⃗ vec{w} = [w123 …]
x ⃗ vec{x}엑스 = [x1 엑스2 엑스3 …]

fw ⃗ , b ( x ⃗ ) = w ⃗ ∗ x ⃗ + b = w 1 x 1 + w 2 x 2 + … + wnxn + b f_{vec{w},b} (vec{x}) = vec{w} * vec{x} + b = w_1x_1 + w_2x_2 + … + w _nx_n + b에프 ,(엑스 )= 엑스 +=1엑스1+2엑스2++N엑스N+

다중 선형 회귀

import numpy
f = np.dot(w, x) + b
  • 1
  • 2

참고: n이 클 때 매우 빠릅니다(병렬 처리).

정규 방정식 방법

  1. 1000개 이상이면 비효율적
  2. 로지스틱 회귀, 신경망 등의 다른 알고리즘으로 일반화할 수 없습니다.
  3. 반복 없음

wn = wn − α 1 m ∑ i = 1 mfw ⃗ , b ( x ⃗ ( i ) − y ( i ) ) xn ( i ) w_n = w_n - αdfrac{1}{m} 합한계_{i=1}^mf_{vec{w},b}(vec{x}^{(i)}-y^{(i)})x_n^{(i)}N=Nα1=1에프 ,(엑스 ()와이())엑스N()

b = b − α 1 m ∑ i = 1 m ( fw ⃗ , b ( x ⃗ ( i ) − y ( i ) ) b = b - α{dfrac{1}{m}}합계_{i=1}^m(f_{vec{w},b}(vec{x}^{(i)}-y^{(i)})=α1=1(에프 ,(엑스 ()와이())

더 큰 범위의 독립변수에 해당하는 가중치는 더 작은 경향이 있고, 더 작은 범위의 독립변수에 해당하는 가중치는 더 큰 경향이 있습니다.

평균 정규화

범위의 최대값으로 나누어 독립변수의 [0, 1] 대비 가중치를 구합니다.

횡좌표: x 1 = x 1 − μ 1 2000 − 300 x_1 = dfrac{x_1-μ_1}{2000-300}엑스1=2000300엑스1μ1 Y축: x 2 = x 2 − μ 2 5 − 0 x_2 = dfrac{x_2 - μ_2}{5-0}엑스2=50엑스2μ2

− 0.18 ≤ x 1 ≤ 0.82 -0.18le x_1le0.820.18엑스10.82 − 0.46 ≤ x 2 ≤ 0.54 -0.46le x_2le0.540.46엑스20.54

Z-점수 정규화

300 ≤ x 1 ≤ 2000 300le x_1le2000300엑스12000 0 ≤ x 2 ≤ 5 0le x_2le50엑스25

x 1 = x 1 − μ 1 σ 1 x 1 = dfrac{x_1-μ_1}{σ_1}엑스1=σ1엑스1μ1 − 0.67 ≤ x 1 ≤ 3.1 -0.67le x_1le3.10.67엑스13.1

스케일링을 통해 모든 특성의 값을 비슷한 범위 내로 유지하여 해당 변경 사항이 예측 값에 미치는 영향이 (-3,3)에 가까워지도록 노력하세요.

비용 함수 J가 커지면 단계 크기(학습률)가 부적절하거나 코드가 잘못되었음을 의미합니다.

여기에 이미지 설명을 삽입하세요.

참고: 반복 횟수는 기계마다 다릅니다.

반복 지점을 결정하기 위해 곡선을 그리는 것 외에도 자동 수렴 테스트를 사용할 수도 있습니다.
ε을 같다고 하자 1 0 − 3 10^{-3} 103, J의 감소가 이 작은 숫자보다 작으면 수렴되는 것으로 간주됩니다.

적절한 학습률 설정

  1. 테스트할 때 매우 작은 값을 설정하여 J가 감소하는지 확인할 수 있습니다.
  2. 반복하는 동안 학습률은 너무 크거나 작아서는 안 됩니다.
  3. 테스트 중 * 3마다 학습률을 최대한 크게 선택하거나 합리적인 값보다 약간 작게 선택합니다.

기능 엔지니어링

더 많은 옵션을 제공하기 위해 변환 또는 조합을 통해 기능 엔지니어링을 구축합니다.

fw ⃗ , b ( x ⃗ ) = w 1 x 1 + w 2 x 2 + w 3 x 3 + b f_{vec{w},b}(vec{x}) = w_1x_1+w_2x_2+w_3x_3+b에프 ,(엑스 )=1엑스1+2엑스2+3엑스3+

참고: 다항식 회귀는 선형 및 비선형 피팅에 사용될 수 있습니다.