Κοινή χρήση τεχνολογίας

Σημειώσεις μελέτης πολλαπλής γραμμικής παλινδρόμησης Deep Learning DeepLearning

2024-07-12

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

Πολυδιάστατα χαρακτηριστικά

Μεταβλητές και Όροι

Χαρακτηριστικό στήλης xιΑριθμός χαρακτηριστικών n x ⃗ vec{x}Χ (Εγώ)διάνυσμα σειράςμια ορισμένη τιμή x ⃗ ji vec{x}_j^iΧ ιΕγώΠάνω και κάτω
μέσο μτυποποίησηΤυπική απόκλιση σσίγμα (σ)

τύπος

w ⃗ vec{w}w = [β1 w2 w3 …]
x ⃗ vec{x}Χ = [χ1 Χ2 Χ3 …]

fw ⃗ , b ( x ⃗ ) = w ⃗ ∗ x ⃗ + b = w 1 x 1 + w 2 x 2 + … + wnxn + b f_{vec{w},b} (vec{x}) = vec{ w} * vec{x} + b = w_1x_1 + w_2x_2 + … + w _nx_n + bφάw ,σι(Χ )=w Χ +σι=w1Χ1+w2Χ2++wnΧn+σι

πολλαπλή γραμμική παλινδρόμηση

import numpy
f = np.dot(w, x) + b
  • 1
  • 2

Σημείωση: Είναι πολύ γρήγορο όταν το n είναι μεγάλο (παράλληλη επεξεργασία)

μέθοδος κανονικής εξίσωσης

  1. Πάνω από 1000 είναι αναποτελεσματικό
  2. Δεν μπορεί να γενικευτεί σε άλλους αλγόριθμους όπως η λογιστική παλινδρόμηση, τα νευρωνικά δίκτυα ή άλλοι.
  3. καμία επανάληψη

wn = wn − α 1 m ∑ i = 1 mfw ⃗ , b ( x ⃗ ( i ) − y ( i ) ) xn ( i ) w_n = w_n - αdfrac{1}{m} sumlimits_{i=1}^mf_ {vec{w},b}(vec{x}^{(i)}-y^{(i)})x_n^{(i)}wn=wnαΜ1Εγώ=1Μφάw ,σι(Χ (Εγώ)y(Εγώ))Χn(Εγώ)

b = b − α 1 m ∑ i = 1 m ( fw ⃗ , b ( x ⃗ ( i ) − y ( i ) ) b = b - α{dfrac{1}{m}}sumlimits_{i=1}^ m(f_{vec{w},b}(vec{x}^{(i)}-y^{(i)})σι=σιαΜ1Εγώ=1Μ(φάw ,σι(Χ (Εγώ)y(Εγώ))

Το βάρος που αντιστοιχεί σε ένα μεγαλύτερο εύρος ανεξάρτητων μεταβλητών τείνει να είναι μικρότερο και το αντίστοιχο βάρος σε ένα μικρότερο εύρος ανεξάρτητων μεταβλητών τείνει να είναι μεγαλύτερο.

Μέση κανονικοποίηση

Διαιρέστε με τη μέγιστη τιμή του εύρους για να βρείτε το βάρος έναντι [0, 1] της ανεξάρτητης μεταβλητής

Τετμημένη: x 1 = x 1 − μ 1 2000 − 300 x_1 = dfrac{x_1-μ_1}{2000-300}Χ1=2000300Χ1μ1 Άξονας Υ: x 2 = x 2 − μ 2 5 − 0 x_2 = dfrac{x_2 - μ_2}{5-0}Χ2=50Χ2μ2

− 0,18 ≤ x 1 ≤ 0,82 -0,18le x_1le0,820.18Χ10.82 − 0,46 ≤ x 2 ≤ 0,54 -0,46le x_2le0,540.46Χ20.54

Ομαλοποίηση βαθμολογίας Z

300 ≤ x 1 ≤ 2000 300le x_1le2000300Χ12000 0 ≤ x 2 ≤ 5 0le x_2le50Χ25

x 1 = x 1 − μ 1 σ 1 x1 = dfrac{x_1-μ_1}{σ_1}Χ1=σ1Χ1μ1 − 0,67 ≤ x 1 ≤ 3,1 -0,67le x_1le3,10.67Χ13.1

Προσπαθήστε να διατηρήσετε τις τιμές όλων των χαρακτηριστικών εντός παρόμοιου εύρους μέσω κλιμάκωσης, έτσι ώστε η επίδραση των αλλαγών τους στις προβλεπόμενες τιμές να είναι κοντά στο (-3,3)

Εάν η συνάρτηση κόστους J γίνει μεγάλη, σημαίνει ότι το μέγεθος του βήματος (ποσοστό εκμάθησης) είναι ακατάλληλο ή ο κωδικός είναι λάθος.

Εισαγάγετε την περιγραφή της εικόνας εδώ

Σημείωση: Ο αριθμός των επαναλήψεων διαφέρει από μηχανή σε μηχανή

Εκτός από τη σχεδίαση καμπυλών για τον προσδιορισμό του σημείου επανάληψης, μπορεί επίσης να χρησιμοποιηθεί η αυτόματη δοκιμή σύγκλισης
Έστω ε ίσο 1 0 − 3 10^{-3} 103, αν η μείωση του J είναι μικρότερη από αυτόν τον μικρό αριθμό, θεωρείται ότι συγκλίνει.

Ορίστε έναν κατάλληλο ρυθμό εκμάθησης

  1. Κατά τη δοκιμή, μπορείτε να ορίσετε μια πολύ μικρή τιμή για να δείτε εάν το J μειώνεται.
  2. Ο ρυθμός εκμάθησης κατά την επανάληψη δεν πρέπει να είναι πολύ μεγάλος ή πολύ μικρός.
  3. Κάθε φορά * 3 κατά τη διάρκεια της δοκιμής, επιλέξτε έναν ρυθμό εκμάθησης όσο το δυνατόν μεγαλύτερο ή ελαφρώς μικρότερο από μια λογική τιμή

Μηχανική χαρακτηριστικών

Δημιουργήστε τη μηχανική χαρακτηριστικών μέσω μετασχηματισμών ή συνδυασμών για να σας δώσουμε περισσότερες επιλογές

fw ⃗ , b ( x ⃗ ) = w 1 x 1 + w 2 x 2 + w 3 x 3 + b f_{vec{w},b}(vec{x}) = w_1x_1+w_2x_2+w_3x_3+bφάw ,σι(Χ )=w1Χ1+w2Χ2+w3Χ3+σι

Σημείωση: Η πολυωνυμική παλινδρόμηση μπορεί να χρησιμοποιηθεί για γραμμική και μη γραμμική προσαρμογή