技術共有

深層学習における正則化技術 - ノイズ耐性

2024-07-12

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

序文

深層学習の活発な開発に伴い、モデルのパフォーマンスと汎化能力が研究者の焦点になっています。ただし、実際のアプリケーションでは、データにはさまざまなノイズが伴うことがよくあります。これらのノイズは、データ収集プロセスにおけるハードウェアの制限に起因するだけでなく、環境干渉や送信エラーなどの要因によってもたらされる場合があります。ノイズの存在は、特に音声認識や画像分類などのタスクにおいて、深層学習モデルのトレーニング効果と予測精度に深刻な影響を与えます。したがって、深層学習モデルのノイズ耐性を向上させること、つまり、ノイズの多い環境におけるモデルの安定したパフォーマンスと認識能力を強化することが、現在の研究の重要な方向性となっています。より効果的なデータ前処理アルゴリズムを設計し、モデル構造を最適化し、ノイズ強化トレーニングやその他の技術的手段を導入することにより、ディープラーニング モデルのノイズ耐性を大幅に向上させることができ、より複雑なシナリオへの適用を促進できます。

ノイズ耐性

  • 存在する深層学習における正則化技術 - データセットの強化データセット拡張戦略として入力にノイズを適用することを示唆したものです。一部のモデルでは、分散が最小限のノイズをモデルの入力に追加することは、重みにノルム ペナルティを追加することと同等です (Bishop、1995a、b)。一般に、ノイズ挿入は、特に隠れユニットにノイズが追加される場合、単純にパラメータを縮小するよりもはるかに強力です。隠れユニットにノイズを追加することは、それ自体が議論される価値のある重要なトピックです
  • 別のノイズは重みに追加することで正規化モデルで使用されます。 。この技術は主にリカレント ニューラル ネットワークで使用されます (Jim et al., 1996; Graves, 2011)。これは、重みに関するベイズ推論の確率的実装として解釈できます。学習プロセスにベイジアン アプローチを使用すると、重みが不確実なものとして扱われ、この不確実性は確率分布で表すことができます。重みにノイズを追加することは、この不確実性を反映する実用的な確率論的な方法です。
  • 特定の仮定の下では、重みに適用されるノイズは、より伝統的な形式の正則化と同等であると解釈でき、学習される関数の安定性が促進されます。
  • 回帰のケース、つまり一連の特徴のトレーニングを研究します。 x 太字記号{x}バツスカラーにマップされた関数 y ^ ( x ) ハット{y}(太字の記号{x})ええ^(バツ)、最小二乗コスト関数を使用してモデルの予測値を測定します。 y ^ 帽子{y}ええ^真の価値を持って ええええエラー
    J = E p ( x , y ) [ ( y ^ ( x ) − y ) 2 ] —式 1 J=mathbb{E}_{p(x,y)}[(hat{y}(boldsymbol{x}) )-y)^2]quadtextbf{脚注サイズ{---式 1}}J=p(バツ,ええ)[(ええ^(バツ)ええ)2]1
  • トレーニングセットの内容は、 んんメートル注釈の例 { ( x ( i ) , y ( i ) ) , … , ( x ( m ) , y ( m ) ) } {(太字記号{x}^{(i)},y^{(i)}),ドット,(太字記号{x}^{(m)},y^{(m)})}{(バツ(),ええ()),,(バツ(メートル),ええ(メートル))}
  • ここで、各入力表現にネットワーク重みのランダムな摂動が追加されると仮定します。 ϵ w ∼ N ( ϵ ; 0 , η I ) epsilon_wsimmathcal{N}(太字の記号{epsilon};0,etaboldsymbol{I})ϵいいえ(ϵ;0,η)標準があると想像してください lll MLP テキスト{MLP}マルチレベル 。摂動モデルを次のように表します。 y ^ ϵ W ( x ) ハット{y}_{エプシロン_{太字記号{W}}}(太字記号{x})ええ^ϵ(バツ)
  • 私たちは、ノイズ注入にもかかわらず、ネットワーク出力誤差の二乗を削減することに興味があります。したがって、目的関数は次のようになります。 { J ^ W = E p ( x , y , ϵ W ) [ ( y ^ ϵ W ( x ) − y ) 2 ] —式 2 = E p ( x , y , ϵ W ) [ y ^ ϵ W 2 ( x ) − 2 yy ^ ϵ W ( x ) + y 2 ] —式 3 {J^=p(バツ,ええ,ϵ)[(ええ^ϵ(バツ)ええ)2]2=p(バツ,ええ,ϵ)[ええ^ϵ2(バツ)2ええええ^ϵ(バツ)+ええ2]3
  • 小さいもの用 η エータη、重み付けされたノイズを最小限に抑えます (分散は η I 太字の記号{I}η)の ジェイジェイJ追加の正則化項を最小限に抑えるのと同じ J : η E p ( x , y ) [ ∇ W y ^ ( x ) ∇ 2 ] J:etamathbb{E}_{p(x,y)}left[Vertnabla_{boldsymbol{W}}hat{y}(boldsymbol{x})Vert^2right]J:ηp(バツ,ええ)[ええ^(バツ)2]
  • この形式の正則化により、重みの小さな摂動が出力に比較的ほとんど影響を与えないパラメータ空間の領域にパラメータが入ることが促進されます。言い換えれば、モデルを重みの小さな変化に比較的鈍感な領域に押し込み、検出される点は単なる最小点ではなく、平らな領域に囲まれた最小点になります (Hochreiter および Schmidhuber、1995)。
  • 単純化された線形回帰では (例: y ^ ( x ) = w ⊤ x + b ハット{y}(太字の記号{x})=太字の記号{w}^top太字の記号{x}+bええ^(バツ)=バツ+b、正規用語は次のように縮退します。 η E p ( x ) [ ∠ x ∠ 2 ] etamathbb{E}_{p(x)}[Vertboldsymbol{x}Vert^2]ηp(バツ)[バツ2]、これは関数のパラメータとは何の関係もないので、 J ^ w 帽子{J}_wJ^モデルパラメータの勾配に寄与します。

出力ターゲットにノイズを注入する

  • ほとんどのデータセット ええええラベルに一部誤りがあります。いつ ええええ最大化するのは間違っています log ⁡ p ( y ∣ x ) log p(ymidboldsymbol{x})見よp(ええバツ)有害でしょう。
  • これを防ぐ 1 つの方法は、ラベル上のノイズを明示的にモデル化することです。
    • たとえば、いくつかの小さな定数に対して次のように仮定できます。 ϵ イプシロンϵ、トレーニング セットのラベル ええええ正しい確率は 1 − ϵ 1-イプシロン1ϵ、他の可能なラベルが正しい可能性があります。
    • この仮定は、ノイズの多いサンプルを明示的に取得することなく、分析的にコスト関数と簡単に組み合わせることができます。
    • 例えば、ラベルのスムージング(ラベル スムージング) に基づく えーっ出力 ソフトマックステキスト{ソフトマックス}ソフトマックス明確な分類を指す関数 0 0 0そして 1 1 1と置換する ϵ k − 1 表示スタイルfrac{epsilon}{k-1}1ϵそして 1 − ϵ 1-イプシロン1ϵ、モデルを正規化します。
  • 標準のクロスエントロピー損失は、これらの不正確なターゲットの出力に使用できます。使用 ソフトマックステキスト{ソフトマックス}ソフトマックス関数と明示的な目的の最尤学習は決して収束しない可能性があります - ソフトマックステキスト{ソフトマックス}ソフトマックス関数では正確に予測することはできません 0 0 0確率とか 1 1 1そのため、学習はますます大きな重みを学習し続け、予測がより極端になります。重み減衰などの他の正則化戦略を使用すると、これを防ぐことができます。ラベル スムージングには、正しい分類を妨げることなく、モデルが一義的な確率を追求するのを防ぐという利点があります。この戦略は 1980 年代から使用されており、現代のニューラル ネットワークで顕著に機能し続けています (Szegedy et al.、2015)。

要約する

  • ディープラーニングのノイズ耐性を向上させることは、モデルが現実の環境で安定して動作することを保証するための鍵となります。データ強化、ノイズ注入トレーニング、モデル構造の最適化などの一連の革新的な技術的手段を通じて、ノイズに対するモデルの耐性と認識精度を効果的に向上させることができます。これらの取り組みは、ディープラーニング技術のさらなる発展を促進するだけでなく、音声認識、画像認識、自然言語処理などの分野での実用的なアプリケーションに、より信頼性が高く効率的なソリューションをもたらします。
  • 将来的には、研究の深化と技術の継続的な進歩により、深層学習モデルのノイズ耐性がさらに向上し、より多くの分野に革命的な変化がもたらされると考えられます。

過去のコンテンツの返却

深層学習における正則化技術 - データセットの強化