生成模型型別



生成模型近年來獲得了極大的關注。這些創新的演算法主要用於無監督學習,擅長處理資料的底層分佈並生成複雜的輸出,例如影像、音樂和自然語言,這些輸出與原始訓練資料相當。

閱讀本章,探索三種突出且最廣泛使用的生成模型型別:生成對抗網路(GANs)、自動編碼器變分自動編碼器(VAEs)

生成對抗網路(GANs)

生成對抗網路(GANs)由Ian Goodfellow及其團隊於2014年提出。GANs是一種生成建模方法,它基於深度神經網路架構,生成看起來像原始訓練資料的新複雜輸出。GAN框架包含兩個神經網路——“生成器”和“判別器”。

GANs的工作原理

讓我們藉助下圖瞭解GAN模型的工作原理:

Generative Models Types 1

如圖所示,GANs有兩個主要組成部分:生成器網路判別器網路

該過程從向生成器提供一個隨機種子/噪聲向量開始。現在,生成器使用此輸入建立新的合成樣本。然後,將這些生成的樣本以及提供的真實資料樣本提供給判別器網路。

然後,判別器網路評估這些樣本的真實性,即樣本是真實的還是偽造的。最後,判別器透過反向傳播調整生成器的引數,從而對生成器的輸出提供反饋。

然後,生成器和判別器繼續學習並相互適應,直到生成器生成能夠欺騙判別器的非常真實的樣本。

GANs的應用

生成對抗網路(GANs)在各個領域都有應用。事實上,OpenAI開發的特定模型DALL-E結合了GANs和Transformer的思想,根據文字描述生成影像。

GANs的其他一些應用包括:

  • 影像生成
  • 資料增強
  • 文字到影像合成
  • 影片生成和預測
  • 異常檢測
  • 人臉衰老和返老還童
  • 風格遷移和影像編輯

自動編碼器

另一種廣泛使用的生成模型徹底改變了從計算機視覺到自然語言處理的各個領域,這就是自動編碼器

自動編碼器是一種人工神經網路(ANN),旨在以無監督的方式學習資料編碼。傳統的神經網路用於監督學習任務,如分類和迴歸,將輸入資料對映到相應的輸出標籤。另一方面,自動編碼器透過將高維輸入資料解碼為低維表示來學習重建輸入資料。

自動編碼器的架構

自動編碼器的架構由三個主要部分組成:

  • 編碼器 - 它透過將輸入資料對映到低維表示來壓縮資訊為密集編碼。
  • 瓶頸層(潛在空間) - 在此層中,潛在空間表示以壓縮形式捕獲輸入資料的基本特徵。
  • 解碼器 - 它透過重建壓縮表示來將其解壓縮回原始輸入空間。此模組的主要目標是最小化重建誤差。
Generative Models Types 2

自動編碼器的應用

以下是自動編碼器的一些應用:

  • 影像壓縮和重建
  • 特徵學習和表示
  • 異常檢測
  • 降維
  • 自然語言處理

變分自動編碼器

變分自動編碼器(VAEs)是一類生成模型,其基礎是我們上面學習的自動編碼器的概念。

傳統的自動編碼器學習輸入和潛在空間表示之間的確定性對映。另一方面,VAEs生成潛在空間中機率分佈的引數。此功能使VAEs能夠捕獲輸入資料樣本的底層機率分佈。

VAEs的架構和元件

與自動編碼器一樣,VAEs的架構也包含兩個主要元件:編碼器和解碼器。在VAEs中,編碼器而不是像自動編碼器那樣使用確定性對映,而是提出將機率建模引入潛在空間。

以下是VAEs的關鍵元件:

  • 編碼器 - 它將輸入資料樣本對映到潛在空間中機率分佈的引數。對映後,編碼器給出每個資料點的均值和方差向量。
  • 潛在空間 - 此元件表示編碼器學習的輸入樣本資料的機率。
  • 解碼器 - 它透過使用來自潛在空間的樣本重建資料樣本。解碼器的目的是匹配輸入資料分佈。

變分自動編碼器(VAEs)的應用

變分自動編碼器(VAEs)像自動編碼器一樣在各個領域都有應用。其中一些列在下文:

  • 影像生成
  • 資料視覺化
  • 特徵學習
  • 異常檢測
  • 自然語言處理

在後續章節中,我們將詳細討論這些突出且最廣泛使用的生成模型型別。

結論

在本章中,我們概述了三種最廣泛使用的生成模型,即生成對抗網路(GANs)、自動編碼器和變分自動編碼器(VAEs)。它們獨特的效能推動了生成建模的進步。

GANs憑藉其對抗性訓練框架,可以生成看起來像原始訓練資料的新複雜輸出。我們討論了GANs使用其由兩個神經網路組成的框架的工作原理:生成器判別器

另一方面,自動編碼器旨在以無監督的方式學習資料編碼。它們透過將高維輸入資料解碼為低維表示來重建輸入資料。

變分自動編碼器(VAEs)引入了機率潛在空間表示。它們透過捕獲樣本輸入資料的底層機率分佈,彌合了自動編碼器和機率建模之間的差距。

無論是生成逼真的影像、學習資料的有意義表示,還是探索機率潛在空間表示,GANs、自動編碼器和VAEs都在塑造著人工智慧驅動的生成技術的未來。

廣告
© . All rights reserved.