Jared 1 year ago
parent
commit
299ad58227
1 changed files with 53 additions and 2 deletions
  1. 53 2
      webSite/content/news/what-is-generative-ai.md

+ 53 - 2
webSite/content/news/what-is-generative-ai.md

@@ -1,6 +1,6 @@
 ---
-title: "生成式AI 是什麼?"
-tags: ["GAI"]
+title: "GenAI 生成式AI 是什麼?"
+tags: ["GAI","genai"]
 categories: ["AI"]
 image: "https://ai.choozmo.com/img/Choozmo%20cloud%20logo.png"
 url: "/news/what-is-generative-ai"
@@ -75,6 +75,57 @@ type: "blog"
  
  儘管取得了這些突破,但我們仍處於使用生成式人工智慧創建可讀文字和逼真的風格化圖形的早期階段。早期的實現存在準確性和偏差問題,並且容易產生幻覺並吐出奇怪的答案。儘管如此,迄今為止的進展表明,這種生成式人工智慧的固有能力可以從根本上改變企業技術和企業的運作方式。展望未來,這項技術可以幫助編寫程式碼、設計新藥、開發產品、重新設計業務流程和轉變供應鏈。
  
+ ## 如何評估生成式人工智慧模型?
+
+[成功的生成式人工智慧模型的三個關鍵要求](https://developer.nvidia.com/blog/improving-diffusion-models-as-an-alternative-to-gans-part-1/)是:  
+
+1. **品質:**特別是對於直接與用戶互動的應用程序,擁有高品質的生成輸出是關鍵。例如,在語音生成中,語音品質差是難以理解的。同樣,在影像生成中,所需的輸出在視覺上應該與自然影像沒有區別。
+
+2. **多樣性:**一個好的生成模型可以捕捉資料分佈中的少數模式,而不犧牲生成品質。這有助於減少學習模型中不必要的偏差。
+
+3. **速度:**許多互動式應用程式需要快速生成,例如即時影像編輯以允許在內容建立工作流程中使用。
+
+## 如何開發生成式人工智慧模型?
+
+生成模型有多種類型,結合每種結果的正面屬性可以創建更強大的模型。\
+\
+下面是一個細分:
+
+* **擴散模型:**擴散模型也稱為去噪擴散機率模型 (DDPM),是在訓練期間透過兩步驟過程確定潛在空間中的向量的生成模型。這兩個步驟是正向擴散和反向擴散。前向擴散過程緩慢地將隨機雜訊添加到訓練資料中,而反向過程則反轉雜訊以重建資料樣本。可以從完全隨機雜訊開始運行反向去噪過程來產生新資料。
+
+![擴散和去雜訊過程](/content/nvidiaGDC/us/en_US/glossary/data-science/generative-ai/_jcr_content/root/responsivegrid/nv_container_2075721345/nv_image.coreimg.100.1290.jpeg/1679299337925/gen-ai-diffusion-2560.jpeg "擴散和去雜訊過程")
+
+圖 2:擴散和去雜訊過程。
+
+擴散模型的訓練時間可能比變分自動編碼器(VAE) 模型要長,但由於這個兩步驟過程,可以訓練數百個(如果不是無限數量的話)層,這意味著擴散模型通常提供最高的性能.建構生成式人工智慧模型時的高品質輸出。
+
+此外,擴散模型也被歸類為基礎模型,因為它們規模大、提供高品質的輸出、靈活,並且被認為最適合通用用例。然而,由於逆向採樣過程,運行基礎模型是一個緩慢而漫長的過程。
+
+[](https://developer.nvidia.com/blog/improving-diffusion-models-as-an-alternative-to-gans-part-1/)在這篇文章中[了解有關擴散模型數學的更多資訊。](https://developer.nvidia.com/blog/improving-diffusion-models-as-an-alternative-to-gans-part-1/)
+
+* **變分自動編碼器 (VAE)**:VAE 由兩個神經網路組成,通常稱為編碼器和解碼器。\
+  當給定輸入時,編碼器將其轉換為更小、更密集的資料表示。這種壓縮表示保留了解碼器重建原始輸入資料所需的信息,同時丟棄任何不相關的資訊。編碼器和解碼器協同工作來學習高效且簡單的潛在資料表示。這使得用戶可以輕鬆地採樣新的潛在表示,這些表示可以透過解碼器映射以產生新穎的數據。\
+  雖然 VAE 可以更快地產生影像等輸出,但它們產生的影像不如擴散模型那麼詳細。
+
+* **生成對抗網路 (GAN)**:GAN 於 2014 年被發現,在最近擴散模型取得成功之前,GAN 被認為是三種方法中最常用的方法。GAN 將兩個神經網路相互競爭:生成器產生新範例,鑑別器學習區分產生的內容是真實的(來自領域)還是假的(生成的)。
+
+這兩個模型一起訓練,並且隨著生成器產生更好的內容而變得更加智能,並且鑑別器能夠更好地識別生成的內容。重複此過程,推動兩者在每次迭代後不斷改進,直到生成的內容與現有內容無法區分。
+
+雖然 GAN 可以提供高品質的樣本並快速產生輸出,但樣本多樣性較弱,因此使 GAN 更適合特定領域的資料生成。
+
+生成模型開發的另一個因素是底層的架構。最受歡迎的之一是變壓器網路。了解它在生成人工智慧的背景下如何運作非常重要。
+
+[變壓器網路](https://blogs.nvidia.com/blog/2022/03/25/what-is-a-transformer-model/):與循環神經網路類似,變壓器被設計為非順序處理順序輸入資料。
+
+有兩種機制使 Transformer 特別適合基於文字的生成人工智慧應用:自我關注和位置編碼。這兩種技術都有助於表示時間,並使演算法能夠專注於長距離內單字之間的相互關係
+
+![變壓器型號](/content/nvidiaGDC/us/en_US/glossary/data-science/generative-ai/_jcr_content/root/responsivegrid/nv_container_2075721345/nv_image_210846034.coreimg.100.1290.jpeg/1679299338097/gen-ai-transformer-2560x1440.jpeg "變壓器型號")
+
+圖 3:圖像來自 Aidan Gomez 的演示文稿,他是 2017 年定義 Transformer 的論文的八位合著者之一([來源](https://arxiv.org/abs/1706.03762))。
+
+自註意力層為輸入的每個部分分配一個權重。權重表示該輸入在上下文中相對於其餘輸入的重要性。位置編碼是輸入單字出現順序的表示。
+
+變壓器由多個變壓器塊(也稱為層)組成。例如,變壓器具有自註意力層、前饋層和歸一化層,所有這些層一起工作來破解和預測標記化資料流,其中可能包括文字、蛋白質序列,甚至圖像區塊。
  
  ## 集仕多AI主播