• 註冊
密碼遺失了?請輸入您的使用者名稱或電子郵件地址。您將收到一個透過電子郵件建立新密碼的連結。

跟 NVIDIA 學深度學習!從基本神經網路到 CNN‧RNN‧LSTM‧seq2seq‧Transformer‧GPT‧BERT…,紮穩機器視覺與大型語言模型 (LLM) 的建模基礎

NT$880

AI 界扛霸子 NVIDIA 的深度學習 指定教材!

10 件庫存

貨號: F4391 分類:
  • ▍AI 界扛霸子 NVIDIA 的深度學習 (Deep Learning) 指定教材!

    ▍GPT、Transformer、seq2seq、self-attention 機制…大型語言模型 (LLM) 背後的先進技術「硬派」揭密!

    近年來,在 NVIDIA (輝達) GPU、CUDA 技術的推波助瀾下,深度學習 (Deep Learning) 領域有著爆炸性的成長,例如最為人知的 ChatGPT 正是運用深度學習技術開發出來的當紅應用。

    【★學深度學習,跟 AI 重要推手 – NVIDIA 學最到位!】

    除了硬體上的助益外,為了幫助眾多初學者快速上手深度學習,任職於 NVIDIA 的本書作者 Magnus Ekman 凝聚了他多年來在 NVIDIA 所積累的 AI 知識撰寫了本書。除了介紹深度學習基礎知識外,也包括此領域的最新重要進展。本書同時也是 NVIDIA 的教育和培訓部門 -【深度學習機構 (Deep Learning Institute, DLI)】 指定的培訓教材 (https://www.nvidia.com/zh-tw/training/books/)。

    要學深度學習,跟深度學習的重要推手 NVIDIA 學就對了!眾多紮實的內容保證讓你受益滿滿!

    【★機器視覺、生成式 AI 語言模型 100% 從零開始打造!】

    在深度學習的教學上,本書將從神經網路的底層知識 (梯度下降、反向傳播…) 介紹起,帶你打好深度學習的底子。接著會介紹用 Colab 雲端開發環境 + tf.Keras 建構、調校多層神經網路,以及經典的 CNN (卷積神經網路) 圖形辨識模型建構…等機器視覺主題。最後則邁入自然語言處理 (NLP) 領域,在介紹完基本的 RNN / LSTM 知識後,以先進的 Transformer、GPT…語言模型架構做結。

    尤其自從 ChatGPT 爆紅之後,自然語言處理 (NLP) 一直是深度學習的熱門研究話題,而這部分正是本書最精彩之處!

    RNN / LSTM 神經網路雖然問世已有一段時間,現今一些先進的 NLP 模型或許不會用它們來建構,但由它們衍生出來的 hidden state (隱藏狀態) 概念可說是重中之重,我們會帶你好好熟悉,以便能跟後續章節順利銜接上。

    之後則會利用各種神經網路技術帶你實作【多國語言翻譯模型】、【Auto-Complete 文字自動完成模型】…等範例。從處理原始文字訓練資料 → 切割資料集 → 建構模型 → 模型調校、優化,從頭到尾示範一遍,帶你紮穩大型語言模型 (LLM) 的建模基礎。

    令小編最印象深刻的是,本書所設計的 NLP 章節內容可說是「環環相扣」,從 RNN / LSTM 章節初次觸及 NLP 模型開始,次一章的模型架構幾乎都是為了解決前一章模型的特定問題而生的。這種層層舖墊的獨到方式能讓你深刻理解 RNN / LSTM / seq2seq / encoder-decoder / attention / self-attention 機制…等技術的發展脈絡,對於看懂 Transformer、GPT 等最先進的神經網路技術有莫大的幫助,這絕對是其他書看不到的精彩內容!