TensorFlow自然語言處理|善用 Python 深度學習函式庫,教機器學會自然語言

    本書提供穩固而札實的實務基礎,讓你有能力解決各種NLP任務。本書涵蓋NLP的各個面向,除了理論基礎之外,更強調實務方面的實作。在解決各種NLP任務時,如果能在實務方面擁有良好的基礎,一定有助於你順利過渡到更高級的理論架構。此外,若能在實務方面有更扎實的理解,也就可以讓你更充分利用特定領域的知識,進而對演算法做出更好的調整。

    Collecting
    US$13.55
    本書提供穩固而札實的實務基礎,讓你有能力解決各種NLP任務。本書涵蓋NLP的各個面向,除了理論基礎之外,更強調實務方面的實作。在解決各種NLP任務時,如果能在實務方面擁有良好的基礎,一定有助於你順利過渡到更高級的理論架構。此外,若能在實務方面有更扎實的理解,也就可以讓你更充分利用特定領域的知識,進而對演算法做出更好的調整。

    透過本書,您將可以:
    .了解NLP的概念與各種自然語言處理方法
    .如何應用TensorFlow來進行NLP
    .將大量數據處理成可供深度學習應用程序使用的單詞表示的策略
    .如何使用CNN和RNN進行句子分類和語言生成
    .如何使用RNN來解決複雜的文本生成任務
    .如何應用類神經技術開發自動翻譯系統
    .自然語言處理的未來趨勢與發展

    Content

    • 1-1
      封面
    • 1-2
      書名
    • 1-3
      對本書有貢獻的人
    • 1-4
      目錄
    • 1-5
      前言
    • 1-6
      Ch01:自然語言處理簡介
    • 1-7
      「自然語言處理」究竟是什麼?
    • 1-8
      自然語言處理的任務
    • 1-9
      自然語言處理的傳統做法
    • 1-10
      瞭解傳統的做法
    • 1-11
      範例|針對足球比賽的結果生成文字摘要
    • 1-12
      傳統做法的缺點
    • 1-13
      自然語言處理的深度學習做法
    • 1-14
      深度學習的歷史
    • 1-15
      深度學習和NLP 當前的狀態
    • 1-16
      先認識一個簡單的深度模型:全連結神經網路
    • 1-17
      讀完本章之後,各主題概念的路線圖
    • 1-18
      技術工具簡介
    • 1-19
      工具說明
    • 1-20
      安裝Python 和scikit-learn
    • 1-21
      安裝Jupyter Notebook
    • 1-22
      安裝TensorFlow
    • 1-23
      總結
    • 1-24
      Ch02:TensorFlow 介紹
    • 1-25
      TensorFlow 究竟是什麼?
    • 1-26
      TensorFlow 入門
    • 1-27
      TensorFlow 客戶端程式詳細介紹
    • 1-28
      TensorFlow 架構|執行客戶端程式時,究竟會發生什麼事?
    • 1-29
      Cafe Le TensorFlow|用類比的方式來理解TensorFlow
    • 1-30
      輸入、變數、輸出和操作
    • 1-31
      定義TensorFlow 輸入
    • 1-32
      用Python 程式碼提供輸入資料
    • 1-33
      預先載入輸入資料並儲存為張量
    • 1-34
      打造一個輸入管道
    • 1-35
      定義TensorFlow 變數
    • 1-36
      定義TensorFlow 輸出
    • 1-37
      定義TensorFlow 操作
    • 1-38
      比較操作
    • 1-39
      數學運算操作
    • 1-40
      scatter 和gather 操作
    • 1-41
      神經網路相關操作
    • 1-42
      善用scope 重複使用變數
    • 1-43
      實作出我們的第一個神經網路
    • 1-44
      準備資料
    • 1-45
      定義TensorFlow graph 圖
    • 1-46
      執行神經網路
    • 1-47
      總結
    • 1-48
      Ch03:Word2vec|學習單詞內嵌
    • 1-49
      單詞的表達方式或含義,指的究竟是什麼?
    • 1-50
      學習單詞表達方式的傳統做法
    • 1-51
      WordNet:使用外部詞彙知識庫,學習單詞的表達方式
    • 1-52
      WordNet 之旅
    • 1-53
      WordNet 的問題
    • 1-54
      one-hot 編碼表達方式
    • 1-55
      TF-IDF 方法
    • 1-56
      共現矩陣
    • 1-57
      Word2vec:運用神經網路學習單詞表達方式
    • 1-58
      練習範例:皇后 = 國王 - 他 + 她?
    • 1-59
      設計損失函數、學習單詞內嵌
    • 1-60
      skip-gram 演算法
    • 1-61
      把原始文字轉換成結構化資料
    • 1-62
      用神經網路學習單詞內嵌
    • 1-63
      制定出實際的損失函數
    • 1-64
      有效近似損失函數
    • 1-65
      用TensorFlow 實作出skip-gram 模型
    • 1-66
      CBOW 連續單詞袋演算法
    • 1-67
      用TensorFlow 實作出CBOW 模型
    • 1-68
      總結
    • 1-69
      Ch04:Word2vec 進階
    • 1-70
      原始版skip-gram 演算法
    • 1-71
      實作出原始版skip-gram 演算法
    • 1-72
      原始版skip-gram 與改進版skip-gram 的比較
    • 1-73
      skip-gram 與CBOW 的比較
    • 1-74
      效能表現的比較
    • 1-75
      skip-gram 和CBOW 哪個比較好?
    • 1-76
      單詞內嵌演算法的擴展做法
    • 1-77
      使用unigram 分佈進行負取樣
    • 1-78
      實作出unigram 分佈負取樣
    • 1-79
      子取樣|按機率忽略掉常見單詞
    • 1-80
      子取樣的實作
    • 1-81
      CBOW 與其擴展做法的比較
    • 1-82
      更先進的skip-gram / CBOW 擴展演算法
    • 1-83
      skip-gram 演算法的局限性
    • 1-84
      結構化skip-gram 演算法
    • 1-85
      損失函數
    • 1-86
      連續視窗模型
    • 1-87
      GloVe|整體向量表達方式
    • 1-88
      瞭解GloVe
    • 1-89
      GloVe 的實作
    • 1-90
      使用Word2vec 進行文件分類
    • 1-91
      資料集
    • 1-92
      使用單詞內嵌對文件進行分類
    • 1-93
      實作|學習單詞內嵌
    • 1-94
      實作|根據單詞內嵌得出文件內嵌
    • 1-95
      文件內嵌化之後的文件集群情況,以及t-SNE 視覺化呈現結果
    • 1-96
      檢查幾個異常的情況
    • 1-97
      實作|使用K-means 對文件進行分群/歸類
    • 1-98
      總結
    • 1-99
      Ch05:CNN 卷積神經網路|句子分類
    • 1-100
      CNN 卷積神經網路簡介
    • 1-101
      CNN 基礎
    • 1-102
      CNN 卷積神經網路的力量
    • 1-103
      理解CNN 卷積神經網路
    • 1-104
      卷積操作
    • 1-105
      標準卷積操作
    • 1-106
      採用不同步幅的卷積操作
    • 1-107
      採用填充做法的卷積操作
    • 1-108
      轉置卷積
    • 1-109
      池化操作
    • 1-110
      最大池化
    • 1-111
      採用不同步幅的最大池化操作
    • 1-112
      平均池化
    • 1-113
      全連結層
    • 1-114
      把所有東西整合起來
    • 1-115
      練習:用CNN 對MNIST 圖片進行分類
    • 1-116
      關於資料
    • 1-117
      實作CNN
    • 1-118
      分析CNN 所生成的預測結果
    • 1-119
      使用CNN 進行句子分類
    • 1-120
      CNN 結構
    • 1-121
      資料轉換
    • 1-122
      卷積操作
    • 1-123
      時間池化操作
    • 1-124
      實作|用CNN 進行句子分類
    • 1-125
      總結
    • 1-126
      Ch06:RNN 遞迴神經網路
    • 1-127
      瞭解RNN 遞迴神經網路
    • 1-128
      正向饋送神經網路的問題
    • 1-129
      用RNN 遞迴神經網路來建構模型
    • 1-130
      RNN 的技術相關說明
    • 1-131
      時間反向傳播
    • 1-132
      反向傳播的運作原理
    • 1-133
      為什麼RNN 不能直接採用反向傳播的做法?
    • 1-134
      時間反向傳播|訓練RNN
    • 1-135
      截短式BPTT|更有效訓練RNN
    • 1-136
      BPTT 的局限性|梯度消失與梯度爆炸
    • 1-137
      RNN 的應用
    • 1-138
      一對一的RNN
    • 1-139
      一對多RNN
    • 1-140
      多對一RNN
    • 1-141
      多對多RNN
    • 1-142
      用RNN 生成文字
    • 1-143
      定義超參數
    • 1-144
      截短式BPTT 沿時間展開輸入
    • 1-145
      定義驗證組資料
    • 1-146
      定義權重和偏差
    • 1-147
      定義狀態持久性變數
    • 1-148
      使用展開的輸入計算隱藏狀態和輸出
    • 1-149
      計算損失
    • 1-150
      在新的文字片段開頭處重設狀態
    • 1-151
      計算驗證輸出
    • 1-152
      梯度的計算與最佳化
    • 1-153
      輸出全新生成的一段文字
    • 1-154
      評估RNN 所輸出的文字結果
    • 1-155
      困惑度:衡量文字結果的品質
    • 1-156
      RNN-CF:具有更長記憶的RNN
    • 1-157
      RNN-CF 的技術相關說明
    • 1-158
      實作RNN-CF
    • 1-159
      定義RNN-CF 超參數
    • 1-160
      定義輸入和輸出佔位符
    • 1-161
      定義RNN-CF 的權重
    • 1-162
      用來保留住隱藏狀態和前後文狀態的變數和操作
    • 1-163
      計算輸出
    • 1-164
      計算損失
    • 1-165
      計算驗證輸出
    • 1-166
      計算測試輸出
    • 1-167
      計算梯度和最佳化
    • 1-168
      用RNN-CF 所生成的文字
    • 1-169
      總結
    • 1-170
      Ch07:LSTM 長短期記憶網路
    • 1-171
      瞭解LSTM 長短期記憶網路
    • 1-172
      LSTM 究竟是什麼?
    • 1-173
      關於LSTM 更詳細的說明
    • 1-174
      LSTM 與標準RNN 的區別
    • 1-175
      LSTM 如何解決梯度消失的問題
    • 1-176
      改進LSTM
    • 1-177
      貪婪取樣
    • 1-178
      束搜索
    • 1-179
      使用單詞向量
    • 1-180
      雙向LSTM(BiLSTM)
    • 1-181
      LSTM 的其他變形做法
    • 1-182
      窺孔連結
    • 1-183
      閘控遞迴單元
    • 1-184
      總結
    • 1-185
      Ch08:LSTM 的應用:生成文字
    • 1-186
      我們的資料
    • 1-187
      關於資料集
    • 1-188
      資料的預處理
    • 1-189
      實作LSTM
    • 1-190
      定義超參數
    • 1-191
      定義參數
    • 1-192
      定義LSTM 單元及其操作
    • 1-193
      定義輸入和標籤
    • 1-194
      定義處理序列資料所需的序列相關計算
    • 1-195
      定義最佳化工具
    • 1-196
      隨時間遞減學習速率
    • 1-197
      做出預測
    • 1-198
      計算困惑度(損失)
    • 1-199
      重設狀態
    • 1-200
      貪婪取樣以打破單峰性
    • 1-201
      生成新文字
    • 1-202
      所生成的文字範例
    • 1-203
      LSTM、窺孔連結LSTM 與GRU 的比較
    • 1-204
      標準LSTM
    • 1-205
      重點回顧
    • 1-206
      所生成的文字範例
    • 1-207
      閘控遞迴單元(GRU)
    • 1-208
      重點回顧
    • 1-209
      程式碼
    • 1-210
      所生成的文字範例
    • 1-211
      帶窺孔的LSTM
    • 1-212
      重點回顧
    • 1-213
      程式碼
    • 1-214
      所生成的文字範例
    • 1-215
      訓練與驗證困惑度隨時間的變化
    • 1-216
      改進LSTM:束搜索
    • 1-217
      束搜索的實作
    • 1-218
      束搜索所生成的文字範例
    • 1-219
      改進LSTM|改用單詞取代n-gram 來生成文字
    • 1-220
      維度的詛咒
    • 1-221
      Word2vec 來救援
    • 1-222
      使用Word2vec 生成文字
    • 1-223
      LSTM-Word2vec 搭配束搜索所生成的文字範例
    • 1-224
      困惑度隨時間的變化
    • 1-225
      使用TensorFlow RNN API
    • 1-226
      總結
    • 1-227
      Ch09:LSTM 的應用:生成圖片說明
    • 1-228
      認識資料
    • 1-229
      ILSVRC ImageNet 資料集
    • 1-230
      MS-COCO 資料集
    • 1-231
      生成圖片說明的機器學習流程
    • 1-232
      用CNN 提取圖片特徵
    • 1-233
      實作|載入權重並使用VGG-16 進行推論
    • 1-234
      變數的構建與更新
    • 1-235
      輸入的預處理
    • 1-236
      用VGG-16 進行推論
    • 1-237
      提取圖片的向量化表達方式
    • 1-238
      用VGG-16 來預測類別機率
    • 1-239
      學習單詞內嵌
    • 1-240
      準備要送入LSTM 的圖片說明
    • 1-241
      生成要送進LSTM 的資料
    • 1-242
      定義LSTM
    • 1-243
      以定量的方式評估結果
    • 1-244
      BLEU
    • 1-245
      ROUGE
    • 1-246
      METEOR
    • 1-247
      CIDEr
    • 1-248
      模型的BLEU-4 分數隨時間的變化
    • 1-249
      測試圖片所生成的圖片說明
    • 1-250
      使用TensorFlow RNN API 搭配預訓練過的GloVe 單詞向量
    • 1-251
      載入GloVe 單詞向量
    • 1-252
      清理資料
    • 1-253
      透過TensorFlow RNN API 使用預訓練內嵌
    • 1-254
      定義預訓練內嵌層與轉接層
    • 1-255
      定義LSTM 單元與softmax 層
    • 1-256
      定義輸入和輸出
    • 1-257
      以不同方式處理圖片和文字
    • 1-258
      定義LSTM 輸出的計算方式
    • 1-259
      定義logit 值和預測結果
    • 1-260
      定義序列損失
    • 1-261
      定義最佳化工具
    • 1-262
      總結
    • 1-263
      Ch10:Seq2Seq 序列轉序列| NMT 神經機器翻譯
    • 1-264
      機器翻譯
    • 1-265
      簡短扼要的機器翻譯歷史之旅
    • 1-266
      以規則為基礎的翻譯方式
    • 1-267
      統計機器翻譯(SMT)
    • 1-268
      神經機器翻譯(NMT)
    • 1-269
      瞭解神經機器翻譯
    • 1-270
      NMT 背後的直覺概念
    • 1-271
      NMT 架構
    • 1-272
      內嵌層
    • 1-273
      編碼器
    • 1-274
      前後文向量
    • 1-275
      解碼器
    • 1-276
      為NMT 系統準備資料
    • 1-277
      訓練階段
    • 1-278
      顛倒來源句子
    • 1-279
      測試階段
    • 1-280
      訓練NMT
    • 1-281
      用NMT 進行推測
    • 1-282
      BLEU 分數|機器翻譯系統的評估
    • 1-283
      修改版精確率
    • 1-284
      短句懲罰
    • 1-285
      最終的BLEU 分數
    • 1-286
      從無到有實作出NMT|從德語翻譯成英語
    • 1-287
      資料簡介
    • 1-288
      資料的預處理
    • 1-289
      學習單詞內嵌
    • 1-290
      定義編碼器和解碼器
    • 1-291
      定義端到端輸出的計算方式
    • 1-292
      一些翻譯的結果
    • 1-293
      NMT 結合單詞內嵌的訓練方式
    • 1-294
      盡可能從預訓練內嵌中取出所有用到的單詞
    • 1-295
      定義內嵌層相關TensorFlow 變數
    • 1-296
      改善NMT
    • 1-297
      教師強制
    • 1-298
      深度LSTM
    • 1-299
      注意力機制
    • 1-300
      突破前後文向量的瓶頸
    • 1-301
      注意力機制詳細說明
    • 1-302
      注意力機制的實作
    • 1-303
      定義權重
    • 1-304
      注意力的計算
    • 1-305
      NMT 搭配注意力機制的一些翻譯結果
    • 1-306
      用視覺化方式把來源與目標句子的注意力呈現出來
    • 1-307
      Seq2Seq 模型的其他應用:聊天機器人
    • 1-308
      訓練聊天機器人
    • 1-309
      聊天機器人的評估:圖靈測試
    • 1-310
      總結
    • 1-311
      Ch11:NLP 自然語言處理的趨勢與未來
    • 1-312
      NLP 的當前趨勢
    • 1-313
      單詞內嵌
    • 1-314
      區域內嵌
    • 1-315
      機率型單詞內嵌
    • 1-316
      集成內嵌
    • 1-317
      主題內嵌
    • 1-318
      神經機器翻譯(NMT)
    • 1-319
      注意力機制的改進
    • 1-320
      混合型MT 模型
    • 1-321
      其他研究領域的應用
    • 1-322
      NLP 與電腦視覺
    • 1-323
      視覺問題答覆(VQA)
    • 1-324
      運用注意力機制,為圖片生成圖片說明
    • 1-325
      NLP 與強化學習
    • 1-326
      教導代理者使用自己的語言進行溝通
    • 1-327
      具有強化學習能力的對話代理者
    • 1-328
      NLP 與生成對抗網路
    • 1-329
      邁向通用人工智慧
    • 1-330
      用一個模型學習所有的模型
    • 1-331
      聯合多任務模型:針對多個NLP 任務發展出神經網路
    • 1-332
      第一層級:單詞層級任務
    • 1-333
      第二層級:句法層級任務
    • 1-334
      第三層級:語義層級任務
    • 1-335
      NLP 在社群媒體方面的應用
    • 1-336
      偵測出社群媒體的謠言
    • 1-337
      偵測出社群媒體中的情緒
    • 1-338
      分析推文中的政治框架
    • 1-339
      不斷湧現的新任務
    • 1-340
      偵測出諷刺性說法
    • 1-341
      語言背景基礎知識
    • 1-342
      使用LSTM 略讀文字
    • 1-343
      比較新的一些機器學習模型
    • 1-344
      階段型LSTM
    • 1-345
      擴張型遞迴神經網路(DRNN)
    • 1-346
      總結
    • 1-347
      參考資料
    • 1-348
      Appendix A:數學基礎和TensorFlow 進階概念
    • 1-349
      基本資料結構
    • 1-350
      純量
    • 1-351
      向量
    • 1-352
      矩陣
    • 1-353
      矩陣的索引方式
    • 1-354
      特殊型態的矩陣
    • 1-355
      單位矩陣
    • 1-356
      對角矩陣
    • 1-357
      張量
    • 1-358
      張量/矩陣運算
    • 1-359
      轉置
    • 1-360
      矩陣乘法
    • 1-361
      元素級乘法
    • 1-362
      逆矩陣
    • 1-363
      找出逆矩陣:奇異值分解(SVD)
    • 1-364
      範數
    • 1-365
      行列式
    • 1-366
      機率
    • 1-367
      隨機變數
    • 1-368
      離散隨機變數
    • 1-369
      連續隨機變數
    • 1-370
      機率質量函數/機率密度函數
    • 1-371
      條件機率
    • 1-372
      聯合機率
    • 1-373
      邊際機率
    • 1-374
      貝氏定理
    • 1-375
      Keras 簡介
    • 1-376
      TensorFlow seq2seq 函式庫簡介
    • 1-377
      定義編碼器和解碼器內嵌
    • 1-378
      定義編碼器
    • 1-379
      定義解碼器
    • 1-380
      使用TensorBoard 以視覺化方式呈現單詞內嵌
    • 1-381
      啟動TensorBoard
    • 1-382
      保存單詞內嵌並以TensorBoard 進行視覺化呈現
    • 1-383
      總結
    • 1-384
      版權頁
    • 1-385
      封底頁

    FAQ

    您可以透過手機、平板或是電腦登入 HiSKIO 平台,在【我的學習】>【我的書籍】頁面,選擇想看的電子書。

    Recommendations

    Reviews

    | Collecting

    Sales Plans