幫助中心 | 我的帳號 | 關於我們

智能問答與深度學習

  • 作者:王海良//李卓桓//林旭鳴//陳可心//李思珍
  • 出版社:電子工業
  • ISBN:9787121349218
  • 出版日期:2019/01/01
  • 裝幀:平裝
  • 頁數:252
人民幣:RMB 69 元      售價:
放入購物車
加入收藏夾

內容大鋼
    王海良、李卓桓、林旭鳴、陳可心、李思珍等著的《智能問答與深度學習》面向在校學生或電腦軟體從業人員,由淺入深地介紹了人工智慧在文本任務中的應用。本書不但介紹了自然語言處理、深度學習和機器閱讀理解等基礎知識,還簡述了資訊理論、人工智慧等的發展過程。

作者介紹
王海良//李卓桓//林旭鳴//陳可心//李思珍

目錄
1 概述
  1.1  智能問答:讓機器更好地服務於人
  1.2  問答系統類型介紹
    1.2.1  基於事實的問答系統
    1.2.2  基於常見問題集的問答系統
    1.2.3  開放域的問答系統
  1.3  使用本書附帶的源碼程序
    1.3.1  安裝依賴軟體
    1.3.2  下載源碼
    1.3.3  執行示常式序
    1.3.4  聯繫我們
  1.4  全書結構
2 機器學習基礎
  2.1  線性代數
    2.1.1  標量、向量、矩陣和張量
    2.1.2  矩陣運算
    2.1.3  特殊類型的矩陣
    2.1.4  線性相關
    2.1.5  范數
  2.2  概率論基礎
    2.2.1  隨機變數
    2.2.2  期望和方差
    2.2.3  伯努利分佈
    2.2.4  二項分佈
    2.2.5  泊松分佈
    2.2.6  正態分佈
    2.2.7  條件概率、聯合概率和全概率
    2.2.8  先驗概率與后驗概率
    2.2.9  邊緣概率
    2.2.10  貝葉斯公式
    2.2.11  最大似然估計演算法
    2.2.12  線性回歸模型
    2.2.13  邏輯斯蒂回歸模型
  2.3  資訊理論基礎
    2.3.1  熵
    2.3.2  聯合熵和條件熵
    2.3.3  相對熵與互信息
    2.3.4  通道和通道容量
    2.3.5  最大熵模型
    2.3.6  資訊理論與機器學習
  2.4  統計學習
    2.4.1  輸入空間、特徵空間與輸出空間
    2.4.2  向量表示
    2.4.3  數據集
    2.4.4  從概率到函數
    2.4.5  統計學習三要素
  2.5  隱馬爾可夫模型
    2.5.1  隨機過程和馬爾可夫鏈
    2.5.2  隱馬爾可夫模型的定義
    2.5.3  三個基本假設及適用場景

    2.5.4  概率計算問題之直接計算
    2.5.5  概率計算問題之前向演算法
    2.5.6  概率計算問題之後向演算法
    2.5.7  預測問題之維特比演算法
    2.5.8  學習問題之Baum-Welch 演算法
  2.6  條件隨機場模型
    2.6.1  超越HMM
    2.6.2  項目實踐
  2.7  總結
3 自然語言處理基礎
  3.1  中文自動分詞
    3.1.1  有向無環圖
    3.1.2  最大匹配演算法
    3.1.3  演算法評測
    3.1.4  由字構詞的方法
  3.2  詞性標注
    3.2.1  詞性標注規範
    3.2.2  隱馬爾可夫模型詞性標注
  3.3  命名實體識別
  3.4  上下文無關文法
    3.4.1  原理介紹
    3.4.2  演算法淺析
  3.5  依存關係分析
    3.5.1  演算法淺析
    3.5.2  項目實踐
    3.5.3  小結
  3.6  信息檢索系統
    3.6.1  什麼是信息檢索系統
    3.6.2  衡量信息檢索系統的關鍵指標
    3.6.3  理解非結構化數據
    3.6.4  倒排索引
    3.6.5  處理查詢
    3.6.6  項目實踐
    3.6.7  Elasticsearch
    3.6.8  小結
  3.7  問答語料
    3.7.1  WikiQA
    3.7.2  中文版保險行業語料庫InsuranceQA
  3.8  總結
4 深度學習初步
  4.1  深度學習簡史
    4.1.1  感知機
    4.1.2  寒冬和復甦
    4.1.3  走出實驗室
    4.1.4  寒冬再臨
    4.1.5  走向大規模實際應用
  4.2  基本架構
    4.2.1  神經元
    4.2.2  輸入層、隱藏層和輸出層
    4.2.3  標準符號

  4.3  神經網路是如何學習的
    4.3.1  梯度下降
    4.3.2  反向傳播理論
    4.3.3  神經網路全連接層的實現
    4.3.4  使用簡單神經網路實現問答任務
  4.4  調整神經網路超參數
    4.4.1  超參數
    4.4.2  參考建議
  4.5  卷積神經網路與池化
    4.5.1  簡介
    4.5.2  卷積層的前向傳播
    4.5.3  池化層的前向傳播
    4.5.4  卷積層的實現
    4.5.5  池化層的實現
    4.5.6  使用卷積神經網路實現問答任務
  4.6  循環神經網路及其變種
    4.6.1  簡介
    4.6.2  循環神經網路
    4.6.3  長短期記憶單元和門控循環單元
    4.6.4  循環神經網路的實現
    4.6.5  使用循環神經網路實現問答任務
  4.7  簡易神經網路工具包
5 詞向量實現及應用
  5.1  語言模型
    5.1.1  評測
    5.1.2  ARPA 格式介紹
    5.1.3  項目實踐
  5.2  One-hot 表示法
  5.3  詞袋模型
  5.4  NNLM 和RNNLM
  5.5  word2vec
    5.5.1  C-BOW 的原理
    5.5.2  Skip-gram 的原理
    5.5.3  計算效率優化
    5.5.4  項目實踐
  5.6  GloVe
    5.6.1  GloVe 的原理
    5.6.2  GloVe 與word2vec 的區別和聯繫
    5.6.3  項目實踐
  5.7  fastText
    5.7.1  fastText 的原理
    5.7.2  fastText 與word2vec 的區別和聯繫
    5.7.3  項目實踐
  5.8  中文近義詞工具包
    5.8.1  安裝
    5.8.2  介面
  5.9  總結
6 社區問答中的QA 匹配
  6.1  社區問答任務簡介
  6.2  孿生網路模型

  6.3  QACNN 模型
    6.3.1  模型構建
    6.3.2  實驗結果
  6.4  Decomposable Attention 模型
    6.4.1  模型介紹
    6.4.2  模型構建
  6.5  多比較方式的比較–集成模型
    6.5.1  模型介紹
    6.5.2  模型構建
  6.6  BiMPM 模型
    6.6.1  模型介紹
    6.6.2  模型構建
7 機器閱讀理解
  7.1  完型填空型機器閱讀理解任務
    7.1.1  CNN/Daily Mail 數據集
    7.1.2  Children』s Book Test(CBT)數據集
    7.1.3  GA Reader 模型
    7.1.4  SA Reader 模型
    7.1.5  AoA Reader 模型
  7.2  答案抽取型機器閱讀理解任務
    7.2.1  SQuAD 數據集
    7.2.2  MS MARCO 數據集
    7.2.3  TriviaQA 數據集
    7.2.4  DuReader 數據集
    7.2.5  BiDAF 模型
    7.2.6  R-Net 模型
    7.2.7  S-Net 模型
  7.3  答案選擇型機器閱讀理解任務
  7.4  展望
參考文獻

  • 商品搜索:
  • | 高級搜索
首頁新手上路客服中心關於我們聯絡我們Top↑
Copyrightc 1999~2008 美商天龍國際圖書股份有限公司 臺灣分公司. All rights reserved.
營業地址:臺北市中正區重慶南路一段103號1F 105號1F-2F
讀者服務部電話:02-2381-2033 02-2381-1863 時間:週一-週五 10:00-17:00
 服務信箱:bookuu@69book.com 客戶、意見信箱:cs@69book.com
ICP證:浙B2-20060032