1. <del id="djlcs"></del>

              當前位置: 首頁(yè) > 內訓課程 > 課程內容
              廣告1
              相關(guān)熱門(mén)公開(kāi)課程更多 》
              相關(guān)熱門(mén)內訓課程更多 》
              相關(guān)最新下載資料

              人工智能之最新自然語(yǔ)言處理技術(shù)與實(shí)戰

              課程編號:37662

              課程價(jià)格:¥25000/天

              課程時(shí)長(cháng):4 天

              課程人氣:547

              行業(yè)類(lèi)別:IT網(wǎng)絡(luò )     

              專(zhuān)業(yè)類(lèi)別:人工智能 

              授課講師:葉梓

              • 課程說(shuō)明
              • 講師介紹
              • 選擇同類(lèi)課
              【培訓對象】
              1.希望從事NLP工作的IT技術(shù)人員、開(kāi)發(fā)人員等。 2.高校、科研院涉及NLP工作的學(xué)生和研究人員。

              【培訓收益】
              1.掌握NLP基礎; 2.分詞;詞法、句法分析 3.文本向量化 4.HMM與CRF 5.基于深度學(xué)習NLP算法; 6.神經(jīng)語(yǔ)言模型 7.詞嵌入方法 8.基于大規模語(yǔ)料預訓練的詞嵌入

              課程大綱
              第一天:傳統的NLP
              一、NLP基礎知識
              1、自然語(yǔ)言處理簡(jiǎn)介
              2、中文NLP的主要任務(wù)
              3、常見(jiàn)的NLP系統
              4、NLP的研究機構與資源
              二、中文分詞
              1、基于字符串匹配的分詞
              2、統計分詞法與分詞中的消歧
              3、命名實(shí)體識別
              4、常用分詞工具:JIEBA
              三、文本的相似性
              1、VSM
              2、TF-IDF
              3、初步情感分析
              四、隱馬爾科夫模型
              1、形式化定義
              2、三個(gè)問(wèn)題
              3、評估問(wèn)題與向前向后算法
              4、解碼問(wèn)題:維特比算法
              5、學(xué)習問(wèn)題:Baum-Welch算法
              五、條件隨機場(chǎng)
              1、最大熵原理
              2、無(wú)向圖模型
              3、最大團上的勢函數
              4、工具:CRF++

              第二天:從傳統到現代
              一、從LSA到LDA
              1、LSA與SVD分解
              2、pLSA
              3、LDA
              二、神經(jīng)網(wǎng)絡(luò )語(yǔ)言模型
              1、維數的詛咒
              2、n-gram語(yǔ)言模型
              3、NNLM的具體實(shí)現
              4、改進(jìn)的思路
              三、word2vec
              1、one-hot與Distributed
              2、CBOW
              3、skip-gram
              4、Hierachical Softmax
              5、Negative Sampling
              四、循環(huán)神經(jīng)網(wǎng)絡(luò )(RNN)
              1、RNN的基礎架構
              2、RNN的示例
              3、LSTM
              4、GRU

              第三天:預訓練模型之一(變形金剛、芝麻街、獨角獸及其他)
              一、GloVe
              1、與word2vec的區別
              2、統計共現矩陣
              3、用GloVe訓練詞向量
              二、Transformer
              1、所有你需要的僅僅是“注意力”
              2、Transformer中的block
              3、自注意力與多頭注意力
              4、位置編碼(為什么可以?huà)仐塕NN)
              三、三大特征抽取器的比較
              1、CNN、RNN與Transformer的比較
              2、融合各種模型
              四、Elmo
              1、雙向語(yǔ)言模型
              2、工作原理
              3、Elmo的應用場(chǎng)景
              五、GPT
              1、“一定會(huì )有人用它干壞事”
              2、GPT的內部架構
              3、Transformer的演示
              4、自注意力機制的改進(jìn)
              5、GPT的應用場(chǎng)景

              第四天:預訓練模型之二(站上BERT的肩頭)
              一、BERT的前世今生
              1、之前介紹的模型回顧
              2、現代NLP的最新應用場(chǎng)景
              3、條條大路通BERT
              二、BERT詳解
              1、原理與方法
              2、BERT的應用場(chǎng)景
              3、BERT源碼簡(jiǎn)介
              三、站在BERT肩膀上的新秀們
              1、ERNIE
              2、XLnet 

              咨詢(xún)電話(huà):
              0571-86155444
              咨詢(xún)熱線(xiàn):
              • 微信:13857108608
              聯(lián)系我們
              日韩一区二区三区免费高清|久久国产精品视频|精品一区二区无码|国产成人欧美日本在线观看

                    1. <del id="djlcs"></del>