網(wǎng)上有很多關(guān)于pos機(jī)a8使用教程,知識(shí)圖譜教程的知識(shí),也有很多人為大家解答關(guān)于pos機(jī)a8使用教程的問題,今天pos機(jī)之家(m.afbey.com)為大家整理了關(guān)于這方面的知識(shí),讓我們一起來看下吧!
本文目錄一覽:
pos機(jī)a8使用教程
來源:人工智能頭條
本文多資源,建議閱讀收藏。
本文整理了關(guān)于 NLP 與知識(shí)圖譜的眾多參考資源,涵蓋內(nèi)容與形式非常豐富。
[ 導(dǎo)讀 ]本文作者一年前整理了這份關(guān)于 NLP 與知識(shí)圖譜的參考資源,涵蓋內(nèi)容與形式也是非常豐富,接下來我們還會(huì)繼續(xù)努力,分享更多更好的新資源給大家,也期待能與大家多多交流,一起成長(zhǎng)。
NLP參考資源
自然語言處理(Natural Language Processing)是深度學(xué)習(xí)的主要應(yīng)用領(lǐng)域之一。
1. 教程
CS224d: Deep Learning for Natural Language Processinghttp://cs224d.stanford.edu/CS224d課程的課件http://web.stanford.edu/class/cs224n/syllabus.htmlCMU的NLP教程。該網(wǎng)頁下方還有美國(guó)其他高校的NLP課程的鏈接。http://demo.clab.cs.cmu.edu/NLP/北京大學(xué)的NLP教程,特色:中文處理。缺點(diǎn):傳統(tǒng)方法居多,深度學(xué)習(xí)未涉及。http://ccl.pku.edu.cn/alcourse/nlp/COMS W4705: Natural Language Processinghttp://www.cs.columbia.edu/~cs4705/初學(xué)者如何查閱自然語言處理(NLP)領(lǐng)域?qū)W術(shù)資料https://mp.weixin.qq.com/s/TSc4E8lKwgc-EvzP8OlJeg揭開知識(shí)庫問答KB-QA的面紗(知識(shí)圖譜方面的系列專欄)https://zhuanlan.zhihu.com/kb-qa《語音與語言處理》第三版,NLP和語音合成方面的專著http://web.stanford.edu/~jurafsky/slp3/ed3book.pdfCIPS ATT 2017 文本分析和自然語言課程PPThttps://mp.weixin.qq.com/s/5KhTWdOk-b84DXmoVr68-ACMU NN for NLPhttp://phontron.com/class/nn4nlp2017/assets/slides/CMU Machine Translation and Sequence to Sequence Modelshttp://phontron.com/class/mtandseq2seq2017/Oxford Deep NLP 2017 coursehttps://github.com/oxford-cs-deepnlp-2017/lectures2. 書籍
《Natural Language Processing with Python》,Steven Bird、Ewan Klein、Edward Loper著。這本書的作者們創(chuàng)建了著名的NLTK工具庫。http://ccl.pku.edu.cn/alcourse/nlp/LectureNotes/Natural Language Processing with Python.pdf注:
Steven Bird,愛丁堡大學(xué)博士,墨爾本大學(xué)副教授。
http://www.stevenbird.net/about.html
Ewan Klein,蘇格蘭人,哥倫比亞大學(xué)博士(1978年),愛丁堡大學(xué)教授。
Edward Loper,賓夕法尼亞大學(xué)博士。
推薦5本經(jīng)典自然語言處理書籍https://mp.weixin.qq.com/s/0HmsMytif3INqAX1Si5ukA3. 網(wǎng)站
一個(gè)自然語言處理愛好者的群體博客。包括52nlp、rickjin、liwei等國(guó)內(nèi)外華人大牛.http://www.52nlp.cn/實(shí)戰(zhàn)課程:自己動(dòng)手做聊天機(jī)器人http://www.shareditor.com/bloglistbytag/?tagname=自己動(dòng)手做聊天機(jī)器人北京大學(xué)計(jì)算機(jī)科學(xué)技術(shù)研究所語言計(jì)算與互聯(lián)網(wǎng)挖掘研究http://www.icst.pku.edu.cn/lcwm/NLP深度學(xué)習(xí)方面的代碼庫https://github.com/rockingdingo/deepnlpNLP專家李維的bloghttps://liweinlp.com/一個(gè)NLP方面的bloghttp://www.shuang0420.com/一個(gè)DL+ML+NLP的bloghttp://www.cnblogs.com/Determined22/一個(gè)NLP方面的bloghttp://www.cnblogs.com/robert-dlut/一個(gè)NLP方面的bloghttps://blog.csdn.net/wangxinginnlp4. 工具
Natural Language Toolkit(NLTK)官網(wǎng):http://www.nltk.org/可使用nltk.download()下載相關(guān)nltk官方提供的各種資源。參考:
http://www.cnblogs.com/baiboy/p/nltk3.html
OpenNLPhttp://opennlp.apache.org/FudanNLPhttps://github.com/FudanNLP/fnlpStanford CoreNLPhttp://stanfordnlp.github.io/CoreNLP/THUCTCTHUCTC(THU Chinese Text Classification)是由清華大學(xué)自然語言處理實(shí)驗(yàn)室推出的中文文本分類工具包。http://thuctc.thunlp.org/gensimgensim是Python語言的計(jì)算文本相似度的程序包。http://radimrehurek.com/gensim/index.html安裝指令:
pip install --upgrade gensim
GitHub 地址:
https://github.com/RaRe-Technologies/gensim
參考學(xué)習(xí):
情感分析的新方法——基于Word2Vec /Doc2Vec/Python
http://www.open-open.com/lib/view/open1444351655682.html
Gensim Word2vec使用教程
http://blog.csdn.net/Star_Bob/article/details/47808499
GloVeGloVe:Global Vectors for Word Representationhttps://nlp.stanford.edu/projects/glove/textsumtextsum是一個(gè)基于深度學(xué)習(xí)的文本自動(dòng)摘要工具。代碼:
https://github.com/TensorFlow/models/tree/master/textsum
參考:
http://www.jiqizhixin.com/article/1449
谷歌開源新的TensorFlow文本自動(dòng)摘要代碼:
TensorFlow文本摘要生成 - 基于注意力的序列到序列模型
http://blog.csdn.net/tensorflowshizhan/article/details/69230070
jiebahttps://github.com/fxsjy/jiebaNLPIR:NLPIR漢語分詞系統(tǒng)(又名ICTCLAS2013),是中科院張華平博士的作品。http://ictclas.nlpir.org/參考:
這個(gè)網(wǎng)頁對(duì)于NLP的大多數(shù)功能進(jìn)行了可視化的展示。NLP入門必看。
http://ictclas.nlpir.org/nlpir/
snownlphttps://github.com/isnowfy/snownlpHanLP:HanLP是一個(gè)目前留學(xué)日本的中國(guó)學(xué)生的作品http://hanlp.linrunsoft.com/作者blog:
http://www.hankcs.com/
Github:
https://github.com/hankcs/HanLP/
從作者的名氣來說,HanLP無疑是最低的,性能也不見得有多好。然而對(duì)于初學(xué)者來說,這卻是最適合的工具。這主要體現(xiàn)在以下幾個(gè)方面:
1.中文處理能力。NLTK和OpenNLP對(duì)中文支持非常差,這里不光是中文分詞的問題,有些NLP算法需要一定的語言模型數(shù)據(jù),但瀏覽NLTK官方的模型庫,基本找不到中文模型數(shù)據(jù)。
2.jieba、IK之類的功能太單一,多數(shù)局限在中文分詞方面領(lǐng)域。gensim、THUCTC專注于NLP的某一方面,也不是通用工具。
3.NLPIR和Stanford CoreNLP算是功能最強(qiáng)的工具包了。前者的問題在于收費(fèi)不開源,后者的問題在于缺少中文文檔。FudanNLP的相關(guān)文檔較少,文檔友好度不如HanLP。
4.HanLP在主頁上提供了相關(guān)算法的blog,便于初學(xué)者快速掌握相關(guān)概念。其詞典是明文發(fā)布,便于用戶修改。HanLP執(zhí)行時(shí),會(huì)將明文詞典以特定結(jié)構(gòu)緩存,以提高執(zhí)行效率。
注:不要以為中文有分詞問題,就比別的語言復(fù)雜,英文還有詞根問題呢。。。每種語言都不簡(jiǎn)單。
AllenNLPAllenNLP是 Allen AI實(shí)驗(yàn)室的作品,采用深度學(xué)習(xí)技術(shù),基于PyTorch開發(fā)。http://allennlp.org/Allen AI實(shí)驗(yàn)室由微軟聯(lián)合創(chuàng)始人Paul G. Allen投資創(chuàng)立。
http://allenai.org/
python版的漢字轉(zhuǎn)拼音軟件https://github.com/mozillazg/python-pinyinJava分布式中文分詞組件-word分詞https://github.com/ysc/wordjena是一個(gè)語義網(wǎng)絡(luò)、知識(shí)圖譜相關(guān)的軟件http://jena.apache.org/NLPchinaNLPchina(中國(guó)自然語言處理開源組織)旗下有許多好用的工具。http://www.nlpcn.org/Github:
https://github.com/NLPchina
AnsjAnsj是一個(gè)NLPchina旗下的開源的Java中文分詞工具,基于中科院的ictclas中文分詞算法,比其他常用的開源分詞工具(如mmseg4j)的分詞準(zhǔn)確率更高。https://github.com/NLPchina/ansj_segWord2VEC_javaword2vec java版本的一個(gè)實(shí)現(xiàn)。https://github.com/NLPchina/Word2VEC_javadoc2vec java版本的一個(gè)實(shí)現(xiàn),基于Word2VEC_java。https://github.com/yao8839836/doc2vec_javaansj_fast_ldaLDA算法的Java包。https://github.com/NLPchina/ansj_fast_ldanlp-lang這個(gè)項(xiàng)目是一個(gè)基本包.封裝了大多數(shù)nlp項(xiàng)目中常用工具h(yuǎn)ttps://github.com/NLPchina/nlp-lang詞性標(biāo)注ICTPOS3.0漢語詞性標(biāo)記集http://jacoxu.com/ictpos3-0漢語詞性標(biāo)記集/Word HashingWord Hashing是非常重要的一個(gè)trick,以英文單詞來說,比如good,他可以寫成#good#,然后按tri-grams來進(jìn)行分解為#go goo ood od#,再將這個(gè)tri-grams灌入到bag-of-word中,這種方式可以非常有效的解決vocabulary太大的問題(因?yàn)樵谡鎸?shí)的web search中vocabulary就是異常的大),另外也不會(huì)出現(xiàn)oov問題,因此英文單詞才26個(gè),3個(gè)字母的組合都是有限的,很容易枚舉光。那么問題就來了,這樣兩個(gè)不同的單詞會(huì)不會(huì)產(chǎn)出相同的tri-grams,paper里面做了統(tǒng)計(jì),說了這個(gè)沖突的概率非常的低,500K個(gè)word可以降到30k維,沖突的概率為0.0044%。
但是在中文場(chǎng)景下,這個(gè)Word Hashing估計(jì)沒有這么有效了:
詞匯共現(xiàn)http://sewm.pku.edu.cn/TianwangLiterature/SEWM/2005(5)/[????, et al.,2005]/050929.pdf詞匯共現(xiàn)是指詞匯在文檔集中共同出現(xiàn)。以一個(gè)詞為中心,可以找到一組經(jīng)常與之搭配出現(xiàn)的詞,作為它的共現(xiàn)詞匯集。
詞匯共現(xiàn)的其中一種用例:
有若干關(guān)鍵詞,比如:水果、天氣、風(fēng),有若干描述詞,比如,很甜、晴朗、很大,然后現(xiàn)在要找出他們之間的搭配,在這個(gè)例子里,我們最終要找到:水果很甜、天氣晴朗、風(fēng)很大。
關(guān)鍵詞提取主要三種方法:1.基于統(tǒng)計(jì)特征,如TF-IDF;2.基于詞圖模型,如TextRank;3.基于主題模型,如LDA。自然語言理解Natural language understanding(NLU)屬于NLP的一個(gè)分支,屬于人工智能的一個(gè)部分,用來解決機(jī)器理解人類語言的問題,屬于人工智能的核心難題。http://www.shuang0420.com/2017/04/27/NLP筆記 - NLU之意圖分類/論文《Distant Supervision for relation extraction without labeled data》《Using Recurrent Neural Networks for Slot Filling in Spoken Language Understanding》《Convolutional Neural Networks for Sentence Classification》知識(shí)圖譜參考資源
知識(shí)圖譜構(gòu)建技術(shù)綜述https://wenku.baidu.com/view/38ad3ef7e109581b6bd97f19227916888586b959.html知識(shí)圖譜技術(shù)綜述https://wenku.baidu.com/view/e69a3619fe00bed5b9f3f90f76c66137ee064f15.html知識(shí)圖譜技術(shù)原理介紹https://wenku.baidu.com/view/b3858227c5da50e2534d7f08.html基于知識(shí)圖譜的問答系統(tǒng)關(guān)鍵技術(shù)研究https://mp.weixin.qq.com/s/JLYegFP7kEg6n34crgP09g什么是知識(shí)圖譜?https://mp.weixin.qq.com/s/XgKvh63wgEe-CR9bchp03Q當(dāng)知識(shí)圖譜遇上聊天機(jī)器人https://mp.weixin.qq.com/s/iqFXvhvYfOejaeNAhXxJEg知識(shí)圖譜前沿技術(shù)課程實(shí)錄https://mp.weixin.qq.com/s/U-dlYhnaR8OQw2UKYKUWKQ阿里知識(shí)圖譜首次曝光:每天千萬級(jí)攔截量,億級(jí)別全量智能審核https://mp.weixin.qq.com/s/MZE_SXsNg6Yt4dz2fmB1sA東南大學(xué)漆桂林:知識(shí)圖譜的應(yīng)用https://mp.weixin.qq.com/s/WIro7pk7kboMvdwpZOSdQA東南大學(xué)高桓:知識(shí)圖譜表示學(xué)習(xí)https://mp.weixin.qq.com/s/z1hhG4GaBQXPHHt9UGZPnA復(fù)旦肖仰華:基于知識(shí)圖譜的問答系統(tǒng)https://mp.weixin.qq.com/s/JZYH_m1eS93KRjkWA82GoA多源信息表示學(xué)習(xí)在知識(shí)圖譜中的應(yīng)用https://mp.weixin.qq.com/s/cEmtOAtfP2gSBlaPfGXb3w如何構(gòu)建知識(shí)圖譜https://mp.weixin.qq.com/s/cL1aKdu8ig8-ocOPirXk2w中文通用百科知識(shí)圖譜(CN-DBpedia)https://mp.weixin.qq.com/s/Nh7XJOLNBDdpibopVG4MrQ原文鏈接:
https://blog.csdn.net/antkillerfarm/article/details/78082564
以上就是關(guān)于pos機(jī)a8使用教程,知識(shí)圖譜教程的知識(shí),后面我們會(huì)繼續(xù)為大家整理關(guān)于pos機(jī)a8使用教程的知識(shí),希望能夠幫助到大家!
![](/style/images/zhouzong.jpg)