一、自然語(yǔ)言處理概覽——什么是自然語(yǔ)言處理(NLP)
1)相關(guān)技術(shù)與應(yīng)用
自動(dòng)問(wèn)答(Question Answering闻伶,QA):它是一套可以理解復(fù)雜問(wèn)題滨攻,并以充分的準(zhǔn)確度、可信度和速度給出答案的計(jì)算系統(tǒng)蓝翰,以IBM‘s Waston為代表光绕;
信息抽取(Information Extraction畜份,IE):其目的是將非結(jié)構(gòu)化或半結(jié)構(gòu)化的自然語(yǔ)言描述文本轉(zhuǎn)化結(jié)構(gòu)化的數(shù)據(jù)诞帐,如自動(dòng)根據(jù)郵件內(nèi)容生成Calendar;
情感分析(Sentiment Analysis漂坏,SA):又稱傾向性分析和意見(jiàn)挖掘景埃,它是對(duì)帶有情感色彩的主觀性文本進(jìn)行分析、處理顶别、歸納和推理的過(guò)程谷徙,如從大量網(wǎng)頁(yè)文本中分析用戶對(duì)“數(shù)碼相機(jī)”的“變焦、價(jià)格驯绎、大小完慧、重量、閃光剩失、易用性”等屬性的情感傾向屈尼;
機(jī)器翻譯(Machine Translation,MT):將文本從一種語(yǔ)言轉(zhuǎn)成另一種語(yǔ)言拴孤,如中英機(jī)器翻譯脾歧。
… …
2)發(fā)展現(xiàn)狀
基本解決:詞性標(biāo)注、命名實(shí)體識(shí)別演熟、Spam識(shí)別
取得長(zhǎng)足進(jìn)展:情感分析鞭执、共指消解、詞義消歧芒粹、句法分析兄纺、機(jī)器翻譯、信息抽取
挑戰(zhàn):自動(dòng)問(wèn)答化漆、復(fù)述估脆、文摘、會(huì)話機(jī)器人
3)NLP主要難點(diǎn)——歧義問(wèn)題
詞法分析歧義
分詞座云,如“嚴(yán)守一把手機(jī)關(guān)了”疙赠,可能的分詞結(jié)果“嚴(yán)守一/ 把/ 手機(jī)/ 關(guān)/ 了” 和“嚴(yán)守/ 一把手/ 機(jī)關(guān)/ 了”
詞性標(biāo)注付材,如“計(jì)劃”在不同上下文中有不同的詞性:“我/ 計(jì)劃/v 考/ 研/”和“我/ 完成/ 了/ 計(jì)劃/n”
語(yǔ)法分析歧義
“那只狼咬死了獵人的狗”
”咬死了獵人的狗失蹤了”
語(yǔ)義分析歧義
計(jì)算機(jī)會(huì)像你的母親那樣很好的理解你(的語(yǔ)言)
計(jì)算機(jī)理解你喜歡你的母親
計(jì)算機(jī)會(huì)像很好的理解你的母親那樣理解你
機(jī)器翻譯:句子“At last, a computer that understands you like your mother”可以有多種含義,如下:
NLP應(yīng)用中的歧義
音字轉(zhuǎn)換:拼音串“ji qi fan yi ji qi ying yong ji qi le ren men ji qi nong hou de xing qu”中的“ji qi”如何轉(zhuǎn)換成正確的詞條
4)為什么自然語(yǔ)言理解如此困難圃阳?
用戶生成內(nèi)容中存在大量口語(yǔ)化伞租、成語(yǔ)、方言等非標(biāo)準(zhǔn)的語(yǔ)言描述
分詞問(wèn)題
新詞不斷產(chǎn)生
基本常識(shí)與上下文知識(shí)
各式各樣的實(shí)體詞
… …
為了解決以上難題限佩,我們需要掌握較多的語(yǔ)言學(xué)知識(shí)葵诈,構(gòu)建知識(shí)庫(kù)資源,并找到一種融合各種知識(shí)祟同、資源的方法作喘,目前使用較多是概率模型(probabilistic model)或稱為統(tǒng)計(jì)模型(statistical model),或者稱為“經(jīng)驗(yàn)主義模型”晕城,其建模過(guò)程基于大規(guī)模真實(shí)語(yǔ)料庫(kù)泞坦,從中各級(jí)語(yǔ)言單位上的統(tǒng)計(jì)信息,并且砖顷,依據(jù)較低級(jí)語(yǔ)言單位上的統(tǒng)計(jì)信息贰锁,運(yùn)行相關(guān)的統(tǒng)計(jì)、推理等技術(shù)計(jì)算較高級(jí)語(yǔ)言單位上的統(tǒng)計(jì)信息滤蝠。與其相對(duì)的“理想主義模型”豌熄,即基于Chomsky形式語(yǔ)言的確定性語(yǔ)言模型,它建立在人腦中先天存在語(yǔ)法規(guī)則這一假設(shè)基礎(chǔ)上物咳,認(rèn)為語(yǔ)言是人腦語(yǔ)言能力推導(dǎo)出來(lái)的锣险,建立語(yǔ)言模型就是通過(guò)建立人工編輯的語(yǔ)言規(guī)則集來(lái)模擬這種先天的語(yǔ)言能力。
本課程主要側(cè)重于基于統(tǒng)計(jì)的NLP技術(shù)览闰,如Viterbi芯肤、貝葉斯和最大熵分類(lèi)器、N-gram語(yǔ)言模型等等压鉴。
二崖咨、情感分析(Sentiment Analysis)
1)What is Sentiment Analysis?
情感分析(Sentiment analysis),又稱傾向性分析油吭,意見(jiàn)抽然鞫住(Opinion extraction),意見(jiàn)挖掘(Opinion mining)上鞠,情感挖掘(Sentiment mining)际邻,主觀分析(Subjectivity analysis)芯丧,它是對(duì)帶有情感色彩的主觀性文本進(jìn)行分析芍阎、處理、歸納和推理的過(guò)程缨恒,如從評(píng)論文本中分析用戶對(duì)“數(shù)碼相機(jī)”的“變焦谴咸、價(jià)格轮听、大小、重量岭佳、閃光血巍、易用性”等屬性的情感傾向。
更多例子如下:
l 從電影評(píng)論中識(shí)別用戶對(duì)電影的褒貶評(píng)價(jià):
l Google Product Search識(shí)別用戶對(duì)產(chǎn)品各種屬性的評(píng)價(jià)珊随,并從評(píng)論中選擇代表性評(píng)論展示給用戶:
l Bing Shopping識(shí)別用戶對(duì)產(chǎn)品各種屬性的評(píng)價(jià):
l Twitter sentiment versus Gallup Poll of Consumer Confidence:挖掘Twitter(中文:微博)中的用戶情感發(fā)現(xiàn)述寡,其與傳統(tǒng)的調(diào)查、投票等方法結(jié)果有高度的一致性(以消費(fèi)者信心和政治選舉為例叶洞,corelation達(dá)80%)鲫凶,詳細(xì)見(jiàn)論文:Brendan O’Connor, Ramnath Balasubramanyan, Bryan R. Routledge, and Noah A. Smith. 2010. From Tweets to Polls: Linking Text Sentiment to Public Opinion Time Series. In ICWSM-2010。(注:下圖中2008年到2009年初衩辟,網(wǎng)民情緒低谷是金融危機(jī)導(dǎo)致螟炫,從2009年5月份開(kāi)始慢慢恢復(fù))
l Twitter sentiment: 通過(guò)Twitter用戶情感預(yù)測(cè)股票走勢(shì),2012年5月艺晴,世界首家基于社交媒體的對(duì)沖基金 Derwent Capital Markets 在屢次跳票后終于上線昼钻。它會(huì)即時(shí)關(guān)注Twitter 中的公眾情緒指導(dǎo)投資。正如基金創(chuàng)始人保羅?郝头饽(Paul Hawtin)表示:“長(zhǎng)期以來(lái)然评,投資者已經(jīng)廣泛地認(rèn)可金融市場(chǎng)由恐懼和貪婪驅(qū)使,但我們從未擁有一種技術(shù)或數(shù)據(jù)來(lái)量化人們的情感狈究≌赐撸”一直為金融市場(chǎng)非理性舉動(dòng)所困惑的投資者,終于有了一扇可以了解心靈世界的窗戶——那便是 Twitter 每天浩如煙海的推文谦炒,在一份八月份的報(bào)道中顯示贯莺,利用Twitter 的對(duì)沖基金 Derwent Capital Markets 在首月的交易中已經(jīng)盈利,它以1.85%的收益率宁改,讓平均數(shù)只有0.76%的其他對(duì)沖基金相形見(jiàn)絀缕探。類(lèi)似的工作還有預(yù)測(cè)電影票房、選舉結(jié)果等还蹲,均是將公眾情緒與社會(huì)事件對(duì)比爹耗,發(fā)現(xiàn)一致性,并用于預(yù)測(cè)谜喊,如將“冷靜CLAM”情緒指數(shù)后移3天后和道瓊斯工業(yè)平均指數(shù)DIJA驚人一致潭兽。詳細(xì)見(jiàn)論文:
Johan Bollen, Huina Mao, Xiaojun Zeng. 2011. Twitter mood predicts the stock market, Journal of Computational Science 2:1, 1-8.(注:DIJA,全稱Dow Jones Industrial Average)
l Target Sentiment on Twitter(Twitter Sentiment App):對(duì)Twitter中包含給定query的tweets進(jìn)行情感分類(lèi)斗遏。對(duì)于公司了解用戶對(duì)公司山卦、產(chǎn)品的喜好,用于指導(dǎo)改善產(chǎn)品和服務(wù)诵次,公司還可以據(jù)此發(fā)現(xiàn)競(jìng)爭(zhēng)對(duì)手的優(yōu)劣勢(shì)账蓉,用戶也可以根據(jù)網(wǎng)友甚至親友評(píng)價(jià)決定是否購(gòu)買(mǎi)特定產(chǎn)品枚碗。詳細(xì)見(jiàn)論文:Alec Go, Richa Bhayani, Lei Huang. 2009. Twitter Sentiment Classification using Distant Supervision.
情感分析的意義何在?下面以實(shí)際應(yīng)用為例進(jìn)行直觀的闡述:
? Movie: is this review positive or negative?
? Products: what do people think about the new iPhone?
? Public sentiment: how is consumer confidence? Is despair increasing?
? Politics: what do people think about this candidate or issue?
? Prediction: predict election outcomes or market trends from sentiment
情感分析主要目的就是識(shí)別用戶對(duì)事物或人的看法铸本、態(tài)度(attitudes:enduring, affectively colored beliefs, dispositions towards objects or persons)肮雨,參與主體主要包括:
Holder (source) of attitude:觀點(diǎn)持有者
Target (aspect) of attitude:評(píng)價(jià)對(duì)象
Type of attitude:評(píng)價(jià)觀點(diǎn)
From a set of types:Like, love, hate, value, desire, etc.
Or (more commonly) simple weighted polarity: positive, negative, neutral,together with strength
Text containing the attitude:評(píng)價(jià)文本,一般是句子或整篇文檔
更細(xì)更深入的還包括評(píng)價(jià)屬性箱玷,情感詞/極性詞怨规,評(píng)價(jià)搭配等、
通常锡足,我們面臨的情感分析任務(wù)包括如下幾類(lèi):
Simplest task: Is the attitude of this text positive or negative?
More complex: Rank the attitude of this text from 1 to 5
Advanced: Detect the target, source, or complex attitude types
后續(xù)章節(jié)將以Simplest task為例進(jìn)行介紹椅亚。
2)A Baseline Algorithm
本小節(jié)對(duì)影評(píng)進(jìn)行情感分析為例,向大家展示一個(gè)簡(jiǎn)單舱污、實(shí)用的情感分析系統(tǒng)呀舔。我們面臨的任務(wù)是“Polarity detection: Is
an IMDB movie review positive or negative?”,數(shù)據(jù)集為“Polrity Data 2.0:
http://www.cs.cornell.edu/people/pabo/movie-review-data”.作者將情感分析當(dāng)作分類(lèi)任務(wù)扩灯,拆
分成如下子任務(wù):
Tokenization:正文提取媚赖,過(guò)濾時(shí)間、電話號(hào)碼等珠插,保留大寫(xiě)字母開(kāi)頭的字符串惧磺,保留表情符號(hào),切詞捻撑;
Feature Extraction:直觀上磨隘,我們會(huì)認(rèn)為形容詞直接決定文本的情感,而Pang和Lee的實(shí)驗(yàn)表明顾患,采用所有詞(unigram)作為特征番捂,可以達(dá)到更好的情感分類(lèi)效果。
其中江解,需要對(duì)否定句進(jìn)行特別的處理设预,如句子”I didn’t like this movie”vs “I really like this movie”,unigram只差一個(gè)詞犁河,但是有著截然不同的含義鳖枕。為了有效處理這種情況,Das and Chen (2001)提出了“Add NOT_ to every word between negation and following punctuation”桨螺,根據(jù)此規(guī)則可以將句子“didn’t like this movie , but I”轉(zhuǎn)換為“didn’t NOT_like NOT_this NOT_movie, but I”宾符。
另外,在抽取特征時(shí)灭翔,直觀的感覺(jué)“Word occurrence may matter more than word frequency”魏烫,這是因?yàn)樽钕嚓P(guān)的情感詞在一些文本片段中僅僅出現(xiàn)一次,詞頻模型起得作用有限,甚至是負(fù)作用则奥,則使用多重伯努利模型事件空間代替多項(xiàng)式事件空間,實(shí)驗(yàn)也的確證明了這一點(diǎn)狭园。所以读处,論文最終選擇二值特征,即詞的出現(xiàn)與否唱矛,代替?zhèn)鹘y(tǒng)的頻率特征罚舱。log(freq(w))也是一種值得嘗試的降低頻率干擾的方法。
Classification using different classifiers:如Na?ve Bayes绎谦、MaxEnt管闷、SVM,以樸素貝葉斯分類(lèi)器為例窃肠,訓(xùn)練過(guò)程如下:
預(yù)測(cè)過(guò)程如下:
實(shí)驗(yàn)表明包个,MaxEnt和SVM相比Na?ve Bayes可以得到更好的效果。
最后冤留,通過(guò)case review可以總結(jié)下碧囊,影評(píng)情感分類(lèi)的難點(diǎn)是什么?
語(yǔ)言表達(dá)的含蓄微妙:“If you are reading this because it is your darling fragrance, please wear it at home exclusively, and tape the windows shut.”纤怒,“ She runs the gamut of emotions from A to B”糯而。
挫敗感表達(dá)方式:先描述開(kāi)始的期待(不吝贊美之詞),后表達(dá)最后失望感受泊窘,如“This film should be brilliant. It sounds like a great plot, the actors are first grade, and the supporting cast is good as well, and Stallone is attempting to deliver a good performance. However, it can’t hold up.”熄驼,“Well as usual Keanu Reeves is nothing special, but surprisingly, the very talented Laurence Fishbourne is not so good either, I was surprised.”。
3)Sentiment Lexicons
情感分析模型非常依賴于情感詞典抽取特征或規(guī)則烘豹,以下羅列了較為流行且成熟的開(kāi)放情感詞典資源:
GI(The General Inquirer):該詞典給出了每個(gè)詞條非常全面的信息瓜贾,如詞性,反義詞携悯,褒貶阐虚,等,組織結(jié)構(gòu)如下:
詳細(xì)見(jiàn)論文:Philip J. Stone, Dexter C Dunphy, Marshall S. Smith, Daniel M. Ogilvie. 1966.The General Inquirer: A Computer Approach to Content Analysis. MIT Press
LIWC (Linguistic Inquiry and Word Count):該詞典通過(guò)大量正則表達(dá)式描述不同類(lèi)別的情感詞規(guī)律蚌卤,其類(lèi)別體系與GI(The General Inquirer)基本一致实束,組織結(jié)構(gòu)如下:
詳細(xì)見(jiàn)論文:Pennebaker, J.W., Booth, R.J., & Francis, M.E. (2007). Linguistic Inquiry and Word Count: LIWC 2007. Austin, TX
MPQA Subjectivity Cues Lexicon:其中包含Positive words: 2718,Negative words: 4912逊彭,組織結(jié)構(gòu)如下圖所示:
詳細(xì)見(jiàn)論文:Stefano Baccianella, Andrea Esuli, and Fabrizio Sebastiani. 2010SENTIWORDNET 3.0: An Enhanced Lexical Resource for Sentiment Analysis and Opinion Mining. LREC-2010
以上給出了一系列可用的情感詞典資源咸灿,但是,如何選擇一個(gè)合適的為我所用呢侮叮?這里避矢,通過(guò)對(duì)比同一詞條在不同詞典之間的分類(lèi),衡量詞典資源的不一致程度,如下:
對(duì)于在不同詞典中表現(xiàn)不一致的詞條审胸,我們至少可以做兩件事情亥宿。第一,review這些詞條砂沛,通過(guò)少量人工加以糾正烫扼;第二,可以得到一些存在褒貶歧義的詞條碍庵。
給定一個(gè)詞映企,如何確定其以多大概率出現(xiàn)在某種情感類(lèi)別文本中呢?以IMDB下不同打分下影評(píng)為例静浴,最簡(jiǎn)單的方法就是計(jì)算每個(gè)分?jǐn)?shù)(星的個(gè)數(shù))對(duì)應(yīng)的文本中詞條出現(xiàn)的頻率堰氓,如下圖所示為Count(“bad”)分布情況:
如下圖所示,列出了部分詞條在不同類(lèi)別下的Scaled likelihood苹享,據(jù)此可以判斷每個(gè)詞條的傾向性双絮。
另外,我們通常會(huì)有這么一個(gè)疑問(wèn):否定詞(如not, n’t, no, never)是否更容易出現(xiàn)在negative情感文本中得问?Potts, Christopher(2011)等通過(guò)實(shí)驗(yàn)給出了答案:More negation in negative sentiment掷邦,如下圖所示:
4)Learning Sentiment Lexicons
我們?cè)趹c幸和贊揚(yáng)眾多公開(kāi)情感詞典為我所用的同時(shí),我們不免還想了解構(gòu)建情感詞典的方法椭赋,正所謂知其然知其所以然抚岗。一方面在面臨新的情感分析問(wèn)題,解決新的情感分析任務(wù)時(shí)哪怔,難免會(huì)需要結(jié)合實(shí)際需求構(gòu)建或完善情感詞典宣蔚,另一方面,可以將成熟的詞典構(gòu)建方法應(yīng)用于其他領(lǐng)域认境,知識(shí)無(wú)邊界胚委,許多方法都是相通的。
常見(jiàn)的情感詞典構(gòu)建方法是基于半指導(dǎo)的bootstrapping學(xué)習(xí)方法叉信,主要包括兩步:
Use a small amount of information(Seed)
A few labeled examples
A few hand-built patterns
To bootstrap a lexicon
接下來(lái)亩冬,通過(guò)相關(guān)的幾篇論文,詳細(xì)闡述下構(gòu)建情感詞典的方法硼身。具體如下:
1. Hatzivassiloglou & McKeown:論文見(jiàn)Vasileios Hatzivassiloglou and
Kathleen R. McKeown. 1997. Predicting the Semantic Orientation of
Adjectives. ACL, 174–181硅急,基于這樣的一種語(yǔ)言現(xiàn)象:“Adjectives conjoined by ‘a(chǎn)nd’’
have same polarity;Adjectives conjoined by ‘but ‘ do not”佳遂,如下示例:
Fair and legitimate, corrupt and brutal
*fair and brutal, *corrupt and legitimate fair but brutal
Hatzivassiloglou & McKeown(1997)提出了基于bootstrapping的學(xué)習(xí)方法营袜,主要包括四步:
Step 1:Label seed set of 1336 adjectives (all >20 in 21 million word WSJ corpus)
初始種子集包括657個(gè) positive words(如adequate central clever famous
intelligent remarkable reputed sensitive slender thriving…)和679個(gè)
negative words(如contagious drunken ignorant lanky listless primitive
strident troublesome unresolved unsuspecting…)
Step 2:Expand seed set to conjoined adjectives,如下圖所示:
Step 3:Supervised classifier assigns “polarity similarity” to each word pair, resulting in graph丑罪,如下圖所示:
Step 4:Clustering for partitioning the graph into two
最終荚板,輸出新的情感詞典凤壁,如下(加粗詞條為自動(dòng)挖掘出的詞條):
Positive: bold decisive disturbing generous good honest important large mature patient peaceful positive proud sound stimulating straightforwardstrange talented vigorous witty…
Negative: ambiguous cautious cynical evasive harmful hypocritical inefficient insecure irrational irresponsible minor outspoken pleasant reckless risky selfish tedious unsupported vulnerable wasteful…
2. Turney Algorithm:論文見(jiàn)Turney (2002): Thumbs Up or Thumbs Down?Semantic Orientation Applied to Unsupervised Classification of Reviews,具體步驟如下:
Step 1:Extract a phrasal lexicon from reviews跪另,通過(guò)規(guī)則抽取的phrasal如下圖所示:
Step 2:Learn polarity of each phrase拧抖,那么,如何評(píng)價(jià)phrase的polarity呢免绿?直觀上唧席,有這樣的結(jié)論:“Positive phrases co-occur more with ‘excellent’,Negative phrases co-occur more with ’poor’”针姿,這時(shí)袱吆,將問(wèn)題轉(zhuǎn)換成如何衡量詞條之間的共現(xiàn)關(guān)系厌衙?于是距淫,學(xué)者們引入了點(diǎn)互信息(Pointwise mutual information,PMI)婶希,它經(jīng)常被用于度量?jī)蓚€(gè)具體事件的相關(guān)程度榕暇,公式為:
Turney Algorithm在410 reviews(from Epinions)的數(shù)據(jù)集上,其中170 (41%) negative喻杈,240 (59%) positive彤枢,取得了74%的準(zhǔn)確率(baseline為59%,均標(biāo)注為positive)筒饰。
Step 3:Rate a review by the average polarity of its phrases
3. Using WordNet to learn polarity:論文見(jiàn)S.M. Kim and E. Hovy.2004.Determining the sentiment of opinions. COLING 2004缴啡,M. Hu and B.Liu. Mining and summarizing customer reviews. In Proceedings of KDD,2004.
該方法步驟如下:
Create positive (“good”) and negative seed-words (“terrible”)
Find Synonyms and Antonyms
Positive Set: Add synonyms of positive words (“well”) and antonyms of negative words
Negative Set: Add synonyms of negative words (“awful”) and antonyms of positive words (”evil”)
Repeat, following chains of synonyms
Filter
以上幾個(gè)方法都有較好的領(lǐng)域適應(yīng)性和魯棒性,基本思想可以概括為“Use seeds and semi-supervised learning to induce lexicons”瓷们,即:
Start with a seed set of words (‘good’, ‘poor’)
Find other words that have similar polarity:
Using “and” and “but”
Using words that occur nearby in the same document
Using WordNet synonyms and antonyms
Use seeds and semi-supervised learning to induce lexicons
5)Other Sentiment Tasks
上面介紹了文檔級(jí)或句子級(jí)情感分析业栅,但是,實(shí)際中谬晕,一篇文檔(評(píng)論)中往往會(huì)提及不同的方面/屬性/對(duì)象(以下統(tǒng)稱屬性)碘裕,且可能對(duì)不同的屬性持有不同的傾向性,如“The food wasgreat but the service was awful”攒钳。一般通過(guò)Frequent phrases + rules的方法抽取評(píng)價(jià)屬性帮孔,如下:
Find all highly frequent phrases across reviews (“fish tacos”)
Filter by rules like “occurs right after sentiment word”:“…great fish tacos” means fish tacos a likely aspect
通常,我們還會(huì)面臨一種問(wèn)題:評(píng)價(jià)屬性缺失不撑,準(zhǔn)確的講文兢,評(píng)價(jià)屬性不在句子中。這是很常見(jiàn)的現(xiàn)象焕檬,此時(shí)就需要結(jié)合上下文環(huán)境禽作,如來(lái)自某電影的評(píng)論缺失的評(píng)價(jià)屬性基本上就是電影名或演員,可以基于已知評(píng)價(jià)屬性的句子訓(xùn)練分類(lèi)器揩页,然后對(duì)評(píng)價(jià)屬性缺失的句子進(jìn)行屬性預(yù)測(cè)旷偿。
Blair-Goldensohn et al.提出了一套通用的aspect-based summarization models烹俗,如下圖所示:
詳細(xì)見(jiàn)論文:S. Blair-Goldensohn, K. Hannan, R. McDonald, T. Neylon,G. Reis, and J. Reynar. 2008. Building a Sentiment Summarizer for Local Service Reviews. WWW Workshop
另外,其他的一些情感分析的相關(guān)任務(wù)有:
Emotion: 個(gè)人情緒
Detecting annoyed callers to dialogue system
Detecting confused/frustrated versus confident students
Mood: 個(gè)人情緒
Finding traumatized or depressed writers
Interpersonal stances: 人際關(guān)系中的談話方式
Detection of flirtation or friendliness in conversations
Personality traits: 性格
Detection of extroverts
文章出處:大數(shù)據(jù)文摘
引自:深度開(kāi)源open經(jīng)驗(yàn)? (http://www.open-open.com/lib/view/open1421114964515.html)