久久精品国产亚洲5555_久久精品国产精品亜洲毛片_亚AV无码乱码在线观看富二代_一本色综合网久久_免费黄色视频在线播放_亚洲视频日本欧美在线观看_欧美午夜伦理视频_第九影院实时更新高清电影_91精品啪在线观看国产_北条麻妃被两个黑人玩

檢信專(zhuān)注心理
用技術(shù)創(chuàng)新 做行業(yè)先驅(qū)
檢信ALLEMOTION
  • 檢信智能亮相第57屆中國(guó)高等教育博覽會(huì)
    檢信智能亮相第57屆中國(guó)高等教育博覽會(huì) 2022年8月4日-6日,為期三天的第57屆中國(guó)高等教育博覽會(huì),在西安舉行,在疫情期間,全國(guó)各地千余所高校及智慧校園企業(yè),實(shí)訓(xùn)設(shè)備企業(yè)及心理健康測(cè)評(píng)企業(yè)參會(huì)。 本屆高博會(huì)以“校企聚合·產(chǎn)教融合”為主題,并致力于在教育界領(lǐng)域打造 “展覽展示”“高端論壇”“特色活動(dòng)”“高端發(fā)布”“云端推送”等五大版塊以科技教育為藍(lán)圖,持續(xù)鞏固和擴(kuò)大六大展區(qū):實(shí)驗(yàn)室及科研儀器設(shè)備類(lèi)企業(yè)有大華儀器、福祿克、勝利儀器等,信息化及智慧教育類(lèi)有華為科技、語(yǔ)音識(shí)別企業(yè)科大訊飛,實(shí)訓(xùn)及機(jī)電類(lèi)有上海育聯(lián)等,醫(yī)學(xué)教育及健康類(lèi)有AI心理測(cè)評(píng)檢信智能,后勤及平安校園類(lèi)武漢普仁易維康等,以及體育設(shè)施及用品類(lèi),展覽展示8萬(wàn)平米。在這次展會(huì)上,檢信智能AI心理健康測(cè)評(píng)系統(tǒng)第一次亮相中國(guó)高等教育博覽會(huì)就受到廣大媒體和觀眾的好奇,環(huán)球時(shí)報(bào),CRI國(guó)際在線(xiàn),新浪網(wǎng),搜狐網(wǎng),網(wǎng)易新聞,中國(guó)儀器設(shè)備網(wǎng)等媒體均有相應(yīng)的新聞報(bào)道文章提到;檢信智能ALLEMOTION心理測(cè)評(píng)的亮點(diǎn)是采用視覺(jué)識(shí)別技術(shù)作為心理情緒數(shù)據(jù)的采集手段,代替?zhèn)鹘y(tǒng)心理量表的答題模式,檢測(cè)時(shí)間短、用戶(hù)體驗(yàn)度好、數(shù)據(jù)客觀等優(yōu)點(diǎn);在這次參會(huì)觀眾中,有河南省心理學(xué)會(huì)專(zhuān)家,北京師范大學(xué)心理教授,也有中國(guó)人民解放軍空軍軍醫(yī)大學(xué)的心理咨詢(xún)老師等都體驗(yàn)檢信ALLEMOTION心理測(cè)評(píng)系統(tǒng),參展觀眾認(rèn)為用戶(hù)體驗(yàn)度好,通過(guò)60S的視覺(jué)數(shù)據(jù)采集,在系統(tǒng)數(shù)據(jù)計(jì)算、數(shù)據(jù)處理、數(shù)據(jù)統(tǒng)計(jì)上,結(jié)合深度學(xué)習(xí)、心理畫(huà)像模型等高科技技術(shù),實(shí)現(xiàn)心理分類(lèi)評(píng)估,是傳統(tǒng)心理量表的有效補(bǔ)充,可以為群體性人群的心理篩查,情緒檢測(cè)提供有效的落地解決方案。為我國(guó)教育、社區(qū)、事業(yè)單位等真正做到群體性人群心理情緒早篩查、早發(fā)現(xiàn)、早疏導(dǎo)、零診斷的目的。
    2022-08-09
  • 檢信智能推出首款A(yù)llemotion OS心理情緒開(kāi)發(fā)操作系統(tǒng)
    檢信智能推出首款A(yù)llemotion OS心理情緒開(kāi)發(fā)操作系統(tǒng)檢信Allemotion OS心理情緒開(kāi)發(fā)操作系統(tǒng)是根據(jù)世界人工智能高速發(fā)展的特點(diǎn),為實(shí)現(xiàn)腦機(jī)交互的行業(yè)需求,由檢信智能推出我國(guó)首款檢信Allemotion OS心理情緒開(kāi)發(fā)操作系統(tǒng)。檢信Allemotion OS心理情緒開(kāi)發(fā)操作系統(tǒng)集成了語(yǔ)音情感識(shí)別、人臉情感識(shí)別、微表情識(shí)別、以及肌肉微顫情緒識(shí)別、眼動(dòng)識(shí)別、骨架識(shí)別、生理參數(shù)識(shí)別等功能。因此,檢信Allemotion OS心理情緒開(kāi)發(fā)操作系統(tǒng)在開(kāi)發(fā)上集成了多維度情感識(shí)別的優(yōu)勢(shì),針對(duì)教育、安防、軍工、政府、人事管理、醫(yī)療等行業(yè)的應(yīng)用特點(diǎn),提供特定的二次開(kāi)發(fā)。檢信Allemotion OS心理情緒開(kāi)發(fā)操作系統(tǒng)是以特定的算法為基礎(chǔ),結(jié)合人工智能深度學(xué)習(xí)的理論做優(yōu)化,建立了完整的Allemotion OS 情緒識(shí)別開(kāi)發(fā)模型;在C++、Java、Pathon 等多語(yǔ)言的開(kāi)發(fā)環(huán)境,實(shí)現(xiàn)了Allemotion OS 情緒開(kāi)發(fā)系統(tǒng)數(shù)據(jù)的高效計(jì)算;提供數(shù)據(jù)推送服務(wù),無(wú)需二次開(kāi)發(fā)者讀取分類(lèi)器的數(shù)據(jù);提供websocket 接口 API 接口,符合響應(yīng)式(reactive)和自適應(yīng)(self-adaption)的開(kāi)發(fā)需求;兼容蘋(píng)果Apple安卓Android系統(tǒng)的應(yīng)用環(huán)境;情緒識(shí)別準(zhǔn)確率達(dá)到91.3%。目前檢信Allemotion OS心理情緒開(kāi)發(fā)操作系統(tǒng)已經(jīng)應(yīng)用與政府、教育、醫(yī)療、特殊崗位能力測(cè)試等行業(yè),在性?xún)r(jià)比上得到了用戶(hù)的認(rèn)可,具有良好的市場(chǎng)發(fā)展前景。
    2022-08-08
  • 恭賀檢信智能總經(jīng)理李劍峰通過(guò)中國(guó)科學(xué)院科創(chuàng)中國(guó)-科技領(lǐng)袖培養(yǎng)項(xiàng)目
    恭賀檢信智能總經(jīng)理李劍峰通過(guò)中國(guó)科學(xué)院科創(chuàng)中國(guó)-科技領(lǐng)袖培養(yǎng)項(xiàng)目 2021年10月27日檢信智能總經(jīng)理李劍峰依據(jù)檢信Allemotion面篩心理情緒測(cè)評(píng)系統(tǒng)項(xiàng)目,順利通過(guò)了中國(guó)科學(xué)院“科創(chuàng)中國(guó)-科技領(lǐng)袖”培養(yǎng)項(xiàng)目。中國(guó)科學(xué)院將利用中科資源大平臺(tái),根據(jù)檢信智能公司和檢信Allemotion面篩心理情緒測(cè)評(píng)系統(tǒng)的具體情況,在項(xiàng)目融資、合作開(kāi)發(fā)、院士專(zhuān)家資源等方面可以?xún)?yōu)先合作。 湖南檢信智能科技有限公司,2016年注冊(cè)成立,是一家專(zhuān)注于情感計(jì)算、圖像分析、心理情緒大數(shù)據(jù)服務(wù)的高科技智能型綜合性企業(yè)。通過(guò)了軍工武器裝備質(zhì)量管理體系認(rèn)證,擁有15項(xiàng)發(fā)明專(zhuān)利和多項(xiàng)軟件著作權(quán),其中檢信Allemotion面篩心理情緒測(cè)評(píng)系統(tǒng)顛覆傳統(tǒng)心理量表測(cè)評(píng)工具,具有檢測(cè)時(shí)間短(60秒)、科學(xué)預(yù)警、實(shí)時(shí)檢測(cè)等特點(diǎn),可廣泛應(yīng)用于教育、醫(yī)療、政府、人力資源、企業(yè)等,具有很好的市場(chǎng)發(fā)展前景 。
    2021-12-07
  • 檢信智能ALLEMOTION OS 語(yǔ)音情感識(shí)別——語(yǔ)音(聲音的預(yù)處理)
    檢信智能ALLEMOTION OS 語(yǔ)音情感識(shí)別——語(yǔ)音(聲音的預(yù)處理)1. 語(yǔ)音信號(hào)(聲音是什么)聲音是由物體振動(dòng)產(chǎn)生的聲波,是通過(guò)介質(zhì)(空氣或固體、液體)傳播并能被人或動(dòng)物聽(tīng)覺(jué)器官所感知的波動(dòng)現(xiàn)象,最初發(fā)出振動(dòng)的物體叫聲源。聲音(語(yǔ)音消息)的基本模擬形式是一種稱(chēng)為語(yǔ)音信號(hào)的聲學(xué)波。語(yǔ)音信號(hào)可以通過(guò)麥克風(fēng)轉(zhuǎn)化成電信號(hào),轉(zhuǎn)換成語(yǔ)音波形圖,如下圖為消息should we chase的波形圖。橫坐標(biāo)表示時(shí)間,縱坐標(biāo)表示振幅。文本should we chase按照發(fā)音可以表示成音素的形式[SH UH D - W IY - CH EY S],聲波圖中的每一段表示一個(gè)音素,在ARBAbet音素集中包含近64 = 2^6個(gè)符號(hào)。聲音作為波的一種,頻率(聲源在一秒內(nèi)振動(dòng)的次數(shù))和振幅是描述波的重要屬性,頻率的大小與我們通常所說(shuō)的音高對(duì)應(yīng),而振幅影響聲音的大小。聲音可以被分解為不同頻率不同強(qiáng)度正弦波的疊加,正弦波是頻率成分最為單一的一種信號(hào),任何復(fù)雜信號(hào)都可以看成由許許多多頻率不同、大小不等的正弦波復(fù)合而成。這種變換(或分解)的過(guò)程,稱(chēng)為傅立葉變換,通過(guò)這種分解我們可以把時(shí)域圖轉(zhuǎn)為頻域圖。正弦信號(hào)表達(dá)式為y=Asin(ωx+φ)y=Asin?(ωx+φ)。其中A表示振幅。ω/2πω/2π表示頻率。對(duì)于(空氣中的)聲振動(dòng)而言,振幅是聲壓與靜止壓強(qiáng)之差的最大值。其中聲壓是聲波在空氣中傳播時(shí)形成壓縮和稀疏交替變化的壓力增值。麥克風(fēng)錄制聲音的原理就是將空氣中的壓力變動(dòng)波轉(zhuǎn)化成電信號(hào)的變動(dòng)。而我們平常說(shuō)的聲音強(qiáng)度(響亮程度)就是由振幅決定的,聲音強(qiáng)度的單位是分貝(dB),計(jì)算公式如下,用實(shí)測(cè)聲壓和參考聲壓之比的常用對(duì)數(shù)(常用對(duì)數(shù)lg以10為底,自然對(duì)數(shù)ln以e為底)的20倍來(lái)表示。下式中分母是參考值的聲壓,通常為20微帕,人類(lèi)能聽(tīng)到的最小聲壓。分貝表示功率量之比時(shí),等于功率強(qiáng)度之比的常用對(duì)數(shù)的10倍。分貝表示場(chǎng)量之比時(shí),等于場(chǎng)強(qiáng)幅值之比的常用對(duì)數(shù)的20倍。語(yǔ)音鏈(聲音是怎么發(fā)出的)從語(yǔ)音信號(hào)的產(chǎn)生到感知的過(guò)程稱(chēng)為語(yǔ)音鏈,如下圖所示:2 下面是語(yǔ)音信號(hào)產(chǎn)生的四個(gè)步驟:文本:消息以某種形式出現(xiàn)在說(shuō)話(huà)者的大腦中,消息攜帶的信息可認(rèn)為有著不同的表示形式,例如最初可能以英語(yǔ)文本的形式表示。假設(shè)書(shū)面語(yǔ)有32個(gè)符號(hào),也就是2^5,用5個(gè)bit表示一個(gè)符號(hào)。正常的平均說(shuō)話(huà)速率為15個(gè)符號(hào)每秒。上圖例子中有15個(gè)字母“should we chase”,持續(xù)了0.6秒,信息流的速率為15x5/0.6 = 125 bps。音素:為了說(shuō)出這條消息,說(shuō)話(huà)者隱式地將文本轉(zhuǎn)換成對(duì)應(yīng)口語(yǔ)形式的聲音序列的符號(hào)表示,即文本符號(hào)轉(zhuǎn)成音素符號(hào),音素符號(hào)用來(lái)描述口語(yǔ)形式消息的基本聲音及聲音發(fā)生的方式(即語(yǔ)速和語(yǔ)調(diào))。ARBAbet音素集中包含近64 = 2^6個(gè)符號(hào),用6個(gè)bit表示一個(gè)音素,上圖例子中有8個(gè)音素,持續(xù)了0.6秒,信息流的速率為8x6/0.6 = 80 bps,考慮描述信號(hào)韻律特征的額外信息(比如段長(zhǎng),音高,響度),文本信息編碼成語(yǔ)音信號(hào)后,總信息速率需要再加上100bps。發(fā)音:神經(jīng)肌肉系統(tǒng)以一種與產(chǎn)生口語(yǔ)形式消息及其語(yǔ)調(diào)相一致的方式,移動(dòng)舌頭,唇,牙齒,頜,軟腭,使這些聲道發(fā)聲器官按規(guī)定的方式移動(dòng),進(jìn)而發(fā)出期望的聲音。刺激共振:聲道系統(tǒng)產(chǎn)生物理生源和恰當(dāng)?shù)臅r(shí)變聲道形狀,產(chǎn)生上圖所示的聲學(xué)波形。前兩個(gè)階段的信息表示是離散的,用一些簡(jiǎn)單假設(shè)就可以估計(jì)信息流的速率。但是后兩個(gè)階段信息是連續(xù)的,以關(guān)節(jié)運(yùn)動(dòng)的形式發(fā)出,想要度量這些連續(xù)信息,需要進(jìn)行恰當(dāng)?shù)牟蓸雍土炕@得等效的數(shù)字信號(hào),才能估計(jì)出數(shù)據(jù)的速率。事實(shí)上,因?yàn)檫B續(xù)的模擬信號(hào)容易收到噪聲的影響,抗噪能力弱,通常會(huì)轉(zhuǎn)為離散的數(shù)字信號(hào)。在第三階段,進(jìn)行采樣和量化后得到的數(shù)據(jù)率約為2000bps。在最后一個(gè)階段,數(shù)字語(yǔ)音波形的數(shù)據(jù)率可以從64kbps變化到700kbps。該數(shù)據(jù)是通過(guò)測(cè)量“表示語(yǔ)音信號(hào)時(shí)為達(dá)到想要的感知保真度”所需要的采樣率和量化計(jì)算得到的。比如,“電話(huà)質(zhì)量”的語(yǔ)音處理需要保證寬帶為0~4kHz,這意味著采樣率為8000個(gè)樣本每秒(根據(jù)香農(nóng)采樣定理,為了不失真地恢復(fù)模擬信號(hào),采樣頻率應(yīng)該不小于模擬信號(hào)頻譜中最高頻率的2倍),每個(gè)樣本可以量化成8比特,從而得到數(shù)據(jù)率64000bps。這種表示方式很容易聽(tīng)懂,但對(duì)于大多數(shù)傾聽(tīng)者來(lái)說(shuō),語(yǔ)音聽(tīng)起來(lái)與說(shuō)話(huà)者發(fā)出的原始語(yǔ)音會(huì)有不同。另一方面,語(yǔ)音波形可以表示成“CD質(zhì)量”,采用44100個(gè)樣本每秒的采樣率,每個(gè)樣本16比特,總數(shù)據(jù)率為705600bps,此時(shí)復(fù)原的聲學(xué)波聽(tīng)起來(lái)和原始信號(hào)幾乎沒(méi)有區(qū)別?,F(xiàn)在在音樂(lè)app上下載歌曲的時(shí)一般有四種音樂(lè)品質(zhì)選擇,標(biāo)準(zhǔn)(128kbps),較高(192kbps),極高(320kbps),無(wú)損品質(zhì)。將消息從文本表示轉(zhuǎn)換成采樣的語(yǔ)音波形時(shí),數(shù)據(jù)率會(huì)增大10000倍。這些額外信息的一部分能夠代表說(shuō)話(huà)者的一些特征比如情緒狀態(tài),說(shuō)話(huà)習(xí)慣等,但主要是由簡(jiǎn)單采樣和對(duì)模擬信號(hào)進(jìn)行精細(xì)量化的低效性導(dǎo)致的。因此,處于語(yǔ)音信號(hào)固有的低信息速率考慮,很多數(shù)字語(yǔ)音處理的重點(diǎn)是用更低的數(shù)據(jù)率對(duì)語(yǔ)音進(jìn)行數(shù)字表示(通常希望數(shù)據(jù)率越低越好,同時(shí)保證重現(xiàn)語(yǔ)音信號(hào)的感知質(zhì)量滿(mǎn)足需要的水平)。3 語(yǔ)音信號(hào)中的Analog-Digital Converter,“模-數(shù)”變換(聲音是怎么保存的)預(yù)濾波(反混疊濾波):語(yǔ)音信號(hào)在采樣之前要進(jìn)行預(yù)濾波處理。目的有兩個(gè),一是抑制輸入信號(hào)各頻率分量中頻率超過(guò)fs/2的所有分量(fs為采樣頻率),以防止混疊干擾;二是抑制50Hz的電源工頻干擾。1.采樣:原始的語(yǔ)音信號(hào)是連續(xù)的模擬信號(hào),需要對(duì)語(yǔ)音進(jìn)行采樣,轉(zhuǎn)化為時(shí)間軸上離散的數(shù)據(jù)。采樣后,模擬信號(hào)被等間隔地取樣,這時(shí)信號(hào)在時(shí)間上就不再連續(xù)了,但在幅度上還是連續(xù)的。經(jīng)過(guò)采樣處理之后,模擬信號(hào)變成了離散時(shí)間信號(hào)。采樣頻率是指一秒鐘內(nèi)對(duì)聲音信號(hào)的采樣次數(shù),采樣頻率越高聲音的還原就越真實(shí)越自然。在當(dāng)今的主流采集卡上,采樣頻率一般共分為22.05KHz、44.1KHz、48KHz三個(gè)等級(jí),22.05KHz只能達(dá)到FM廣播的聲音品質(zhì),44.1KHz則是理論上的CD音質(zhì)界限(人耳一般可以感覺(jué)到20-20K Hz的聲音,根據(jù)香農(nóng)采樣定理,采樣頻率應(yīng)該不小于最高頻率的兩倍,所以40KHz是能夠?qū)⑷硕?tīng)見(jiàn)的聲音進(jìn)行很好的還原的一個(gè)數(shù)值,于是CD公司把采樣率定為44.1KHz),48KHz則更加精確一些。對(duì)于高于48KHz的采樣頻率人耳已無(wú)法辨別出來(lái)了,所以在電腦上沒(méi)有多少使用價(jià)值。2.量化:進(jìn)行分級(jí)量化,將信號(hào)采樣的幅度劃分成幾個(gè)區(qū)段,把落在某區(qū)段的采樣到的樣品值歸成一類(lèi),并給出相應(yīng)的量化值。根據(jù)量化間隔是否均勻劃分,又分為均勻量化和非均勻量化。均勻量化的特點(diǎn)為“大信號(hào)的信噪比大,小信號(hào)的信噪比小”。缺點(diǎn)為“為了保證信噪比要求,編碼位數(shù)必須足夠大,但是這樣導(dǎo)致了信道利用率低,如果減少編碼位數(shù)又不能滿(mǎn)足信噪比的要求”(根據(jù)信噪比公式,編碼位數(shù)越大,信噪比越大,通信質(zhì)量越好)。通常對(duì)語(yǔ)音信號(hào)采用非均勻量化,基本方法是對(duì)大信號(hào)使用大的量化間隔,對(duì)小信號(hào)使用小的量化間隔。由于小信號(hào)時(shí)量化間隔變小,其相應(yīng)的量化噪聲功率也減?。ǜ鶕?jù)量化噪聲功率公式),從而使小信號(hào)時(shí)的量化信噪比增大,改善了小信號(hào)時(shí)的信噪比。量化后,信號(hào)不僅在時(shí)間上不再連續(xù),在幅度上也不連續(xù)了。經(jīng)過(guò)量化處理之后,離散時(shí)間信號(hào)變成了數(shù)字信號(hào)。3.編碼:在量化之后信號(hào)已經(jīng)變成了數(shù)字信號(hào),需要將數(shù)字信號(hào)編碼成二進(jìn)制。“CD質(zhì)量”的語(yǔ)音采用44100個(gè)樣本每秒的采樣率,每個(gè)樣本16比特,這個(gè)16比特就是編碼的位數(shù)。采樣,量化,編碼的過(guò)程稱(chēng)為A/D轉(zhuǎn)換,如下圖所示。反過(guò)程為D/A轉(zhuǎn)換,因?yàn)锳/D之前進(jìn)行了預(yù)濾波,D/A轉(zhuǎn)換后面還需要加一個(gè)平滑濾波器。A/D轉(zhuǎn)換,D/A轉(zhuǎn)換,濾波這些功能都可以用一塊芯片來(lái)完成,在市面上能買(mǎi)到各種這樣的芯片。4 語(yǔ)音信號(hào)的預(yù)處理(聲音的預(yù)處理)語(yǔ)音信號(hào)的預(yù)處理一般包括預(yù)加重,分幀,加窗,端點(diǎn)檢測(cè)。預(yù)加重:求語(yǔ)音信號(hào)頻譜(頻譜是指時(shí)域信號(hào)在頻域下的表示方式,關(guān)于頻域和時(shí)域的理解如下圖所示),頻率越高相應(yīng)的成分越小,高頻部分的頻譜比低頻部分的難求,為此要在預(yù)處理中進(jìn)行預(yù)加重(Pre-emphasis)處理。預(yù)加重的目的是提高高頻部分,使信號(hào)的頻譜變得平坦,以便于頻譜分析或者聲道參數(shù)分析。預(yù)加重可在語(yǔ)音信號(hào)數(shù)字化時(shí)在反混疊濾波器之前進(jìn)行,但一般是在語(yǔ)音信號(hào)數(shù)字化之后。短時(shí)分析:語(yǔ)音信號(hào)從整體來(lái)看是隨時(shí)間變化的,是一個(gè)非平穩(wěn)過(guò)程,不能用處理平穩(wěn)信號(hào)的數(shù)字信號(hào)處理技術(shù)對(duì)其進(jìn)行分析處理。但是,由于不同的語(yǔ)音是由人的口腔肌肉運(yùn)動(dòng)構(gòu)成聲道某種形狀而產(chǎn)生的響應(yīng),這種運(yùn)動(dòng)對(duì)于語(yǔ)音頻率來(lái)說(shuō)是非常緩慢的,所以從另一方面看,雖然語(yǔ)音信號(hào)具有時(shí)變特性,但是在一個(gè)短時(shí)間范圍內(nèi)(一般認(rèn)為在10-30ms)其特性基本保持相對(duì)穩(wěn)定,即語(yǔ)音具有短時(shí)平穩(wěn)性。所以任何語(yǔ)音信號(hào)的分析和處理必須建立在“短時(shí)”的基礎(chǔ)上,即進(jìn)行“短時(shí)分析”。分幀:為了進(jìn)行短時(shí)分析,將語(yǔ)音信號(hào)分為一段一段,其中每一段稱(chēng)為一幀,一般取10-30ms,為了使幀與幀之間平滑過(guò)渡,保持連續(xù)性,使用交疊分段的方法,可以想成一個(gè)指針p從頭開(kāi)始,截取一段頭為p,長(zhǎng)度為幀長(zhǎng)的片段,然后指針p移動(dòng),移動(dòng)的步長(zhǎng)就稱(chēng)為幀移,每移動(dòng)一次都截取一段,這樣就得到很多幀。加窗:加窗就是用一定的窗函數(shù)w(n)來(lái)乘s(n),從而形成加窗語(yǔ)音信號(hào)sw(n)=s(n)?w(n),常用的窗函數(shù)是矩形窗和漢明窗,用矩形窗其實(shí)就是不加窗,窗函數(shù)中有個(gè)N,指的是窗口長(zhǎng)度(樣本點(diǎn)個(gè)數(shù)),對(duì)應(yīng)一幀,通常在8kHz取樣頻率下,N折中選擇為80-160(即10-20ms持續(xù)時(shí)間)。端點(diǎn)檢測(cè):從一段語(yǔ)音信號(hào)中準(zhǔn)確地找出語(yǔ)音信號(hào)的起始點(diǎn)和結(jié)束點(diǎn),它的目的是為了使有效的語(yǔ)音信號(hào)和無(wú)用的噪聲信號(hào)得以分離。對(duì)于一些公共的語(yǔ)音數(shù)據(jù)集可以不做這步操作,因?yàn)檫@些語(yǔ)音的內(nèi)容就是有效的語(yǔ)音信號(hào)(可以認(rèn)為研究人員已經(jīng)對(duì)數(shù)據(jù)做過(guò)端點(diǎn)檢測(cè))。語(yǔ)音信號(hào)的特征(聲音的特征)特征的選取是語(yǔ)音處理的關(guān)鍵問(wèn)題,特征的好壞直接影響到語(yǔ)音處理(比如語(yǔ)音識(shí)別)的精度。然而在語(yǔ)音領(lǐng)域中,沒(méi)有一個(gè)所謂的標(biāo)準(zhǔn)特征集,不同的語(yǔ)音系統(tǒng)選取的特征組合不盡相同。語(yǔ)音的特征一般是由信號(hào)處理專(zhuān)家定義的,比較流行的特征是MFCC(梅爾頻率倒譜系數(shù))。5 語(yǔ)音情感識(shí)別算法常用的機(jī)器學(xué)習(xí)分類(lèi)器:模式識(shí)別領(lǐng)域的諸多算法(傳統(tǒng))都曾用于語(yǔ)音情感識(shí)別的研究,比如GMM(高斯混合模型),SVM,KNN,HMM(隱馬爾可夫模型)。用LLDs(low level descriptors)和HSFs(high level statistics functions)這些手工設(shè)計(jì)特征去訓(xùn)練。聲譜圖+CRNN:最近很多人用聲譜圖加上CNN,LSTM這些深度學(xué)習(xí)模型來(lái)做。還有手工特征加聲譜圖一起作為特征放進(jìn)深度學(xué)習(xí)模型。也有人用DBN,但是不多。3.手工特征+CRNN:也有人用手工特征加CRNN做?!鏅?quán)聲明:本文為CSDN博主「醒了的追夢(mèng)人」的原創(chuàng)文章,遵循CC 4.0 BY-SA版權(quán)協(xié)議,轉(zhuǎn)載請(qǐng)附上原文出處鏈接及本聲明。
    2021-09-20
  • 檢信智能ALLEMOTION OS推薦免費(fèi)下載的語(yǔ)音情感數(shù)據(jù)庫(kù)
    檢信智能ALLEMOTION OS推薦免費(fèi)下載的語(yǔ)音情感數(shù)據(jù)庫(kù)檢信智能ALLEMOTION OS推薦免費(fèi)下載的語(yǔ)音情感數(shù)據(jù)庫(kù)計(jì)算機(jī)對(duì)從傳感器采集來(lái)的信號(hào)進(jìn)行分析和處理,得出對(duì)方正處在的情感狀態(tài),這種行為叫作情感識(shí)別。目前對(duì)于情感識(shí)別有兩種方式,一種是檢測(cè)生理信號(hào)如呼吸,心律和體溫等,另一種是檢測(cè)情感行為如面部表情識(shí)別,語(yǔ)音情感識(shí)別和姿態(tài)識(shí)別。語(yǔ)音情感數(shù)據(jù)集是研究語(yǔ)音情感識(shí)別的重要基礎(chǔ),按照情感描述類(lèi)型可將數(shù)據(jù)集分為離散情感數(shù)據(jù)庫(kù)和維度情感數(shù)據(jù)庫(kù),前者以離散的語(yǔ)言標(biāo)簽(如高興,悲傷等)作為情感標(biāo)注,后者以連續(xù)的實(shí)數(shù)坐標(biāo)值表示情感。下面介紹一些離散語(yǔ)音情感數(shù)據(jù)集:Belfast英語(yǔ)情感數(shù)據(jù)庫(kù):40位錄音者(20男20女,18-69歲),對(duì)五個(gè)段落(每個(gè)段落7-8個(gè)句子)進(jìn)行演講錄制,演講者按照五種情感傾向進(jìn)行演講:生氣(anger),悲傷(sadness),高興(happiniess),害怕(fear),中性(neutral)。柏林Emo-DB情感數(shù)據(jù)庫(kù):德國(guó)柏林工業(yè)大學(xué)錄制,10位演員(5男5女),對(duì)10個(gè)德語(yǔ)語(yǔ)音進(jìn)行表演,包含了七種情感:生氣(anger),悲傷(sadness),高興(happiniess),害怕(fear),中性(neutral),厭惡(disgust),無(wú)聊(boredom)。共包含800句語(yǔ)料(10 位演員 x10 句話(huà) x7 種情感+100 條某些語(yǔ)句的二次版本),后經(jīng)過(guò)篩選得到500多條,采樣率為 48kHz (后壓縮至 16kHz),16bit 量化。語(yǔ)料文本的選取遵從語(yǔ)義中性、無(wú)情感傾向的原則,且為日??谡Z(yǔ)化風(fēng)格,無(wú)過(guò)多的書(shū)面語(yǔ)修飾。語(yǔ)音的錄制在專(zhuān)業(yè)錄音室中完成,要求演員在表演某個(gè)特定情感片段前通過(guò)回憶自身真實(shí)經(jīng)歷或體驗(yàn)進(jìn)行情緒的醞釀,來(lái)增強(qiáng)情緒的真實(shí)感。FAU AIBO兒童德語(yǔ)情感數(shù)據(jù)庫(kù):2009年在Interspeech會(huì)議上舉辦Emotion Challenge評(píng)比中指定的語(yǔ)音情感數(shù)據(jù)庫(kù)。通過(guò)兒童與索尼公司的AIBO機(jī)器狗進(jìn)行自然交互,從而進(jìn)行情感數(shù)據(jù)的采集。說(shuō)話(huà)人由51名兒童組成,年齡段為10-13歲,其中30個(gè)為女性。語(yǔ)料庫(kù)包含9.2小時(shí)的語(yǔ)音,48401個(gè)單詞。采樣頻率為48kHz(后壓縮至 16kHz),16比特量化。該數(shù)據(jù)庫(kù)中情感數(shù)據(jù)的自然度高,數(shù)據(jù)量足夠大,是較為流行的一個(gè)語(yǔ)音情感數(shù)據(jù)庫(kù)。CASIA漢語(yǔ)情感數(shù)據(jù)庫(kù):中科院自動(dòng)化所錄制,兩男兩女錄制500句不同的文本,通過(guò)演講者不同的感情演講得出,最后的語(yǔ)音又人工篩選,得到了大約9600條語(yǔ)句。分為六類(lèi)情感。ACCorpus系列漢語(yǔ)情感數(shù)據(jù)庫(kù):清華大學(xué)和中科院心理研究所合作錄制,相對(duì)于CASIA錄制工作者更多,代表性更強(qiáng)。包含如下 5 個(gè)相關(guān)子庫(kù):ACCorpus_M(jìn)M 多模態(tài)、多通道的情感數(shù)據(jù)庫(kù);ACCorpus_SR 情感語(yǔ)音識(shí)別數(shù)據(jù)庫(kù);ACCorpus_SA 漢語(yǔ)普通話(huà)情感分析數(shù)據(jù)庫(kù);ACCorpus_FV 人臉表情視頻數(shù)據(jù)庫(kù);ACCorpus_FI 人臉表情圖像數(shù)據(jù)庫(kù)。以 ACCorpus_SR 為例,該子庫(kù)是由 50 位錄音人(25 男25女)對(duì) 5類(lèi)情感(中性、高興、生氣、恐懼和悲傷)各自表演得到,16kHz 采樣,16bit 量化。IEMOCAP: 南加利福尼亞大學(xué)錄制的,10個(gè)演員,1男1女演繹一個(gè)session,共5個(gè)session。錄制了將近12小時(shí)的數(shù)據(jù),有視頻,語(yǔ)音,人臉的變動(dòng)捕捉和文本。包括即興自發(fā)的和照著稿子念的。每個(gè)utterance至少三個(gè)人評(píng)估。包括9種情感(anger,happiness,excitement,sadness,frustration,fear,surprise,other和neural)的離散標(biāo)簽,以及三個(gè)維度的維度標(biāo)簽(valence, activation and dominance)?!鏅?quán)聲明:本文為CSDN博主「醒了的追夢(mèng)人」的原創(chuàng)文章,遵循CC 4.0 BY-SA版權(quán)協(xié)議,轉(zhuǎn)載請(qǐng)附上原文出處鏈接及本聲明。原文鏈接:https://blog.csdn.net/qq_33472146/article/details/96433766
    2021-09-20
  • 檢信智能ALLEMOTION OS 語(yǔ)義文本情感識(shí)別原理
    檢信智能ALLEMOTION OS 語(yǔ)義文本情感識(shí)別原理首先,當(dāng)然是文本預(yù)處理輸入文本,在將輸入文本轉(zhuǎn)化成向量之前,我們需要將標(biāo)點(diǎn)符號(hào)、括號(hào)、問(wèn)號(hào)等刪去,只留下字母、數(shù)字和字符, 同時(shí)將大寫(xiě)字母轉(zhuǎn)化為小寫(xiě),去除停用詞。效果如下圖然后就是將文本轉(zhuǎn)化為詞向量(即漢字要轉(zhuǎn)化為計(jì)算機(jī)能識(shí)別的數(shù)字類(lèi)(矩陣啥的))在將深度學(xué)習(xí)運(yùn)用于文本情感分析的過(guò)程中,我們需要考慮網(wǎng)絡(luò)模型的輸入數(shù)據(jù)的形式。在其他例子中,卷積神經(jīng)網(wǎng)絡(luò)(CNN)使用像素值作為輸入,logistic回歸使用一些可以量化的特征值作為輸入,強(qiáng)化學(xué)習(xí)模型使用獎(jiǎng)勵(lì)信號(hào)來(lái)進(jìn)行更新。通常的輸入數(shù)據(jù)是需要被標(biāo)記的標(biāo)量值。當(dāng)我們處理文本任務(wù)時(shí),可能會(huì)想到利用這樣的數(shù)據(jù)管道。但是,這樣的處理方式存在著很多問(wèn)題。我們不能像點(diǎn)積或者反向傳播那樣在一個(gè)字符串上執(zhí)行普通的運(yùn)算操作。所以在這里我們不能將字符串作為輸入,而是需要將文本轉(zhuǎn)換成計(jì)算機(jī)可識(shí)別的格式,由于計(jì)算機(jī)只能識(shí)別數(shù)字,因此我們可以將文本中的每一個(gè)詞都轉(zhuǎn)化為一個(gè)向量,也稱(chēng)作詞向量。詞向量是用一個(gè)向量的形式表示文本中的一個(gè)詞,通過(guò)這種轉(zhuǎn)化方式就能采用機(jī)器學(xué)習(xí)來(lái)把任何輸入量化成我們需要的數(shù)值表示,然后就可以充分利用計(jì)算機(jī)的計(jì)算能力,計(jì)算得出最終想要的結(jié)果,保證了操作的可行性。如圖所示,我們可以將上面的這段文本輸入數(shù)據(jù)轉(zhuǎn)化成一個(gè) 16*D 的輸入矩陣。我們希望創(chuàng)建這種詞向量的方式是可以表示單詞及其在上下文中意義的。例如,我們希望單詞 “l(fā)ove” 和 “adore” 這兩個(gè)詞在向量空間中是有一定的相關(guān)性的,因?yàn)樗麄兊囊馑枷嗨?,而且都在?lèi)似的上下文中使用,因此他們的空間相距距離會(huì)相對(duì)較小。而“l(fā)ove”、“adore”這兩個(gè)單詞與單詞“baseball”的意思有很大的不同,詞性也不相同,那么“l(fā)ove”、“adore”這兩個(gè)單詞的向量與單詞“baseball”的向量相距距離就會(huì)相對(duì)較大。單詞的向量表示也被稱(chēng)之為詞嵌入。特征提?。簽榱说玫竭@些詞嵌入,我們采用一個(gè)很著名的模型 “Word2Vec”?!癢ord2Vec”是近幾年很火的算法,它通過(guò)神經(jīng)網(wǎng)絡(luò)機(jī)器學(xué)習(xí)算法來(lái)訓(xùn)練N-gram 語(yǔ)言模型,并在訓(xùn)練過(guò)程中求出word所對(duì)應(yīng)的vector的方法。它是將詞表征為實(shí)數(shù)值向量的一種高效的算法模型,其利用深度學(xué)習(xí)的思想,可以通過(guò)訓(xùn)練,把對(duì)文本內(nèi)容的處理簡(jiǎn)化為 K 維向量空間中的向量運(yùn)算,而向量空間上的相似度可以用來(lái)表示文本語(yǔ)義上的相似。在這個(gè)模型中,每個(gè)詞的詞向量是根據(jù)上下文的語(yǔ)境來(lái)進(jìn)行推斷的,如果兩個(gè)詞在上下文的語(yǔ)境中可以被互換,那么這就表示這兩個(gè)詞的意思相似,詞性相似,那么他們的詞向量中相距距離就非常近。在自然語(yǔ)言中,上下文的語(yǔ)境對(duì)分析詞語(yǔ)的意義是非常重要的。簡(jiǎn)單來(lái)說(shuō),Word2Vec這個(gè)模型的作用就是從一大堆句子(以 Wikipedia 為例)中為每個(gè)獨(dú)一無(wú)二的單詞進(jìn)行建模,并且輸出一個(gè)唯一的向量,Word2Vec 模型的輸出被稱(chēng)為一個(gè)嵌入矩陣。該嵌入矩陣將包含訓(xùn)練語(yǔ)料庫(kù)中每個(gè)不同單詞的向量。 傳統(tǒng)上,嵌入矩陣可以包含超過(guò)300萬(wàn)個(gè)單詞向量。Word2Vec模型是通過(guò)對(duì)數(shù)據(jù)集中的每個(gè)句子進(jìn)行訓(xùn)練,在其上滑動(dòng)一個(gè)固定大小的窗口,并試圖預(yù)測(cè)窗口的中心詞,給出其他詞。使用損失函數(shù)和優(yōu)化程序,該模型為每個(gè)唯一字生成向量。這個(gè)訓(xùn)練過(guò)程的細(xì)節(jié)可能會(huì)變得有點(diǎn)復(fù)雜,所以我們現(xiàn)在要跳過(guò)細(xì)節(jié),但這里主要的一點(diǎn)是,任何深度學(xué)習(xí)方法對(duì)于NLP任務(wù)的輸入可能都會(huì)有單詞向量作為輸入。后面特征提取這一塊,應(yīng)該會(huì)將用word2vec提取的方式改為用doc2vec來(lái)提取,不過(guò)具體修改時(shí)間待定,得看我啥時(shí)候能將這一操作學(xué)會(huì)(哈哈噠)。Google 已經(jīng)幫助我們?cè)诖笠?guī)模數(shù)據(jù)集上訓(xùn)練出來(lái)了 Word2Vec 模型,它包括 1000 億個(gè)不同的詞,在這個(gè)模型中,谷歌能創(chuàng)建300萬(wàn)個(gè)詞向量,每個(gè)向量維度為 300。在理想情況下,我們將使用這些向量來(lái)構(gòu)建模型,但是因?yàn)檫@個(gè)單詞向量矩陣太大了(3.6G),因此在此次研究中我們將使用一個(gè)更加易于管理的矩陣,該矩陣由 GloVe 進(jìn)行訓(xùn)練得到。矩陣將包含 400000 個(gè)詞向量,每個(gè)向量的維數(shù)為 50。這里有用到一些.npy文件,是通過(guò)glove已經(jīng)轉(zhuǎn)好的,存為了npy文件。我們將導(dǎo)入兩個(gè)不同的數(shù)據(jù)結(jié)構(gòu),一個(gè)是包含 400000 個(gè)單詞的 Python 列表,一個(gè)是包含所有單詞向量值的 400000*50 維的嵌入矩陣。結(jié)果對(duì)比:CNN網(wǎng)絡(luò)層數(shù)包括:卷積層,池化層,全連接層。CNN神經(jīng)網(wǎng)絡(luò)模型運(yùn)用于文本情感分析時(shí)效果不如LSTM神經(jīng)網(wǎng)絡(luò)模型效果好,經(jīng)典的CNN模型在文本情感分析正確率只有71.2%,而對(duì)經(jīng)典進(jìn)行改進(jìn)之后,增加了卷積層和池化層,CNN模型的正確率得到了提高,但正確率也是只有77.25%,仍然比不上只用了一層LSTM網(wǎng)絡(luò)的正確率高。從結(jié)果對(duì)比中我們可以知道,CNN不光可以應(yīng)用于圖像處理領(lǐng)域,也能成功有效地對(duì)文本信息進(jìn)行分析,但LSTM在解決文本情感分析的問(wèn)題時(shí)效果要比CNN好。下面是一些運(yùn)行結(jié)果:訓(xùn)練數(shù)據(jù)集的結(jié)果嗯…,訓(xùn)練了800多個(gè)數(shù)據(jù),發(fā)現(xiàn)最高的時(shí)候準(zhǔn)確率在百分之七十幾,但是絕大多數(shù)穩(wěn)定在百分之五十左右,這個(gè)準(zhǔn)確度還是有點(diǎn)低的,后面加強(qiáng)學(xué)習(xí),改進(jìn)代碼,應(yīng)該可以將準(zhǔn)確度提高。(方法推薦:改改epoch可能會(huì)提高準(zhǔn)確度,模型收斂+準(zhǔn)確率)輸出詞列表的長(zhǎng)度,詞向量的維數(shù)維度的個(gè)數(shù)這個(gè)項(xiàng)目采用的數(shù)據(jù)集是IMDB數(shù)據(jù)集,這個(gè)數(shù)據(jù)集是一個(gè)關(guān)于電影評(píng)論的數(shù)據(jù)集,在這個(gè)數(shù)據(jù)集上做訓(xùn)練和測(cè)試。這個(gè)數(shù)據(jù)集包含 25000 條電影數(shù)據(jù),其中 12500 條正向數(shù)據(jù),12500 條負(fù)向數(shù)據(jù)。將其中的23000個(gè)文本評(píng)論作為訓(xùn)練集,將剩下的2000個(gè)文本評(píng)論作為測(cè)試集。下面為正面評(píng)價(jià)文本和負(fù)面評(píng)價(jià)文本示例總結(jié):將CNN與LSTM兩種神經(jīng)網(wǎng)絡(luò)模型應(yīng)用到了文本情感分析的問(wèn)題當(dāng)中,使用Word2Vec模型及它的子矩陣GloVe來(lái)將文本信息進(jìn)行預(yù)處理,轉(zhuǎn)換成了詞向量及向量矩陣,使用了IMDB數(shù)據(jù)集來(lái)對(duì)模型進(jìn)行訓(xùn)練,并用TensorFlow進(jìn)行建模、訓(xùn)練。版權(quán)聲明:本文為CSDN博主「醒了的追夢(mèng)人」的原創(chuàng)文章,遵循CC 4.0 BY-SA版權(quán)協(xié)議,轉(zhuǎn)載請(qǐng)附上原文出處鏈接及本聲明。
    2021-09-20