<wbr id="ede8e"></wbr><bdo id="ede8e"><var id="ede8e"><optgroup id="ede8e"></optgroup></var></bdo>
    1. <sub id="ede8e"></sub>
    2. <sub id="ede8e"></sub>
    3. 18禁无遮挡啪啪无码网站,真人无码作爱免费视频,2018年亚洲欧美在线v,国产成人午夜一区二区三区 ,亚洲精品毛片一区二区,国产在线亚州精品内射,精品无码国产污污污免费,国内少妇人妻偷人精品
      首頁(yè) > 文章中心 > 神經(jīng)網(wǎng)絡(luò)經(jīng)濟(jì)學(xué)

      神經(jīng)網(wǎng)絡(luò)經(jīng)濟(jì)學(xué)

      前言:想要寫出一篇令人眼前一亮的文章嗎?我們特意為您整理了5篇神經(jīng)網(wǎng)絡(luò)經(jīng)濟(jì)學(xué)范文,相信會(huì)為您的寫作帶來(lái)幫助,發(fā)現(xiàn)更多的寫作思路和靈感。

      神經(jīng)網(wǎng)絡(luò)經(jīng)濟(jì)學(xué)范文第1篇

      關(guān)鍵詞:數(shù)據(jù)挖掘;神經(jīng)網(wǎng)絡(luò);極速學(xué)習(xí)機(jī)

      中圖分類號(hào):TP18文獻(xiàn)標(biāo)識(shí)碼:A文章編號(hào):1009-3044(2011)10-2368-04

      Survey of Extreme Learning of Neural Networks

      YANG Feng-zhi1, PI Hui1, SU Jia-wei2

      (1.School of Information, Yunnan Normal University, Kunming 650031, China; 2.School of Physics and Electronic Information, Yunnan Normal University, Kunming 650031, China)

      Abstract: Neural Network have been widely applied in many fields including pattern recognition, automatic control, data mining etc. However, the traditional learning methods can not meet the actual needs. The traditional method is mainly based on gradient descent and it needs multiple iterations; all of the network parameters need to be determined by iteration. Therefore, the computational complexity and searching space will increase dramatically. ELM is one-time learning idea, this method is faster algorithm and voids a number of iterations and the local minimum, it has better generalization, robustness and controllability. But for different data sets and different applications, it is used for both data classification or regression. ELM algorithm has some problems. So this paper follow a comprehensive comparison and analysis of existing methods, future research directions are highlighted.

      Key words: data mining; neural networks; extreme learning machine

      隨著計(jì)算機(jī)硬件設(shè)備技術(shù)的穩(wěn)定進(jìn)步為人類提供了大量的數(shù)據(jù)收集設(shè)備和存儲(chǔ)介質(zhì);數(shù)據(jù)庫(kù)技術(shù)的成熟和普及已使人類積累的數(shù)據(jù)量正以指數(shù)方式增長(zhǎng);Internet技術(shù)的出現(xiàn)和發(fā)展已將整個(gè)世界連接成一個(gè)地球村,人們可以穿越時(shí)空在網(wǎng)上交換信息和協(xié)同工作。在這個(gè)信息爆炸的時(shí)代,面對(duì)著浩瀚無(wú)垠的信息,人類正被信息淹沒(méi),卻饑渴于知識(shí)。人類怎樣從數(shù)據(jù)中獲取知識(shí),就是在這個(gè)背景下,數(shù)據(jù)挖掘應(yīng)運(yùn)而生。

      但面對(duì)海量的不同類型的數(shù)據(jù)集,參考文獻(xiàn)[1]中提出了數(shù)據(jù)挖掘遇到了的三個(gè)困難:首先,巨量數(shù)據(jù)集的性質(zhì)往往非常復(fù)雜,非線性、時(shí)序性與噪音普遍存在;其次,數(shù)據(jù)分析的目標(biāo)具有多樣性,而復(fù)雜目標(biāo)無(wú)論在表述上還是處理上均與領(lǐng)域知識(shí)有關(guān);第三,在復(fù)雜目標(biāo)下,對(duì)巨量數(shù)據(jù)集的分析,目前還沒(méi)有現(xiàn)成的滿足可計(jì)算條件的一般性理論與方法。由于真實(shí)世界的數(shù)據(jù)關(guān)系是很復(fù)雜的,非線性程度相當(dāng)高,而且普遍存在著噪音。如果把神經(jīng)計(jì)算技術(shù)用于數(shù)據(jù)挖掘中,借助神經(jīng)網(wǎng)絡(luò)的非線性處理能力和容噪能力,能夠較好的解決數(shù)據(jù)挖掘中存在的問(wèn)題。但將神經(jīng)計(jì)算技術(shù)用于數(shù)據(jù)挖掘主要存在兩大障礙:第一是神經(jīng)網(wǎng)絡(luò)學(xué)到的知識(shí)難于理解;第二是學(xué)習(xí)時(shí)間太長(zhǎng),不適合于大型數(shù)據(jù)集。把這兩個(gè)問(wèn)題解決基于神經(jīng)網(wǎng)絡(luò)的數(shù)據(jù)挖掘?qū)⒕哂袕V泛的應(yīng)用前景。針對(duì)上述存在的問(wèn)題,基于神經(jīng)網(wǎng)絡(luò)的數(shù)據(jù)挖掘主要有兩方面的研究?jī)?nèi)容,即增強(qiáng)神經(jīng)網(wǎng)絡(luò)的可理解性以及提高網(wǎng)絡(luò)學(xué)習(xí)速度。對(duì)于前者,主要是從神經(jīng)網(wǎng)絡(luò)中抽取易于理解的規(guī)則,后者的解決方法是設(shè)計(jì)快速學(xué)習(xí)算法。本文針對(duì)基于神經(jīng)網(wǎng)絡(luò)的數(shù)據(jù)挖掘存在的第二個(gè)問(wèn)題,即設(shè)計(jì)快速學(xué)習(xí)算法,對(duì)目前所有的神經(jīng)網(wǎng)絡(luò)極速學(xué)習(xí)算法進(jìn)行綜述。

      神經(jīng)網(wǎng)絡(luò)極速學(xué)習(xí)方法主要是用于分類和回歸。分類在數(shù)據(jù)挖掘中是一項(xiàng)非常重要的任務(wù),分類的目的是學(xué)會(huì)一個(gè)分類函數(shù)或分類模型(分類器),該模型能把數(shù)據(jù)集中的數(shù)據(jù)項(xiàng)映射到給定類別中的某一個(gè)類別,分類也可以用來(lái)預(yù)測(cè)。分類器的構(gòu)造方法有統(tǒng)計(jì)方法、機(jī)器學(xué)習(xí)方法、神經(jīng)網(wǎng)絡(luò)方法等等。另外許多技術(shù)也可以用于分類器的構(gòu)造,如粗糙集、模糊數(shù)學(xué)等。主要代表的算法有:決策分類方法代表算法有ID3算法和C4.5算法;貝葉斯分類方法代表算法有樸素貝葉斯分類方法和EM算法;規(guī)則歸納方法代表算法有AQ算法和FOIL算法;神經(jīng)網(wǎng)絡(luò)方法主要是BP算法。以上這些算法都是比較經(jīng)典且有代表性的算法。不同于傳統(tǒng)的學(xué)習(xí)方法,Huang為單隱層前饋神經(jīng)網(wǎng)絡(luò)(Single-hidden Layer Feedforward Neural Network, SLFN)提出了一種稱為極速學(xué)習(xí)機(jī)(Extreme Learning Machine, ELM)的學(xué)習(xí)方法,該方法整個(gè)過(guò)程一次完成,無(wú)需迭代,與BP相比速度顯著提高(通常10倍以上)。

      1 單隱層前饋神經(jīng)網(wǎng)絡(luò)(SLFN)模型

      神經(jīng)網(wǎng)絡(luò)逐步的應(yīng)用于各個(gè)領(lǐng)域,尤其是單隱層前饋神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)能力強(qiáng),且不同的激勵(lì)函數(shù)可以用于不同的應(yīng)用領(lǐng)域。對(duì)于N個(gè)不同的樣本(xi,ti),其中一個(gè)隱藏層節(jié)點(diǎn)數(shù)目為N'激勵(lì)函數(shù)g(x)的SLFN的統(tǒng)一模型為

      其中αi=[αi1, αi2,…, αin]T是連接第i個(gè)隱藏層結(jié)點(diǎn)的輸入權(quán)值,bi是i個(gè)隱藏層結(jié)點(diǎn)的偏差(bias);βi=[βi1, βi2,…, βim]T是連接第i個(gè)隱藏層結(jié)點(diǎn)的輸出權(quán)值; αi.xj表示αi與xj的內(nèi)積。激勵(lì)函數(shù)g(x)可以是”Sigmoid”、”Sine”或”RBF”等。

      上述N個(gè)方程的矩陣形式可寫成為: Hβ=T其中

      E(W)表示期望值與實(shí)際值之間的誤差平方和,問(wèn)題求解就是尋找最優(yōu)的權(quán)值W=(a,b, β)使得E(W)最小,其數(shù)學(xué)模型可表示為

      其中εj=[εj1, εj2,…, εjm]是第j個(gè)樣本的誤差。

      SFLN自身具有很多優(yōu)點(diǎn)[9-13],所以在數(shù)據(jù)挖掘、自動(dòng)控制及模式識(shí)別等領(lǐng)域取得了廣泛的應(yīng)用,它具有如下的優(yōu)點(diǎn):具有很強(qiáng)的學(xué)習(xí)能力,能夠逼近復(fù)雜非線性函數(shù);能夠解決傳統(tǒng)參數(shù)方法無(wú)法解決的問(wèn)題。但是由于缺乏快速學(xué)習(xí)方法,傳統(tǒng)的反向誤差傳播方法主要是基于梯度下降的思想,需要多次迭代,網(wǎng)絡(luò)的所有參數(shù)都需要在訓(xùn)練過(guò)程中迭代確定。因此算法的計(jì)算量和搜索空間很大。

      2 BP (Back Propagation)

      由Rumelhart和 McCelland提出的BP神經(jīng)網(wǎng)絡(luò)模型是目前應(yīng)用最廣泛的模型之一[2],BP訓(xùn)練方法是通過(guò)反向誤差傳播原理不斷調(diào)整網(wǎng)絡(luò)權(quán)值使得實(shí)際輸出與期望輸出之間的誤差平方和達(dá)到最小或小于某個(gè)閾值。當(dāng)H未知時(shí),通常采用梯度下降法迭代調(diào)整W:

      其中η代表學(xué)習(xí)速率。

      基于梯度下降法BP存在以下缺點(diǎn):

      1) 訓(xùn)練速度慢。因?yàn)樾枰啻蔚牡?,所以時(shí)間消耗很長(zhǎng);

      2) 參數(shù)選擇很敏感,必須選取合適的η與w初值,才能取得理想的結(jié)果。若η太小,算法收斂很慢,而η太大,算法不太穩(wěn)定甚至不再收斂;

      3) 局部最小值。由于E(w)非凸,因此在下降過(guò)程中可能會(huì)陷入局部最小點(diǎn),無(wú)法達(dá)到全局最小[3];

      4) 過(guò)渡擬合。在有限樣本上訓(xùn)練時(shí),僅以訓(xùn)練誤差最小為目標(biāo)的訓(xùn)練可能導(dǎo)致過(guò)渡擬合。

      3 極速學(xué)習(xí)機(jī)(ELM)

      一個(gè)具有N個(gè)隱藏結(jié)點(diǎn)的SFLN, 即使輸入權(quán)值是隨機(jī)取值,它也能夠準(zhǔn)確擬合N個(gè)不同的實(shí)例,更明確的講, SFLN的學(xué)習(xí)能力只與隱藏層結(jié)點(diǎn)的數(shù)目有關(guān),而和輸入層的權(quán)值無(wú)關(guān)。基于這一思想,為了改進(jìn)SFLN的學(xué)習(xí)效率,Huang基于SFLN模型提出了一種稱為極速學(xué)習(xí)方法[5],其基本思想是:設(shè)置合適的隱藏層結(jié)點(diǎn)數(shù),為輸入權(quán)值和隱藏層偏差進(jìn)行隨機(jī)賦值,然后輸出層權(quán)值通過(guò)最小二乘法計(jì)算得到。整個(gè)過(guò)程一次計(jì)算完成,不需要迭代計(jì)算,與BP相比速度提升10倍以上。

      ELM算法思想及具體步驟如下:

      給定一個(gè)訓(xùn)練集 激勵(lì)函數(shù)g(x)以及隱藏層結(jié)點(diǎn)數(shù)N’。

      1) 隨機(jī)指定輸入權(quán)值和偏差(ai,bi)i=1,2,…,N。

      2) 計(jì)算隱藏層輸出矩陣:

      3) 計(jì)算輸出權(quán)值。

      雖然使用ELM訓(xùn)練樣本與其它算法相比是更快且有較好的泛化性能[14-15]。但有兩個(gè)問(wèn)題仍然沒(méi)有得到解決:一是在隱藏層中,ELM的隱藏結(jié)點(diǎn)數(shù)目需要被確定,在前面的研究中,隱藏結(jié)點(diǎn)的數(shù)目是通過(guò)實(shí)驗(yàn)和誤差方法得到,但這不是最優(yōu)的,對(duì)于不同的應(yīng)用怎樣選擇合適的網(wǎng)絡(luò)結(jié)構(gòu)仍然是未知的;二是ELM有時(shí)需要很大的網(wǎng)絡(luò)結(jié)構(gòu)(隱藏結(jié)點(diǎn)的數(shù)目很多),由于初始階段是一個(gè)隨機(jī)過(guò)程,網(wǎng)絡(luò)的復(fù)雜性會(huì)影響到算法的泛化性能。

      4 啟發(fā)式方法

      基于以上研究,參考文獻(xiàn)[8]中提出了兩種啟發(fā)式的方法對(duì)ELM算法進(jìn)行改進(jìn):剪枝方法和增長(zhǎng)方法,就是移除隱藏結(jié)點(diǎn)和增加隱藏結(jié)點(diǎn)。

      4.1 剪枝方法

      為了解決以上存在的兩個(gè)問(wèn)題,Rong在參考文獻(xiàn)[6]中提出了一種剪枝算法P-ELM(Pruned ELM)應(yīng)用于模式分類中,其基本思想是:首先隨機(jī)生成一個(gè)大的網(wǎng)絡(luò),然后使用?字2和信息增益方法來(lái)移除隱藏結(jié)點(diǎn)來(lái)降低類間的相關(guān)性。

      同樣基于以上的兩個(gè)問(wèn)題,在解決分類和回歸兩大類問(wèn)題時(shí),還有另外一種剪枝算法OP-ELM(Optimally pruned extreme learning machine)在參考文獻(xiàn)[7]中被提出。此算法的基本思想是:首先基于原始的ELM算法構(gòu)建MLP(Multilayer Perceptron);使用MRSR(Multiresponse sparse regression)算法對(duì)隱藏結(jié)點(diǎn)進(jìn)行排序[15];使用LOO(Leave-One-Out)選擇隱藏結(jié)點(diǎn)。

      雖然提出了P-ELM 和OP-ELM兩種剪枝方法,但在參考文獻(xiàn)[8]中作者提出剪枝方法面臨著這樣的兩個(gè)困難:在開始移除隱藏結(jié)點(diǎn)之前,要確定網(wǎng)絡(luò)最終的規(guī)模是很難的;在很多時(shí)候,剪枝方法要處理網(wǎng)絡(luò)規(guī)模(應(yīng)該移除隱藏節(jié)點(diǎn)的選擇),這樣會(huì)增加計(jì)算復(fù)雜性和需要更多的訓(xùn)練時(shí)間。這樣雖然降低了網(wǎng)絡(luò)的復(fù)雜性,但是以計(jì)算時(shí)間為代價(jià)。

      4.2 增長(zhǎng)方法

      雖然剪枝方法很容易被理解,它花費(fèi)了大量時(shí)間來(lái)處理移除的隱藏結(jié)點(diǎn),如果訓(xùn)練樣本很大,此算法的效率會(huì)變得更差。研究者們又提出了新的啟發(fā)式方法,增加隱藏節(jié)點(diǎn)到隱藏層。

      4.2.1 I-ELM(Incremental extreme learning machine)

      在參考文獻(xiàn)[16-17]中提出了I-ELM(Incremental extreme learning machine)。I-ELM學(xué)習(xí)方法的基本思想:在學(xué)習(xí)訓(xùn)練的過(guò)程中,一個(gè)一個(gè)的隨機(jī)生成隱藏結(jié)點(diǎn)增加到隱藏層,當(dāng)新的隱藏結(jié)點(diǎn)增加到網(wǎng)絡(luò)中時(shí),輸出權(quán)值不會(huì)被重計(jì)算,既輸出權(quán)值不會(huì)被更新,添加隱藏結(jié)點(diǎn)以后重新調(diào)整網(wǎng)絡(luò)結(jié)構(gòu)。此種方法被證明是滿足實(shí)際需求的方法。但是這種方法得不到最佳的網(wǎng)絡(luò)結(jié)構(gòu),它增加隱藏結(jié)點(diǎn)的停止標(biāo)準(zhǔn)是隱藏節(jié)點(diǎn)達(dá)到最大值或是訓(xùn)練率小于期望值,最大隱藏節(jié)點(diǎn)的數(shù)目和訓(xùn)練率是由用戶規(guī)定的。用戶沒(méi)有標(biāo)準(zhǔn)判斷最大隱藏結(jié)點(diǎn)的數(shù)目和訓(xùn)練精度應(yīng)該是多大,所以這種方法得到的網(wǎng)絡(luò)結(jié)構(gòu)不是最優(yōu)的。

      為了改進(jìn)I-ELM的性能,Huang 和Chen在參考文獻(xiàn)[16]中提出了EI-ELM(Enhanced random search based incremental extreme learning machine)方法,此算法比I-ELM有更好的泛化性能。

      4.2.2 EM-ELM(Error minimized extreme learning machine)

      其思想不同于I-ELM的思想,Huang 和Feng在參考文獻(xiàn)[18]中提出了EM-ELM(Error minimized extreme learning machine)方法其基本思想是:隨機(jī)生成多個(gè)隱藏結(jié)點(diǎn)并將它們及時(shí)添加于隱藏層,輸出權(quán)值同時(shí)被更新,更新后重新調(diào)整網(wǎng)絡(luò)結(jié)構(gòu),直到達(dá)到訓(xùn)練精確度或最大隱藏結(jié)點(diǎn)數(shù)目。訓(xùn)練精確度和最大隱藏結(jié)點(diǎn)數(shù)目是由用戶自己規(guī)定的。

      I-ELM和 EM-ELM這兩種增長(zhǎng)方法,它們的思想都是添加隱藏結(jié)點(diǎn)到隱藏層,然后重新調(diào)整網(wǎng)絡(luò)結(jié)構(gòu)。但是他們停止增加隱藏結(jié)點(diǎn)的條件都是達(dá)到最大隱藏結(jié)點(diǎn)的數(shù)目或達(dá)到訓(xùn)練精確度,而這兩個(gè)參數(shù)是由用戶規(guī)定的,對(duì)于不同的應(yīng)用,用戶應(yīng)該如何設(shè)置這樣的參數(shù)也沒(méi)有標(biāo)準(zhǔn)。所以通過(guò)這兩種方法得到的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)也不是最優(yōu)的。

      4.2.3 CS-ELM(A Constructive hidden nodes selection method for ELM)

      在I-ELM和 EM-ELM算法中,用戶如何確定隱藏結(jié)點(diǎn)最大數(shù)目和訓(xùn)練精確度,還是一個(gè)未知的問(wèn)題,這樣會(huì)導(dǎo)致所產(chǎn)生的網(wǎng)絡(luò)結(jié)構(gòu)不是最佳的。所以在參考文獻(xiàn)[19]中提出一種新的方法即CS-ELM(A Constructive hidden nodes selection method for ELM),此方法的基本思想是:隨機(jī)生成一個(gè)隱藏結(jié)點(diǎn)作為候選庫(kù),從候選庫(kù)中選擇最重要的結(jié)點(diǎn)來(lái)調(diào)整網(wǎng)絡(luò)結(jié)構(gòu),在訓(xùn)練的過(guò)程中,主要是要選擇最佳隱藏結(jié)點(diǎn)的數(shù)目。當(dāng)隱藏結(jié)點(diǎn)的選擇標(biāo)準(zhǔn)是:當(dāng)無(wú)偏風(fēng)險(xiǎn)估計(jì)標(biāo)準(zhǔn)CP達(dá)到最小時(shí),隱藏結(jié)點(diǎn)的數(shù)目達(dá)到最佳。此方法主要有3個(gè)步驟:初始化階段,將訓(xùn)練數(shù)據(jù)集分成不相交的兩部分;選擇階段,選擇最佳的隱藏結(jié)點(diǎn)數(shù)P*;訓(xùn)練和測(cè)試階段,根據(jù)選擇的P*重新構(gòu)建網(wǎng)絡(luò)結(jié)構(gòu),對(duì)數(shù)據(jù)集進(jìn)行訓(xùn)練和測(cè)試。

      CS-ELM算法的基本思想及步驟如下:

      給定一個(gè)訓(xùn)練數(shù)據(jù)集{(xi,ti)}2n i=1、激勵(lì)函數(shù)g(x)以及隱藏結(jié)點(diǎn)的最大數(shù)目Lmax。

      第一階段:把訓(xùn)練數(shù)據(jù)集分成不相交的兩個(gè)子集,使用ELM模型隨機(jī)生成隱藏結(jié)點(diǎn){(ai,bi)}Lmax i=1,經(jīng)訓(xùn)練得到矩陣t=Hβ+e,H=[h1,h2,…,hL]( 注:矩陣e是殘差矩陣)。

      第二階段:當(dāng)k=0設(shè)置L0=0,y(0)=0, β(0)=0,p=?準(zhǔn)和Hp=0。將矩陣H和t零均值化。

      不斷迭代計(jì)算殘差,使無(wú)偏風(fēng)險(xiǎn)估計(jì)標(biāo)準(zhǔn)CP達(dá)到最小時(shí),隱藏結(jié)點(diǎn)的數(shù)目達(dá)到最佳。

      第三階段:第二階段得到最佳的隱藏結(jié)點(diǎn)數(shù)目以后重構(gòu)網(wǎng)絡(luò),對(duì)分組的數(shù)據(jù)進(jìn)行訓(xùn)練和測(cè)試。

      CS-ELM與I-ELM和 EM-ELM相比,能夠重構(gòu)最佳的網(wǎng)絡(luò)結(jié)構(gòu),但是CS-ELM算法是一種貪心方法,當(dāng)隱藏結(jié)點(diǎn)數(shù)P*被確定時(shí),可能會(huì)影響后面隱藏結(jié)點(diǎn)的選擇,當(dāng)一個(gè)新的隱藏結(jié)點(diǎn)增加于隱藏層時(shí),之前確定的P*就變得不重要。

      4.2.4 TS-ELM(Two-stage extreme learning machine for regression)

      除了上面這些方法外,在參考文獻(xiàn)[20-23]中提出的OLS(Orthogonalleastsquares)也是一種比較流行的算法。但OLS算法也不是一種很好的算法,它也只是一種貪心的算法,只能達(dá)到局部最優(yōu)?;贠LS算法的思想,Li在參考文獻(xiàn)[24]中提出FCA(fast construction algorithm),此算法先基于SFLN模型隨機(jī)生成隱藏結(jié)點(diǎn),選擇重要的隱藏結(jié)點(diǎn)一個(gè)一個(gè)的添加于隱藏層中,整個(gè)過(guò)程依賴于矩陣分解,選擇隱藏結(jié)點(diǎn)的停止標(biāo)準(zhǔn)是隱藏結(jié)點(diǎn)的數(shù)目達(dá)到默認(rèn)值。添加隱藏結(jié)點(diǎn)以后重新調(diào)整網(wǎng)絡(luò)結(jié)構(gòu),對(duì)數(shù)據(jù)集進(jìn)行訓(xùn)練和測(cè)試。FCA算法與ELM和OLS相比是更快的和更好的。

      基于FCA和CS-ELM算法思想,Yuan等人在參考文獻(xiàn)[8]中提出了TS-ELM(Two-stage extreme learning machine for regression),此算法分成兩個(gè)步驟:第一階段,隨機(jī)生成隱藏結(jié)點(diǎn)于網(wǎng)絡(luò)模型中,作為隱藏結(jié)點(diǎn)候選庫(kù),使用前向回歸算法選擇隱藏結(jié)點(diǎn)添加于網(wǎng)絡(luò)中,直到無(wú)偏風(fēng)險(xiǎn)估計(jì)標(biāo)準(zhǔn)CP達(dá)到最小值,通過(guò)隱藏結(jié)點(diǎn)的網(wǎng)絡(luò)貢獻(xiàn)度來(lái)衡量隱藏結(jié)點(diǎn)的重要性。第二階段,選擇的隱藏結(jié)點(diǎn)被修正,一些不重要的隱藏結(jié)點(diǎn)被移除,降低網(wǎng)絡(luò)的復(fù)雜性。該算法通過(guò)計(jì)算隱藏結(jié)點(diǎn)的網(wǎng)絡(luò)貢獻(xiàn)度,作為衡量隱藏結(jié)點(diǎn)重要程度的度量標(biāo)準(zhǔn),選擇重要的隱藏結(jié)點(diǎn)添加網(wǎng)絡(luò)并重構(gòu)網(wǎng)絡(luò),移除不重要的結(jié)點(diǎn)來(lái)降低網(wǎng)絡(luò)復(fù)雜性,此算法的泛化性能和學(xué)習(xí)能力得到均衡,重構(gòu)的網(wǎng)絡(luò)也是最佳的。

      5 極速學(xué)習(xí)方法(ELM)的應(yīng)用

      神經(jīng)網(wǎng)絡(luò)的應(yīng)用十分廣泛,尤其是單隱層前饋神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)能力強(qiáng),不同的激勵(lì)函數(shù)可以用于不同的應(yīng)用領(lǐng)域。為了提高單隱層前饋神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)能力和泛化性能,提出了極速學(xué)習(xí)方法,該方法整個(gè)過(guò)程一次完成,無(wú)需迭代,與BP相比速度顯著提高(通常10倍以上)。比較常見(jiàn)的應(yīng)用領(lǐng)域有:傳感器信息處理、信號(hào)處理、自動(dòng)控制、知識(shí)處理、市場(chǎng)分析、運(yùn)輸及通信、電子學(xué)、神經(jīng)科學(xué)等幾個(gè)方面,除了以上這些,神經(jīng)網(wǎng)絡(luò)在下面這些領(lǐng)域也有著廣泛的應(yīng)用前景:娛樂(lè)、零售分析、信用分析、航空與航天和醫(yī)療診斷系統(tǒng)等[25]。極速學(xué)習(xí)方法是基于BP的改進(jìn)學(xué)習(xí)方法,在以上這些領(lǐng)域,它也將有著廣泛的應(yīng)用前景。

      6 總結(jié)

      學(xué)習(xí)性能和泛化性能是神經(jīng)網(wǎng)絡(luò)研究中的最重要的兩個(gè)問(wèn)題,當(dāng)神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)能力較強(qiáng)時(shí),會(huì)導(dǎo)致過(guò)度擬合問(wèn)題,使得神經(jīng)網(wǎng)絡(luò)模型訓(xùn)練結(jié)果很好,但用來(lái)預(yù)測(cè)未知數(shù)據(jù)時(shí)表現(xiàn)很差,即泛化性能差,所以神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)性能和泛化性能是一對(duì)矛盾。為了使兩者均衡,選擇合適的網(wǎng)絡(luò)結(jié)構(gòu)(如隱藏神經(jīng)元的數(shù)目)、選擇合適的樣本尺寸和選擇合適的模型以及樣本特征集的選擇等這幾方面是很重要。在目前的研究中,為了使神經(jīng)網(wǎng)絡(luò)的泛化性能和學(xué)習(xí)能力得到均衡,研究者們主要是隱藏結(jié)點(diǎn)的選擇對(duì)網(wǎng)絡(luò)結(jié)構(gòu)進(jìn)行調(diào)整,以提升學(xué)習(xí)能力和泛化性能。而在網(wǎng)絡(luò)模型中的輸入權(quán)值和偏差并沒(méi)有單獨(dú)考慮,只是配合隱藏結(jié)點(diǎn)的選擇而選擇,但網(wǎng)絡(luò)的學(xué)習(xí)性能和泛化性能也必和這兩個(gè)參數(shù)有關(guān)系,所以這兩個(gè)參數(shù)應(yīng)該被考慮。對(duì)于不同的數(shù)據(jù)集,不同的應(yīng)用領(lǐng)域,應(yīng)該如何調(diào)整網(wǎng)絡(luò)結(jié)構(gòu)也是一個(gè)未知的問(wèn)題,如果要將神經(jīng)網(wǎng)絡(luò)極速學(xué)習(xí)方法真正用于不同的領(lǐng)域,這些都是必需要考慮的。在未來(lái)的研究中,將在線學(xué)習(xí)與遺傳算法、ELM及SVM結(jié)合起來(lái)將是一個(gè)值得研究的問(wèn)題。在應(yīng)用方面,可以用于任何分類問(wèn)題和回歸問(wèn)題中,如何將神經(jīng)網(wǎng)絡(luò)極速學(xué)習(xí)方法用于具體的應(yīng)用領(lǐng)域是一個(gè)值得研究的課題。

      參考文獻(xiàn):

      [1] 陳兆乾,周志華,陳世福.神經(jīng)計(jì)算研究現(xiàn)狀及發(fā)展趨勢(shì)[J].計(jì)算機(jī)應(yīng)用研究,2000(2):34-37.

      [2] Rumelhart D E,McClelland J L. Paraller Distributed Processing[J].Cambridge:MIT Press,1986,1(2):125-187.

      [3] Cristianini N, Shawe-Taylor J. An Introduction to Support Vector Machimes[J].Cambridge: Cambridge University Press,2000.

      [4] Huang G-B.Learning capability and storage capacity of two hidden-layer feedforward networks[J]. IEEE Transactions on Neural Networks.2003.14(2):274-281

      [5] Huang G-B, Zhu Q-Y, Siew C-K. Extreme learning machine: theory and application[J].Neurocomputing,2006,70(1-3):489-501.

      [6] H-J Rong, Y-S.Ong, A-H.Tan,Z. A fast pruned-extreme learning machine for classication problem[J], Neurocomputing 72(2008) 359-366.

      [7] Miche Y,Sorjama A, Lendasse A,OP-ELM:theory, experiments and a toolbox, in:V,Kurkov,R.Neruda,J.Koutnk(Eds.)ICANN.(1).ofLectureNotesinComputerScience,vol.5163,2008:145-154.

      [8] YuanLan, YengChai Soh,Huang G-B. Two-stage extreme learning machine for regression[J].Neurocomputing73(2010)3028-3038.

      [9] Park J, Sandberg I W, Universal approximation using radial basis function networks[J].Neural computation3(1991)246¨C257.

      [10] Huang G B, Babri H A, Up perbounds on the number of hidden neurons in feedforward networks with arbitrary bounded non linear activation functions[J], IEEE Transaction son Neural Networks9(1)(1998)224¨C229.

      [11] Huang G B, Chen Y Q, Babri H A.Classication ability of single hidden layer feedforward neural networks[J].IEEE Transaction son Neural Networks11(3)(2000)799¨C801.

      [12] Mao K Z,G.-B.Huang,Neuron selection for RBF neural network classier Based on data structure preserving criterion[J].IEEE Transactions on Neural Networks16(6)(2005)1531¨C1540.

      [13] Ferrari S, Stengel R F, Smooth function approximation using neural networks[J]. IEEE Transaction son Neural Networks16(1)(2005)24¨C38.

      [14] Huang G B, Zhu Q Y, Siew C K, Extreme learning machine: a new learning scheme of feedforward neural networks[J]. in: Proceeding soInternational Joint Conference on Neural Networks,vol.2,Budapest,Hungary,25¨C29July2004 pp.985¨C990.

      [15] Simila T, Tikka J. Multiresponse sparse regression with application to multidimensional scaling[J].in:Proceeding soft the 15th International Conference on Articial Neural Networks, ICANN2005,vol.3697,pp.97¨C102 2005.

      [16] Huang G B, Chen L. Enhanced random search based incremental extreme Learningmachine[J].Neurocomputing71(2008)3060¨C3068

      [17] Huang G B, Chen L. Convexin cremental extreme learning machine[J], Neurocomputing 70(2007)3056¨C3062

      [18] Feng G, Huang G B, Q.Lin,R.Gay, Error minimized extreme learning Machine with growth of hidden nodes and incremental learning[J].IEEETransactionson Neural Networks 20(8)(2009)1352¨C1357.

      [19] Lan Y, Soh Y C, Huang G B. Constructive hidden nodes selection of extreme Learning machine for regression[J].Neurocomputing(2010).doi:10.1016/j.neucom.2010.05.022.

      [20] Chen S, Billings S A, Luo W. Orthogonal least squares methods and their Application to non-linear system midentication[J].International Journal of Control50(5)(1989)1873¨C1896.

      [21] Chen S, Cowan C F N, Grant P M.Orthogonal least squares learning Algorithm for radial basis function networks[J].IEEE TransactionsonNeuralNetworks2(2)(1991)302¨C309.

      [22] Chen S, Wigger J. Fast orthogonal least squares algorithm for efficient subset Modelselection[J],IEEETransactionsonSignalProcessing43(7)(1995)1713¨C1715.

      [23] Zhu Q M, Billings S A.Fast orthogonal identication of nonlinear stochastic Models and radial basis function neural networks[J],International Journal of Control64(5)(1996)871¨C886.

      神經(jīng)網(wǎng)絡(luò)經(jīng)濟(jì)學(xué)范文第2篇

      關(guān)鍵詞: 神經(jīng)網(wǎng)絡(luò);模擬項(xiàng)目;三部曲式

      一、引言

      我國(guó)高職院校以服務(wù)為宗旨,以就業(yè)為導(dǎo)向,以技能為本位,以培養(yǎng)新型生產(chǎn)技術(shù)、管理一線需要的緊缺型技能人才為目標(biāo),為推進(jìn)我國(guó)加快社會(huì)主義現(xiàn)代化建設(shè)進(jìn)程中具有不可替代的作用.而模擬項(xiàng)目教學(xué)是高職、中職教育的核心組成部分.在教育部明確規(guī)定:高職教育人才培養(yǎng)模式的重點(diǎn)是教學(xué)過(guò)程的實(shí)踐性、項(xiàng)目性、職業(yè)性和進(jìn)程性,而項(xiàng)目、挖掘、融合、進(jìn)程是四個(gè)關(guān)鍵技術(shù)環(huán)節(jié).最近我國(guó)高職教育蓬勃發(fā)展、競(jìng)爭(zhēng)日趨激烈,如何提高高職教學(xué)質(zhì)量、增強(qiáng)學(xué)校的特色競(jìng)爭(zhēng)力已成為全國(guó)高職院校的核心科研.因此,開展高職模擬項(xiàng)目教學(xué)質(zhì)量的評(píng)估是提高高職教學(xué)質(zhì)量的有效模式,必將對(duì)高職院校提高教學(xué)質(zhì)量、增強(qiáng)學(xué)校的特色競(jìng)爭(zhēng)力,起到核心作用.基于高職院校模擬項(xiàng)目教學(xué)“模擬項(xiàng)目嵌入式融合、校企合作”的辦學(xué)特點(diǎn),從高職院校模擬項(xiàng)目教學(xué)質(zhì)量“三部曲式”環(huán)節(jié)人手,搭建高職院校模擬項(xiàng)目教學(xué)質(zhì)量評(píng)估指標(biāo)體系,以高職院校模擬項(xiàng)目教學(xué)質(zhì)量評(píng)估提供一種科學(xué)進(jìn)程性的方法.

      二、基于神經(jīng)網(wǎng)絡(luò)的高職模擬項(xiàng)目教學(xué)質(zhì)量“三部曲式”模式

      2.1神經(jīng)網(wǎng)絡(luò)原理

      神經(jīng)網(wǎng)絡(luò)的全稱是人工神經(jīng)網(wǎng)絡(luò),它是在神經(jīng)科學(xué)研究的基礎(chǔ)上模仿人類大腦的結(jié)構(gòu)和功能而構(gòu)成的一種信息采集處理系統(tǒng).神經(jīng)網(wǎng)絡(luò)由大量的神經(jīng)元互相連接而成,它的信息處理通過(guò)神經(jīng)元的相互作用來(lái)實(shí)現(xiàn),知識(shí)與信息的存儲(chǔ)表現(xiàn)為物聯(lián)網(wǎng)技術(shù)接點(diǎn)互聯(lián)嵌入式的物理關(guān)系.因此,它為模式識(shí)別、非線性分類等研究開辟了新的術(shù)語(yǔ).

      2.2基于神經(jīng)網(wǎng)絡(luò)評(píng)估原理

      神經(jīng)網(wǎng)絡(luò)是一種具有三層(輸入層、隱含層、輸出層)或三層以上單向傳播的多層前向網(wǎng)絡(luò)結(jié)構(gòu),它的上下層之間實(shí)現(xiàn)全神經(jīng)元連接.神經(jīng)網(wǎng)絡(luò)是利用非線性可微積分函數(shù)進(jìn)行權(quán)值訓(xùn)練的多層網(wǎng)絡(luò).為了加快網(wǎng)絡(luò)訓(xùn)練的收斂速度,采用變化的學(xué)習(xí)速率或自適應(yīng)的學(xué)習(xí)速率對(duì)BP算法加以改進(jìn)優(yōu)化.神經(jīng)網(wǎng)絡(luò)可看作是一個(gè)從輸入到輸出的高度非線性映射,即要求出一映射使f,使f是g的最佳逼近.神經(jīng)網(wǎng)絡(luò)通過(guò)對(duì)簡(jiǎn)單的非線性函數(shù)進(jìn)行數(shù)次復(fù)合,可得出近似復(fù)雜的函數(shù).

      我將高職模擬項(xiàng)目教學(xué)質(zhì)量評(píng)估的各指標(biāo)屬性值進(jìn)行歸一化處理后作為BP神經(jīng)網(wǎng)絡(luò)模式的輸入向量,將評(píng)估結(jié)果作為神經(jīng)網(wǎng)絡(luò)模式的輸出,用足夠多的樣本訓(xùn)練這個(gè)網(wǎng)絡(luò),使其獲取評(píng)估專家的經(jīng)驗(yàn)、知識(shí)、主觀判斷及其對(duì)指標(biāo)重要性的傾向,這樣神經(jīng)網(wǎng)絡(luò)模式所具有的那組權(quán)系數(shù)值便是網(wǎng)絡(luò)經(jīng)過(guò)自適應(yīng)學(xué)習(xí)所得到的正確知識(shí)內(nèi)部表示,訓(xùn)練好的神經(jīng)網(wǎng)絡(luò)模式根據(jù)待評(píng)估各指標(biāo)的歸屬值,就可得到對(duì)高職模擬項(xiàng)目教學(xué)質(zhì)量評(píng)估的評(píng)估結(jié)果.

      2.3基于高職項(xiàng)模擬目教學(xué)質(zhì)量“三部曲式”指標(biāo)體系的建設(shè)

      “三部曲式”指標(biāo)體系的搭建是高職院校模擬項(xiàng)目教學(xué)質(zhì)量評(píng)估的核心內(nèi)容.“三部曲式”指標(biāo)體系設(shè)計(jì)的科學(xué)與否,是高職院校模擬項(xiàng)目教學(xué)質(zhì)量評(píng)估成敗的關(guān)鍵所在.為了突出高職院校模擬項(xiàng)目教學(xué)的特色,體現(xiàn)高職院校模擬項(xiàng)目教學(xué)評(píng)估的特色,作為高職院校必須從“模擬項(xiàng)目嵌入式融合、校企合作”的模式出發(fā),確立模擬項(xiàng)目教學(xué)質(zhì)量“三部曲式”指標(biāo)體系如表1所示.

      2.4基于高職模擬項(xiàng)目教學(xué)質(zhì)量評(píng)估模式建立

      神經(jīng)網(wǎng)絡(luò)的輸入和輸出層的神經(jīng)元數(shù)目,是由輸入和輸出向量的維數(shù)確定的,輸入向量的維數(shù)也是影響元素的個(gè)數(shù),這里綜合考慮影響模擬項(xiàng)目教學(xué)質(zhì)量的各種元素,選取了能夠全面反映高職院校模擬項(xiàng)目教學(xué)質(zhì)量“三部曲式”指標(biāo)體現(xiàn)中的29個(gè)元素,所以輸入層的神經(jīng)元個(gè)數(shù)為29.輸出層作為模擬項(xiàng)目教學(xué)質(zhì)量評(píng)估結(jié)果的網(wǎng)絡(luò)輸出,神經(jīng)元個(gè)數(shù)確定為1,目標(biāo)輸出模式為(O,1)間的一個(gè)數(shù),評(píng)估集設(shè)為(優(yōu)秀、良好、合格、不合格),對(duì)應(yīng)的指數(shù)區(qū)間集合={(0.85,1),(0.7,0.85),(0.5,0.7),(0,0.5)}.由于輸出模式為(O,1)間的一個(gè)數(shù),因此,輸出層神經(jīng)元的傳遞函數(shù)可選用S型對(duì)數(shù)函數(shù)了logsig型.實(shí)踐證明,隱含層數(shù)目的增加可以提高神經(jīng)網(wǎng)絡(luò)的非線性映射能力,但是隱含層數(shù)目超過(guò)一定值,網(wǎng)絡(luò)性能反而會(huì)降低.在合理的結(jié)構(gòu)和恰當(dāng)?shù)臋?quán)值條件下,3層BP神經(jīng)網(wǎng)絡(luò)可以逼近任意的連續(xù)函數(shù).因此這里采用結(jié)構(gòu)相對(duì)簡(jiǎn)單的3層BP網(wǎng)絡(luò).隱含層的神經(jīng)元個(gè)數(shù)直接影響著網(wǎng)絡(luò)的非線性預(yù)測(cè)性能.根據(jù)Kolmogorov定理,設(shè)定網(wǎng)絡(luò)的隱含層神經(jīng)元個(gè)數(shù)為27.

      表一高職院校模擬項(xiàng)目教學(xué)質(zhì)量“三部曲式”指標(biāo)體系

      三、神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)與算法

      神經(jīng)網(wǎng)絡(luò)對(duì)模擬項(xiàng)目教學(xué)質(zhì)量評(píng)估系統(tǒng)進(jìn)行辯識(shí)模擬.主要進(jìn)行非線性系統(tǒng)的輸出輸入映射關(guān)系建模.其主要結(jié)構(gòu)是由一個(gè)輸入層,一個(gè)或多個(gè)隱含層,一個(gè)輸出層組成,各層由若干個(gè)神經(jīng)元(節(jié)點(diǎn))構(gòu)成,每一個(gè)節(jié)點(diǎn)的輸出值由輸入值、作用函數(shù)和閾值決定.(圖一)

      該模型由三層神經(jīng)元組成:輸入層、隱含層和輸出層,不同層之間的神經(jīng)元采用全互聯(lián)方式,同一層的神經(jīng)元之間不存在互相連接。輸入層為經(jīng)過(guò)標(biāo)準(zhǔn)化處理的各評(píng)價(jià)指標(biāo)值,輸出層只有一個(gè)神經(jīng)元。

      BP算法對(duì)評(píng)估體系進(jìn)行辨識(shí)模擬,其基本思想是最小二乘法,采用梯度搜索技術(shù),以期使網(wǎng)絡(luò)的實(shí)際輸出值與期望輸出值的誤差均方值最小,網(wǎng)絡(luò)的學(xué)習(xí)過(guò)程是誤差一邊向后傳播一邊修正加權(quán)系數(shù)的過(guò)程,故可用其對(duì)模擬教學(xué)質(zhì)量評(píng)估體系進(jìn)行識(shí)別.

      設(shè)網(wǎng)絡(luò)的輸入向量其中X是模擬教學(xué)質(zhì)量評(píng)估系統(tǒng)各個(gè)指標(biāo)體系.由于輸入樣本為29維的輸入向量,因此這里n=29.網(wǎng)絡(luò)的隱含層為:;其中,{}為權(quán)系數(shù);a()為系統(tǒng)的傳遞函數(shù)或激勵(lì)函數(shù).網(wǎng)絡(luò)的輸出層為: 其中,是神經(jīng)往來(lái)系統(tǒng)的輸出變量;{}為權(quán)系數(shù).設(shè)準(zhǔn)則函數(shù)為:BP算法可使性能指標(biāo)最小化,為了保證系統(tǒng)的全局穩(wěn)定性,把被辨識(shí)模擬對(duì)象的實(shí)際輸出Y作為反饋信號(hào)燈,將其與神經(jīng)網(wǎng)絡(luò)辨識(shí)模擬器的輸出比較,使,其中為一個(gè)很小的數(shù),如果不滿足要求,則不斷調(diào)整權(quán)系數(shù),以達(dá)到期望要求.根據(jù)反向傳播計(jì)算公式,可得如下權(quán)系數(shù)學(xué)習(xí)規(guī)律.其中為學(xué)習(xí)修正率0≤1.

      四、高職模擬項(xiàng)目教學(xué)質(zhì)量“三部曲式”模式的實(shí)現(xiàn)

      網(wǎng)絡(luò)結(jié)構(gòu)及算法確定以后,需要利用樣本數(shù)據(jù)通過(guò)一定的學(xué)習(xí)規(guī)則訓(xùn)練,以提高網(wǎng)絡(luò)的適應(yīng)能力.由1分析此模式的實(shí)現(xiàn)采用BP三層網(wǎng)絡(luò)結(jié)構(gòu),利用軟件MATLAB建模型,輸入層29個(gè)神經(jīng)元,隱含層27個(gè)神經(jīng)元,輸出層1個(gè)神經(jīng)元,訓(xùn)練步數(shù)50,目標(biāo)誤差為0.001,網(wǎng)絡(luò)訓(xùn)練次數(shù)100次.

      五、結(jié)束語(yǔ)

      通過(guò)BP神經(jīng)網(wǎng)絡(luò)測(cè)試結(jié)果進(jìn)行分析,證明模擬項(xiàng)目教學(xué)質(zhì)量“三部曲式”指標(biāo)體系及神經(jīng)網(wǎng)絡(luò)評(píng)估模式是科學(xué)、合理的,可操作的,它克服了以往教學(xué)評(píng)估中的主觀性較強(qiáng)的缺點(diǎn).而這種模式的應(yīng)用為高職院校模擬項(xiàng)目教學(xué)質(zhì)量評(píng)估提供一種新的思路和新的評(píng)估方法.

      參考文獻(xiàn):

      神經(jīng)網(wǎng)絡(luò)經(jīng)濟(jì)學(xué)范文第3篇

      由于人體與疾病的復(fù)雜性,不可預(yù)測(cè)性,非常適合人工神經(jīng)網(wǎng)絡(luò)的應(yīng)用。目前的研究幾乎涉及從基礎(chǔ)醫(yī)學(xué)到臨床醫(yī)學(xué)的所有方面,主要應(yīng)用于生物信號(hào)的檢測(cè)與自動(dòng)分析,醫(yī)學(xué)專家系統(tǒng)等。

      在麻醉與危重醫(yī)學(xué)相關(guān)領(lǐng)域的研究涉及到多生理變量的分析與預(yù)測(cè),從臨床數(shù)據(jù)中發(fā)現(xiàn)一些尚未發(fā)現(xiàn)或尚無(wú)確切證據(jù)的關(guān)系與現(xiàn)象,信號(hào)處理,干擾信號(hào)的自動(dòng)區(qū)分檢測(cè),各種臨床狀況的預(yù)測(cè),單獨(dú)或結(jié)合其他人工智能技術(shù)進(jìn)行麻醉閉環(huán)控制等。

      在圍術(shù)期和重癥監(jiān)護(hù)與治療階段,需要獲取大量的信息,將可能在信號(hào)處理、基于動(dòng)態(tài)數(shù)據(jù)驅(qū)動(dòng)的輔助決策專家系統(tǒng)、數(shù)據(jù)挖掘、各種臨床狀況的預(yù)測(cè)、智能化床旁監(jiān)護(hù)、遠(yuǎn)程醫(yī)療與教學(xué)、醫(yī)療機(jī)器人等各方面廣泛運(yùn)用到人工神經(jīng)網(wǎng)絡(luò)技術(shù)和其他人工智能技術(shù)。

      一、概述

      人工神經(jīng)網(wǎng)絡(luò)(Artificial Neural Network, ANN)是人工智能(Artificial Intelligence, AI)學(xué)科的重要分支。經(jīng)過(guò)50多年的發(fā)展,已成為一門應(yīng)用廣泛,涉及神經(jīng)生理學(xué)、認(rèn)識(shí)科學(xué)、數(shù)理科學(xué)、心理學(xué)、信息科學(xué)、計(jì)算機(jī)科學(xué)、微電子學(xué)等多學(xué)科交叉、綜合的前沿學(xué)科。

      現(xiàn)代計(jì)算機(jī)的計(jì)算構(gòu)成單元的速度為納秒級(jí),人腦中單個(gè)神經(jīng)細(xì)胞的反應(yīng)時(shí)間為毫秒級(jí),計(jì)算機(jī)的運(yùn)算能力為人腦的幾百萬(wàn)倍??墒牵駷橹梗?jì)算機(jī)在解決一些人可以輕而易舉完成的簡(jiǎn)單任務(wù)時(shí),例如視覺(jué)、聽(tīng)覺(jué)、嗅覺(jué),或如人臉識(shí)別、騎自行車、打球等涉及聯(lián)想或經(jīng)驗(yàn)的問(wèn)題時(shí)卻十分遲鈍。也不具備人腦的記憶與聯(lián)想能力,學(xué)習(xí)與認(rèn)知能力,信息的邏輯和非邏輯加工能力,信息綜合判斷能力,快速的高度復(fù)雜信息處理速度等。

      造成這種問(wèn)題的根本原因在于,計(jì)算機(jī)與人腦采取的信息處理機(jī)制完全不同。迄今為止的各代計(jì)算機(jī)都是基于馮*紐曼工作原理:其信息存儲(chǔ)與處理是分開的;處理的信息必須是形式化信息,即用二進(jìn)制編碼定義;而信息處理的方式必須是串行的。這就決定了它只擅長(zhǎng)于數(shù)值和邏輯運(yùn)算。而構(gòu)成腦組織的基本單元是神經(jīng)元,每個(gè)神經(jīng)元有數(shù)以千計(jì)的通道同其他神經(jīng)元廣泛相互連接,形成復(fù)雜的生物神經(jīng)網(wǎng)絡(luò)。生物神經(jīng)網(wǎng)絡(luò)以神經(jīng)元為基本信息處理單元, 對(duì)信息進(jìn)行分布式存儲(chǔ)與加工, 這種信息加工與存儲(chǔ)相結(jié)合的群體協(xié)同工作方式使得人腦呈現(xiàn)出目前計(jì)算機(jī)無(wú)法模擬的神奇智能。

      人工神經(jīng)網(wǎng)絡(luò)就是在對(duì)人腦神經(jīng)網(wǎng)絡(luò)的基本研究的基礎(chǔ)上,采用數(shù)理方法和信息處理的角度對(duì)人腦神經(jīng)網(wǎng)絡(luò)進(jìn)行抽象,并建立的某種簡(jiǎn)化模型。一個(gè)人工神經(jīng)網(wǎng)絡(luò)是由大量神經(jīng)元節(jié)點(diǎn)互連而成的復(fù)雜網(wǎng)絡(luò),用以模擬人類進(jìn)行知識(shí)的表示與存儲(chǔ)以及利用知識(shí)進(jìn)行推理的行為。一個(gè)基于人工神經(jīng)網(wǎng)絡(luò)的智能系統(tǒng)是通過(guò)學(xué)習(xí)獲取知識(shí)后建立的,它通過(guò)對(duì)大量實(shí)例的反復(fù)學(xué)習(xí),由內(nèi)部自適應(yīng)機(jī)制使神經(jīng)網(wǎng)絡(luò)的互連結(jié)構(gòu)及各連接權(quán)值穩(wěn)定分布,這就表示了經(jīng)過(guò)學(xué)習(xí)獲得的知識(shí)。

      人工神經(jīng)網(wǎng)絡(luò)是一種非線性的處理單元。只有當(dāng)神經(jīng)元對(duì)所有的輸入信號(hào)的綜合處理結(jié)果超過(guò)某一門限值后才輸出一個(gè)信號(hào)。因此神經(jīng)網(wǎng)絡(luò)是一種具有高度非線性的超大規(guī)模連續(xù)時(shí)間動(dòng)力學(xué)系統(tǒng)。它突破了傳統(tǒng)的以線性處理為基礎(chǔ)的數(shù)字電子計(jì)算機(jī)的局限,標(biāo)志著人們智能信息處理能力和模擬人腦智能行為能力的一大飛躍。

      近20年來(lái),神經(jīng)網(wǎng)絡(luò)的軟件模擬得到了廣泛研究和應(yīng)用,發(fā)展速度驚人。1987年在圣地亞哥召開了首屆國(guó)際神經(jīng)網(wǎng)絡(luò)大會(huì),國(guó)際神經(jīng)網(wǎng)絡(luò)聯(lián)合會(huì)(INNS)宣告成立。這標(biāo)志著世界范圍內(nèi)掀起神經(jīng)網(wǎng)絡(luò)開發(fā)研究熱潮的開始。

      二、醫(yī)學(xué)領(lǐng)域應(yīng)用現(xiàn)狀與前景

      由于人體與疾病的復(fù)雜性,不可預(yù)測(cè)性,在生物信號(hào)與信息的表現(xiàn)形式、變化規(guī)律(自身變化與醫(yī)學(xué)干預(yù)后變化),對(duì)其檢測(cè)與信號(hào)表達(dá),獲取的數(shù)據(jù)及信息的分析、決策等諸多方面均存在大量復(fù)雜的非線性關(guān)系,非常適合人工神經(jīng)網(wǎng)絡(luò)的應(yīng)用。目前的研究幾乎涉及從基礎(chǔ)醫(yī)學(xué)到臨床醫(yī)學(xué)的所有方面,主要應(yīng)用于生物信號(hào)的檢測(cè)與自動(dòng)分析,醫(yī)學(xué)專家系統(tǒng)等。

      1、信號(hào)處理:

      在生物醫(yī)學(xué)信號(hào)的檢測(cè)和分析處理中主要集中對(duì)心電、腦電、肌電、胃腸電等信號(hào)的識(shí)別,腦電信號(hào)的分析,聽(tīng)覺(jué)誘發(fā)電位信號(hào)的提取,醫(yī)學(xué)圖像的識(shí)別和數(shù)據(jù)壓縮處理等。

      2、醫(yī)學(xué)專家系統(tǒng)

      醫(yī)學(xué)專家系統(tǒng)就是運(yùn)用專家系統(tǒng)的設(shè)計(jì)原理與方法, 模擬醫(yī)學(xué)專家診斷、治療疾病的思維過(guò)程編制的計(jì)算機(jī)程序, 它可以幫助醫(yī)生解決復(fù)雜的醫(yī)學(xué)問(wèn)題, 作為醫(yī)生診斷、治療的輔助工具。 “傳統(tǒng)”的專家系統(tǒng),通過(guò)把專家的經(jīng)驗(yàn)和知識(shí)以規(guī)則的形式存入計(jì)算機(jī)中,建立知識(shí)庫(kù),用邏輯推理的方式進(jìn)行醫(yī)療診斷。但一些疑難病癥的復(fù)雜形式使其很難用一些規(guī)則來(lái)描述,甚至難以用簡(jiǎn)單的語(yǔ)言來(lái)表達(dá);專家們常常難以精確分析自己的智能診斷過(guò)程。另一方面,基于規(guī)則的專家系統(tǒng),隨著數(shù)據(jù)庫(kù)規(guī)模的增大,可能導(dǎo)致組合爆炸,推理效率很低。由于人工神經(jīng)網(wǎng)絡(luò)能夠解決知識(shí)獲取途徑中出現(xiàn)的“瓶頸”現(xiàn)象、知識(shí)“組合爆炸”問(wèn)題以及提高知識(shí)的推理能力和自組織、自學(xué)習(xí)能力等等, 從而加速了神經(jīng)網(wǎng)絡(luò)在醫(yī)學(xué)專家系統(tǒng)中的應(yīng)用和發(fā)展。

      Sordo比較了采用不同網(wǎng)絡(luò)結(jié)構(gòu)和學(xué)習(xí)算法的神經(jīng)網(wǎng)絡(luò)在診斷胎兒唐氏綜合征(Down’s Syndrome) 上的成績(jī)。正確分類率為84 %, 超過(guò)了現(xiàn)今所用的統(tǒng)計(jì)方法的60 %~70 % 的分類率。

      臺(tái)灣DEU科技(德亞科技)開發(fā)的計(jì)算機(jī)輔助檢測(cè)系統(tǒng)Rapid ScreenTM RS-2000為全世界最先通過(guò)美國(guó)FDA認(rèn)證的早期肺癌輔助診測(cè)系統(tǒng)。該產(chǎn)品采用人工智能神經(jīng)網(wǎng)絡(luò)ANN,自動(dòng)標(biāo)識(shí)數(shù)字胸片中可疑結(jié)節(jié)區(qū)。經(jīng)臺(tái)灣和美國(guó)的臨床實(shí)驗(yàn),可使放射專家檢測(cè)T1期肺癌的能力明顯提高(潛在提升約15 %以上)。

      DeGroff等使用電子聽(tīng)診器和人工神經(jīng)網(wǎng)絡(luò)制造了一種儀器,它可正確地區(qū)分兒童生理性和病理性雜音。用電子聽(tīng)診器記錄的兒童心音,輸入能識(shí)別復(fù)雜參數(shù)的ANN,分析的敏感性和特異性均達(dá)100%。

      3、其他:

      生物信息學(xué)中的研究中可應(yīng)用于基因組序列分析、蛋白質(zhì)的結(jié)構(gòu)預(yù)測(cè)和分類、網(wǎng)絡(luò)智能查詢等方面。

      藥學(xué)領(lǐng)域廣泛應(yīng)用于定量藥物設(shè)計(jì)、藥物分析、藥動(dòng)/藥效學(xué)等方面。例如:用于預(yù)測(cè)藥物效應(yīng)。Veng-Pederson用神經(jīng)網(wǎng)絡(luò)預(yù)測(cè)阿芬太尼對(duì)兔心率的影響,對(duì)用藥后180-300分鐘的藥物效應(yīng)取得了較好的預(yù)測(cè)結(jié)果(平均相對(duì)預(yù)測(cè)準(zhǔn)確度達(dá)78%)。分析群體藥動(dòng)學(xué)數(shù)據(jù),以獲知群體藥動(dòng)學(xué)特征和不同人口統(tǒng)計(jì)因子對(duì)藥物行為的影響,對(duì)臨床用藥具有指導(dǎo)意義。

      4、麻醉與危重醫(yī)學(xué)相關(guān)領(lǐng)域的研究

      手術(shù)室和ICU內(nèi)是病人信息富集的地方,而且大量的信息處在動(dòng)態(tài)變化中,隨著醫(yī)學(xué)技術(shù)的飛速進(jìn)步,所能獲取的信息越來(lái)越多,醫(yī)護(hù)人員面臨著“信息轟炸”。神經(jīng)網(wǎng)絡(luò)技術(shù)可以很好地幫助我們應(yīng)對(duì)這些問(wèn)題。例如:

      1)可以用于分析多個(gè)生理變量之間的關(guān)系,幫助研究其內(nèi)在的關(guān)系,或預(yù)測(cè)一些變量之間的關(guān)系:Perchiazzi在肺損傷和正常的豬容量控制機(jī)械通氣中,用ANN估計(jì)肺順應(yīng)性的變化,不需要中斷呼吸,與標(biāo)準(zhǔn)方法相比誤差很小。

      2)結(jié)合數(shù)據(jù)挖掘技術(shù),可能從海量數(shù)據(jù)庫(kù)例如電子病歷系統(tǒng)中,發(fā)現(xiàn)一些尚未發(fā)現(xiàn)或尚無(wú)確切證據(jù)的關(guān)系與現(xiàn)象:Buchman 研究了神經(jīng)網(wǎng)絡(luò)和多元線形回歸兩種方法,用病人的基本資料、藥物治療差異和生理指標(biāo)的變化預(yù)測(cè)在ICU延遲(>7天)。

      3)信號(hào)處理:Ortolani等利用EEG的13個(gè)參數(shù)輸入ANN,自行設(shè)計(jì)的麻醉深度指數(shù)NED0-100作為輸出,比較NED與BIS之間有很好的相關(guān)性;

      4)干擾信號(hào)的自動(dòng)區(qū)分檢測(cè):Jeleazcov C等利用BP神經(jīng)網(wǎng)絡(luò)區(qū)分麻醉中和后檢測(cè)到的EEG信號(hào)中的假信號(hào),是傳統(tǒng)EEG噪音檢測(cè)方法的1.39-1.89倍。

      5)各種臨床狀況的預(yù)測(cè):Laffey用ANN預(yù)測(cè)肌肉松弛藥的殘留,發(fā)現(xiàn)明顯優(yōu)于醫(yī)生的評(píng)估,還有用于預(yù)測(cè)propfol劑量個(gè)體差異的,預(yù)測(cè)術(shù)后惡心、嘔吐,預(yù)測(cè)全麻后PACU停留時(shí)間,預(yù)測(cè)ICU死亡率等較多的研究。

      神經(jīng)網(wǎng)絡(luò)經(jīng)濟(jì)學(xué)范文第4篇

      關(guān)鍵詞:學(xué)生綜合素質(zhì)評(píng)價(jià);BP神經(jīng)網(wǎng)絡(luò);算法設(shè)計(jì)

      中圖分類號(hào):TP311文獻(xiàn)標(biāo)識(shí)碼:A文章編號(hào):1009-3044(2009)24-6786-03

      BP neural Network Based on the Overall Quality of the Student Evaluation of Algorithm Design

      ZHANG Wen-sheng

      (Xiamen Gongshang Lvyou Xuexiao, Xiamen 3610012,China)

      Abstract: In this paper, the overall quality of the students a variety of evaluation methods carried out in-depth analysis to explore the use of BP neural network theory to evaluate the feasibility of the overall quality, and BP neural network based on the overall quality of the student evaluation of algorithm design.

      Key words: evaluation of the overall quality of students; BP neural network; algorithm design

      學(xué)校德育教育是提高學(xué)生綜合素質(zhì)的重要一環(huán),在學(xué)校工作中占有舉足輕重的地位。德育涉及大量定性和定量的數(shù)據(jù)處理,為了體現(xiàn)其科學(xué)性和公平性,采用先進(jìn)的計(jì)算機(jī)技術(shù)進(jìn)行學(xué)生綜合素質(zhì)量化評(píng)估勢(shì)在必行。

      1 問(wèn)題的提出

      據(jù)調(diào)查,目前在學(xué)校里對(duì)學(xué)生素質(zhì)評(píng)價(jià)的方法,主要有以下幾種:

      1) 定性描述法

      在學(xué)期或?qū)W年結(jié)束時(shí),班主任根據(jù)學(xué)生在班級(jí)、學(xué)校和社會(huì)活動(dòng)中的行為表現(xiàn),運(yùn)用文字對(duì)學(xué)生的綜合素質(zhì)進(jìn)行描述,作為對(duì)學(xué)生的評(píng)價(jià)。這種方法在評(píng)價(jià)學(xué)生綜合素質(zhì)時(shí)起過(guò)一定的作用,但是,由于教師對(duì)學(xué)生綜合素質(zhì)評(píng)價(jià)的內(nèi)容不明確,要求不統(tǒng)一,帶有一定的主觀片面性和模糊性。

      2) 等級(jí)劃分法

      班主任根據(jù)平時(shí)對(duì)學(xué)生的觀察和了解,對(duì)學(xué)生的綜合素質(zhì)行為劃分出優(yōu)、良、中、差四個(gè)等級(jí)。它只能說(shuō)明每個(gè)學(xué)生綜合素質(zhì)發(fā)展的程度,在班集體中所處的地位,但缺乏具體內(nèi)容,學(xué)生對(duì)于自己或他人的優(yōu)點(diǎn)和缺點(diǎn)、以及個(gè)人今后的努力方向都不明確。

      3) 自我總結(jié)法

      這種方法是以學(xué)生為主,在教師的指導(dǎo)下總結(jié)自己的收獲,存在的問(wèn)題、以及今后的努力方向,并寫成書面材料,然后寫在操行表的自我總結(jié)欄內(nèi)。這種方法是以學(xué)生的自我評(píng)價(jià)為主,它對(duì)于提高學(xué)生的自我評(píng)價(jià)能力,具有一定的促進(jìn)作用。但是,由于沒(méi)有老師和同學(xué)們參加評(píng)價(jià),其評(píng)價(jià)結(jié)果缺乏客觀性。

      4) 小組評(píng)議法

      是以班級(jí)小組評(píng)議為主。通過(guò)開評(píng)議會(huì)的形式,對(duì)全組成員分別進(jìn)行評(píng)議,肯定成績(jī),提出缺點(diǎn),最后把大家的意見(jiàn)集中起來(lái),作為對(duì)學(xué)生的評(píng)價(jià)結(jié)果。它具有一定的客觀性,可是,沒(méi)有教師參加評(píng)議,影響了評(píng)價(jià)結(jié)果的可信度。

      上述各種方法的都有一定的長(zhǎng)處,也有一定的缺點(diǎn)。例如,對(duì)學(xué)生的綜合素質(zhì)的結(jié)構(gòu),沒(méi)有明確統(tǒng)一的規(guī)定和具體要求;不能同時(shí)吸收各方面的意見(jiàn)參加評(píng)價(jià);沒(méi)有制定較為符合需要的綜合素質(zhì)量表和采用科學(xué)的測(cè)量手段等等。所以,評(píng)價(jià)的結(jié)果往往帶有主觀片面性,評(píng)語(yǔ)內(nèi)容的不確定性,以及處在同一等級(jí)的同學(xué)之間存在差異的模糊性。于是最近又提出了對(duì)學(xué)生綜合素質(zhì)定量進(jìn)行測(cè)量和評(píng)價(jià)。

      5) 定量分?jǐn)?shù)法

      將構(gòu)成學(xué)生綜合素質(zhì)的各種因素?cái)?shù)量化,并制定出綜合素質(zhì)量表。在具體的進(jìn)行測(cè)量和評(píng)價(jià)時(shí),把學(xué)生綜合素質(zhì)所含每種因素的發(fā)展程度分為優(yōu)、良、中、差四個(gè)等級(jí),每個(gè)等級(jí)分別對(duì)應(yīng)一定的標(biāo)準(zhǔn)值。對(duì)不同因素確定不同的權(quán)重大小,再綜合學(xué)生每個(gè)因素所取得的標(biāo)準(zhǔn)值,最后得出學(xué)生的綜合素質(zhì)分。

      用定量的方法對(duì)學(xué)生的綜合素質(zhì)發(fā)展程度進(jìn)行評(píng)價(jià)時(shí),不同因素需要確定不同的權(quán)重大小。權(quán)重的大小對(duì)評(píng)估結(jié)果十分重要,它反映了各指標(biāo)的相對(duì)重要性。由于對(duì)不同的因素的權(quán)重是人為給定的,而學(xué)生綜合素質(zhì)的各項(xiàng)因素對(duì)學(xué)生的整體素質(zhì)存在不可確定的影響程度,因些在對(duì)學(xué)生的測(cè)量和評(píng)定過(guò)程中必然受到主觀因素及模糊隨機(jī)性的影響。并且這種方法需要消耗大量的人力和時(shí)間。

      為了探討這個(gè)問(wèn)題,我們根據(jù)BP神經(jīng)網(wǎng)絡(luò)的基本概念和原理,用神經(jīng)網(wǎng)絡(luò)自我學(xué)習(xí)的方法,對(duì)中學(xué)生綜合素質(zhì)進(jìn)行測(cè)量和評(píng)價(jià)。BP神經(jīng)網(wǎng)絡(luò)能利用經(jīng)驗(yàn)樣本對(duì)神經(jīng)網(wǎng)絡(luò)的訓(xùn)練,達(dá)到神經(jīng)網(wǎng)絡(luò)的自我學(xué)習(xí),在網(wǎng)絡(luò)中自動(dòng)建立一個(gè)多輸入變量與輸出變量間的非線性映射過(guò)程,無(wú)需建立具體的數(shù)學(xué)模型和規(guī)則,可以處理那些難以用模型或規(guī)則描述的過(guò)程或系統(tǒng)。神經(jīng)網(wǎng)絡(luò)具有自組織、自學(xué)習(xí)、自適應(yīng)的特點(diǎn),能通過(guò)連接權(quán)重的不斷調(diào)整,克服權(quán)重確定的困難,弱化人為因素,自動(dòng)適應(yīng)信息、學(xué)習(xí)新知識(shí),最終通過(guò)學(xué)習(xí)訓(xùn)練對(duì)實(shí)際學(xué)習(xí)樣本提出合理的求解規(guī)則,對(duì)學(xué)生的綜合素質(zhì)的整體評(píng)定具有十分重要的意義。首先我們來(lái)了解BP神經(jīng)網(wǎng)絡(luò)的基本原理。

      2BP神經(jīng)網(wǎng)絡(luò)的基本原理

      1) 神經(jīng)元網(wǎng)絡(luò)基本概念

      神經(jīng)網(wǎng)絡(luò)是單個(gè)并行處理元素的集合,從生物學(xué)神經(jīng)系統(tǒng)得到啟發(fā)。在自然界,網(wǎng)絡(luò)功能主要由神經(jīng)節(jié)決定,可以通過(guò)改變連接點(diǎn)的權(quán)重來(lái)訓(xùn)練神經(jīng)網(wǎng)絡(luò)完成特定的功能。如圖1所示。這里,網(wǎng)絡(luò)將根據(jù)輸出和目標(biāo)的比較而進(jìn)行調(diào)整,直到網(wǎng)絡(luò)輸出和目標(biāo)匹配。

      2) 神經(jīng)元網(wǎng)絡(luò)結(jié)構(gòu)

      圖2所示為一個(gè)單標(biāo)量輸入且無(wú)偏置的神經(jīng)元。

      神經(jīng)元輸出計(jì)算公式為:a=f(wp+b)。神經(jīng)元中的w和b都是可調(diào)整的標(biāo)量參數(shù)??梢赃x擇特定的傳輸函數(shù),通過(guò)調(diào)整權(quán)重 和偏置參量 訓(xùn)練神經(jīng)網(wǎng)絡(luò)做一定的工作,或者神經(jīng)網(wǎng)絡(luò)自己調(diào)整參數(shù)以得到想要的結(jié)果。

      3) BP結(jié)構(gòu)及算法描述

      在實(shí)際應(yīng)用中,神經(jīng)網(wǎng)絡(luò)用得最廣泛的是反向傳播網(wǎng)絡(luò)(BP網(wǎng)絡(luò)),典型的BP網(wǎng)絡(luò)是三層網(wǎng)絡(luò),包括輸入層、隱含層和輸出層,各層之間實(shí)行全連接。

      BP網(wǎng)絡(luò)是采用Widrow-Hoff學(xué)習(xí)算法和非線性可微傳輸函數(shù)的多層網(wǎng)絡(luò)。網(wǎng)絡(luò)的學(xué)習(xí)過(guò)程由正向和反向傳播兩部分組成。在正向傳播過(guò)程中,每一層神經(jīng)元的狀態(tài)只影響到下一層神經(jīng)元網(wǎng)絡(luò),如果輸出層不能得到期望輸出,就是實(shí)際輸出值與期望輸出值之間有誤差,那么轉(zhuǎn)入反向傳播過(guò)程,將誤差信號(hào)沿原來(lái)的連接通路返回,通過(guò)修改各層神經(jīng)元的權(quán)值,逐次地向輸入層傳播去進(jìn)行計(jì)算,再經(jīng)過(guò)正向傳播過(guò)程,這兩個(gè)過(guò)程的反復(fù)運(yùn)用,使得誤差信號(hào)最小。實(shí)際上,誤差達(dá)到人們所希望的要求時(shí),網(wǎng)絡(luò)的學(xué)習(xí)過(guò)程就結(jié)束了。

      4) 反向傳播算法

      反向傳播學(xué)習(xí)算法最簡(jiǎn)單的應(yīng)用是沿著性能函數(shù)最速增加的方向一梯度的負(fù)方向更新權(quán)重和偏置。這種遞歸算法可以寫成:

      xk+1=xk-ak*gk

      這里xk是當(dāng)前權(quán)重和偏置向量,gk是當(dāng)前梯度,ak是學(xué)習(xí)速率。在神經(jīng)元中,學(xué)習(xí)速度又稱為“學(xué)習(xí)速率”,它決定每一次循環(huán)訓(xùn)練中所產(chǎn)生的權(quán)值變化量(即該值的存在是神經(jīng)元網(wǎng)絡(luò)的一個(gè)必須的參數(shù))。大的學(xué)習(xí)速度可能導(dǎo)致系統(tǒng)的不穩(wěn)定,但小的學(xué)習(xí)速度將會(huì)導(dǎo)致訓(xùn)練較長(zhǎng),收斂速度很慢,通常情況下取值在0-01~0,8之間。

      3 基于BP神經(jīng)網(wǎng)絡(luò)的學(xué)生綜合素質(zhì)量化評(píng)估模型

      從上述對(duì)神經(jīng)元網(wǎng)絡(luò)基本概念的研究,我們可以看出BP神經(jīng)網(wǎng)絡(luò)主要根據(jù)所提供的數(shù)據(jù),通過(guò)學(xué)習(xí)和訓(xùn)練,找出輸入與輸出之間的內(nèi)在聯(lián)系,從而求取問(wèn)題的解,而不是完全依據(jù)對(duì)問(wèn)題的經(jīng)驗(yàn)知識(shí)和規(guī)則,因而具有自適應(yīng)功能,這對(duì)于弱化權(quán)重確定中的人為因素是十分有益的;其次能夠處理那些有噪聲或不完全的數(shù)據(jù),具有泛化功能和很強(qiáng)的容錯(cuò)能力;由于實(shí)際對(duì)學(xué)生量化評(píng)估往往是非常復(fù)雜的,各個(gè)因素之間相互影響,呈現(xiàn)出復(fù)雜的非線性關(guān)系,人工神經(jīng)網(wǎng)絡(luò)為處理這類非線性問(wèn)題提供了強(qiáng)有力的工具。因此與其它評(píng)定方法相比,基于神經(jīng)網(wǎng)絡(luò)的評(píng)價(jià)方法越來(lái)越顯示出它的優(yōu)越性。結(jié)合學(xué)校對(duì)學(xué)生進(jìn)行綜合素質(zhì)評(píng)估考核的具體問(wèn)題,我們提出以下設(shè)計(jì)。

      3.1量化評(píng)估內(nèi)容的確定

      1) 確定學(xué)生的綜合素質(zhì)結(jié)構(gòu)

      學(xué)生的綜合素質(zhì)結(jié)構(gòu),主要是根據(jù)一定歷史階段的社會(huì)要求、學(xué)校對(duì)學(xué)生的傳統(tǒng)要求,以及各個(gè)不同年齡階段學(xué)生心理和生理發(fā)展的特征來(lái)確定的,它具有一定的社會(huì)性、科學(xué)性、可行性。以教育部提出的職業(yè)學(xué)校學(xué)生發(fā)展目標(biāo)為依據(jù),評(píng)定內(nèi)容包括:道德品質(zhì)與公民素養(yǎng)、學(xué)習(xí)能力、交流與合作能力、運(yùn)動(dòng)與健康、審美與表現(xiàn)、職業(yè)技能等6個(gè)層次。每個(gè)層次又包括各種因素,各層次和因素之間又是相互聯(lián)系和相互促進(jìn)的,它既反映了社會(huì)的、學(xué)校的具體要求,又符合學(xué)生綜合素質(zhì)發(fā)展和形成的規(guī)律。當(dāng)然,在實(shí)際評(píng)價(jià)學(xué)生中,可以根據(jù)學(xué)校的實(shí)際特點(diǎn)進(jìn)一步確定各要素,進(jìn)一步構(gòu)成學(xué)生綜合素質(zhì)評(píng)價(jià)的綜合評(píng)價(jià)指標(biāo)體系。

      2) 學(xué)生綜合素質(zhì)評(píng)價(jià)的結(jié)構(gòu)設(shè)計(jì)

      用BP神經(jīng)網(wǎng)絡(luò)進(jìn)行學(xué)生綜合素質(zhì)評(píng)價(jià)結(jié)構(gòu)的設(shè)計(jì)如圖3所示。對(duì)學(xué)生的綜合素質(zhì)進(jìn)行量化評(píng)估時(shí),從輸入層輸入評(píng)價(jià)學(xué)生綜合素質(zhì)的n個(gè)評(píng)價(jià)指標(biāo)因素信息,經(jīng)隱含層處理后傳入輸入層,其輸出值y即為學(xué)生評(píng)估結(jié)果。這n個(gè)評(píng)價(jià)指標(biāo)因素的設(shè)置,要考慮到能符合學(xué)生綜合素質(zhì)發(fā)展和形成的規(guī)律,能全面評(píng)價(jià)學(xué)生的綜合素質(zhì)狀況。

      網(wǎng)絡(luò)結(jié)構(gòu)的參數(shù)選擇十分重要,由于輸入層與隱含層神經(jīng)元個(gè)數(shù)的增加會(huì)增加網(wǎng)絡(luò)的表達(dá)能力,不僅會(huì)降低系統(tǒng)的性能,同時(shí)也會(huì)影響其收斂速度和增加噪聲干擾。所以首先必須確定輸入層神經(jīng)元的數(shù)目。為使模型即有理論價(jià)值又有可操作性,本例對(duì)應(yīng)于對(duì)學(xué)生綜合素質(zhì)考核結(jié)構(gòu)的六個(gè)因素,本文采用6個(gè)輸入神經(jīng)元,分別為道德品質(zhì)與公民素養(yǎng)、學(xué)習(xí)能力、交流與合作能力、運(yùn)動(dòng)與健康、審美與表現(xiàn)、職業(yè)技能等評(píng)價(jià)指標(biāo)。由于目前隱單元數(shù)尚無(wú)一般的指導(dǎo)原則,為了兼顧網(wǎng)絡(luò)的學(xué)習(xí)能力和學(xué)習(xí)速度,隱含層神經(jīng)元的個(gè)數(shù)選擇采用試算法,在網(wǎng)絡(luò)訓(xùn)練過(guò)程中進(jìn)行調(diào)整。筆者首先選定15,用訓(xùn)練樣本來(lái)學(xué)習(xí),然后減少隱含層單元數(shù)后再進(jìn)行學(xué)習(xí),通過(guò)觀察訓(xùn)練誤差變化的大小來(lái)調(diào)整隱單元數(shù)。其原則是:若在減少隱單元數(shù)進(jìn)行訓(xùn)練時(shí)過(guò)程平衡(即逐步收斂并達(dá)到較小的誤差)且誤差無(wú)顯著增加,則說(shuō)明減少隱單元數(shù)是合適的;否則表明隱單元數(shù)不宜減少,而應(yīng)增加隱單元數(shù)直到滿意為止。選擇一個(gè)輸入神經(jīng)元為學(xué)生綜合素質(zhì)最終評(píng)價(jià)結(jié)果,分別以0、0,5、1對(duì)應(yīng)于學(xué)生評(píng)議等級(jí)的優(yōu)、良、中三種不同的評(píng)價(jià)結(jié)果。經(jīng)過(guò)多次實(shí)驗(yàn),最后得到適宜的網(wǎng)絡(luò)模型為6-4-1網(wǎng)絡(luò)模式。

      3.2 量化評(píng)估模型

      1) 指標(biāo)體系的規(guī)范化處理

      根據(jù)神經(jīng)網(wǎng)絡(luò)計(jì)算規(guī)則,為了保證輸出在線性部分,不到兩端去,應(yīng)保證輸入輸出在0-1之間,反傳達(dá)時(shí)也一樣,輸出應(yīng)在0~1之間。因此要將原始數(shù)據(jù)歸一預(yù)處理,變換為[0,1]區(qū)間的數(shù)值,得到規(guī)范化數(shù)據(jù),作為輸入輸出節(jié)點(diǎn)的樣本數(shù)據(jù)。原始數(shù)據(jù)采用我校高一年一個(gè)班級(jí)的50名學(xué)生的學(xué)生綜合素質(zhì)各項(xiàng)指標(biāo)因素樣本數(shù)據(jù),將實(shí)際數(shù)據(jù)分為兩組:前40名學(xué)生的各項(xiàng)指標(biāo)因素成績(jī)樣本數(shù)據(jù)作為學(xué)習(xí)樣本,后10名學(xué)生的成績(jī)數(shù)據(jù)作為測(cè)試樣本。

      2) 學(xué)習(xí)算法

      本模型采用6-4-1BP神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),其中輸入層為6個(gè)指標(biāo)值和一個(gè)閾值。模型初始化時(shí)對(duì)所有的連接權(quán)賦予(0,1)上分布的隨機(jī)數(shù),閾值取1。權(quán)值的修正依據(jù)帶慣性因子的delta規(guī)則。根據(jù)多次試驗(yàn)的結(jié)果,其中,慣性因子α=0.075,學(xué)習(xí)率η=0.85,將樣本數(shù)據(jù)40組為一次循環(huán),每次循環(huán)記錄40組樣本中最大的學(xué)習(xí)誤差。經(jīng)過(guò)多次的學(xué)習(xí),最后觀察網(wǎng)絡(luò)輸入與期望輸出的相對(duì)誤差,當(dāng)誤差小于0.005時(shí),學(xué)習(xí)結(jié)束。可以得到如果增大樣本的個(gè)數(shù),精度還會(huì)進(jìn)一步提高。

      本文探討了神經(jīng)網(wǎng)絡(luò)在學(xué)生綜合素質(zhì)評(píng)價(jià)上的應(yīng)用方法,可取得較為理想的結(jié)果,它可以解決用傳統(tǒng)統(tǒng)計(jì)方法不能或不易解決的問(wèn)題。但是由于它是一種黑盒方法,無(wú)法表達(dá)和分析評(píng)估系統(tǒng)的輸入與輸出間的關(guān)系,因此也難于對(duì)所得結(jié)果作任何解釋,對(duì)求得的結(jié)果作統(tǒng)計(jì)檢驗(yàn);再者,采用神經(jīng)網(wǎng)絡(luò)作評(píng)價(jià)系統(tǒng)時(shí),由沒(méi)有一個(gè)便于選定最合適的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)的標(biāo)準(zhǔn)方法,只能花大量時(shí)間采用湊試法,從許多次實(shí)驗(yàn)中找出“最合適”的一種;還有樣本數(shù)據(jù)需要足夠的多,才能得到較為理想的結(jié)果。

      參考文獻(xiàn):

      [1] 高長(zhǎng)梅,趙承志,白昆榮.學(xué)校德育工作全書(上)[M].北京:人民日?qǐng)?bào)出版社,2005.

      [2] 聞新,周露,李翔,張寶偉.MATLAB神經(jīng)網(wǎng)絡(luò)仿真與應(yīng)用[M].北京:科學(xué)出版社,2008.

      [3] J.P.Marques de sa,Pattern Recognition―Concepts,Methods and Applications[M].北京:清華大學(xué)出版社,2006.

      神經(jīng)網(wǎng)絡(luò)經(jīng)濟(jì)學(xué)范文第5篇

      (遼寧工業(yè)大學(xué)學(xué)生工作處,遼寧錦州121001)

      摘要:在當(dāng)今網(wǎng)絡(luò)飛速發(fā)展的社會(huì)環(huán)境下,大學(xué)生的生活方式、價(jià)值觀念等都受到來(lái)自各方面的影響,相對(duì)傳統(tǒng)的學(xué)生談話工作就有了一定的局限性,因此,如何充分利用網(wǎng)絡(luò)加強(qiáng)與學(xué)生的交流,深化學(xué)生談話工作的效果越來(lái)越受到輔導(dǎo)員的重視。本文論述了學(xué)生談話工作的作用及重要意義,并在對(duì)網(wǎng)絡(luò)環(huán)境的特點(diǎn)進(jìn)行分析的基礎(chǔ)上,對(duì)利用網(wǎng)絡(luò)環(huán)境深化學(xué)生談話工作的必要性和可行性進(jìn)行了探討。

      關(guān)鍵詞 :網(wǎng)絡(luò)環(huán)境;大學(xué)生;談話工作;現(xiàn)實(shí)需要;可行性

      中圖分類號(hào):G641文獻(xiàn)標(biāo)識(shí)碼:A文章編號(hào):1671—1580(2014)12—0025—02

      收稿日期:2014—06—12

      作者簡(jiǎn)介:朱長(zhǎng)旭(1983— ),男,遼寧錦州人。遼寧工業(yè)大學(xué)學(xué)生工作處,講師,碩士,研究方向:思想政治教育。

      輔導(dǎo)員工作的重中之重莫過(guò)于對(duì)學(xué)生進(jìn)行思想教育工作。長(zhǎng)久以來(lái),輔導(dǎo)員在日常工作中面對(duì)不同的學(xué)生,通過(guò)交流了解學(xué)生的思想動(dòng)態(tài),解決學(xué)生學(xué)習(xí)和生活中存在的問(wèn)題,以達(dá)到或鼓勵(lì)、或教育、或安慰、或幫助等目的。隨著網(wǎng)絡(luò)平臺(tái)的飛速發(fā)展,大學(xué)生的學(xué)習(xí)、生活、溝通方式等在不斷地發(fā)生變化,因此,網(wǎng)絡(luò)環(huán)境中的交流也逐漸成為學(xué)生談話工作的主要方式。

      一、輔導(dǎo)員談話工作的作用及重要意義

      面對(duì)面談話是一種最常見(jiàn)的交流方式,也是高校輔導(dǎo)員的一項(xiàng)基本功,對(duì)學(xué)生進(jìn)行思想工作的效果與輔導(dǎo)員的談話水平有著密切的關(guān)系。輔導(dǎo)員工作的實(shí)效性、長(zhǎng)效性也正是在大量談心工作的基礎(chǔ)之上實(shí)現(xiàn)的。談心是師生交流思想、相互了解、相互影響的過(guò)程,輔導(dǎo)員則是這個(gè)過(guò)程的主導(dǎo)者,其談心的方式、方法是影響談心效果的關(guān)鍵性因素。恰到好處的談心不僅可以拉近學(xué)生與輔導(dǎo)員之間的距離,同時(shí)還能使學(xué)生逐漸建立對(duì)教師的信任,從而使輔導(dǎo)員能夠進(jìn)一步融入到學(xué)生中,更加深入地了解學(xué)生,有效地開展工作。

      二、在網(wǎng)絡(luò)環(huán)境下深化學(xué)生談話工作的現(xiàn)實(shí)需要

      (一)學(xué)生網(wǎng)民逐漸增多,網(wǎng)絡(luò)對(duì)學(xué)生的影響逐步加深

      當(dāng)今,隨著網(wǎng)絡(luò)的迅猛發(fā)展,人們生活的重心、工作方式等都相對(duì)發(fā)生了不同程度的改變,特別是互聯(lián)網(wǎng)的日益普及對(duì)青年學(xué)生的思想觀念、價(jià)值取向、行為方式、思維方式等產(chǎn)生了深刻的影響。根據(jù)中國(guó)互聯(lián)網(wǎng)信息中心(CNNIC)的調(diào)查,2008年,中國(guó)網(wǎng)民的數(shù)量已經(jīng)達(dá)到2.53億人,中國(guó)網(wǎng)民的規(guī)模已經(jīng)躍居世界第一位,而中國(guó)網(wǎng)民的主體主要是30歲以下的年輕群體,而年輕群體中又以學(xué)生網(wǎng)民所占的比例最大,達(dá)到了30%,學(xué)生網(wǎng)民已經(jīng)達(dá)到7600萬(wàn)人。

      (二)網(wǎng)絡(luò)環(huán)境可以彌補(bǔ)傳統(tǒng)談話工作的局限性

      首先,傳統(tǒng)的談心工作必須依托于一定的思想政治教育活動(dòng),輔導(dǎo)員對(duì)于談話的目標(biāo)、過(guò)程、方式、場(chǎng)所等必須要準(zhǔn)備細(xì)致,但由于受時(shí)間和空間的局限,談心工作的作用必然會(huì)受到影響。網(wǎng)絡(luò)環(huán)境減少了學(xué)生與教師面對(duì)面談話中產(chǎn)生的尷尬和抵觸情緒,交流方式更容易為學(xué)生所接受。

      其次,在網(wǎng)絡(luò)環(huán)境下更容易觀察談話工作的效果。傳統(tǒng)的談話結(jié)束之后,經(jīng)過(guò)一段時(shí)間后需要再次與談話對(duì)象進(jìn)行談話,間斷性地了解學(xué)生的變化。而網(wǎng)絡(luò)中的言論相對(duì)自由,通過(guò)觀察學(xué)生的日志、留言或空間等可以隨時(shí)了解學(xué)生在談話后的狀態(tài)。

      第三,在網(wǎng)絡(luò)環(huán)境中談話形式多變,便于提高工作效率。在網(wǎng)絡(luò)環(huán)境中,學(xué)生談話工作會(huì)出現(xiàn)多種形式的變化,可以是短訊、微博,也可以是評(píng)論、留言等。在網(wǎng)絡(luò)環(huán)境下,可以縮短談話工作之初將學(xué)生引入話題的時(shí)間,還可以將一次總體的談話過(guò)程分解成只言片語(yǔ),延長(zhǎng)談話對(duì)學(xué)生起作用的時(shí)間,而且可以同時(shí)和幾名同學(xué)進(jìn)行單獨(dú)談話,大大提高了談話工作的效率和時(shí)效性。

      (三)網(wǎng)絡(luò)環(huán)境適應(yīng)大學(xué)生心理發(fā)展的規(guī)律

      學(xué)生接受某種意見(jiàn)而讓自己發(fā)生改變的前提條件是對(duì)該種意見(jiàn)不反感,愿意去嘗試、調(diào)整,從而選擇接受這種意見(jiàn)。傳統(tǒng)談話工作由于其面對(duì)面的談話方式,往往容易引起學(xué)生逆反心理和對(duì)抗心理的出現(xiàn)。加之隨著學(xué)生的獨(dú)立意識(shí)和自我意識(shí)的不斷加強(qiáng),他們對(duì)事物的批判態(tài)度以及行動(dòng)上的反抗意識(shí)都愈發(fā)強(qiáng)烈。因此,利用網(wǎng)絡(luò)環(huán)境,采取教育目的隱蔽、教育方法間接的談話方式來(lái)消除學(xué)生的逆反心理,沖破學(xué)生的心理防線是十分必要的。

      三、在網(wǎng)絡(luò)環(huán)境下深化學(xué)生談話工作的可行性

      (一)網(wǎng)絡(luò)的超時(shí)空性使談話工作不受時(shí)間和場(chǎng)地的限制

      在網(wǎng)絡(luò)環(huán)境中開展談話工作不受課時(shí)和教室的限制,無(wú)需輔導(dǎo)員在固定的時(shí)間和地點(diǎn)面對(duì)面地對(duì)學(xué)生進(jìn)行鼓勵(lì)、安慰、批評(píng)等。這種交流幾乎隨時(shí)隨地都可以進(jìn)行,只要輔導(dǎo)員掌握了學(xué)生經(jīng)常上網(wǎng)的時(shí)間段即可,例如每天晚飯后、周末等。在談話過(guò)程中,在輕松愉悅的環(huán)境下,學(xué)生不僅更容易接受談話內(nèi)容,而且可以同時(shí)介紹身邊同學(xué)的情況,擴(kuò)大了輔導(dǎo)員對(duì)于學(xué)生群體了解的范圍。

      (二)網(wǎng)絡(luò)交流的多樣性使談話工作具有多種多樣的作用方式

      在網(wǎng)絡(luò)環(huán)境中,輔導(dǎo)員與學(xué)生互動(dòng)的方式是多種多樣的,談話的內(nèi)容、目的深藏于各種交流及載體之中,因此,這種談話工作的作用方式也是多種多樣的,可以是不定期的評(píng)論、留言,也可以是大規(guī)模的群組討論,還可以是論壇中跟帖發(fā)表看法,等等。

      (三)潛隱性使網(wǎng)絡(luò)環(huán)境下的談話更容易為大學(xué)生所接受

      網(wǎng)絡(luò)中的交流、談心工作將變成一種沒(méi)有實(shí)體的教育形式,它可以在校園內(nèi)無(wú)處不在地發(fā)揮作用,使學(xué)生在信息交換過(guò)程中不知不覺(jué)地受到教育,在“無(wú)形”的氛圍中潛移默化地受到影響,因此,在網(wǎng)絡(luò)環(huán)境中開展談話工作存在著很強(qiáng)的潛隱性。

      (四)網(wǎng)絡(luò)交流的無(wú)意識(shí)性促使學(xué)生不知不覺(jué)地配合輔導(dǎo)員完成談話活動(dòng)

      春風(fēng)化雨,潤(rùn)物無(wú)聲??梢岳镁W(wǎng)絡(luò)環(huán)境中豐富的活動(dòng)形式,通過(guò)各種各樣的傳播渠道,針對(duì)學(xué)生的興趣、愛(ài)好,使其參與到活動(dòng)中,同時(shí)無(wú)意識(shí)地吸收其中所隱藏的教育內(nèi)容。

      四、在網(wǎng)絡(luò)環(huán)境下深化學(xué)生談話工作的有效途徑

      (一)占領(lǐng)博客陣地,加強(qiáng)交流,深化學(xué)生談話工作

      博客是一種簡(jiǎn)易的個(gè)人信息方式,任何人都可以注冊(cè),并完成個(gè)人網(wǎng)頁(yè)的創(chuàng)建、和更新,因此,受到廣大青年學(xué)生的喜愛(ài)。特別是微博,其已經(jīng)成為一種時(shí)尚,深受當(dāng)代大學(xué)生的推崇。大學(xué)生通過(guò)博客可以自由地表達(dá)自己的想法,通過(guò)博客記載和分享自己的生活經(jīng)歷與美好時(shí)刻,更可以結(jié)識(shí)朋友,進(jìn)行更深層次的交流。

      (二)建立大學(xué)生主題網(wǎng)站,營(yíng)造交流氛圍

      建立以了解學(xué)生、引導(dǎo)學(xué)生、服務(wù)學(xué)生為宗旨的大學(xué)生主題網(wǎng)站,開展豐富多樣的網(wǎng)絡(luò)文化活動(dòng),抓住大學(xué)生的特點(diǎn)和興趣,建立學(xué)生論壇、貼吧等,通過(guò)觀察網(wǎng)站中學(xué)生所關(guān)注的熱門話題,對(duì)大學(xué)生進(jìn)行正確的引導(dǎo)。

      (三)利用網(wǎng)絡(luò)聊天工具建立網(wǎng)絡(luò)群體

      隨著工作環(huán)境的不斷改進(jìn),電腦、網(wǎng)絡(luò)已經(jīng)成為輔導(dǎo)員工作的主要工具。輔導(dǎo)員可以充分利用QQ、飛信等聊天工具,建立網(wǎng)絡(luò)群體,與學(xué)生隨時(shí)在線交流,了解學(xué)生關(guān)注的熱門話題,參與學(xué)生在群內(nèi)的討論,發(fā)表自己的觀點(diǎn),引導(dǎo)學(xué)生的思想主流。輔導(dǎo)員還可以在群內(nèi)發(fā)送校內(nèi)外的各類新聞,提高學(xué)生對(duì)群的關(guān)注度,努力在群中營(yíng)造平等交流的氛圍,使學(xué)生暢所欲言,表達(dá)自己的真實(shí)觀點(diǎn),從而更充分地了解學(xué)生的內(nèi)心世界。

      隨著網(wǎng)絡(luò)時(shí)代的來(lái)臨,通過(guò)網(wǎng)絡(luò)平臺(tái)、利用網(wǎng)絡(luò)環(huán)境的優(yōu)勢(shì)有效地開展談心工作,對(duì)每一位輔導(dǎo)員來(lái)說(shuō)既是機(jī)遇,也是挑戰(zhàn)。在網(wǎng)絡(luò)環(huán)境中開展具有實(shí)效性、長(zhǎng)效性的思想政治教育工作必將達(dá)到事半功倍的效果。

      參考文獻(xiàn)]

      [1]李玉泉,王娜.高校校園網(wǎng)絡(luò)文化建設(shè)的探索與實(shí)踐[J].思想教育研究,2007(6).

      [2]高金環(huán).網(wǎng)絡(luò)環(huán)境下的大學(xué)生思想政治教育[J].西安郵電學(xué)院學(xué)報(bào),2007(1).

      [3]張會(huì)萍.網(wǎng)絡(luò)環(huán)境下高校思想政治教育的途徑[J].新視野,2010(8).

      相關(guān)期刊更多

      中國(guó)神經(jīng)腫瘤

      部級(jí)期刊 審核時(shí)間1-3個(gè)月

      中山大學(xué)腫瘤防治中心;中國(guó)抗癌協(xié)會(huì)神經(jīng)腫瘤專業(yè)委員會(huì)

      現(xiàn)代神經(jīng)疾病

      北大期刊 審核時(shí)間1-3個(gè)月

      中華人民共和國(guó)國(guó)家衛(wèi)生

      國(guó)際神經(jīng)病學(xué)神經(jīng)外科學(xué)

      統(tǒng)計(jì)源期刊 審核時(shí)間1-3個(gè)月

      中華人民共和國(guó)教育部

      主站蜘蛛池模板: 中文有码字幕日本第一页| 国产精品日韩av在线播放| 熟妇人妻任你躁在线视频| 最新的国产成人精品2020| 麻豆蜜桃伦理一区二区三区| 天堂V亚洲国产V第一次| 性男女做视频观看网站| 国产精品视频午夜福利| 韩国精品一区二区三区在线观看| 日本亲近相奷中文字幕| 精品国产综合成人亚洲区| 欧美日韩免费专区在线观看 | 国产一区二区三区精美视频| 欧美一本大道香蕉综合视频| 国产精品午夜福利在线观看| 久青草国产在视频在线观看| 中文精品无码中文字幕无码专区| 欧洲免费一区二区三区视频| 99久久激情国产精品| 亚洲gay片在线gv网站| 波多野结衣久久一区二区| 亚洲欧美日韩在线码| 少妇被日自拍黄色三级网络 | 国产偷窥熟女高潮精品视频| 精品国产美女av久久久久| 国产日产精品系列| 久久国产精品99久久蜜臀| 国产L精品国产亚洲区在线观看 | 九九在线精品国产| 久久天天躁夜夜躁狠狠综合| 欧美色欧美亚洲高清在线视频| 亚洲中文久久久精品无码| 久久天天躁狠狠躁夜夜躁| 99久久激情国产精品| 日韩午夜福利片段在线观看| 69精品丰满人妻无码视频a片| 大又大又粗又硬又爽少妇毛片| 国产成人AV国语在线观看| 中文字幕人妻色偷偷久久| 亚洲午夜福利网在线观看| 高清无码爆乳潮喷在线观看|