當前位置:首頁 » 無線網路 » 神經元網路與信號處理
擴展閱讀
網路安全比賽時間 2025-02-01 08:01:57

神經元網路與信號處理

發布時間: 2023-11-14 20:31:51

什麼叫神經網路

南搞小孩給出基本的概念: 一.一些基本常識和原理 [什麼叫神經網路?] 人的思維有邏輯性和直觀性兩種不同的基本方式。邏輯性的思維是指根據邏輯規則進行推理的過程;它先將信息化成概念,並用符號表示,然後,根據符號運算按串列模式進行邏輯推理;這一過程可以寫成串列的指令,讓計算機執行。然而,直觀性的思維是將分布式存儲的信息綜合起來,結果是忽然間產生想法或解決問題的辦法。這種思維方式的根本之點在於以下兩點:1.信息是通過神經元上的興奮模式分布儲在網路上;2.信息處理是通過神經元之間同時相互作用的動態過程來完成的。 人工神經網路就是模擬人思維的第二種方式。這是一個非線性動力學系統,其特色在於信息的分布式存儲和並行協同處理。雖然單個神經元的結構極其簡單,功能有限,但大量神經元構成的網路系統所能實現的行為卻是極其豐富多彩的。 [人工神經網路的工作原理] 人工神經網路首先要以一定的學習准則進行學習,然後才能工作。現以人工神經網路對手寫「A」、「B」兩個字母的識別為例進行說明,規定當「A」輸入網路時,應該輸出「1」,而當輸入為「B」時,輸出為「0」。 所以網路學習的准則應該是:如果網路作出錯誤的的判決,則通過網路的學習,應使得網路減少下次犯同樣錯誤的可能性。首先,給網路的各連接權值賦予(0,1)區間內的隨機值,將「A」所對應的圖象模式輸入給網路,網路將輸入模式加權求和、與門限比較、再進行非線性運算,得到網路的輸出。在此情況下,網路輸出為「1」和「0」的概率各為50%,也就是說是完全隨機的。這時如果輸出為「1」(結果正確),則使連接權值增大,以便使網路再次遇到「A」模式輸入時,仍然能作出正確的判斷。 如果輸出為「0」(即結果錯誤),則把網路連接權值朝著減小綜合輸入加權值的方向調整,其目的在於使網路下次再遇到「A」模式輸入時,減小犯同樣錯誤的可能性。如此操作調整,當給網路輪番輸入若干個手寫字母「A」、「B」後,經過網路按以上學習方法進行若干次學習後,網路判斷的正確率將大大提高。這說明網路對這兩個模式的學習已經獲得了成功,它已將這兩個模式分布地記憶在網路的各個連接權值上。當網路再次遇到其中任何一個模式時,能夠作出迅速、准確的判斷和識別。一般說來,網路中所含的神經元個數越多,則它能記憶、識別的模式也就越多。 南搞小孩一個小程序: 關於一個神經網路模擬程序的下載 人工神經網路實驗系統(BP網路) V1.0 Beta 作者:沈琦 http://emuch.net/html/200506/de24132.html 作者關於此程序的說明: 從輸出結果可以看到,前3條"學習"指令,使"輸出"神經元收斂到了值 0.515974。而後3條"學習"指令,其收斂到了值0.520051。再看看處理4和11的指令結果 P *Out1: 0.520051看到了嗎? "大腦"識別出了4和11是屬於第二類的!怎麼樣?很神奇吧?再打show指令看看吧!"神經網路"已經形成了!你可以自己任意的設"模式"讓這個"大腦"學習分辯哦!只要樣本數據量充分(可含有誤差的樣本),如果能夠在out數據上收斂地話,那它就能分辨地很准哦!有時不是絕對精確,因為它具有"模糊處理"的特性.看Process輸出的值接近哪個Learning的值就是"大腦"作出的"模糊性"判別! 南搞小孩神經網路研究社區: 人工神經網路論壇 http://www.youngfan.com/forum/index.php http://www.youngfan.com/nn/index.html(舊版,楓舞推薦) 國際神經網路學會(INNS)(英文) http://www.inns.org/ 歐洲神經網路學會(ENNS)(英文) http://www.snn.kun.nl/enns/ 亞太神經網路學會(APNNA)(英文) http://www.cse.cuhk.e.hk/~apnna 日本神經網路學會(JNNS)(日文) http://www.jnns.org 國際電氣工程師協會神經網路分會 http://www.ieee-nns.org/ 研學論壇神經網路 http://bbs.matwav.com/post/page?bid=8&sty=1&age=0 人工智慧研究者俱樂部 http://www.souwu.com/ 2nsoft人工神經網路中文站 http://211.156.161.210:8888/2nsoft/index.jsp =南搞小孩推薦部分書籍: 人工神經網路技術入門講稿(PDF) http://www.youngfan.com/nn/ann.pdf 神經網路FAQ(英文) http://www.youngfan.com/nn/FAQ/FAQ.html 數字神經網路系統(電子圖書) http://www.youngfan.com/nn/nnbook/director.htm 神經網路導論(英文) http://www.shef.ac.uk/psychology/gurney/notes/contents.html =南搞小孩還找到一份很有參考價值的講座 <前向網路的敏感性研究> http://www.youngfan.com/nn/mgx.ppt 是Powerpoint文件,比較大,如果網速不夠最好用滑鼠右鍵下載另存. 南搞小孩添言:很久之前,楓舞夢想智能機器人從自己手中誕生,SO在學專業的時候也有往這方面發展...考研的時候亦是朝著人工智慧的方向發展..但是很不幸的是楓舞考研失敗...SO 只好放棄這個美好的願望,為生活奔波.希望你能夠成為一個好的智能計算機工程師..楓舞已經努力的在給你提供條件資源哦~~

② 神經網路模型的信息處理

人工神經網路對神經元的興奮與抑制進行模擬,故而首先應了解神經元的興奮與抑制狀態。
一個神經元的興奮和抑制兩種狀態是由細胞膜內外之間不同的電位差來表徵的。在抑制狀態,細胞膜內外之間有內負外正的電位差,這個電位差大約在-50— -100mv之間。在興奮狀態,則產生內正外負的相反電位差,這時表現為約60—100mv的電脈沖。細胞膜內外的電位差是由膜內外的離子濃度不同導致的。細胞的興奮電脈沖寬度一般大約為1ms。神經元的興奮過程電位變化如圖1—3所示。
圖1-3.神經元的興奮過程電位變化 對神經細胞的研究結果表明:神經元的電脈沖幾乎可以不衰減地沿著軸突傳送到其它神經元去。
由神經元傳出的電脈沖信號通過軸突,首先到達軸突末梢,這時則使其中的囊泡產生變化從而釋放神經遞質,這種神經遞質通過突觸的間隙而進入到另一個神經元的樹突中。樹突上的受體能夠接受神經遞質從而去改變膜向離子的通透性.使膜外內離子濃度差產生變化;進而使電位產生變化。顯然,信息就從一個神經元傳送到另一個神經元中。
當神經元接受來自其它神經元的信息時,膜電位在開始時是按時間連續漸漸變化的。當膜電位變化經超出一個定值時,才產生突變上升的脈沖,這個脈沖接著沿軸突進行傳遞。神經元這種膜電位高達一定閥值才產生脈沖傳送的特性稱閥值特性。
這種閥值特性從圖1—3中也可以看出。
神經元的信息傳遞除了有閥值特性之外,還有兩個特點。一個是單向性傳遞,即只能從前一級神經元的軸突末梢傳向後一級神經元的樹突或細胞體,不能反之。另一個是延時性傳遞.信息通過突觸傳遞,通常會產生0.5-1ms的延時。 神經元對來自其它神經元的信息有時空綜合特性。
在神經網路結構上,大量不同的神經元的軸突末梢可以到達同一個神經元的樹突並形成大量突觸。來源不同的突觸所釋放的神經遞質都可以對同一個神經元的膜電位變化產生作用。因此,在樹突上,神經元可以對不同來源的輸入信息進行綜合。這就是神經元對信息的空間綜合特性。
對於來自同一個突觸的信息,神經元可以對於不同時間傳入的信息進行綜合。故神經元對信息有時間綜合特性。 從神經元軸突上傳遞的信息是等幅、恆寬、編碼的離散電脈沖信號,故而是一個數字量。但在突觸中神經遞質的釋放和樹突中膜電位的變化是連續的。故而,這時說明突觸有D/A功能。在神經元的樹突膜電位高過一定閥值時,則又變成電脈沖方式由軸突傳送出去。故而,這個過程說明神經元有A/D功能。
很明顯,信息通過一個神經元傳遞時,神經元對信息執行了D/A、A/D轉換過程。
從上面可知,神經元對信息的處理和傳遞有閥值,D/A、A/D和綜合等一系列特性和功能。

③ 什麼是神經網路,舉例說明神經網路的應用

我想這可能是你想要的神經網路吧!

什麼是神經網路:
人工神經網路(Artificial Neural Networks,簡寫為ANNs)也簡稱為神經網路(NNs)或稱作連接模型(Connection Model),它是一種模仿動物神經網路行為特徵,進行分布式並行信息處理的演算法數學模型。這種網路依靠系統的復雜程度,通過調整內部大量節點之間相互連接的關系,從而達到處理信息的目的。

神經網路的應用:

應用
在網路模型與演算法研究的基礎上,利用人工神經網路組成實際的應用系統,例如,完成某種信號處理或模式識別的功能、構作專家系統、製成機器人、復雜系統控制等等。
縱觀當代新興科學技術的發展歷史,人類在征服宇宙空間、基本粒子,生命起源等科學技術領域的進程中歷經了崎嶇不平的道路。我們也會看到,探索人腦功能和神經網路的研究將伴隨著重重困難的克服而日新月異。

神經網路的研究內容相當廣泛,反映了多學科交叉技術領域的特點。主要的研究工作集中在以下幾個方面:
生物原型
從生理學、心理學、解剖學、腦科學、病理學等方面研究神經細胞、神經網路、神經系統的生物原型結構及其功能機理。
建立模型
根據生物原型的研究,建立神經元、神經網路的理論模型。其中包括概念模型、知識模型、物理化學模型、數學模型等。
演算法
在理論模型研究的基礎上構作具體的神經網路模型,以實現計算機模擬或准備製作硬體,包括網路學習演算法的研究。這方面的工作也稱為技術模型研究。
神經網路用到的演算法就是向量乘法,並且廣泛採用符號函數及其各種逼近。並行、容錯、可以硬體實現以及自我學習特性,是神經網路的幾個基本優點,也是神經網路計算方法與傳統方法的區別所在。

④ 第五章 神經網路

神經網路 :神經網路是由具有適應性的簡單單元組成的廣泛並行互連的網路,它的組織能夠模擬生物神經系統對真實世界物體所作出的交互反應。
神經網路中最基本的成分便是 神經元模型
M-P神經元模型:

感知機由兩層神經元組成,分別為輸入層、輸出層。

以下是具體過程:

多層神經網路的拓撲結構如圖:

如上圖可知,多層網路由輸入層、隱含層和輸出層組成,頂層是輸出層,底層是輸入層,中間的便是隱含層。隱含層與輸出層都具有功能神經元。
多層前饋神經網路的結構需要滿足:
1、每層神經元必須與下一層完全互連
2、神經元之間不存在同層連接
3、神經元不可跨層連接

只需包含一個足夠多神經元的隱層,就能以任意精度逼近任意復雜度的連續函數

BP神經網路由於學習能力太強大比較榮譽造成過擬合問題,故有兩種策略來減緩過擬合的問題:
1、早停:將數據分成訓練集和驗證集,訓練集學習,驗證集評估性能,在訓練過程中,若訓練集的累積誤差降低,而驗證集的累積誤差提高,則終止訓練;
2、引入正則化:其基本思想是在誤差目標函數中增加一個用於描述網路復雜程度的部分,有如連接權和閾值的平方和:

其中λ∈(0,1)用於對累積經驗誤差與網路復雜度這兩項進行折中,常通過交叉驗證法來估計。

神經網路的訓練過程可看作一個參數尋優的過程,即尋找到適當的參數使得E最小。於是我們時常會談及「全局最小」和「局部最小」。
1、全局最小:即全局最小解,在參數空間中,所有其他點的誤差函數值均大於該點;
2、局部最小:即局部最小解,在參數空間中,其鄰近的點的誤差函數值均大於該點。

我們要達到局部極小點,很容易,只要滿足梯度為零的點便是了,局部極小點可以有多個,但全局最小點只有一個。顯然,我們追求的是全局最小,而非局部極小,於是人們通常採用以下策略來試圖「跳出」局部極小,使其接近全局最小:
1、以多組不同參數值初始化多個神經網路,按標准方法訓練,在迭代停止後,取其中誤差最小的解作為最終參數;
2、使用隨機梯度下降(在計算梯度時加入了隨機因素),使得在局部最小時,計算的梯度仍可能不為0,從而可能跳出局部極小,繼續進行迭代;
3、「模擬退火」技術,在每一步都以一定的概率接受比當前解更差的結果,但接受「次優解」的概率要隨著迭代進行,時間推移而逐漸減低以確保演算法的穩定。

1、RBF網路
單隱層前饋神經網路 ,使用徑向基函數作為隱層神經元激活函數,輸出層是對隱層神經元輸出的線性組合。RBF網路可表示為:

2、ART網路
競爭型學習 (神經網路中一種常用的 無監督學習 策略),由 比較層、識別層、識別閾值和重置模塊 組成。接收到比較層的輸入信號後,識別層神經元相互競爭以產生獲勝神經元,最簡單的方式就是計算輸入向量與每個識別層神經元所對應的模式類代表向量間的距離,距離小者獲勝。若獲勝神經元對應的代表向量與輸入向量間 相似度大於識別閾值 ,則將輸入樣本歸為該代表向量所屬類別,網路 連接權 也會進行 更新 以保證後面接收到相似的輸入樣本時該模式類會計算出更大的相似度,使得這樣的樣本能夠歸於一類;如果 相似度不大於識別閾值 ,則 重置模塊 會在 識別層 加一個神經元,其 代表向量 設置 為當前 輸入向量
3、SOM網路
競爭型學習的無監督神經網路 ,將高維輸入數據映射到低維空間(通常是二維),且保持輸入數據在高維空間的拓撲結構。
4、級聯相關網路
結構自適應網路

5、Elman網路
遞歸神經網路

6、Boltzmann機
基於能量的模型,其神經元分為顯層與隱層,顯層用於數據輸入輸出,隱層被理解為數據的內在表達。其神經元皆為布爾型,1為激活,0為抑制。

理論上,參數越多的模型其復雜程度越高,能完成更加復雜的學習任務。但是復雜模型的訓練效率低下,容易過擬合。但由於大數據時代、雲計算,計算能力大幅提升緩解了訓練效率低下,而訓練數據的增加則可以降低過擬合風險。
於是如何增加模型的復雜程度呢?
1、增加隱層數;
2、增加隱層神經元數.
如何有效訓練多隱層神經網路?
1、無監督逐層訓練:每次訓練一層隱節點,把上一層隱節點的輸出當作輸入來訓練,本層隱結點訓練好後,輸出再作為下一層的輸入來訓練,這稱為預訓練,全部預訓練完成後,再對整個網路進行微調。「預訓練+微調」即把大量的參數進行分組,先找出每組較好的設置,再基於這些局部最優的結果來訓練全局最優;
2、權共享:令同一層神經元使用完全相同的連接權,典型的例子是卷積神經網路。這樣做可以大大減少需要訓練的參數數目。

深度學習 可理解為一種特徵學習或者表示學習,是通過 多層處理 ,逐漸將初始的 低層特徵表示 轉化為 高層特徵表示 後,用 簡單模型 即可完成復雜的分類等 學習任務