當前位置:首頁 » 電腦故障 » 神經網路對異常點
擴展閱讀

神經網路對異常點

發布時間: 2022-06-04 03:33:33

㈠ [請教]RBF神經網路預測的結果很奇怪

你好,我在做神經網路的時候也遇到相同的問題。後來發現時自己的輸入數據在訓練階段和檢驗階段格式不一致導致的。我用的是經緯度作為輸入因素,訓練階段是「經度+緯度」,檢驗階段也就是sim的時候用的是「緯度+經度」。希望能夠對你有所啟發

㈡ 神經網路異常檢測方法和機器學習異常檢測方法對於入侵檢測的應用

神經網路異常檢測方法

神經網路入侵檢測方法是通過訓練神經網路連續的信息單元來進行異常檢測,信息單元指的是命令。網路的輸入為用戶當前輸入的命令和已執行過的W個命令;用戶執行過的命令被神經網路用來預測用戶輸入的下一個命令,如下圖。若神經網路被訓練成預測用戶輸入命令的序列集合,則神經網路就構成用戶的輪郭框架。當用這個神經網路預測不出某用戶正確的後繼命令,即在某種程度上表明了用戶行為與其輪廓框架的偏離,這時表明有異常事件發生,以此就能作異常入侵檢測。


上面式子用來分類識別,檢測異常序列。實驗結果表明這種方法檢測迅速,而且誤警率底。然而,此方法對於用戶動態行為變化以及單獨異常檢測還有待改善。復雜的相似度量和先驗知識加入到檢測中可能會提高系統的准確性,但需要做進一步工作。

㈢ 急求BP神經網路演算法應用於異常數據識別,用java實現!!!

BP(Back Propagation)神經網路是86年由Rumelhart和McCelland為首的科學家小組提出,是一種按誤差逆傳播演算法訓練的多層前饋網路,是目前應用最廣泛的神經網路模型之一。BP網路能學習和存貯大量的輸入-輸出模式映射關系,而無需事前揭示描述這種映射關系的數學方程。它的學習規則是使用最速下降法,通過反向傳播來不斷調整網路的權值和閾值,使網路的誤差平方和最小。BP神經網路模型拓撲結構包括輸入層(input)、隱層(hidden layer)和輸出層(output layer)。


附件是一個應用BP神經網路進行數據分類的java例子,可供參考。

㈣ 神經網路的關鍵是什麼

神經網路的關鍵是什麼
相對於傳統的線性和非線性方法,為什麼神經網路會如此強大?
當你有一個線性模型,每一個功能要麼對你有幫助,要麼對你有傷害,這種假設是線性模型中固有的。因此線性模型要麼功能異常強大,用類1表示;要麼則毫無用處,用類2表示。所有的解決方案,要麼導致該功能獲得巨大的價值;要麼價值變得微不足道。你永遠不會有這么一個狀態說,在這個區間,該功能就是代表類1;但是在另一個區間,它代表類2。
線性和非線性方法局限性很大。也就是說,如果你分析圖片,舉個例子,尋找狗狗的照片,它很可能會進入到一個特定的子集裡面,比如只顯示有一隻狗的照片,或是顯示某一像素和其他類型的圖片。在線性模式裡面,你無法確定復雜的關系集。相比於線性模型,非線性模型可能會顯得更強大一些,但是這種模式同樣難以訓練。我們會再一次進入到所謂最優化理論的問題之中,這也是我們在很長一段時間里認為神經網路還不是足夠好的原因之一,因為他們會「過擬合」,通俗的說,就是太過強大。我們無法做預測,也無法確保最優化方案。或許,這可能就是為什麼神經網路從當下暫時消失的原因吧。
在神經網路理論中,機器學習有很多分支和方法,你能總結一些關鍵方法嗎?
到目前為止,最成功的方法是監督學習方法,它使用了一個比較老的演算法,稱為反向傳播,構建了一個擁有許多不同輸出的神經網路。
讓我們看下一個神經網路構建,這個網路已經非常流行了,叫做卷積神經網路。這個理念是機器學習研究人員構建了一個多層架構的模型,每一層都可以用不同的方法處理之前一層的連接。
在第一層,你有一個窗口,上面會給圖像分配權值,它也變成了該層的輸入。由於權值「卷積」,該層也被稱為卷積層,它會自我重疊。接著後面會有若干個不同類型的層,每層都有不同的屬性,絕大多數都是非線性的。
最後一層會有1萬個潛在神經元輸入,那些激活的神經輸出,每一個都對應了一個特殊的標簽,可以用來識別圖像。第一類可能是一隻貓,第二類可能是一輛車,以此推到所有一萬個類,這樣一張「圖像網」就出來了。如果第一個神經元(一隻貓)與1萬個神經元中絕大多數都匹配,那麼這張圖像就能被識別出來,是一張貓的圖像。
這種監督學習方法的缺點是,在訓練的時候,你必須要在圖像上應用標簽,這是一輛車,這是一個動物園等。
沒錯,那麼無監督學習方法呢?
無監督學習方法還不是那麼受歡迎,它涉及到「自編碼器」。這種神經網路不會用來分類圖像,但是可以壓縮圖像。同我剛才提及的方法來讀取圖像,識別一個權值,並在一個卷積層內用像素填滿。其他若干層也這樣,包括相比於其它層小的多的中間層。這樣做的話,相關的神經元會變得很少,基本上,你讀取圖像時會進入到一個瓶頸,之後從另一邊走出來,並嘗試重新構建該圖像。
在無監督學習訓練下,不需要打標簽,因為你所做的就是把圖像放入到神經網路的兩端,然後訓練網路適應圖像,特別是訓練中間層。一旦你這么做了,那麼就擁有了一個知道如何壓縮圖像的神經網路。無監督學習方法可以給你提供能應用在其他分類器的功能,因此如果你有哪怕一點點標簽訓練數據,沒問題,它一樣可以為你提供大量圖像。你可以把這些圖像看做是無標簽訓練數據,並使用這些圖像構建一個「自編輯器」,然後從這個自編輯器中導出一些功能,這些功能適合使用一些訓練數據,以此找到對特殊模型敏感的自動編碼神經網路中的神經元。

㈤ 神經網路的高度魯棒性是什麼意思

一個神經網路是一種根據相近相似原則的非線性分類器,其魯棒性我認為指的是對個別異常點的反應不敏感,即個別異常點對分類器設計(神經網路的連接權)的影響不大。

㈥ 神經網路優缺點,

首先來看一下神經網路的缺點:

1. 黑盒子
神經網路最可能被人知曉的缺點是它們的「黑盒子」性質(也就是說你不知道神經網路是如何以及為什麼會產生一定的輸出)。例如,當你將一張貓的圖像放入神經網路,預測結果顯示它是一輛汽車時,這讓人很難理解。而在某些領域,可解釋性非常重要。
很多銀行之所以不使用神經網路來預測一個人是否有信譽,是因為他們需要向客戶解釋為什麼他們沒有獲得貸款。像Quora這樣的網站也是如此。如果他們因為機器學習演算法而決定刪除用戶賬戶,他們需要向用戶解釋為什麼這樣做。

如果將機器學習運用與重要的商業決策時,你能想像一個大公司的首席執行官會在不明白為什麼應該完成的情況下做出數百萬美元的決定嗎?僅僅因為「計算機」說他需要這樣做?

2. 發展的可持續時間
雖然有像Keras這樣的庫,讓神經網路的開發變得相當簡單,但有時您需要更多地控制演算法的細節。您可能還會使用到Tensorflow,但是由於它相對復雜,開發需要的時間也更長。對於公司管理層來說,如果用簡單的演算法就可以更快地解決問題,則讓他們花高昂的費用和較長的時間去開發一些東西,顯然是不合適的。
3. 數據量

與傳統的機器學習演算法相比,神經網路通常需要更多的數據,至少需要數千數百萬個標記樣本。而如果使用其它演算法,許多機器學習問題可以用較少的數據很好地解決。

雖然在某些情況下,神經網路需要處理少量數據(大多數情況下它們不需要)。而像樸素貝葉斯這樣的簡單演算法也可以很好地處理少數數據。

4. 計算代價高昂
通常,神經網路比傳統演算法的計算代價更高。對於最先進的深度學習演算法,完成深度神經網路從頭到尾的完整訓練,可能需要幾周的時間。而大多數傳統的機器學習演算法則只需要少於幾分鍾到幾個小時或幾天的時間即可。

神經網路所需的計算能力很大程度上取決於數據的大小,同時也取決於網路的深度和復雜程度。

然後就是神經網路的優點:
ANN 有能力學習和構建非線性的復雜關系的模型,這非常重要,因為在現實生活中,許多輸入和輸出之間的關系是非線性的、復雜的。
ANN 可以推廣,在從初始化輸入及其關系學習之後,它也可以推斷出從未知數據之間的未知關系,從而使得模型能夠推廣並且預測未知數據。

與許多其他預測技術不同,ANN 不會對輸入變數施加任何限制(例如:如何分布)。此外,許多研究表明,ANN 可以更好地模擬異方差性,即具有高波動性和不穩定方差的數據,因為它具有學習數據中隱藏關系的能力,而不在數據中強加任何固定關系。這在數據波動非常大的金融時間序列預測中非常有用。
神經網路的發展主要為:啟蒙時期(1890-1969),低潮時期(1969-1982),復興時期(1982-1986),新時期(1986至今)

㈦ 關於神經網路 需要學習python的哪些知識

最基礎的部分的話需要:線性代數,機器學習,微積分,優化等等。

幾乎所有操作都有矩陣運算,所以至少最基礎的線性代數需要掌握

建議從單一的感知機Perceptron出發,繼而認識到Decision Boundary(判別邊界),以及最簡單的一些「監督訓練」的概念等,有機器學習的基礎最好。就結果而言,諸如「過擬合」之類的概念,以及對應的解決方法比如L1 L2歸一,學習率等也都可以從單個感知機的概念開始入門。

從單層感知器推廣到普通的多層感知器MLP。然後推廣到簡單的神經網路(激活函數從階躍「軟化」為諸如tanh等類型的函數),然後引入特定類型的網路結構,比如最基本的全連接、前向傳播等等概念。進而學習訓練演算法,比如反向傳播,這需要微積分的知識(Chain rule),以及非線性優化的最基礎部分,比如梯度下降法。

其次至少需要具備一些適用於研究的編程語言的技能,例如python,matlab,(C++也可行)等,哪怕不自己實現最簡單的神經網路而是用API,也是需要一定計算機能力才能應用之。

㈧ 發現訓練出來的BP神經網路錯誤怎麼

。。。怎麼歸類到籃球了。

給的信息太少了點,可能很多。你的樣本少不少,和不合適。是不是over-train了?