神經網路做函式逼近,會做了,但是函式逼近到底有什麼用處呢

2021-04-03 11:38:10 字數 1068 閱讀 9743

1樓:匿名使用者

針對你前兩個問題:

在系統建模、辨識和**中,對於線性系統,在頻域,傳遞函式矩陣可以很好地表達系統的黑箱式輸入輸出模型;在時域,box-jenkins方法、迴歸分析方法、arma模型等,通過各種引數估計方法也可以給出描述。對於非線性時間序列**系統,雙線性模型、門限自迴歸模型、arch模型都需要在對資料的內在規律知道不多的情況下對序列間關係進行假定。

可以說傳統的非線性系統**,在理論研究和實際應用方面,都存在極大的困難。相比之下,神經網路可以在不瞭解輸入或輸出變數間關係的前提下完成非線性建模。神經元、神經網路都有非線性、非局域性、非定常性、非凸性和混沌等特性,與各種**方法有機結合具有很好的發展前景,也給**系統帶來了新的方向與突破。

建模演算法和**系統的穩定性、動態性等研究成為當今熱點問題。目前在系統建模與**中,應用最多的是靜態的多層前向神經網路,這主要是因為這種網路具有通過學習逼近任意非線性對映的能力。利用靜態的多層前向神經網路建立系統的輸入/輸出模型,本質上就是基於網路逼近能力,通過學習獲知系統差分方程中的非線性函式。

但在實際應用中,需要建模和**的多為非線性動態系統,利用靜態的多層前向神經網路必須事先給定模型的階次,即預先確定系統的模型。

針對你第三個問題:

**是利用數理統計的原理作出假設,給出**區間,準不準也只是從統計的角度來講,也就是說準確度實際上是相對的,**區間越不精確可信度就越大,**區間越精確可信度就越小,也就是說你想要精確一點的話,就要犧牲一點可信度

2樓:匿名使用者

函式逼近:用一個簡單容易計算的函式近似代替某個函式稱為函式逼近,容易計算的函式通常在代數多項式(僅含加減乘運算)或三角多項式中選取,函式逼近有個誤差估計問題,或逼近優劣問題,設f(x)定義在區間[a,b],稱為被逼近的函式,近似代替f(x)的g(x)稱為逼近函式,為了達到最佳逼近,在某類函式中選取g(x),使得f(x)-g(x)在某種意義下最小,或在某種意義下整體誤差最小,比如使f(x)-g(x)在[a,b]區間的最大值最小,這稱為車比雪夫逼近或一致逼近,或使f(x)-g(x)的平方在[a,b]區間的積分最小,這稱為平方逼近.函式逼近在函式的近似計算,在數值積分,微分方程的數值解法均有廣泛的應用.

如何選擇神經網路的超引數,BP神經網路模型各個引數的選取問題

1 神經網路演算法隱含層的選取 1.1 構造法 首先運用三種確定隱含層層數的方法專得到三個隱含層層數,找到屬最小值和最大值,然後從最小值開始逐個驗證模型 誤差,直到達到最大值。最後選取模型誤差最小的那個隱含層層數。該方法適用於雙隱含層網路。1.2 刪除法 單隱含層網路非線性對映能力較弱,相同問題,為...

BP神經網路中,激勵函式(傳遞函式),訓練函式,學習函式分別代表什麼意思,用途是什麼

樓主你好,這個是網路訓練的必備要求!可以參考bp神經網路!bp神經網路matlab工具箱中的激勵函式 傳遞函式 訓練函式,學習函式 激勵函式用於神經元由輸入計算輸出的,而訓練函式和學習函式是基於誤差,來修改權值和閾值的,再就完成了一次訓練,然後繼續迭代,知道達到迭代次數或滿足精度。然而,學習函式和訓...

神經網路分析的樣本是不是要大於,神經網路分析的樣本是不是要大於

不是,比如簡單的的分幾個就可以了,問題越複雜類就需要的樣本就越多 大於10個很正常,越多越好,如果小於10個的話,會給 帶來困難。為什麼神經網路識別數字用10個輸出而不是4個 單個網路就能識別所有數字,不是每個數字訓練 一個網路,而是所有數字的訓練樣本來訓練一個網路,訓練後的網路就能反映出這些數字的...