摘 要:同仁均知,訓練F2N2(Feed Forward Neural Network:前饋神經網絡)的方法雖然很多,但是至今未能徹底解決“收斂不迅速”和“收斂不穩健”這兩大難題,從而影響了F2N2的應用。針對此問題,文章研究了一種訓練&應用F2N2的新方法,該方法靈活地將BPNN(Back Propagation Neural Network:反向傳播神經網絡)關鍵訓練算法和分層優化算法親和、協調的自然結合,并且對每層的(Weight:“權”)訓練獨立進行,精心創建了用級數精確表達的F2N2目標函數,不僅能將優化每層的問題簡化為線性問題
[登陸后可查看全文]