Szürkedobozmodell

matematikai modell

A matematikában, a statisztikában és a számítási modellezésben a szürkedobozmodell[1][2][3][4] a részleges elméleti struktúrát adatokkal ötvözi a modell befejezéséhez. Az elméleti felépítés változhat az eredmények simaságára vonatkozó információktól kezdve azokon a modelleken át, amelyek csak az adatok vagy a meglévő szakirodalom paraméterértékeit igénylik.[5] Így szinte az összes modell szürkedobozmodell, szemben a feketedobozzal, ahol nem feltételezzük a modell formáját, vagy a fehérdobozmodellek, amelyek pusztán elméleti jellegűek. Egyes modellek speciális formát öltenek, például lineáris regressziót[6][7] vagy neurális hálót.[8][9] Ezek speciális elemzési módszerekkel rendelkeznek. Különösen a lineáris regressziós technikák[10] sokkal hatékonyabbak, mint a legtöbb nemlineáris technika.[11] [12] A modell lehet determinisztikus vagy sztochasztikus (azaz véletlenszerű összetevőket tartalmazhat) attól függően, hogy mire akarjuk használni.

Formanyomtatvány szerkesztés

Az általános eset egy nemlineáris modell, részleges elméleti felépítéssel és néhány ismeretlen részből, amelyek adatokból származnak. Az elméleti struktúrával ellentétes modelleket egyedileg kell értékelni,[1][13] esetleg szimulált hőkezelési vagy genetikai algoritmusokkal.

Egy adott modellstruktúrán belül lehet, hogy meg kell találni a paramétereket[14] [15] vagy a változó paraméterek relációit[5] [16] Egy adott szerkezetben önkényesen feltételezzük, hogy az adatok takarmány vektorok F, termék vektorok p, illetve működő állapotban lévő vektorokból állnak. Általában c tartalmaz f-ből kivont értékeket, valamint egyéb értékeket. Sok esetben egy modell átalakítható a következő alakzat függvényévé:[17] [18]

m (f, p, q)

ahol az m vektorfüggvény megadja a hibákat a p adatok és a modelljóslatok között. A q vektor ad néhány változó paramétert, amelyek a modell ismeretlen részei.

A q paraméterek a meghatározandó módon változnak a c működési körülményektől.[5] [17] Ez az összefüggés q = Ac formátumban határozható meg, ahol A ismeretlen együtthatójú mátrix, és c, mint a lineáris regresszióban[6] [7] tartalmaz egy állandó kifejezést és az eredeti működési feltételek esetlegesen átalakított értékeit a nemlineáris összefüggések megszerzéséhez[19] [20] az eredeti működési feltételek és q között. Ezután ki kell választani, hogy az A mely tagjai nem nullák, és hozzárendelni az értékeiket. A modell befejezése optimalizálási problémává válik a nem nulla értékek meghatározására A-ban, amely minimalizálja az m (f, p, Ac) hibákat az adatok fölött.[1] [16] [21] [22] [23]

Modell befejezése szerkesztés

Amint a nem nulla értékek kiválogatása megtörtént, a fennmaradó együtthatók A-ban meghatározhatóak m(f,p,Ac) minimalizálásával az adatokon keresztül, figyelembe véve a nem nulla értékeket A-ban, jellemzően a nem-lineáris legkisebb négyzetek segítségével. A nem nulla kifejezések kiválasztása optimalizálási módszerekkel történhet, például szimulált hőkezelési és evolúciós algoritmusokkal. Szintén a nem-lineáris legkisebb négyzetek az A elemeinek becsléseket nyújthat a pontosságra[11] [15]annak meghatározására, hogy azok jelentősen különböznek nullától, így biztosítva egy eljárás modell kiválasztását.[24] [25]

Időnként lehetőség van q értékek kiszámítására minden adatsor esetében, közvetlenül vagy nemlineáris legkisebb négyzetek segítségével. Ezután a hatékonyabb lineáris regressziót lehet használni hogy megjósoljuk q értékét c használatával ezáltal kiválasztva a nem nulla értékeket A-ban és megbecsülni az értékeiket. Amikor a nem nulla értékek megtalálhatók, akkor az eredeti m (f, p, Ac) modellen nem lineáris legkisebb négyzetek használható ezen értékek finomítására.[16] [21] [22]

A harmadik eljárás a modellinverzió,[5][17][18] amely átalakítja a nem-lineáris m (f, p, Ac) egy majdnem lineáris formába az A elemein belül, amit meg lehet vizsgálni hasznos modell választás[24][25] és a lineáris regresszió értékelésével.[10] A legegyszerűbb esetet nézve q értéke (q = a T c) és egy becsült q* q-nak. dqaTc - q* eredménye egyenlő

m (f, p, a T c) = m (f, p, q * + d q) ≈ m (f, p.q *) + d q m '(f, p, q *) = m (f, p.q *) + (a T c - q *) m '(f, p, q *)

úgy, hogy aT most lineáris helyzetben van az összes többi ismert kifejezéssel, és így lineáris regressziós technikákkal elemezhető. Egynél több paraméter esetében a módszer közvetlen módon terjed.[5] [18] [17] Miután leellenőriztük hogy a modell fejlődött ez a folyamat ismételhető konvergenciáig. Ennek a megközelítésnek megvan az az előnye, hogy nincs szüksége a q paraméterekre ahhoz, hogy az egyedi adatsorból meghatározható legyen, és a lineáris regresszió az eredeti hibafeltételeken alapszik

A modell érvényesítése szerkesztés

Ahol elegendő adat áll rendelkezésre, ajánlott az adatok felosztása külön modell-konstrukcióra és egy vagy két értékelési halmazra. Ezt meg lehet ismételni a konstrukciókészlet többszörös kiválasztásával, és az eredményül kapott modelleket átlagoljuk vagy felhasználjuk az előrejelzési különbségek értékelésére.

Egy statisztikai teszt, például a Khí-négyzet eloszlás a maradékokon nem különösebben hasznos.[26] A chi négyzet teszt megköveteli az ismert szórásokat, amelyek ritkán állnak rendelkezésre, és a sikertelen tesztek nem utalnak arra, hogy miként lehetne javítani a modellen.[11] A beágyazott és a nem beágyazott modellek összehasonlítására számos módszer létezik. Ide tartozik a modelljóslások és az ismételt adatok összehasonlítása.

Egy próba megjósolni a maradékokat m(, ) a működési feltételek c segítségével lineáris regressziót használva megmutatja hogy a maradékokat előre meg lehet-e jósolni.[21][22] Azok a maradékok amelyeket nem lehet megjósolni, kevés esélyt kínálnak a modell fejlesztésére a jelenlegi működési feltételek alapján.[5] Azok a kifejezések, amelyek megjósolják a maradékokat, leendő kifejezések, amelyeket be kell építeni a modellbe annak teljesítményének javítása érdekében.

A fenti modellinverziós technika alkalmazható módszerként annak eldöntésére, hogy egy modell javítható-e. Ebben az esetben a nem nulla kifejezések kiválasztása nem olyan fontos, és lineáris predikciót lehet elvégezni a regressziós mátrix sajátvektor és sajátértékeinek felhasználásával. Az értékeket ilyen módon meghatározva A-ban helyettesíteni kell a nemlineáris modellbe hogy felmérje a javításokat a modell hibákban. Jelentős javulás hiánya azt jelzi, hogy a rendelkezésre álló adatok nem képesek a jelenlegi modellformát a megadott paraméterek felhasználásával javítani.[5] Extra paraméterek illeszthetők be a modellbe, hogy átfogóbb legyen a teszt.

Jegyzetek szerkesztés

  1. a b c Bohlin, Torsten P.. Practical Grey-box Process Identification: Theory and Applications. Springer Science & Business Media (2006. szeptember 7.). ISBN 978-1-84628-403-8 
  2. Grey-box model estimation. Mathworks 2, 2012
  3. Kroll, Andreas (2000). Grey-box models: Concepts and application. In: New Frontiers in Computational Intelligence and its Applications, vol.57 of Frontiers in artificial intelligence and applications, pp. 42-51. IOS Press, Amsterdam.
  4. Sohlberg, B., and Jacobsen, E.W., 2008. Grey box modelling - branches and experiences, Proc. 17th World Congress, Int. Federation of Automatic Control, Seoul. pp 11415-11420
  5. a b c d e f g Whiten, B., 2013. Model completion and validation using inversion of grey box models, ANZIAM J.,54 (CTAC 2012) pp C187–C199.
  6. a b Draper, Norman R.. Applied Regression Analysis. John Wiley & Sons, 657–. o. (2014. augusztus 25.). ISBN 978-1-118-62568-2 
  7. a b Weisberg, Sanford. Applied Linear Regression. Wiley (2013. november 25.). ISBN 978-1-118-59485-8 
  8. Heaton, J., 2012. Introduction to the math of neural networks, Heaton Research Inc. (Chesterfield, MO), ISBN 978-1475190878
  9. Stergiou: Neural networks, 2013. [2009. december 16-i dátummal az eredetiből archiválva]. (Hozzáférés: 2013. július 3.)
  10. a b Lawson, Charles L.. Solving Least Squares Problems. SIAM (1995. december 1.). ISBN 978-0-89871-356-5 
  11. a b c Press, W.H.. Numerical Recipes, 3rd, Cambridge University Press (2007. április 9.). ISBN 978-0-521-88068-8 
  12. Gelman, Andrew. Bayesian Data Analysis, Third Edition. CRC Press (2013. november 1.). ISBN 978-1-4398-4095-5 
  13. Mathworks, 2013. Supported grey box models
  14. .
  15. a b Nash, J.C. and Walker-Smith, M. 1987. Nonlinear parameter estimation, Marcel Dekker, Inc. (New York).
  16. a b c Whiten, W.J., 1971. Model building techniques applied to mineral treatment processes, Symp. on Automatic Control Systems in Mineral Processing Plants, (Australas. Inst. Min. Metall., S. Queensland Branch, Brisbane), 129-148.
  17. a b c d Whiten, W.J., 1994. Determination of parameter relations within non-linear models, SIGNUM Newsletter, 29(3–4,) 2–5. 10.1145/192527.192535.
  18. a b c Whiten, B., 2014. Determining the form of ordinary differential equations using model inversion, ANZIAM J. 55 (EMAC2013) pp.C329–C347.
  19. Polynomial
  20. Spline (mathematics)
  21. a b c Kojovic, T., and Whiten W. J., 1994. Evaluation of the quality of simulation models, Innovations in mineral processing, (Lauretian University, Sudbury) pp 437–446. ISBN 088667025X
  22. a b c Kojovic, T., 1989. The development and application of Model - an automated model builder for mineral processing, PhD thesis, The University of Queensland.
  23. Xiao, J., 1998. Extensions of model building techniques and their applications in mineral processing, PhD thesis, The University of Queensland.
  24. a b Linhart, H.. Model selection. Wiley (1986). ISBN 978-0-471-83722-0 
  25. a b Miller, Alan. Subset Selection in Regression. CRC Press (2002. április 15.). ISBN 978-1-4200-3593-3 
  26. Deming, William Edwards. Out of the Crisis p272. MIT Press (2000). ISBN 978-0-262-54115-2 

Fordítás szerkesztés

Ez a szócikk részben vagy egészben a Grey box model című angol Wikipédia-szócikk ezen változatának fordításán alapul. Az eredeti cikk szerkesztőit annak laptörténete sorolja fel. Ez a jelzés csupán a megfogalmazás eredetét és a szerzői jogokat jelzi, nem szolgál a cikkben szereplő információk forrásmegjelöléseként.