Mi a nemlineáris regresszió?
A nemlineáris regresszió a regressziós elemzés egyik formája, amelyben az adatok egy modellhez illeszkednek, majd matematikai függvényként fejeződnek ki. Az egyszerű lineáris regresszió két változót (X és Y) egyenes vonalhoz viszonyít (y = mx + b), míg a nemlineáris regressziónak olyan sort kell generálnia (jellemzően egy görbe), mintha Y minden értéke véletlenszerű változó lenne. A modell célja, hogy a négyzetek összegét a lehető legkisebbre tegye. A négyzetösszeg olyan mérték, amely nyomon követi, hogy a megfigyelések mennyiben különböznek az adatkészlet átlagától. Ezt úgy számítják ki, hogy először megkülönböztetik a különbséget az átlag és a halmaz minden pontja között. Ezután e különbségek mindegyike négyzetbe kerül. Végül az összes négyzet alakú összeadódik. Minél kisebb a négyzetes számok összege, annál jobban illeszkedik a funkció a halmaz adatpontjaiba. A nemlineáris regresszió logaritmikus függvényeket, trigonometrikus függvényeket, exponenciális függvényeket és egyéb illesztési módszereket használ.
A nemlineáris regresszió lebontása
A nemlineáris regressziós modellezés hasonló a lineáris regressziós modellezéshez, mivel mindkettő grafikusan követni kívánja egy adott választ a változók halmaza alapján. A nemlineáris modellek bonyolultabbok, mint a lineáris modellek, mivel a funkciót közelítő sorozat (iteráció) hozza létre, amely próba-és hiba eredménye lehet. A matematikusok számos bevált módszert használnak, mint például a Gauss-Newton módszer és a Levenberg-Marquardt módszer.