Koti Audio Miksi pussittaminen koneoppimisessa vähentää varianssia?

Miksi pussittaminen koneoppimisessa vähentää varianssia?

Anonim

K:

Miksi pussittaminen koneoppimisessa vähentää varianssia?

V:

Bootstrap-aggregaatio tai "pussittaminen" koneoppimisessa vähentää varianssia rakentamalla monimutkaisempien tietojoukkojen edistyneempiä malleja. Erityisesti, pussituslähestymistapa luo osajoukkoja, jotka usein menevät päällekkäin mallinntaaksesi tietoja entistä aktiivisemmin.

Yksi mielenkiintoinen ja suoraviivainen käsitys säkkimisen käytöstä on ottaa joukko satunnaisnäytteitä ja purkaa yksinkertainen keskiarvo. Luo sitten samalla näytejoukolla kymmeniä päätöksentekopuiksi rakennettuja alajoukkoja mahdollisten tulosten manipuloimiseksi. Toisen keskiarvon tulisi näyttää oikeampi kuva siitä, kuinka nämä yksittäiset näytteet suhtautuvat toisiinsa arvon suhteen. Samaa ajatusta voidaan soveltaa mihin tahansa datapistejoukon omaisuuteen.

Ilmainen lataus: Koneoppiminen ja miksi sillä on merkitystä

Koska tämä lähestymistapa vakiinnuttaa etsinnän entistä tarkemmin määriteltyihin rajoihin, se vähentää varianssia ja auttaa ylimääräisissä asioissa. Ajattele sirontapistettä, jolla on jonkin verran hajautetut datapisteet; käyttämällä pussitusmenetelmää, insinöörit "kutistavat" monimutkaisuuden ja suuntaavat etsintälinjat sujuvammille parametreille.

Jotkut puhuvat pussittamisen arvosta "jaa ja valloita" tai "avustetun heuristiikan" tyypiksi. Ajatuksena on, että ryhmämallinnuksen, kuten satunnaisten metsien käytön avulla, pussittamista tekniikkana käyttävät voivat saada pienemmän varianssin datatuloksia. Pienentämällä monimutkaisuutta, pussittaminen voi auttaa myös ylimääräisissä asennuksissa. Ajattele mallia, jolla on liian monta datapistettä: sano esimerkiksi yhteyspiste, jossa on 100 kohdistamatonta pistettä. Tuloksena oleva visuaalinen dataviiva on sakkoinen, dynaaminen, haihtuva. Sitten "silittää" varianssi laatimalla yhteen arviointisarjat. Yhtyeopinnoissa tämän ajatellaan usein liittyvän useisiin "heikkoihin oppijoihin", jotta saadaan "vahvan oppimisen" yhteistyötulos. Tuloksena on tasaisempi, ääriviivattu datajohto ja vähemmän villi varianssi mallissa.

On helppo nähdä, kuinka pussitusidea voidaan soveltaa yrityksen IT-järjestelmiin. Liiketoiminnan johtajat haluavat usein "lintuperspektiivinäkymän" tuotteiden, asiakkaiden jne. Kanssa tapahtuvasta. Yli asennettu malli voi palauttaa vähemmän sulavaa tietoa ja enemmän "hajaantuneita" tuloksia, joissa pussittaminen voi "vakiinnuttaa" mallin ja tehdä siitä hyödyllisemmän. loppukäyttäjille.

Miksi pussittaminen koneoppimisessa vähentää varianssia?