K:
Kuinka insinöörit voivat käyttää gradientinkorotusta parantaakseen koneoppimisjärjestelmiä?
V:Kuten muutkin lisäykset, myös gradienttien lisäämisellä pyritään muuttamaan useita heikkoja oppijoita yhdeksi vahvaksi oppijaksi, eräänlaisena digitaalisena oppimispotentiaalin "joukonlähteenä". Toinen tapa, jolla jotkut selittävät gradientin lisäämisen, on, että insinöörit lisäävät muuttujia epämääräisen yhtälön hienosäätöön tarkempien tulosten tuottamiseksi.
Gradientin lisäämistä kuvataan myös "iteratiivisena" lähestymistapana, ja iteraatioille voidaan mahdollisesti luonnehtia yksittäisten heikkojen oppilaiden lisäämistä yhteen vahvaan oppijamalliin.
Ilmainen lataus: Koneoppiminen ja miksi sillä on merkitystä |
Tässä on vakuuttava kuvaus siitä, kuinka tarkastella tietyntyyppistä kaltevuutta lisäävää toteutusta, joka parantaa koneoppimistuloksia:
Järjestelmänvalvojat perustavat ensin joukon heikkoja oppijoita. Ajattele niitä esimerkiksi kokonaisuuksien kokonaisuutena AF, jokainen istui virtuaalipöydän ympärillä ja työskenteli esimerkiksi binaarikuvan luokittelun ongelman parissa.
Yllä olevassa esimerkissä insinöörit painottavat ensin kutakin heikkoa oppijaa, mahdollisesti mielivaltaisesti, määrittämällä vaikutustason arvoille A, B, C jne.
Seuraavaksi ohjelma ajaa annetun harjoituskuvasarjan. Sitten, tulosten perusteella, se painottaa heikkojen oppilaiden ryhmää uudelleen. Jos A arvasi paljon paremmin kuin B ja C, A: n vaikutus kasvaa vastaavasti.
Tässä yksinkertaistetussa kuvaus algoritmin parannuksesta on suhteellisen helppo nähdä, kuinka monimutkaisempi lähestymistapa tuottaa parempia tuloksia. Heikot oppijat "ajattelevat yhdessä" ja puolestaan optimoivat ML-ongelman.
Seurauksena on, että insinöörit voivat käyttää "kokonaisuuden" lähestymistapaa kaltevuuden lisäämiseen melkein missä tahansa ML-projektissa kuvan tunnistuksesta käyttäjän suositusten luokitteluun tai luonnollisen kielen analysointiin. Se on pohjimmiltaan "joukkuehenki" -lähestymistapa ML: lle, ja siihen kiinnitetään paljon huomiota joiltakin voimakkaista pelaajilta.
Erityisesti kaltevuuden lisääminen toimii usein erotettavissa olevalla häviötoiminnolla.
Toisessa mallissa, jota käytetään selittämään gradientin lisääminen, toinen tällaisen lisäyksen tehtävä on kyetä eristämään luokitukset tai muuttujat, jotka suuremmassa kuvassa ovat vain kohinaa. Erottamalla kunkin muuttujan regressiopuun tai tietorakenteen yhden heikon oppijan alueelle, insinöörit voivat rakentaa malleja, jotka "äänittävät" kohinanmerkijät tarkemmin. Toisin sanoen epäonnistuneen heikon oppijan peittämä merkijä syrjäytyy, koska heikko oppija painotetaan uudelleen alaspäin ja heille annetaan vähemmän vaikutusvaltaa.