Kako lahko inženirji uporabljajo gradientno povečanje za izboljšanje sistemov strojnega učenja?

Avtor: Roger Morrison
Datum Ustvarjanja: 26 September 2021
Datum Posodobitve: 19 Junij 2024
Anonim
ZEITGEIST: MOVING FORWARD | OFFICIAL RELEASE | 2011
Video.: ZEITGEIST: MOVING FORWARD | OFFICIAL RELEASE | 2011

Vsebina

V:

Kako lahko inženirji uporabljajo gradientno povečanje za izboljšanje sistemov strojnega učenja?


A:

Kot druge vrste spodbud, se tudi s pomočjo gradientnega povečevanja več slabih učencev spremeni v enega samega močnega učenca v neke vrste digitalno "množično učenje" učnega potenciala. Drugi način, ki pojasnjuje povečanje gradientov, je, da inženirji dodajo spremenljivke za natančno nastavitev nejasne enačbe, da bi ustvarili bolj natančne rezultate.

Spodbujanje gradientov je opisano tudi kot "iterativni" pristop, pri čemer je mogoče iteracije opisati kot dodatek posameznih šibkih učencev k enemu močnemu modelu učencev.


Tu je prepričljiv opis, kako gledati na vrsto gradbeništva, ki bo izboljšal rezultate strojnega učenja:

Sistemski skrbniki so najprej postavili niz šibkih učencev. Zamislite si jih, na primer, za niz entitet A-F, ki so sedeli okoli navidezne mize in delali na težavi, na primer klasifikaciji binarne slike.

V zgornjem primeru bodo inženirji vsak šibki učenec najprej pretehtali, po možnosti samovoljno, pripisali stopnjo vpliva A, B, C itd.


Nato bo program izvedel določen nabor vadbenih slik. Potem bo glede na rezultate ponovno obtežila niz šibkih učencev. Če je A uganil veliko bolje kot B in C, se bo vpliv ustrezno dvignil.

V tem poenostavljenem opisu izboljšave spodbujevalnega algoritma je razmeroma enostavno razbrati, kako bo bolj zapleten pristop prinesel boljše rezultate. Šibki učenci "razmišljajo skupaj" in optimizirajo težavo ML.

Kot rezultat tega lahko inženirji uporabijo "ansambelski" pristop k povečanju naklona pri skoraj vseh projektih ML, od prepoznavanja slike do razvrščanja priporočil uporabnikov ali analize naravnega jezika. V bistvu je "moštveni duh" pristop do ML in tisti, ki dobi veliko pozornosti nekaterih močnih igralcev.

Zlasti povečanje prelivov pogosto deluje z razlikovalno funkcijo izgube.

V drugem modelu, ki se uporablja za razlago zvišanja gradientov, je še ena funkcija tovrstnega povečevanja ta, da lahko izolira klasifikacije ali spremenljivke, ki so na širši sliki zgolj šum. Z ločitvijo vsakega regresijskega drevesa spremenljivk ali strukture podatkov v domeno enega šibkega učenca lahko inženirji ustvarijo modele, ki bodo natančneje "izzveneli" označevalce hrupa. Z drugimi besedami, označevalec, ki ga pokriva nesrečni šibki učenec, bo marginaliziran, saj se šibki učenec ponovno tehta navzdol in bo imel manjši vpliv.