Î:
Cum pot folosi inginerii să crească gradient pentru a îmbunătăți sistemele de învățare a mașinilor?
A:Ca și alte tipuri de stimulare, stimularea gradientului încearcă să transforme mai mulți studenți slabi într-un singur elev puternic, într-un fel de „aglomerare” digitală a potențialului de învățare. Un alt mod în care unii explică stimularea gradientului este faptul că inginerii adaugă variabile pentru a regla o ecuație vagă, pentru a produce rezultate mai precise.
Creșterea gradientului este, de asemenea, descrisă ca o abordare "iterativă", cu iterațiile posibil caracterizate drept adăugarea de studenți slabi individuali la un singur model de elev puternic.
Descărcare gratuită: învățarea mașinii și de ce contează |
Iată o descriere convingătoare a modului de a privi un tip de implementare de stimulare a gradientului care va îmbunătăți rezultatele învățării automate:
Administratorii de sistem au stabilit mai întâi un set de studenți slabi. Gândiți-vă, de exemplu, la o serie de entități AF, fiecare s-a așezat în jurul unei mese virtuale și care lucrează la o problemă, de exemplu, clasificarea binară a imaginilor.
În exemplul de mai sus, inginerii vor cântări mai întâi fiecare elev slab, eventual, în mod arbitrar, atribuind un nivel de influență lui A, B, C etc.
În continuare, programul va rula un set de imagini de antrenament. Apoi, având în vedere rezultatele, acesta va re-pondera gama de cursanți slabi. Dacă A a ghicit mult mai bine decât B și C, influența A va fi crescută în consecință.
În această descriere simplistă a unei îmbunătățiri a algoritmului, este relativ ușor de observat cum abordarea mai complexă va da rezultate îmbunătățite. Elevii slabi se „gândesc împreună” și, la rândul lor, optimizează o problemă de ML.
Ca urmare, inginerii pot folosi abordarea „ansamblului” de stimulare a gradientului în aproape orice fel de proiect ML, de la recunoașterea imaginii până la clasificarea recomandărilor utilizatorilor sau analiza limbajului natural. Este, în esență, o abordare „spirit de echipă” a ML, și una care primește multă atenție din partea unor jucători puternici.
Creșterea gradientului, în special, funcționează adesea cu o funcție de pierdere diferențiată.
Într-un alt model folosit pentru a explica creșterea gradientului, o altă funcție de acest tip de stimulare este aceea de a putea izola clasificările sau variabilele care, într-o imagine mai mare, sunt doar zgomot. Prin separarea arborelui de regresie sau a structurii de date a fiecărei variabile în domeniul unui elev slab, inginerii pot construi modele care vor „zgoni” cu mai multă precizie zgomotul. Cu alte cuvinte, semnificantul acoperit de ghinionul slab învățat slab va fi marginalizat, deoarece acel elev slab este re-ponderat în jos și i se va da o influență mai mică.