Acasă La stiri De ce este atât de importantă selecția caracteristicilor în învățarea mașinii?

De ce este atât de importantă selecția caracteristicilor în învățarea mașinii?

Anonim

Î:

De ce este atât de importantă selecția caracteristicilor în învățarea mașinii?

A:

Selectarea caracteristicilor este extrem de importantă în învățarea mașinii, în primul rând, deoarece servește ca tehnică fundamentală pentru a direcționa utilizarea variabilelor către ceea ce este cel mai eficient și mai eficient pentru un anumit sistem de învățare a mașinilor.

Experții vorbesc despre modul în care funcționează selecția caracteristicilor și extragerea caracteristicilor pentru a minimaliza blestemul dimensionalității sau pentru a ajuta la rezolvarea supraajustării - acestea sunt modalități diferite de a aborda ideea modelării excesiv de complexe.

Descărcare gratuită: învățarea mașinii și de ce contează

Un alt mod de a spune acest lucru este faptul că selecția de caracteristici ajută să le ofere dezvoltatorilor instrumente care să utilizeze doar cele mai relevante și utile date în seturile de instruire pentru învățare automată, ceea ce reduce dramatic costurile și volumul de date.

Un exemplu este ideea măsurării unei forme complexe la scară. Pe măsură ce programul se scalează, identifică un număr mai mare de puncte de date, iar sistemul devine mult mai complex. Dar o formă complexă nu este setul de date tipic pe care îl folosește un sistem de învățare automată. Aceste sisteme pot folosi seturi de date care au niveluri de varianță foarte diferite între variabile diferite. De exemplu, în clasificarea speciilor, inginerii pot utiliza selecția caracteristicilor pentru a studia doar variabilele care le vor oferi cele mai vizate rezultate. Dacă fiecare animal din diagramă are același număr de ochi sau picioare, datele respective pot fi eliminate sau pot fi extrase alte date relevante.

Selecția caracteristicilor este procesul discriminatoriu prin care inginerii direcționează sistemele de învățare a mașinilor către o țintă. Pe lângă ideea de a elimina complexitatea din sisteme la scară, selecția funcțiilor poate fi utilă și pentru optimizarea aspectelor a ceea ce experții numesc „compromisul diferențierii bias” în învățarea mașinilor.

Motivele pentru care selecția caracteristicilor ajută la părtinirea și analiza varianței sunt mai complicate. Un studiu de la Universitatea Cornell privind selecția caracteristicilor, variația părtinitoare și bagajul servește pentru a ilustra modul în care proiectele ajută selecția caracteristicilor.

Potrivit autorilor, lucrarea „examinează mecanismul prin care selecția caracteristicilor îmbunătățește precizia învățării supravegheate”.

Studiul afirmă în continuare:

O analiză empirică de părtinire / varianță pe măsură ce selecția caracteristicilor progresează indică faptul că setul de caracteristici cel mai precis corespunde celui mai bun punct de schimb de variație a prejudecăților pentru algoritmul de învățare.

Atunci când discută despre utilizarea unei relevanțe puternice sau slabe, scriitorii vorbesc despre selecția caracteristicilor ca „o metodă de reducere a varianței” - acest lucru are sens atunci când gândiți la variație ca în esență cantitatea de variație într-o anumită variabilă. Dacă nu există nicio variație, punctul sau tabloul de date pot fi în esență inutile. În cazul în care există o variație extrem de ridicată, s-ar putea implica în ceea ce inginerii ar putea considera „zgomot” sau rezultate irelevante, arbitrare, dificil de gestionat pentru sistemul de învățare a mașinilor.

Având în vedere acest lucru, selecția caracteristicilor este o parte fundamentală a proiectării în învățarea mașinii.

De ce este atât de importantă selecția caracteristicilor în învățarea mașinii?