Î:
De ce este prejudecata mașinii o problemă în învățarea mașinii?
A:La această întrebare se poate răspunde în două moduri diferite. În primul rând, de ce este problema de prejudecată a mașinilor, ca de altfel, de ce există în procesele de învățare automată?
Învățarea automată, deși sofisticată și complexă, este într-o măsură limitată pe baza seturilor de date pe care le folosește. Construirea seturilor de date implică prejudecăți inerente. La fel ca în mass-media, unde omisiile și alegerile deliberate de includere pot arăta o prejudecată particulară, în învățarea automată, seturile de date care sunt utilizate trebuie examinate pentru a determina ce tip de prejudecată există.
Descărcare gratuită: învățarea mașinii și de ce contează |
De exemplu, este o problemă comună pentru testarea tehnologiei și procesele de proiectare pentru a arăta o preferință pentru un tip de utilizator față de altul. Un mare exemplu este disparitatea de gen în lumea tehnologiei.
De ce face această diferență și de ce se aplică învățării automate?
Deoarece lipsa femeilor existente într-un mediu de testare poate duce la o tehnologie produsă care este mai puțin ușor de utilizat pentru publicul feminin. Modul în care unii experți descriu acest lucru este faptul că, fără testarea feminină existentă, produsul final poate să nu recunoască aportul utilizatorilor de sex feminin - s-ar putea să nu aibă instrumente pentru a recunoaște identitățile de sex feminin sau pentru a trata în mod adecvat aportul de la femei.
Același lucru este valabil pentru diverse etnii, oameni de religii diferite sau orice alt tip de demografie. Fără date corecte, algoritmii de învățare automată nu vor funcționa corect pentru un set de utilizatori dat, astfel încât datele de includere trebuie adăugate în mod deliberat în tehnologie. În loc să ia doar seturi de date primare și să consolideze prejudecățile inerente, operatorii umani trebuie să privească cu adevărat problema.
Un alt exemplu este un motor de învățare a mașinilor care preia informații despre salarii și salarii și scoate rezultate. Dacă acel set de date inerent nu este analizat, aparatul va consolida prejudecata. Dacă percepe că bărbații dețin marea majoritate a locurilor de muncă executive, iar procesul de învățare automată implică filtrarea prin setul de date brute și returnarea rezultatelor corespunzătoare, va reveni rezultatele care arată o prejudecată masculină.
A doua parte a întrebării implică de ce această prejudecată este atât de dăunătoare. Fără supraveghere și testare adecvată, noile tehnologii pot dăuna, nu ajută, sentimentul nostru de incluziune și egalitate. Dacă este lansat un produs tehnologic nou, care recunoaște fețele cu pielea mai deschisă, dar nu cele cu pielea mai închisă, poate duce la tensiuni etnice crescute și în sensul că compania în cauză nu este sensibilă la diversitate. Dacă un algoritm de învățare automată reproduce și mărește prejudecata în seturile de date, acea inteligență artificială își va adăuga vocea vocilor umane și tendințelor umane care există deja în sistemul social care favorizează un grup de oameni peste altul.
Cel mai bun mod de a face acest lucru este să priviți cu atenție seturile de date care stau la baza acestora, să utilizați selecția de caracteristici, să adăugați inputuri variabile și să manipulați seturile de date brute și să spori puterea reală a învățării mașinilor cu o elaborare deliberată a datelor umane, pentru a obține un rezultat care oferă o mare putere analitică, dar și unele dintre acele perspective umane pe care calculatoarele încă nu le pot reproduce.