Cuprins:
- Definiție - Ce înseamnă inteligența artificială explicabilă (XAI)?
- Techopedia explică Inteligența artificială explicabilă (XAI)
Definiție - Ce înseamnă inteligența artificială explicabilă (XAI)?
Inteligența artificială explicabilă (XAI) este un termen cheie în designul AI și în comunitatea tehnologică în ansamblu. Se referă la eforturile de a se asigura că programele de inteligență artificială sunt transparente în scopurile lor și în modul de funcționare. AI explicabilă este un obiectiv și un obiectiv comun pentru ingineri și alții care încearcă să avanseze cu progresul inteligenței artificiale.
Inteligența artificială explicabilă este cunoscută și ca inteligență artificială transparentă.
Techopedia explică Inteligența artificială explicabilă (XAI)
Ideea din spatele AI explicabilă este că programele și tehnologiile AI nu ar trebui să fie „modele de cutii negre” pe care oamenii nu le pot înțelege. Experții spun prea des, programele de inteligență artificială sacrifică transparența și explicabilitatea pentru rezultate sofisticate experimentale. Algoritmi puternici pot dovedi rezultate utile fără a arăta de fapt cum au ajuns la aceste rezultate.
Inteligența artificială explicabilă este, de asemenea, o parte cheie a aplicării eticii la AI. După cum au subliniat liderii tehnologici precum Elon Musk, inteligența artificială poate ajunge să aibă pozitive sau negative negative, în funcție de modul în care este folosit de oameni și de modul în care este construită de oameni.
AI explicabilă ajută la urmărirea AI etică, deoarece arată modul în care mașinile efectuează munca de calcul și unde pot apărea probleme.