Î:
Cum ridică robotul „Sophia” din Arabia Saudită înfricoșătoare a noilor întrebări de securitate cibernetică?
A:Una dintre cele mai tari tehnologii noi de inteligență artificială este un robot de dimensiuni reale, creat pentru a arăta și a acționa ca o femeie.
Numele ei este Sophia și este produsă de Hanson Robotics, o companie din Hong Kong. De ce este robotul Arabiei Saudite? Pentru că acest stat din Golf a oferit Sofiei un drept cheie al omului: dreptul de cetățenie.
Aceasta creează multe titluri și declanșează tot felul de dezbateri despre cât de rapid se întâmplă inteligența artificială și de ce ar trebui să ne intereseze. Una dintre problemele majore este cibersecuritatea - cum se va adapta domeniul cibersecurității la aceste tipuri de tehnologii noi?
Sophia și tehnologiile similare ridică probleme cheie de securitate cibernetică pe care nu le-am abordat anterior. Iată câteva dintre lucrurile la care ar trebui să se gândească profesioniștii și experții, pe măsură ce utilizează roboți care privesc, vorbesc și acționează ca noi.
În general, noua interfață robotică realistă este mai sofisticată decât cu ce ne-am obișnuit în trecut și asta înseamnă o serie de noi probleme de securitate cibernetică. În lumea tehnologiei, oamenii vorbesc despre faptul că au o „suprafață de atac subțire”, de exemplu, într-o configurație hipervizor sau încorporată în securitatea de pe server. Un robot care merge, vorbind, pe de altă parte, este o suprafață de atac foarte groasă - deoarece interfețele sunt sofisticate, există numeroase modalități prin care hackerii și actorii răi pot exploata vulnerabilitățile.
Un tip foarte specific de problemă de securitate cibernetică este amestecat cu o varietate de probleme sociale - ai putea să-l numești „sindromul impostor”, deși acest termen a fost utilizat în mod popular pentru a descrie funcționările trecătoare ale oamenilor de știință ilegitimi.
Orice ai numi, problema este că, întrucât inteligența artificială imită anumiți oameni cu un grad mai mare de succes, va deveni mai greu să ne asigurăm că nu suntem supuși unor înșelăciuni extrem de elaborate care ne fac să punem la îndoială adevărul. Puteți vedea deja exemple de oameni care folosesc tehnologii cu totul noi pentru a imita politicienii celebri, precum în acest videoclip al lui Barack Obama în care apare comedianul Jordan Peele. Problema impostorului se va dezvolta și se va extinde doar pe măsură ce inteligența artificială ne oferă noi ferestre către gânduri și comportamente umane de inginerie inversă.
De asemenea, în general, aceste noi interfețe și capabilități vor crește cursa armelor deja în curs de desfășurare între profesioniștii de securitate și hackerii. James Maude scrie despre acest lucru într-un articol despre Xconomy, numind AI o „sabie cu două tăișuri” pentru cibersec și arătând că, în general, atacul este mai puțin costisitor decât apărarea și notarea preocupărilor cu privire la confidențialitate și securitate. Extrapolați unele dintre aceste argumente la robotul AI și puteți vedea cum, cu forța și capacitatea, există pericol și o nevoie de disciplină.
O altă mare problemă nouă cu Sophia și roboții mobile este că sunt în mișcare.
Ne-am obișnuit cu tehnologii precum Watson de la IBM, care realizează o activitate cognitivă extrem de înaltă, rămânând așezați într-un centru de date sau într-o structură hardware staționară. La asta ne-am obișnuit - de la cele mai vechi scheme principale la laptopurile actuale, cu toții am folosit hardware staționar. Acum avem telefoane mobile, dar sunt într-adevăr computere de buzunar. Calculatoarele robotizate senzitive sunt uimitor de diferite. Sunt piese care se mișcă autonom, care pot fi armate de părți rău intenționate. Un articol al Reuters care analizează viteza de abordare a problemelor de cibersecuritate a robotului arată cum, de exemplu, roboții ar putea fi făcuți să „zăbovească” sau să se deplaseze rapid și necorespunzător pentru a provoca vătămări.
În cele din urmă, Sophia și roboți ca ea ridică o mulțime de probleme de securitate cibernetică și alte preocupări. Cum vom distinge activitatea legitimă de activitatea înșelătoare și nelegitimă atunci când interfața nu este o rețea conectată digital, ci o piesă hardware care ne poate păcăli să gândim că acționează în mod uman? Trecerea acestui pod va necesita cantități enorme de muncă tehnologică și etică pentru a ne asigura că oamenii păstrează frâiele și că vom folosi aceste tehnologii foarte puternice pentru binele civic.