Ce este AI slabă
AI slabă, sau AI îngustă, este o inteligență a mașinii care este limitată la o zonă specifică sau îngustă. Inteligența artificială slabă (AI) simulează cogniția umană și aduce beneficii omenirii automatizând sarcini care consumă timp și analizând datele în moduri pe care oamenii uneori nu le pot.
ÎNCĂRCARE ÎN DOMENIU AI
AI slabă lipsește conștiința umană, deși poate fi în măsură să o simuleze. Ilustrația clasică a AI slabă este experimentul chinezesc de gândire al camerei lui John Searle. Acest experiment spune că o persoană din afara unei încăperi ar putea avea ceea ce pare a fi o conversație în limba chineză cu o persoană din interiorul unei încăperi căreia i se oferă instrucțiuni despre cum să răspundă la conversațiile în chineză. Persoana din interiorul camerei pare să vorbească chinezește, dar, în realitate, nu putea să vorbească sau să înțeleagă un cuvânt din ea absentă instrucțiunilor prin care sunt hrăniți. Asta pentru că persoana respectă instrucțiunile, nu vorbind chineză. S-ar putea să pară că au AI puternică - inteligența mașinii echivalentă cu inteligența umană - dar au într-adevăr doar AI slab.
Sistemele AI înguste sau slabe nu au inteligență generală; au inteligență specifică. Un AI care este expert în a vă spune cum să conduceți din punctul A în punctul B este de obicei incapabil să vă provoace la un joc de șah. Și o IA care se poate preface că vorbește chineză cu tine, probabil nu îți poate mătura podelele.
AI slab ajută la transformarea datelor mari în informații utilizabile, detectând tipare și făcând predicții. Printre exemple se numără fluxul de știri Facebook, achizițiile sugerate de Amazon și Siri-ul Apple, tehnologia iPhone care răspunde la întrebările rostite de utilizatori. Filtrele de spam prin e-mail sunt un alt exemplu de AI slabă, unde un computer folosește un algoritm pentru a afla ce mesaje sunt probabil spam, apoi le redirecționează din inbox către folderul spam.
Limitările AI-ului slab
Problemele cu AI slab, pe lângă capacitățile sale limitate, includ posibilitatea de a provoca vătămări în cazul în care un sistem nu reușește - gândiți-vă la o mașină fără șofer care să calculeze greșit locația unui vehicul care se apropie și să provoace o coliziune mortală - și posibilitatea de a provoca daune dacă sistemul este utilizat de cineva care dorește să provoace vătămare - cum ar fi un terorist care folosește o mașină cu autovehicul pentru a desfasura explozibili într-o zonă aglomerată. O altă problemă în legătură cu aceasta este de a determina cine are vina pentru o defecțiune sau un defect de proiectare.
O preocupare suplimentară este pierderea locurilor de muncă cauzată de automatizarea unui număr tot mai mare de sarcini. Va crește șomajul sau va veni societatea cu noi modalități pentru ca oamenii să fie productivi economic? Deși perspectiva unui procent mare de lucrători să-și piardă locul de muncă ar putea fi îngrozitoare, este rezonabil să ne așteptăm ca, în acest caz, să apară noi locuri de muncă pe care încă nu le putem prevedea, deoarece utilizarea AI devine tot mai răspândită.
