ChatGPT va accelera șomajul tehnologic? Care vor fi cele mai sigure locuri de muncă, potrivit unui profesor de economie

ChatGPT va accelera șomajul tehnologic?
ChatGPT va accelera șomajul tehnologic?
13 ianuarie 2023, 14:28

Redăm opinia lui Barry Eichengreen.

***

Privind retrospectiv, anul 2022 va fi văzut ca anul în care inteligența artificială a câștigat credibilitate pe stradă. Lansarea ChatGPT de către laboratorul de cercetare OpenAI, cu sediul în San Francisco, a atras o mare atenție și a ridicat întrebări și mai mari.

În doar prima săptămână, ChatGPT a atras peste un milion de utilizatori și a fost folosit pentru a scrie programe de calculator, a compune muzică, a juca jocuri și a susține examenul de barou. Studenții au descoperit că poate scrie eseuri demne de o notă B – la fel ca profesorii, deși mai lent.

ChatGPT este departe de a fi perfect, la fel cum eseurile de calitate B ale studenților sunt departe de a fi perfecte. Informațiile pe care le furnizează sunt la fel de fiabile ca și informațiile de care dispune, care provin de pe internet. Modul în care utilizează aceste informații depinde de pregătirea sa, care implică învățarea supravegheată sau, altfel spus, întrebări puse și răspunsuri date de oameni.

Ponderile pe care ChatGPT le atribuie răspunsurilor posibile sunt derivate din învățarea prin întărire, în care oamenii evaluează răspunsul. Milioanelor de utilizatori ai ChatGPT li se cere să voteze în sus sau în jos răspunsurile robotului de fiecare dată când pun o întrebare. În același mod în care feedback-ul util din partea unui instructor poate învăța uneori un elev de calitate B să scrie un eseu de calitate A, nu este imposibil ca ChatGPT să obțină în cele din urmă note mai bune.

Această inteligență artificială rudimentară ne obligă să regândim ce sarcini pot fi îndeplinite cu o intervenție umană minimă. Dacă o inteligență artificială este capabilă să treacă examenul de admitere în barou, există vreun motiv pentru care nu poate scrie un memoriu juridic sau nu poate oferi sfaturi juridice solide? Dacă o inteligență artificială este capabilă să treacă examenul de licență de medicină al soției mele, există vreun motiv pentru care nu poate oferi un diagnostic sau sfaturi medicale solide?

O implicație evidentă este o deplasare mai rapidă a locurilor de muncă, în comparație cu valurile de automatizare din trecut, și o restructurare mai rapidă a locurilor de muncă supraviețuitoare. Iar locurile de muncă care vor fi eliminate prin automatizare nu se vor limita la cele slab calificate și prost plătite.

Mai puțin evident este cine este la adăpost de șomajul tehnologic. Ce trăsături umane, dacă există, nu va putea simula o inteligență artificială? Sunt aceste trăsături înnăscute sau pot fi învățate?

Cele mai sigure locuri de muncă vor fi cele care necesită empatie și originalitate. Empatia este capacitatea de a înțelege și de a împărtăși sentimentele și emoțiile altora. Ea creează compasiunea și înțelegerea interpersonală care sunt fundamentale pentru interacțiunile sociale și bunăstarea emoțională. Este deosebit de valoroasă în circumstanțe și perioade de dificultate. De aceea, empatia este apreciată în cazul liderilor religioși, al îngrijitorilor și al consilierilor de doliu.

Este posibil să ne imaginăm că, cu ajutorul unui software de recunoaștere facială, o inteligență artificială poate învăța să recunoască sentimentele interlocutorilor săi (că poate învăța ceea ce se numește „empatie cognitivă”). Dar, în mod evident, nu le poate împărtăși sentimentele (nu poate învăța „empatia afectivă”) în același mod în care soția mea, în momentele ei empatice, îmi împărtășește sentimentele. Adăugați acest lucru la lista de motive pentru care o inteligență artificială nu o poate înlocui pe soția mea, medicul meu sau rabinul meu.

Nu există un consens cu privire la faptul că empatia afectivă poate fi cultivată și învățată. Unii susțin că empatia afectivă este declanșată de neuronii-oglindă din creier care nu pot fi stimulați sau controlați în mod artificial. Empatia este doar ceva ce experimentăm, nu ceva ce putem învăța. De aici rezultă că unii dintre noi sunt mai bine pregătiți decât alții pentru a fi îngrijitori și consilieri de doliu.

Alți cercetători sugerează că acest răspuns emoțional poate fi într-adevăr învățat. Există chiar și o companie de formare pentru clinicienii medicali numită Empathetics Inc. Dacă este adevărat, ar fi posibil ca mai mulți oameni să poată fi pregătiți pentru locuri de muncă sigure în fața automatizării, unde este necesară empatia afectivă.

Dar dacă oamenii pot învăța empatia afectivă, atunci de ce nu o pot face și algoritmii? Ideea că locurile de muncă care necesită empatie afectivă vor rămâne la adăpost de automatizare presupune că oamenii pot distinge adevărata empatie de simulare.

Originalitatea înseamnă să faci ceva ce nu a mai fost făcut până acum, de exemplu, să creezi o pictură, o compoziție sau un comentariu de ziar cu totul diferit de ceea ce a fost făcut până acum. Originalitatea este diferită de creativitate, care presupune combinarea elementelor preexistente în moduri noi.

Un alt produs OpenAI, DALL-E, este capabil să genereze imagini sofisticate din descrieri textuale („o pictură a unui măr” sau „Mona Lisa cu mustață”). Acest lucru a creat o oarecare consternare în rândul artiștilor. Dar sunt oare răspunsurile sale, derivate cu ajutorul unui set de date mare de perechi text-imagine, opere de artă originale?

Este discutabil dacă acestea sunt originale în sensul de a descrie o imagine estetică plăcută, diferită de orice altă imagine văzută până acum, spre deosebire de combinarea elementelor vizuale existente asociate cu texte existente. Este posibil ca artiștii care mizează pe originalitate să nu aibă de ce să se teamă, presupunând, bineînțeles, că spectatorii pot distinge operele de artă originale de restul.

Din nou, nu există un consens cu privire la faptul că originalitatea este înnăscută sau poate fi învățată. Răspunsul, cel mai probabil, este: un pic din ambele.

Cât de îngrijorați ar trebui să fim? Scrieți „Scrieți un comentariu de 800 de cuvinte despre AI pentru Project Syndicate” în ChatGPT și judecați singuri.

Urmărește-ne pe Google News

Ultima Oră

Cele mai citite