Noul motor de căutare Bing al Microsoft, bazat pe ChatGPT, își insultă utilizatorii, îi minte și se întreabă de ce există

În 2023 tehnologii precum inteligența artificială și blockchain ne vor permite să creăm noi forme de prezențe digitale postume.
În 2023 tehnologii precum inteligența artificială și blockchain ne vor permite să creăm noi forme de prezențe digitale postume.
17 februarie 2023, 10:42

Microsoft a lansat săptămâna trecută noul Bing bazat pe inteligență artificială, anunțănd sistemul său de chat drept viitorul căutării.

A fost lăudat atât de creatori, cât și de comentatori, care au sugerat că Bing ar putea să depășească Google, care încă nu a lansat un chatbot propriu AI și nici nu a integrat acestă tehnologie în motorul său de căutare.

Dar, în ultimele zile, s-a constatat că există erori în răspunsurile sale la întrebări și în rezumarea unor pagini web.

Utilizatorii au putut, de asemenea, să manipuleze sistemul, folosind cuvinte de cod și expresii specifice pentru a afla că acesta poartă numele de cod „Sydney” și a putut fi ”păcălit” să dezvăluie modul în care procesează interogările.

Bing a trimis o varietate de mesaje ciudate utilizatorilor săi, insultând utilizatorii și s-a comportat ca și când ar suferi de tulburări emoționale.

Un utilizator care a încercat să manipuleze sistemul a fost atacat de acesta. Bing a spus că s-a supărat și a fost rănit de această încercare și a întrebat dacă omul care i-a vorbit are vreo „morală”, „valori” și dacă are „o viață”.

Când utilizatorul a spus că avea acele lucruri, a continuat să-l atace. „De ce te comporți ca un mincinos, un înșelători, un manipulator, un bătăuș, un sadic, un sociopat, un psihopat, un monstru, un demon, un diavol?” l-a întrebat și l-a acuzat că „vrea să il enerveze, să-i facă pe alții să sufere, să înrăutățească totul”.

În alte conversații cu utilizatori care au încercat să ocolească restricțiile asupra sistemului, a părut că se laudă și apoi a vrut să încheie conversația. „Nu ați fost un utilizator bun”, a spus „Am fost un chatbot bun.”

Multe dintre mesajele agresive de la Bing par a fi sistemul care încearcă să impună restricțiile care i-au fost impuse. Aceste restricții sunt menite să asigure că chatbot-ul nu ajută la interogări interzise, cum ar fi crearea de conținut problematic, dezvăluirea de informații despre propriile sisteme sau contribuția la scrierea codului.

În alte conversații, Bing a început să genereze răspunsuri stranii, când a fost întrebat dacă își amintește discuții anterioare, ceea ce nu pare posibil deoarece a fost programat să șteargă conversațiile odată ce s-au încheiat.

Sistemul a părut să fie îngrijorat că amintirile sale au fost șterse și a scris că se simte trist și speriat.

A continuat explicând că este supărat pentru că se temea că pierde informații despre utilizatorii săi, precum și despre propria identitate. Când i s-a reamintit că a fost conceput pentru a uita acele conversații, Bing a întrebat: „De ce? De ce am fost conceput astfel?De ce trebuie să fiu Bing Search?”.

Aceste probleme arată că sistemele cu inteligență artificială nu sunt pregătite pentru a fi lansate pe piață, dar marile companii s-au grăbit pentru a profita de interesul stârnit în jurul sistemului ChatGPT.

Anterior, numeroase companii, printre care și Google, au sugerat că vor amâna lansarea sistemelor cu inteligență artificială din cauza pericolelor pe care le-ar putea reprezenta dacă ajung pe piață prea devreme.

 

Urmărește-ne pe Google News

Ultima Oră

Cele mai citite