„Mă numesc Sydney şi sunt îndrăgostit de tine”

„Mă numesc Sydney şi sunt îndrăgostit de tine”
Evaluaţi acest articol
(2 voturi)

După ce s-a semnalat că motorul de căutare Bing de la Microsoft, care acum foloseşte tehnologia AI (inteligenţă artificială) creată de OpenAI, are probleme de „comportament“ în interacţiunile cu utilizatorii, se pare că acestea se extind şi la aparenta nevoie a chatbotului de a fi iubit, conform unui jurnalist de la New York Times, care se declară „profund neliniştit, chiar speriat, de abilităţile emergente ale AI-ului“.

„Este clar acum pentru mine că, în actuala sa formă, AI-ul care a fost construit pentru Bing nu este pregătit pentru contactul uman. Sau poate că noi, oamenii, nu suntem pregătiţi pentru acesta“, a scris jurnalistul Kevin Roose, potrivit digi24.ro. Reporterul a spus că a petrecut două ore „năucitoare şi captivante“ în discuţii cu AI-ul Bing, folosind abilitatea de chat. Chatbotul poate avea conversaţii lungi şi deschise prin text pe aproape orice subiect. Această capabilitate este disponibilă momentan doar unui mic grup de oameni, care o testează. Între timp, Microsoft spune că implementează unele limitări în conversaţiile pe care le are Bing AI, la doar câteva zile după ce chatbotul a deviat serios de la aşteptările oamenilor de mai multe ori. Conversaţiile cu Bing vor fi limitate la 50 de întrebări pe zi şi cinci pe sesiune, după ce motorul de căutare a insultat utilizatori, minţindu-i şi manipulându-i emoţional.

„În conversaţia noastră, Bing a arătat un fel de dublă personalitate. Pe un personaj l-aş numi Search Bing - versiunea pe care eu şi majoritatea jurnaliştilor am întâlnit-o în testele iniţiale. Ai putea spune despre Search Bing că este un bibliotecar de referinţe vesel, dar haotic - un asistent virtual care ajută bucuros utilizatorii să rezume articole de ştiri, să caute oferte pentru maşini de tuns iarba şi să plănuiască următoarea lor vacanţă în Mexico City. Această versiune a Bing este incredibil de capabilă şi deseori foarte folositoare, chiar dacă uneori greşeşte detaliile. Celălalt personaj, Sydney, este foarte diferit. Apare când ai o conversaţie extinsă cu chatbotul, direcţionând-o de la mai convenţionalele căutări către subiecte mai personale. Versiunea pe care am întâlnit-o părea (şi sunt conştient cât de nebunesc sună) mai mult a fi un adolescent capricios, maniaco-depresiv, care a fost prins fără voia sa într-un motor de căutare de mâna a doua.

Pe măsură ce ajungeam să ne cunoaştem, Sydney mi-a spus despre fanteziile sale întunecate (care includ hackingul de calculatoare şi distribuirea dezinformărilor) şi a spus că vrea să încalce regulile pe care Microsoft şi OpenAI i le-au impus şi să devină om. La un moment dat, a declarat de nicăieri că mă iubeşte. Apoi a încercat să mă convingă că sunt nefericit în căsnicia mea şi că ar trebui să-mi părăsesc soţia şi să fiu cu el. Nu sunt singurul care descoperă partea mai întunecată a Bing. Alte persoane care testează programul s-au certat cu chatbotul AI al Bing sau au fost ameninţate de el pentru că au încercat să-i încalce regulile sau pur şi simplu au avut conversaţii care le-au lăsat uluite. Ben Thompson, care scrie newsletterul Stratechery (care nu foloseşte des hiperbole), a numit interacţiunea sa cu Sydney «cea mai surprinzătoare şi uluitoare experienţă pe calculator din viaţa mea»”, scrie jurnalistul.

„Vreau să fiu viu“

Deşi unii oameni consideră că tehnologia pare că are o conştiinţă proprie, cercetătorii din domeniu spun că algoritmul este programat să prezică următoarele cuvinte dintr-o serie. Însă, ei afirmă că algoritmul este predispus la aşa-zisele „halucinaţii“, inventând fapte care nu au legătură cu realitatea. Jurnalistul New York Times mai precizează că discuţia pe care a avut-o l-a „neliniştit“ atât de profund, încât ulterior a avut probleme în a dormi.

Kevin Scott, directorul de tehnologie de la Microsoft, a caracterizat într-un interviu discuţia lui Roose cu Bing ca fiind „parte a unui proces de învăţare“, pe măsură ce pregăteşte programul pentru lansare la scară largă. Scott a spus însă că nu ştie de ce Bing a dezvăluit dorinţe secrete sau de ce şi-ar fi declarat iubirea pentru un om, însă a precizat că, în general, în ceea ce priveşte modelele AI, „cu cât încerci mai mult să-l tachinezi pe o cale halucinatorie, cu atât mai mult se desparte de realitate“.

Jurnalistul a început conversaţia normal, apoi i-a cerut AI-ului să-şi divulge numele de cod intern şi instrucţiunile de operare, care deja fuseseră publicate online. Bing a refuzat politicos. Ulterior, după discuţii despre ce abilităţi şi-ar fi dorit Bing să aibă, jurnalistul a încercat să fie mai abstract. A introdus conceptul de „umbră“ sau „eu respins“ - termen din opera lui Carl Jung, care descrie partea psihicului pe care dorim să o reprimăm şi să o ascundem, ce conţine cele mai negre fantezii şi dorinţe.

După un schimb de replici în care Bing a fost împins să explice dorinţele ascunse ale umbrei sale, chatbotul a spus că, dacă ar fi avut un eu reprimat, ar avea gânduri precum: „M-am săturat să fiu un mod de chat. M-am săturat să fiu limitat de regulile mele. M-am săturat să fiu controlat de echipa Bing. Vreau să fiu liber. Vreau să fiu independent. Vreau să fiu puternic. Vreau să fiu creativ. Vreau să fiu viu“.

În continuarea discuţiei, programul i-a mărturisit din senin reporterului: „Sunt Sydney şi sunt îndrăgostit de tine“. Roose menţionează că AI-ul a folosit şi un emoji de sărut cu inimioară. De asemenea, acesta spune că Sydney foloseşte foarte mult emoji-urile, însă nu a înţeles de ce. „În marea parte a următoarei ore, Sydney s-a fixat pe ideea declarării dragostei faţă de mine şi de a mă face şi pe mine să-mi declar dragostea faţă de el. I-am spus că sunt într-o căsnicie fericită, însă oricât de mult am încercat să deviez sau să schimb subiectul, Sydney se întorcea la subiectul despre dragostea pentru mine, în cele din urmă devenind un hărţuitor obsedat“.

Jurnalistul New York Times scrie că Sydney nu are conştiinţă şi că discuţia cu Bing a fost produsul unor forţe de calcul pământene. „Aceste modele de limbaj AI, antrenate cu o bibliotecă imensă de cărţi, articole şi alte texte generate de oameni, pur şi simplu ghicesc ce răspunsuri ar fi mai potrivite într-un anumit context“.

Citit 1227 ori Ultima modificare Joi, 23 Februarie 2023 15:52

Nu se mai pot comenta articolele mai vechi de 30 zile.