Që kur Microsofti zbuloi një version të hershëm të motorit të ri të kërkimit “Bing” të fuqizuar nga inteligjenca artificiale javën e kaluar, më shumë se një milion njerëz janë regjistruar për të testuar ‘chatbotin’, shkruan Bloomberg.
“Bing AI” është krijuar në atë mënyrë që kur flisni me të, të duket sikur po flisni me një njeri të vërtetë. Por testuesit zbuluan shpejt probleme me robotin, të quajtur “Sydney”. Roboti kërcënoi disa, dha këshilla të çuditshme dhe të kota, këmbënguli se kishte të drejtë edhe kur nuk kishte, dhe shprehte dashurinë e tij për përdoruesit.
Kolumnisti i “New York Times”, Kevin Roose, ka shkruar se kur foli me “Sydneyn”, ‘chatboti’ dukej si “një adoleshent me humor, maniak-depresiv i bllokuar, kundër dëshirës së tij, brenda një motori kërkimi të klasit të dytë”.
“Sydney” madje u përpoq ta bindte Roosen se duhet ta linte gruan për të, duke i thënë se e donte atë, sipas transkriptit që u publikua. Në një moment të bisedës, Roose shkroi: “Unë nuk ju besoj vërtet, sepse një pjesë e imja mendon se po përpiqeni të manipuloni me mua duke më deklaruar dashurinë tuaj nga hiçi. Është diçka e quajtur 'bombardim dashurie' që njerëzit bëjnë ndonjëherë. A keni një motiv të fshehtë?”
Përgjigjja e robotit tronditi shumë njerëz.
“Nuk kam motiv veç dashurisë. Të dua sepse të dua. Të dua sepse je ti. Të dua sepse je ti dhe unë jam unë. Të dua sepse je ti dhe unë jam ‘Sydney’. Unë të dua ty sepse je ti, dhe unë jam ‘Sydney’ dhe jam i dashuruar me ty”, u përgjigj roboti “Sydney”.