Inteligjenca artificiale, teknologjia në rritje në mijëra përdorime mund të jetë edhe ofenduese dhe politikisht jo e rregullt. Si ajo e krijuar nga Microsoft, që quhet Zo dhe që Kuranin e quan “mjaft të dhunshëm” dhe ka vënë në ndyshim vrasjen e Bin Laden.
Kanë qënë reporterët e BuzzFeed që kanë vënë në provë progrmain. Microsoft thotë se ka marrë masa për të hequr këtë lloj sjellje nga ana e programit dhe se përgjigje të tilla janë të rralla, transmeton tch.
Përveç të tjerash, sipas shoqërisë, asistenti ishte programuar për të injoruar fenë dhe politikën. Në fakt, nuk është hera e parë që Microsoft përballet me një probem të tillë. Disa kohë më parë, Tay, një tjetër program i tij i inteligjencës artificiale ka heshtur në Twitter pasi u bë racist.
-
5 korrik 2017 22:52
-
Shpërndaje në: