Inteligjenca artificiale, teknologjia në rritje në mijëra përdorime mund të jetë edhe ofenduese dhe politikisht jo e rregullt. Si ajo e krijuar nga Microsoft, që quhet Zo dhe që Kuranin e quan “mjaft të dhunshëm” dhe ka vënë në ndyshim vrasjen e Bin Laden.
Kanë qënë reporterët e BuzzFeed që kanë vënë në provë progrmain. Microsoft thotë se ka marrë masa për të hequr këtë lloj sjellje nga ana e programit dhe se përgjigje të tilla janë të rralla, transmeton tch.
Mbështete KOHËN. Ruaje të vërtetën.
Gazetaria profesionale është interes publik. Mbështetja juaj ndihmon që ajo të mbetet e pavarur dhe e besueshme. Kontribuoni edhe ju. 1 euro e bën dallimin.
Letër lexuesit — pse po kërkojmë mbështetjen tuaj KontribuoPërveç të tjerash, sipas shoqërisë, asistenti ishte programuar për të injoruar fenë dhe politikën. Në fakt, nuk është hera e parë që Microsoft përballet me një probem të tillë. Disa kohë më parë, Tay, një tjetër program i tij i inteligjencës artificiale ka heshtur në Twitter pasi u bë racist.