Tregojini ChatGPT-së se çfarë keni në dollapin tuaj të kuzhinës dhe ai do t'ju japë një recetë. Keni nevojë për një hyrje të shpejtë në një prezantim të madh? Nuk ka problem. Por a është shumë mirë? Përafrimi i tij bindës i përgjigjeve njerëzore mund të jetë një mjet i fuqishëm për ata që nuk janë të mirë
(BBC) - Pavarësisht nëse bëhet fjalë për marrjen e këshillave të gatimit ose ndihmë me një fjalim, ChatGPT ka qenë mundësia e parë për shumë njerëz që të luajnë me një sistem të inteligjencës artificiale (AI).
ChatGPT bazohet në një teknologji të avancuar të përpunimit të gjuhës, e zhvilluar nga OpenAI.
Inteligjenca artificiale (AI) u trajnua duke përdorur bazat e të dhënave të tekstit nga interneti, duke përfshirë libra, revista dhe hyrje në Wikipedia. Në total, 300 miliardë fjalë u futën në sistem.
Rezultati përfundimtar është një Chatbot që mund të duket jashtëzakonisht njerëzor, por me një njohuri enciklopedike.
Tregojini ChatGPT-së se çfarë keni në dollapin tuaj të kuzhinës dhe ai do t'ju japë një recetë. Keni nevojë për një hyrje të shpejtë në një prezantim të madh? Nuk ka problem.
Por a është shumë mirë? Përafrimi i tij bindës i përgjigjeve njerëzore mund të jetë një mjet i fuqishëm për ata që nuk janë të mirë.
Ana e errët
Akademikët, studiuesit e sigurisë kibernetike dhe ekspertët e AI-së paralajmërojnë se ChatGPT mund të përdoret nga aktorë të këqij për të mbjellë mospajtim dhe për të përhapur propagandë në mediat sociale.
Deri më tani, përhapja e dezinformatave kërkonte punë të konsiderueshme njerëzore. Por një inteligjencë artificiale si ChatGPT do ta bënte shumë më të lehtë për të ashtuquajturat ushtri të trolleve të rrisin operacionet e tyre, sipas një raporti nga Universiteti Georgetown, Stanford Internet Observatory dhe OpenAI, të botuar në janar.
Sistemet e sofistikuara të përpunimit të gjuhës si ChatGPT mund të ndikojnë në të ashtuquajturat operacione të ndikimit në mediat sociale.
Fushata të tilla synojnë të shmangin kritikat dhe të mbështetin një parti qeverisëse ose politikan në një mënyrë pozitive, dhe ato gjithashtu mund të avokojnë pro ose kundër politikave. Duke përdorur llogari të rreme ata gjithashtu përhapin dezinformata në mediat sociale.
Një fushatë e tillë u nis në prag të zgjedhjeve të vitit 2016 në SHBA.
Mijëra llogari në Twitter, Facebook, Instagram dhe YouTube të krijuara nga Agjencia e Kërkimeve të Internetit me qendër në Shën Petersburg, të fokusuara në dëmtimin e fushatës së Hillary Clinton dhe mbështetjen e Donald Trump, përfundoi Komisioni i Senatit për Inteligjencën në 2019.
Sfida e ardhshme zgjedhore
Por zgjedhjet e ardhshme mund të kenë ponë me një përmbytje edhe të madhe të dezinformatave.
“Potenciali i modeleve gjuhësore për të rivalizuar përmbajtjen e shkruar nga njeriu me kosto të ulët sugjeron se këto modele, si çdo teknologji e fuqishme, mund të ofrojnë avantazhe të dallueshme për propagandistët që zgjedhin t'i përdorin ato”, thotë raporti i AI-së i lëshuar në janar.
"Këto avantazhe mund të zgjerojnë qasjen në një numër më të madh aktorësh, të mundësojnë taktika të reja ndikimi dhe të bëjnë mesazhet e një fushate shumë më të përshtatura dhe potencialisht efektive”, paralajmëron raporti.
Nuk është vetëm sasia e dezinformatave që mund të rritet, por është edhe cilësia.
Sistemet e inteligjencës artificiale mund të përmirësojnë cilësinë bindëse të përmbajtjes dhe t'i bëjnë ato mesazhe të vështira për t'u njohur nga përdoruesit e zakonshëm të internetit si pjesë e fushatave të koordinuara të dezinformimit, thotë Josh Goldstein, bashkautor i punimit dhe studiues në Qendrën për Sigurinë dhe Georgetown. Emerging Technology, ku ai punon në Projektin CyberAI.
"Modelet e gjuhës gjeneruese mund të prodhojnë një vëllim të madh përmbajtjeje që është origjinale çdo herë... dhe të lejojnë çdo propagandues të mos mbështetet në kopjimin dhe ngjitjen e të njëjtit tekst nëpër llogaritë e mediave sociale ose faqet e lajmeve”, thotë ai.
Propaganda
Goldstein vazhdon duke thënë se nëse një platformë vërshohet me informacione ose propagandë të pavërteta, do ta bëjë më të vështirë për publikun të dallojë se çfarë është e vërtetë. Shpesh, ky mund të jetë qëllimi i atyre aktorëve të këqij që marrin pjesë në operacionet e ndikimit.
Raporti i tij vë në dukje gjithashtu se si qasja në këto sisteme mund të mos mbetet domeni i disa organizatave.
“Tani për tani, një numër i vogël firmash ose qeverish zotërojnë modele gjuhësore të nivelit të lartë, të cilat janë të kufizuara në detyrat që mund të kryejnë me besueshmëri dhe në gjuhët që nxjerrin.
"Nëse më shumë aktorë investojnë në modele gjeneruese më të fundit, atëherë kjo mund të rrisë shanset që propagandistët të kenë qasje në to”, thotë raporti i tij.
Grupet e liga mund të shohin përmbajtje të shkruara nga AI të ngjashme me ato të padëshiruara, thotë Gary Marcus, specialist i AI-së dhe themelues i Geometric Intelligence, kompani e AI-së e blerë nga Uber në 2016.
“Njerëzit që përhapin mesazhe të padëshiruara mbështeten te njerëzit më sylesh për të klikuar në lidhjet e tyre, duke përdorur atë qasje dhe luten për të arritur sa më shumë njerëz që të jetë e mundur. Por me AI-në, ajo pistoletë me shirita mund të bëhet Super Thithësi më i madh i të gjitha kohërave”.
Për më tepër, edhe nëse platforma të tilla si Twitter dhe Facebook heqin tre të katërtat e asaj që ata autorë shpërndajnë në rrjetet e tyre, "ka ende të paktën 10 herë më shumë përmbajtje se më parë që mund të synojë të mashtrojë njerëzit në internet”, thekson Marcus.
Mjegullnajë virtuale
Rritja e llogarive të rreme të mediave sociale u bë një gjemb në anët e Twitter dhe Facebook, dhe maturimi i shpejtë i sistemeve të modeleve gjuhësore sot vetëm do t'i mbushë ato platforma me profile edhe më të rreme.
"Diçka si ChatGPT mund të shkallëzojë përhapjen e llogarive të rreme në një nivel që nuk e kemi parë më parë", thotë Vincent Conitzer, profesor i shkencave kompjuterike në Universitetin Carnegie Mellon, "dhe mund të bëhet më e vështirë të dallosh secilën prej atyre llogarive nga ato qenie njerëzore”.
Si hulumtimi i janarit 2023, me bashkëautor Goldsteinin, edhe një raport i ngjashëm nga firma e sigurisë WithSecure Intelligence, paralajmërojnë sesi modelet e gjuhëve gjeneruese mund të krijojnë shpejt dhe me efikasitet artikuj të lajmeve të rreme që mund të përhapen në mediat sociale, duke shtuar më tej përmbytjen e narrativa të rreme që mund të ndikojnë tek votuesit përpara zgjedhjeje vendimtare.
Por nëse keqinformimi dhe lajmet e rreme shfaqen si një kërcënim edhe më i madh për shkak të sistemeve të AI-së si Chat-GPT, a duhet që platformat e mediave sociale të jenë sa më proaktive të jetë e mundur? Disa ekspertë mendojnë se do të jenë të dobët për të zbatuar ndonjë nga këto lloj postimesh.
“Facebooku dhe platformat e tjera duhet të raportojnë përmbajtje të rreme, por Facebook ka dështuar në mënyrë spektakolare në këtë test”, thotë Luís A Nunes Amaral, bashkëdrejtor i Institutit Northwestern për Sistemet Komplekse.
“Arsyet për atë mosveprim përfshijnë shpenzimet e monitorimit të çdo postimi të vetëm, dhe gjithashtu të kuptojnë se këto postime të rreme kanë për qëllim të zemërojnë dhe përçajnë njerëzit, gjë që nxit angazhimin. Kjo është e dobishme për Facebookun”.