Lifestyle

Rreziqet e të lënit AI-në të planifikojë udhëtimin tuaj

Udhëtimet përmes këshillave te AI-së

Qyteti imagjinar në Peru, e një kullë Eiffel në Pekin: njerëzit shpesh po përdorin mjete si Chat GPT për ide itineraresh, e po dërgohen në destinacione që nuk ekzistojnë, ka raportuar BBC.

Miguel Angel Gongora Meza, themelues i kompanisë “Evolution treks Peru”, ishte në një pjesë periferike të Perusë duek u përgatitur për një shëtitje nëpër Ande kur dëgjoi një bisedë për të cilën u bë kurioz. Dy turistë të pashoqëruar po bisedonin për planet që kishin për t'u ngjitur të vetëm në mal deri të një vend që quhej “Sacred Canyon of Humantay”.

“Ata më treguan një ‘screenshot’ ku shkruheshin direktivat, por nuk ishte i vërretë. Nuk ekziston vendi i ashtuquajtur ‘Sacred Canyon of Humantay’”, ka thënë Gongora Meza.

Ai ka shpjeguar se emri i këtij vendi është kombinim i dy vendeve të ndryshme që nuk kanë lidhje me përshkrimin. Turistët kishin paguar gati 160 dollarë në mënyrë që të merrnin rrugën kah rrethinat e Mollepatës pa udhërrëfyes.

Rrezik për jetën

Për më tepër, Gongora Meza insiston se ky gabim, që duket të jetë pa tendencë, do të mund të ju kushtonte me jetë udhëtarëve.

“Ky lloj dezinformomi është i rrezikshëm në Peru. Ngjitja, ndryshimi klimatik dhe qasja nëpër shtigje duhet të planifikohen. Kur përdorni programe si ‘ChatGPT’, e cila kombinon fotografi e emra për të krijuar fantazi, mund ta gjeni veten në 4 mijë metra lartësi pa oksigjen e sinjal telefoni”, ka thënë Gongora Meza.

Pas vetëm disa vitesh, mjete të inteligjencës artificiale (AI), si ChatGPT, Microsoft Copilot dhe Google gemini, nga një risi e thjeshtë kanë shkuar në pjesë domethënëse të planifikimit të udhëtimeve për miliona njerëz.

Sipas  një ankete, 30 për qind e turistëve ndërkombëtarë tani përdorin mjete nga AI-ja dhe wefaqet e udhëtimeve të krijuara me AI, të tilla si Wonderplan dhe Layla, për t’i ndihmuar në organizimin e udhëtimeve.

Ndërkohë që këto programe mund të ofrojnë këshilla të vlefshme kur punojnë mirë, ato gjithashtu mund t’i çojnë njerëzit në situata të rrezikshme kur nuk janë duke punuar si duhet.

Ky është mësim për disa udhëtarë, të cilët kur mbërrijnë nëpër vende fiktive, po e kuptojnë që nuk janë informuar në mënyrën e duhur dhe kanë shkuar në vend që nuk ekziston por vetëm është prodhim i një roboti. 

Dana Yao dhe burrit të saj i ka ndodhur diçka e ngjashme. Ata kanë  përdorur ChatGPT-në për planifikimi e një ngjitje në majën e malit Misen në ishullin Japonez, Itsukushima, më herët gjatë këtij viti. Pasi kishin parë qytetin e Miyajimas pa probleme, ata në orën 15:00 u nisën të ngjiteshin në majën e malit në kohë për perëndimin e diellit, ashtu siç u kishte thënë ChatGPT.

“Aty u shfaq problemi. Kur ishim gati të zbrisnim nga mali përmes teleferikut, ChatGPT tha se koha e fundit për të hipur në teleferik për të shkuar poshtë ishte 17:30, por në të vërtetë stacioni i teleferikëve tashme ishte mbyllur. Pra kemi mbetur në majë të malit”, ka thënë Yao.

“Një kullë Eiffel në Pekin”

Në një artikull të vitit 2024, BBC, pati raportuar se programi Layla u ka thënë përdoruesve britanikë se ka “një kullë Eiffel” në Pekin dhe ka sugjeruar se ka një rrugë maratonike përreth veriut të Italisë.

“Itineraret nuk kishin kuptim logjik. Kemi kaluar më shumë kohë në trafik se në gjithçka tjetër”, ka thënë udhëtari.

Sipas një ankete të vitit 2024, 37 për qind e atyre që ishin intervistuar kishin kërkuar ndihmë nga AI-ja për planifikim të udhëtimeve dhe kishin raportuar se programi nuk mundi të iu jepte informacionin e nevojshëm. Ndërkohë 33 për qind kanë thënë se rekomandimet e gjeneruara me AI përfshinin informacion të pavërtetë.

Problemet që lidhen me përdorimin e inteligjencës artificiale dalin nga mënyra se si ajo gjeneron përgjigjet.

Sipas Rayid Ghani, profesor në Universitetin Carnegie Mellon, edhe pse programe si ChatGPT mund të duken sikur japin këshilla të arsyeshme dhe të dobishme, mënyra se si e marrin informacionin bën që kurrë të mos jesh plotësisht i sigurt nëse po e thonë të vërtetën.

“AI nuk e dallon nëse po jep këshilla udhëtimi, receta gatimi apo drejtime rrugësh. Ajo thjesht njeh fjalët. Pra, vazhdon të rendisë fjalë që e bëjnë çfarëdo që po të thotë të tingëllojë reale, dhe pikërisht këtu fillojnë shumë nga problemet”, ka shpjeguar Ghani.

Modelet e mëdha gjuhësore si ChatGPT funksionojnë duke analizuar një koleksion të madh tekstesh dhe duke bashkuar fjalë e fraza që statistkisht duken si përgjigje të përshtatshme. Ndonjëherë kjo sjell informacione të sakta, por shpesh krijon atë që ekspertët e quajnë “halucinacion”, pra kur AI shpik gjëra.

Problemi është se këto “halucinacione” paraqiten me të njëjtin ton si informacioni i saktë, duke e bërë të vështirë dallimin për përdoruesit.

Për shembull, në rastin e “Sacred Canyon of Humantay” , Ghani beson se programi thjesht ka bashkuar disa fjalë që i përshtateshin rajonit. Po ashtu, analiza e të dhënave nuk do të thotë domosdoshmërisht se AI-ja ka një kuptim të mirëfilltë të botës fizike.

“Ajo mund të ngatërrojë një shëtitje 4 kilometra në qytet me një ngjitje 4 mijë metra në mal”, ka theksuar Ghani.

Raste të tilla nuk kufizohen vetëm te tekstet.

Një artikull i Fast Company ka treguar historinë e një çifti që udhëtoi deri në Malajzi për të parë një teleferik turistik që e kishin parë në rrjetin social TikTok, por kur mbërritën, zbuluan se struktura nuk ekzistonte fare. Videoja që kishin parë ishte gjeneruar plotësisht nga AI-ja, ndoshta vetëm për të tërhequr shikime.

Shembuj të ngjashëm po shfaqen kudo.

Në muajin gusht, krijuesit e përmbajtjes në YouTube zbuluan se platforma po përdorte AI-në për të “redaktuar” videot e tyre pa leje, duke ndryshuar në mënyrë të padukshme detaje si rrobat, flokët apo fytyrat e njerëzve.

Paltforma transmetuese, Netflix, u përball me kritika në fillim të vitit 2025, kur përpjekjet për të “ripërpunuar” seriale të vjetra sollën shtrembërime surreale në fytyrat e aktorëve të dashur të viteve ’80 dhe ’90.

Me përdorimin gjithnjë e më të madh të AI-së për ndryshime të tilla të vogla, shpesh pa dijeninë e njerëzve, kufijtë mes realitetit dhe një bote artificiale po bëhen gjithnjë e më të paqartë edhe për udhëtarët.

Javier Labourt, psikoterapist klinik, paralajmëron se këto probleme mund të dëmtojnë përfitimet që ofron vetë udhëtimi.

“Udhëtimi është mundësi unike për të ndërvepruar me njerëz që ndryshe nuk do t’i takoje kurrë dhe për të mësuar drejtpërdrejt për kultura të ndryshme. Kjo të ndihmon të ndërtosh më shumë empati dhe mirëkuptim. Por kur “halucinacionet” e AI-së ofrojnë informacion të rremë, krijojnë një narrativë të shtrembëruar për një vend, para se udhëtari të nisë rrugën”, ka thënë Labourt.

Aktualisht ka përpjekje për të rregulluar mënyrën se si inteligjenca artificiale u paraqet informacionin përdoruesve, përfshirë disa propozime nga BE-ja dhe SHBA-ja që kërkojnë përdorimin e “watermarks” ose shenjave të tjera dalluese, në mënyrë që shikuesit ta kuptojnë kur diçka është gjeneruar apo ndryshuar nga AI-ja.

Betejë e vështirë

Por sipas profesorit Rayid Ghani, kjo është betejë e vështirë.

“Ka shumë punë rreth dezinformimit: si ta zbulojmë, si t’i ndihmojmë njerëzit ta identifikojnë. Por zbutja e pasojave është sot zgjidhje më e besueshme sesa parandalimi”, ka thënë ai.

Edhe nëse këto rregulla miratohen, ato mund ta bëjnë më të lehtë dallimin e imazheve apo videove të gjeneruara nga AI-ja. Megjithatë, nuk do të ndihmojnë shumë kur një chatbot shpik informacione në mes të një bisede. Ekspertë të fushës, përfshirë edhe drejtorin e “Google-it”, Sundar Pichai, kanë pranuar se “halucinacionet” janë “veçori e brendshme” e modeleve të mëdha gjuhësore si ChatGPT apo Gemini.

Kjo do të thotë se, nëse përdor AI, mënyra e vetme për t’u mbrojtur është të qëndrosh vigjilent.

Një këshillë e Ghanit është që pyetjet ndaj AI-së të jenë sa më specifike dhe çdo informacion të verifikohet me kujdes.

Por ai pranon se pikërisht udhëtimet paraqesin një problem të veçantë, pasi udhëtarët zakonisht pyesin për vende që nuk i njohin mirë.

“Nëse një sugjerim udhëtimi nga AI duket shumë i përsosur për të qenë i vërtetë, kontrolloje dy herë”, ka theksuar ai.

Në fund, koha e kaluar për të verifikuar informacionin e AI-së, sipas tij, mund ta bëjë procesin po aq të lodhshëm sa planifikimi me metodat tradicionale.

Ndërsa për psikoterapistin Labourt, çelësi i një udhëtimi të mirë, me ose pa AI, është të mbash mendjen të hapur dhe të jesh i gatshëm të përshtatesh kur gjërat nuk shkojnë sipas planit.

“Përpiqu ta largosh zhgënjimin nga ndjenja se je mashtruar prej dikujt. Nëse je tashmë aty, si mund ta kthesh këtë situatë në të mirë? Fundja, je në një udhëtim të mrekullueshëm, apo jo?”, ka thënë ai.