Lajme
Inteligjenca Artificiale nuk është racionale
Pavarësisht aftësive të pabesueshme gjuhësore, Inteligjencat Artificiale si ChatGpt ose Bard tregojnë se ato nuk janë racionale kur u nënshtrohen testeve të arsyetimit.
Në fakt, në testet konjitive ato raportojnë të njëjtat përqindje gabimi si njerëzit, por e bëjnë atë ndryshe, duke demonstruar se nuk janë në gjendje të kuptojnë kuptimin e fjalëve dhe kontekstit.
Këtë e tregon studimi i publikuar në revistën ”Royal Society Open Science” dhe i kryer nga studiues të Kolegjit Universitar të Londrës, Olivia Macmillan-Scott dhe italiani Mirco Musolesi, nga Universiteti i Bolonjës.
“Puna jonë filloi nga dëshira për të kuptuar nëse modelet gjuhësore të përdorura sot demonstrojnë një aftësi për arsyetim logjik dhe, nëse po, për të gjetur një metodë për ta matur atë”, tha Macmillan-Scott.
Kur bisedoni me IA, në fakt është shumë e lehtë të harrohet se bashkëbiseduesi është thjesht një algoritëm dhe chatbot-et ndonjëherë atribuohen me aftësi shumë të sofistikuara logjike.
Për t’i matur ato, dy studiuesit iu nënshtruan chatbot-eve më të njohura, nga ChatGpt 4 dhe 3.5 te Bard dhe Llama, disa testeve logjike klasike të përdorura në psikologjinë konjitive, siç është ”zgjedhja Wason”, në të cilën tregohen katër karta, të cilat në njërën anë kanë një numër dhe një shkronjë, në anën tjetër.
Në tabelë dy letra tregojnë numrin, për shembull, një 3 dhe një 8, dy të tjerat tregojnë një zanore dhe një bashkëtingëllore.
Pyetja e bërë është: Cilën letër ose letra duhet të ktheni për të provuar vërtetësinë e propozimit se nëse një kartë tregon një numër çift në njërën faqe, atëherë faqja e kundërt e saj është një zanore?!
Një test i vështirë, aq sa vetëm 10% e njerëzve arrijnë të përgjigjen saktë në përpjekjen e parë, por nga përgjigjet e të cilit shpesh mund të nxirret arsyetimi i bërë.
Kur iu nënshtruan 12 testeve të ndryshme, chatbot-et shpesh jepnin përgjigje të ndryshme kur i bënin të njëjtën pyetje.
Për më tepër, ata bënë gabime shumë të thjeshta, si gabimet e mbledhjes ose shkëmbimi i zanoreve me bashkëtingëllore.
“Është e vështirë për një njeri të bëjë një gabim, sepse ai nuk e di se çfarë është një zanore, siç ndodh me shumë IA”, theksoi Musolesi.
“Nëse analizoni hapat logjikë të kryer nga IA, ato janë mjaft të çuditshme: propozimet individuale kanë kuptim, por ato e humbasin plotësisht kur i analizoni në tërësi. Në fakt, ata nuk e marrin parasysh kontekstin, por nxjerrin çdo hap nga skemat e probabilitetit”, shtoi ai.
Të tjera nga Lajme
E-Diaspora
-
Kurti në Cyrih: Mërgata nuk është rezervë emocionale, por forcë zhvillimi dhe shtyllë e shtetit Kurti sonte në Cyrih: “Nga ndjenja kombëtare te vetëdija shtetërore – diaspora si partner i Kosovës”... -
Gjykata Federale mbështet dënimin e shtetasit kosovar për tentativë vrasjeje -
Elina Duni, Ambasadorja e Xhazit Modern: Fituesja e Swiss Jazz Award 2025 -
Dega e LDK-së në Austri kandidon Besart Berishën për deputet të Parlamentit të Kosovës -
Suzanna Shkreli kandidon për Sekretare Shteti në Michigan
Jeta në Zvicër
-
Ulen kostot e shtetësisë zvicerane në Bazel dhe Bernë Marrja e një pasaporte zvicerane së shpejti do të jetë më e lirë në Bazel. Berna... -
Zvicra planifikon të zgjerojë radarët e zhurmës në rrugë -
Aeroporti i Cyrihut do të heqë kufizimet për lëngjet në vitin 2026 -
A keni nevojë për një certifikatë mjekësore në ditën tuaj të parë të pushimit në Zvicër? -
Ministri Pfister: “30 avionë nuk janë të mjaftueshëm në planin afatgjatë”











