Kërkuesit kanë gjetur një metodë të re që mund të përdoret për të zbuluar dhe parandaluar “halucinacionet” e inteligjencës artificiale, emri kolokial për përgjigjet e pasakta të dhëna nga AI.
Një studim i ri nga një ekip në Universitetin e Oksfordit ka zhvilluar një model statistikor që mund të identifikojë kur një pyetje e bërë për një model të madh gjuhësor (LLM) që përdoret për të fuqizuar një chatbot me AI ka të ngjarë të japë një përgjigje të pasaktë
“Halucinacionet” e inteligjencës artificiale janë identifikuar si një problem kyç pasi natyra e avancuar e teknologjisë dhe aftësitë e saj biseduese nënkuptojnë se ajo është në gjendje të paraqesë informacion të pasaktë si fakt kur i përgjigjet një pyetjeje.
Në një kohë kur më shumë studentë po i drejtohen mjeteve të inteligjencës artificiale kur kanë nevojë për ndihmë me kërkimin ose kryerjen e detyrave, shumë ekspertë po bëjnë thirrje për veprim për të parandaluar “halucinacionet” e AI, veçanërisht kur bëhet fjalë për pyetje që lidhen me çështje mjekësore ose ligjore.
Studiuesit e Oksfordit thanë se hulumtimi i tyre kishte gjetur një mënyrë për të treguar se kur një AI është e sigurt për një përgjigje dhe kur po e krijon atë.
“LLM-të janë shumë të aftë të thonë të njëjtën gjë në shumë mënyra të ndryshme, gjë që mund ta bëjë të vështirë të dallosh kur ata janë të sigurt për një përgjigje dhe kur ata fjalë për fjalë thjesht ‘halucinojnë’ diçka.
Me qasjet e mëparshme, nuk ishte e mundur të shihej ndryshimi midis kur modeli nuk di çfarë të thotë dhe kur nuk di ta thotë atë. Por metoda jonë e re shkon përtej kësaj”, tha autori i studimit, Dr. Sebastian Farquhar.
Por dr. Farquhar thotë se ka ende punë për të bërë për të korrigjuar gabimet që modelet e AI mund të bëjnë.