Google raporton zbulimin e 20 dobësive të sigurisë në softuerë të njohur falë AI-së, duke treguar një hap të rëndësishëm në teknologjinë e zbulimit automatik.
Google njoftoi së fundmi se sistemi i tij i bazuar në inteligjencën artificiale për gjetjen e dobësive në siguri, i quajtur Big Sleep, ka identifikuar dhe raportuar 20 probleme serioze në softuerë me burim të hapur. Kjo nismë, e zhvilluar nga DeepMind dhe ekipi elitë i hakerëve të Project Zero, përfaqëson një sukses të rëndësishëm në fushën e sigurisë kibernetike.
Heather Adkins, zv/presidente e sigurisë në Google, theksoi se shumica e dobësive u gjetën në programe të njohura si biblioteka FFmpeg për audio dhe video dhe paketa e redaktimit të imazheve ImageMagick. Megjithatë, për shkak se këto dobësi nuk janë riparuar ende, Google nuk ka dhënë detaje për ndikimin apo rrezikshmërinë e tyre, në përputhje me politikat standarde për sigurinë.
Zëdhënësja e Google, Kimberly Samra, tregoi për TechCrunch se para se të bëhen raportet për publik, një ekspert njeri shqyrton të dhënat për të siguruar cilësi dhe vlefshmëri, por vetë gjetjet fillestare janë bërë nga inteligjenca artificiale pa ndërhyrje njerëzore. Kjo tregon progresin e madh të këtyre mjeteve për të dhënë rezultate reale.
Në rrjetin X, Royal Hansen, zv/presidente e inxhinierisë në Google, shkroi se këto zbulime shënojnë një “frontierë të re në zbulimin automatik të dobësive”. Përveç Big Sleep, ekzistojnë edhe mjete të tjera si RunSybil dhe XBOW, të cilat gjithashtu përdorin AI për të gjetur dobësi në sigurinë e softuerëve.
Për shembull, XBOW ka fituar famë pasi arriti pozicionin kryesor në platformën amerikane HackerOne për shpërblime mbi gjetjen e gabimeve. Megjithatë, në shumicën e rasteve një njeri konfirmon që dobësia e raportuar nga AI-ja është reale, si në rastin e Big Sleep.
Vlad Ionescu, bashkëthemelues dhe drejtues teknologjik i RunSybil, vlerëson projektin Big Sleep si serioz dhe të mirëndërtuar, pasi bashkon eksperiencën e Project Zero me fuqinë teknologjike të DeepMind. Megjithatë, ai paralajmëron për rreziqet, duke theksuar se shumë raporte të AI-së janë të pasakta ose “halucinacione” që ngjajnë me “llogari të gabuara” në sistemet e shpërblimit të dobësive.
Kjo sfidë tregon se, pavarësisht avancimeve, ende ka nevojë për përkujdesje dhe verifikim njerëzor për të shmangur keqinterpretimet dhe raportimet e pasakta. Megjithatë, fakti që AI po zbulon probleme të reja në softuerët e përdorur gjerësisht, shënon një hap përpara të rëndësishëm në mbrojtjen kibernetike dhe zbulimin e kërcënimeve në mënyrë automatike.


