
İT şirkəti “edna”nın biznes partnyoru Aleksandr Dubrovin PLUSworld portalına müsahibəsində dələduzların müasir texnologiyalardan, xüsusilə süni intellektdən istifadə edərək insanları aldatmaq üçün tətbiq etdiyi üsullar barədə danışıb. Onun sözlərinə görə, istənilən müdafiə sisteminin ən zəif halqası insan amilidir. Süni intellektin imkanları sayəsində dələduzlar özlərini tanış, dost və ya həmkar kimi təqdim edə bilir, bu isə zərərçəkənlər barədə toplanmış real məlumatlar və inandırıcı təqdimat üsulları sayəsində mümkün olur.
BBN.az xəbər verir ki, süni intellekt səs yazılarının fraqmentlərindən saxta nitq yarada və bu səsi dələduzlar öz məqsədləri üçün istifadə edə bilər. Eyni zamanda süni intellekt fotoşəkilləri canlandırmaq qabiliyyətinə malikdir. Dələduzlar bu üsuldan istifadə edərək messencerlərdə video-mesaj (“krujok”) formatında saxta görüntülər hazırlayırlar. Belə mesajlar xüsusilə inandırıcı görünür, əgər hesab real şəxsin adı və fotosu ilə yaradılıbsa.
Mütəxəssis qeyd edib ki, neyroşəbəkələr açıq mənbələrdəki məlumatlara əsaslanaraq istifadəçilərin davranış və reaksiyalarını proqnozlaşdıra bilir. Dələduzlar yazışmaları süni intellekt vasitəsilə təhlil edir və potensial zərərçəkənə göndəriləcək növbəti mesajı avtomatik şəkildə formalaşdıra bilirlər. Bu cür fırıldaqların həyata keçirilməsi adətən vaxt və hazırlıq tələb edir, çünki şəxsi məlumatların toplanması, saxta hesabların, foto, video və səs materiallarının yaradılması mərhələli şəkildə aparılır.
Aleksandr Dubrovinin sözlərinə görə, ən asan sındırılan parollar sadə və təkrarlanan simvollardan, şəxsi məlumatlardan və sosial şəbəkələrdə asanlıqla tapılan cavablardan ibarət olan parollardır. Təhlükəsiz parolun böyük və kiçik hərflərdən, rəqəmlərdən və xüsusi simvollardan ibarət olması tövsiyə edilir. Dələduzların əsas hədəfi şirkətlərdə həssas məlumatlara çıxışı olan əməkdaşlardır – əsas müştərilərlə işləyən menecerlər, İT, mühasibatlıq və hüquq şöbələrinin nümayəndələri.
Ekspert vurğulayıb ki, neyroşəbəkələr vasitəsilə yaradılan dərin saxtakarlıqlar (deepfake) – saxta video, səs yazısı və sənəd fotoları – son illərdə daha da real görünür və bu cür materialların saxta və ya orijinal olduğunu müəyyənləşdirmək getdikcə çətinləşir.
O, belə hallarda “sıfır etimad” (zero trust) prinsipinə əsaslanmağı tövsiyə edib. Yəni əldə edilən məlumata dərhal inanmaq olmaz, məlumatı mütləq digər mənbə və ya fərqli kanal vasitəsilə yoxlamaq lazımdır. Hətta şübhəli yazışma hallarında şəxsin özünə birbaşa zəng edərək məlumatın doğruluğunu dəqiqləşdirmək daha məqsədəuyğundur.
Mütəxəssis əlavə edib ki, süni intellekt vasitəsilə yaradılan saxtakarlıqlardan tam qorunmaq mümkün olmasa da, diqqətli və ehtiyatlı olmaqla riskləri minimuma endirmək mümkündür. O, vətəndaşlara rəqəmsal mühitdə ayıq-sayıq davranmağı və hər bir məlumatın mənbəyini yoxlamağı tövsiyə edib.







