Saytda axtar
Bazar günü  
 12 fevral 2017   23:10:34  

SÜNİ İNTELLEKT VƏ MİLLİ TƏHLÜKƏSİZLİYƏ TƏHDİDLƏR


 
Süni intellekt — insana məxsus idrak bacarıqlarını (öyrənmə, düşünmə, qərarvermə, dilin başa düşülməsi, şəkil və səslərin tanınması və s.) imitasiya etməsi və qismən yerinə yetirməsi  funksiyalarını maşınlara öyrədən və onları “ağıllı” edən texnologiyalar toplusudur.
Müasir dövrdə süni intellekt böyük həcmli məlumatların sürətli təhlili və qərarvermə proseslərinin avtomatlaşdırılması ilə iqtisadiyyatın, elmin və idarəetmənin səmərəliliyini artırır. O, səhiyyə, təhsil, sənaye və təhlükəsizlik kimi strateji sahələrdə insan imkanlarını genişləndirərək risklərin azaldılmasına və resursların daha rasional istifadəsinə şərait yaradır. Eyni zamanda süni intellekt rəqəmsal transformasiyanın əsas hərəkətverici qüvvəsi kimi cəmiyyətin bilik, kommunikasiya və innovasiya mühitini köklü şəkildə dəyişir.

 Bütün müsbət göstəriciləri ilə yanaşı süni intellekt milli təhlükəsizlik üçün bir sıra ciddi təhdidlər yaradır.  Bu təhdidlər ondan qaynaqlanır ki, dövlətlərin və cəmiyyətlərin yüzilliklər boyu mübarizə apardığı köhnə təhdidləri — aldatmanı, nüfuzetməni və pozuculuğu — sürətləndirib, ucuzlaşdırıb və genişləndirib. Bu dəyişiklik texnologiyanın “şüur qazanması” ilə yox, onun istehsal gücü ilə bağlıdır və bu güc daha çox məzmun emalı, daha çox hücum ssenarisi, daha çox uyğunlaşma və daha az vaxt ilə xarakterizə olunur. Buna görə də XXI əsrdə milli təhlükəsizlik artıq yalnız sərhədlərin fiziki qorunması deyil, informasiya məkanının etibarlılığı, qərarvermə zəncirinin doğruluğu və ictimai etimadın sabitliyi ilə ölçülür.
        
   Müasir cəmiyyət və dövlət informasiya əsasında idarə olunur. Dövlətin fəaliyyəti etibarlı rabitəyə, təhlükəsiz rəqəmsal infrastruktura və vətəndaşların rəsmi məlumatlara inamına söykənir. Seçki nəticələrinin real olduğuna inanılmırsa, fövqəladə hallar zamanı yayılan xəbərdarlıqlar şübhə altına alınırsa, hökumət nümayəndələrinin çıxışlarının saxtalaşdırıla bildiyi düşünülürsə, dövlətin funksional əsasları sarsılır. Süni intellekt məhz bu üç sahəyə – informasiya etibarlılığına, rəqəmsal təhlükəsizliyə və ictimai etimada – eyni vaxtda təzyiq göstərir. Süni intellektin milli təhlükəsizliyə  əsas təhdidi  silah işlətmədən, sərhəd keçmədən, cəmiyyətin daxilində etimadı zəiflətməkdir.
Ehtimalı böyük və asan həyata keçirilə bilən  təhdidlərdən  biri süni intellekt əsasında yaradılan dezinformasiyadır. Dezinformasiya texnologiyaları artıq təkcə texniki maraq doğuran eksperimentlər deyil, real siyasi və təhlükəsizlik alətlərinə çevrilib. Bir neçə il əvvəl dövlət başçısının, müdafiə nazirinin və ya mərkəzi bank rəhbərinin saxta videosunun hazırlanması aylarla vaxt və yüksək texniki bacarıq tələb edirdisə, bu gün bunu orta səviyyəli istifadəçi də edə bilir. Süni intellekt insan səsinin intonasiyasını, mimikasını, danışıq tərzini təqlid etməyi öyrənib və bu təqlidlər getdikcə daha inandırıcı olur. Nəticədə cəmiyyət üçün “gördüyümə inanım, yoxsa şübhə edim?” dilemması yaranır.

ABŞ və digər Qərb ölkələrində süni intellekt texnologiyaları seçki proseslərinə birbaşa təsir göstərir. Seçkilər təkcə səsvermə günü deyil, bütövlükdə uzunmüddətli informasiya mübarizəsidir. Süni intellektlə idarə olunan bot şəbəkələri sosial mediada ictimai rəy yaradır, mövcud narazılıqları dərinləşdirir, etnik, dini və sosial ziddiyyətləri qabardır. Burada əsas təhlükə yalan məlumatın yayılması deyil, cəmiyyətin informasiya mühitinə olan inamının sistemli şəkildə aşındırılmasıdır. İnsanlar hər şeyin manipulyasiya oluna biləcəyinə inanmağa başlayanda həqiqətin özü də siyasi mübarizənin qurbanına çevrilir.

Süni intellektin milli təhlükəsizlik üçün yaratdığı ikinci böyük risk kibertəhlükəsizlik sahəsində ortaya çıxır. Ənənəvi kiberhücumlar müəyyən texniki biliklər və zaman tələb edirdi. Süni intellekt isə bu prosesi avtomatlaşdırır və miqyasını genişləndirir. Süni intellekt əsaslı sistemlər zəiflikləri saniyələr ərzində aşkarlayaraq, müdafiə mexanizmlərinə uyğunlaşa və hücum strategiyasını real vaxtda dəyişə bilir. Bu, dövlət qurumlarının serverlərini, enerji şəbəkələrini, nəqliyyat sistemlərini və maliyyə infrastrukturlarını daha həssas edir. Bu təhlükənin mahiyyəti təkcə texniki zərərdə deyil. Elektrik şəbəkəsinin müvəqqəti dayanması, bank sisteminin bloklanması və ya rabitə xətlərinin kəsilməsi real həyatda xaos yarada bilər. Süni intellektlə gücləndirilmiş hücumlar kritik infrastrukturu sıradan çıxararaq hərbi əməliyyatlara ehtiyac olmadan ölkəni iflic vəziyyətinə sala bilər. Bu, klassik təhlükəsizlik anlayışını dəyişir: artıq sərhədləri keçmək, tanklar və raketlər göndərmək əsas şərt deyil.
Üçüncü ciddi təhdid süni intellektin qərar qəbuletmə proseslərinə inteqrasiyası ilə bağlıdır. Bir çox dövlətlər artıq təhlükəsizlik, kəşfiyyat və hərbi sahələrdə süni intellekt əsaslı analiz sistemlərindən istifadə edir. Bu sistemlər böyük həcmdə məlumatı emal edir, riskləri qiymətləndirir və tövsiyələr verir. Lakin burada sual yaranır: bu tövsiyələrin məsuliyyəti kimə aiddir? Əgər süni intellekt yanlış qərar verərsə, bu səhvin siyasi və hüquqi nəticələrini kim daşıyacaq?

Avtomatlaşdırılmış qərarvermə sistemləri insan faktorunu azaltdığı qədər, səhvlərin sistemli xarakter almasına da şərait yaradır. İnsan səhv edə bilər, lakin insan səhvi kontekstlə, empatiya ilə və situativ qiymətləndirmə ilə balanslaşdırıla bilər. Süni intellekt isə öyrədildiyi məlumatların çərçivəsində düşünür. Əgər bu məlumatlar qərəzlidirsə, natamamdırsa və ya manipulyasiya olunubsa, nəticə də təhlükəli ola bilər. Xüsusilə hərbi və ekoloji sahədə bu risklər daha kəskindir, çünki səhv qərar insan həyatına və beynəlxalq sabitliyə birbaşa təsir edir.
Xüsusilə müasir hərbi sahədə süni intellektin tətbiqi təhlükəsizlik üçün ciddi təhdidlər yaradır. Avtonom silah sistemləri, pilotsuz uçuş aparatları, kəşfiyyat və qərar qəbuletmə mexanizmləri artıq müasir münaqişələrin ayrılmaz hissəsidir. Xüsusilə avtonomluq məsələsi ciddi narahatlıq yaradır. Artıq hərbi silah və sitemlər “aşkar et — qərar ver — zərbə endir”  prinsipi   ilə işləyərək və insan faktorunun reaksiyasına vaxt qoymur. Bu isə eskalasiya riskini artırır, çünki avtomatlaşdırılmış sistemlər diplomatik və siyasi mexanizmlərdən daha sürətli hərəkət edə bilir. Alqoritmin səhvi və ya məlumatların yanlış təhlili fəlakətli nəticələr doğura bilər. Silah sistemlərə insan nəzarəti olmadan qərar vermək səlahiyyəti verilməsi süni intellektin hüquqi - etik problemlərini bir daha qabardır- alqoritmin səhvinə görə kim məsuliyyət daşıyacaq? Qəsdən olmayan hərbi-siyasi eskalasiyanın qarşısını necə almaq olar? Beynəlxalq hüquq texnoloji reallıqdan geri qaldığı üçün bu suallar hələ də açıq qalır.

İqtisadi təhlükəsizlik də süni intellektlə sıx bağlıdır. Alqoritmik ticarət, avtomatlaşdırılmış maliyyə sistemləri və proqnozlaşdırma modelləri bazarların manipulyasiyası və ya süni böhranların yaradılması üçün istifadə oluna bilər. Qlobal iqtisadiyyatda bu cür hərəkətlər zəncirvari reaksiyalar doğuraraq bütöv regionlara təsir göstərə bilər. Bundan əlavə, süni intellekt texnologiyalarının az sayda dövlət və şirkətin əlində cəmlənməsi yeni asılılıq və güc asimmetriyaları yaradır.

Təəssüf ki, süni intellekt həm də geosiyasi rəqabətin yeni arenasına çevrilib. Dövlətlər bu texnologiyanı iqtisadi üstünlük, hərbi güc və informasiya təsiri aləti kimi görürlər. Süni intellekt sahəsində liderlik yalnız innovasiya demək deyil, həm də standartların, etik normaların və beynəlxalq qaydaların müəyyən edilməsində üstün mövqeyə sahib olmaq deməkdir. Bu rəqabət bəzən silahlanma yarışına bənzəyir, lakin burada silahlar görünməzdir və təsiri daha incə, lakin daha dərin ola bilər. İnkişaf etməkdə olan ölkələr üçün risklər daha mürəkkəbdir. Texnoloji asılılıq, yerli kadr çatışmazlığı və zəif tənzimləmə mexanizmləri bu ölkələri süni intellektdən qaynaqlanan təhlükələrə qarşı daha həssas edir. Xaricdən idxal olunan süni intellekt sistemləri milli məlumatların xarici mərkəzlərə ötürülməsi riskini yarada bilər. Eyni zamanda, hüquqi çərçivələrin yetərincə inkişaf etməməsi texnologiyanın sui-istifadəsinə geniş meydan açır.

Müasir dövrdə dövlətlər süni intellektin təhdidlərinin miqyasını anlayır və cavab strategiyaları formalaşdırmağa çalışırlar. Məsələn, ABŞ-da qəbul edilmiş Executive Order 14110 sənədi süni intellektin inkişafını və tənzimlənməsini birbaşa milli təhlükəsizlik, kritik infrastrukturun dayanıqlığı və vətəndaşların müdafiəsi ilə əlaqələndirir. Sənəd risklərin qiymətləndirilməsini, güclü modellərə nəzarəti və dövlətlə özəl sektor arasında əməkdaşlığı ön plana çəkir.

Beynəlxalq müstəvidə də problem diqqət mərkəzindədir. Birləşmiş Millətlər Təşkilatı təhlükəsiz və məsuliyyətli süni intellektin vacibliyini vurğulayaraq, nəzarətsiz texnoloji inkişafın qlobal bərabərsizliyi və münaqişələri dərinləşdirə biləcəyini bildirir. Ümumi normaların formalaşdırılması dövlətlərin maraqlarının toqquşması və texnoloji fərqlər səbəbindən çətinləşsə də, bu mövzunun gündəmdə olması süni intellektin artıq qlobal təhlükəsizlik faktoru kimi qəbul edildiyini göstərir. Avropa ölkələri süni intellekti demokratik institutlara potensial təhdid kimi qiymətləndirərək hüquqların qorunmasına və tənzimləməyə üstünlük verirlər. Eyni zamanda Çin və bəzi digər dövlətlər süni intellekti strateji resurs və milli güc elementi kimi görərək, xüsusilə hərbi və kəşfiyyat sahələrinə böyük sərmayələr yatırırlar. 

Qeyri-dövlət təşkilatların rolu da ayrıca diqqət tələb edir. Bu gün özəl şirkətlər, tədqiqat laboratoriyaları, hətta fərdi şəxslər bir vaxtlar yalnız dövlətlərin malik olduğu hesablama gücünə və alqoritmlərə çıxış əldə ediblər. Bu isə güc üzərində ənənəvi monopoliya anlayışını sarsıdır. Terrorçu və cinayətkar qruplar süni intellektdən hücumların planlaşdırılması, təbliğat, cəlbetmə və maliyyələşmə üçün istifadə edə, görünməz qala bilirlər.
Milli təhlükəsizlik kontekstində süni intellektin tənzimlənməsi azadlıqla nəzarət arasında mürəkkəb dilemma yaradır. Həddindən artıq məhdudiyyətlər innovasiyaları boğa və iqtisadi rəqabət qabiliyyətini azalda bilər. Qaydaların olmaması isə sui-istifadə və proqnozlaşdırılmayan risklər üçün münbit zəmin yaradır. Bu tarazlığı tapmaq müasir dövlətin əsas vəzifələrindən birinə çevrilir.

Süni intellekti yalnız təhlükə kimi təqdim etmək də yanlış olardı. Paradoks ondadır ki, milli təhlükəsizliyə yönəlmiş bir çox risklərin qarşısını almaq üçün yenə də süni intellektin özündən istifadə olunur. Dezinformasiyanın aşkarlanması, kiberhücumların erkən müəyyən edilməsi, risklərin proqnozlaşdırılması kimi sahələrdə süni intellekt mühüm üstünlüklər verir. Burada əsas məsələ balansdır: texnologiyanın potensialından faydalanmaqla yanaşı, onun yaratdığı riskləri nəzarətdə saxlamaq.

Başqa sözlə, süni intellekt nə yaxşıdır, nə də pis — o, gücləndiricidir. Cəmiyyətin mürəkkəb problemləri həll etmək qabiliyyətini də, zərər vurmaq potensialını da artırır. O, güzgü kimidir: cəmiyyətlərin, dövlətlərin və institutların zəif və güclü tərəflərini daha aydın göstərir. Əgər idarəetmə şəffafdırsa, hüquqi mexanizmlər işləkdirsə və ictimai etimad möhkəmdirsə, süni intellekt təhlükəsizliyi gücləndirə bilər. Əks halda isə o, mövcud problemləri sürətləndirən və dərinləşdirən katalizatora çevrilir. Süni intellekt dövründə milli təhlükəsizlik yalnız texnologiyaların qorunması ilə məhdudlaşa bilməz. XXI əsrin əsas çağırışı texnologiyanı dayandırmaq deyil, onu ağılla, məsuliyyətlə və uzunmüddətli təhlükəsizlik düşüncəsi ilə idarə etməkdir.  Bunun üçün yeni  hüquqi çərçivələr, təhsil, institusional mədəniyyət və ictimai etimad formalaşmalıdır. Xüsusilə, təhsil və kadr hazırlığı həlledici əhəmiyyət daşıyır. Süni intellekti anlayan idarəçilər, hərbçilər və vətəndaş cəmiyyəti olmadan qəbul edilən qərarlar kor risklərə çevrilə bilər. Alqoritmlərin necə işlədiyini, onların məhdudiyyətlərini və təhlükələrini dərk etmək yeni təhlükəsizlik mədəniyyətinin bir hissəsi olmalıdır.
 
Azad Qurbanov
Riyaziyyat üzrə fəlsəfə doktoru, 
AMEA Mərkəzi Elmi Kitabxanasının əməkdaşı


Tarix: Bu gün, 14:35

Xəbəri paylaş