Süni intellekt və milli təhlükəsizliyə təhdidlər
Süni intellekt — insan insana məxsus idrak bacarıqlarını (öyrənmə, düşünmə, qərarvermə, dilin başa düşülməsi, şəkil və səslərin tanınması və s.) imitasiya etməsi və qismən yerinə yetirməsi funksiyalarını maşınlara öyrədən və onları “ağıllı” edən texnologiyalar toplusudur.
Müasir
dövrdə süni intellekt böyük həcmli məlumatların sürətli təhlili və qərarvermə
proseslərinin avtomatlaşdırılması ilə iqtisadiyyatın, elmin və idarəetmənin səmərəliliyini
artırır. O, səhiyyə, təhsil, sənaye və təhlükəsizlik kimi strateji sahələrdə
insan imkanlarını genişləndirərək risklərin azaldılmasına və resursların daha
rasional istifadəsinə şərait yaradır. Eyni zamanda süni intellekt rəqəmsal transformasiyanın
əsas hərəkətverici qüvvəsi kimi cəmiyyətin bilik, kommunikasiya və innovasiya
mühitini köklü şəkildə dəyişir.
Bütün müsbət
göstəriciləri ilə yanaşı süni intellekt milli təhlükəsizlik üçün bir sıra ciddi
təhdidlər yaradır. Bu təhdidlər ondan qaynaqlanır
ki, dövlətlərin və cəmiyyətlərin yüzilliklər boyu mübarizə apardığı köhnə təhdidləri
— aldatmanı, nüfuzetməni və pozuculuğu — sürətləndirib, ucuzlaşdırıb və genişləndirib.
Bu dəyişiklik texnologiyanın “şüur qazanması” ilə yox, onun istehsal gücü ilə
bağlıdır və bu güc daha çox məzmun emalı, daha çox hücum ssenarisi, daha çox
uyğunlaşma və daha az vaxt ilə xarakterizə olunur. Buna
görə də XXI əsrdə milli təhlükəsizlik artıq yalnız sərhədlərin fiziki qorunması
deyil; informasiya məkanının etibarlılığı, qərarvermə zəncirinin doğruluğu və
ictimai etimadın sabitliyi ilə ölçülür.
Müasir cəmiyyət və dövlət informasiya əsasında
idarə olunur. Dövlətin fəaliyyəti etibarlı rabitəyə, təhlükəsiz rəqəmsal
infrastruktura və vətəndaşların rəsmi məlumatlara inamına söykənir. Seçki nəticələrinin
real olduğuna inanılmırsa, fövqəladə hallar zamanı yayılan xəbərdarlıqlar şübhə
altına alınırsa, hökumət nümayəndələrinin çıxışlarının saxtalaşdırıla bildiyi
düşünülürsə, dövlətin funksional əsasları sarsılır. Süni intellekt məhz bu üç
sahəyə – informasiya etibarlılığına, rəqəmsal təhlükəsizliyə və ictimai etimada
– eyni vaxtda təzyiq göstərir. Süni intellektin milli təhlükəsizliyə əsas təhdidi silah işlətmədən, sərhəd keçmədən, cəmiyyətin
daxilində etimadı zəiflətməkdir.
Ehtimalı
böyük və asan həyata keçirilə bilən təhdidlərdən
biri süni intellekt əsasında yaradılan
dezinformasiyadır. Dezinformasiya texnologiyaları artıq təkcə texniki maraq
doğuran eksperimentlər deyil, real siyasi və təhlükəsizlik alətlərinə çevrilib.
Bir neçə il əvvəl dövlət başçısının, müdafiə nazirinin və ya mərkəzi bank rəhbərinin
saxta videosunun hazırlanması aylarla vaxt və yüksək texniki bacarıq tələb
edirdisə, bu gün bunu orta səviyyəli istifadəçi də edə bilir. Süni intellekt
insan səsinin intonasiyasını, mimikasını, danışıq tərzini təqlid etməyi öyrənib
və bu təqlidlər getdikcə daha inandırıcı olur. Nəticədə cəmiyyət üçün “gördüyümə
inanım, yoxsa şübhə edim?” dilemması yaranır.
ABŞ
və digər Qərb ölkələrində süni intellekt texnologiyalar seçki proseslərinə
birbaşa təsir göstərir. Seçkilər təkcə səsvermə günü deyil, bütövlükdə uzunmüddətli
informasiya mübarizəsidir. Süni intellektlə idarə olunan bot şəbəkələri sosial
mediada ictimai rəy yaradır, mövcud narazılıqları dərinləşdirir, etnik, dini və
sosial ziddiyyətləri qabardır. Burada əsas təhlükə yalan məlumatın yayılması
deyil, cəmiyyətin informasiya mühitinə olan inamının sistemli şəkildə
aşındırılmasıdır. İnsanlar hər şeyin manipulyasiya oluna biləcəyinə inanmağa
başlayanda həqiqətin özü də siyasi mübarizənin qurbanına çevrilir.
Süni
intellektin milli təhlükəsizlik üçün yaratdığı ikinci böyük risk kibertəhlükəsizlik
sahəsində ortaya çıxır. Ənənəvi kiberhücumlar müəyyən texniki biliklər və zaman
tələb edirdi. Süni intellekt isə bu prosesi avtomatlaşdırır və miqyasını genişləndirir.
Süni intellekt əsaslı sistemlər zəiflikləri saniyələr ərzində aşkarlayaraq,
müdafiə mexanizmlərinə uyğunlaşa və hücum strategiyasını real vaxtda dəyişə
bilir. Bu, dövlət qurumlarının serverlərini, enerji şəbəkələrini, nəqliyyat
sistemlərini və maliyyə infrastrukturlarını daha həssas edir. Bu təhlükənin
mahiyyəti təkcə texniki zərərdə deyil. Elektrik şəbəkəsinin müvəqqəti
dayanması, bank sisteminin bloklanması və ya rabitə xətlərinin kəsilməsi real həyatda
xaos yarada bilər. Süni intellektlə gücləndirilmiş hücumlar kritik
infrastrukturu sıradan çıxararaq hərbi əməliyyatlara ehtiyac olmadan ölkəni
iflic vəziyyətinə sala bilər. Bu, klassik təhlükəsizlik anlayışını dəyişir:
artıq sərhədləri keçmək, tanklar və raketlər göndərmək əsas şərt deyil.
Üçüncü ciddi təhdid
süni intellektin qərar qəbuletmə proseslərinə inteqrasiyası ilə bağlıdır. Bir
çox dövlətlər artıq təhlükəsizlik, kəşfiyyat və hərbi sahələrdə süni intellekt əsaslı
analiz sistemlərindən istifadə edir. Bu sistemlər böyük həcmdə məlumatı emal
edir, riskləri qiymətləndirir və tövsiyələr verir. Lakin burada sual yaranır:
bu tövsiyələrin məsuliyyəti kimə aiddir? Əgər süni intellekt yanlış qərar verərsə,
bu səhvin siyasi və hüquqi nəticələrini kim daşıyacaq?
Avtomatlaşdırılmış
qərarvermə sistemləri insan faktorunu azaltdığı qədər, səhvlərin sistemli
xarakter almasına da şərait yaradır. İnsan səhv edə bilər, lakin insan səhvi
kontekstlə, empatiya ilə və situativ qiymətləndirmə ilə balanslaşdırıla bilər.
Süni intellekt isə öyrədildiyi məlumatların çərçivəsində düşünür. Əgər bu məlumatlar
qərəzlidirsə, natamamdırsa və ya manipulyasiya olunubsa, nəticə də təhlükəli
ola bilər. Xüsusilə hərbi və ekoloji sahədə bu risklər daha kəskindir, çünki səhv
qərar insan həyatına və beynəlxalq sabitliyə birbaşa təsir edir.
Xüsusilə müasir
hərbi sahədə süni intellektin tətbiqi təhlükəsizlik üçün ciddi tədidlər
yaradır. Avtonom silah sistemləri, pilotsuz uçuş aparatları, kəşfiyyat və qərar
qəbuletmə mexanizmləri artıq müasir münaqişələrin ayrılmaz hissəsidir. Xüsusilə
avtonomluq məsələsi ciddi narahatlıq yaradır. Artıq hərbi silah və sitemlər “aşkar
et — qərar ver — zərbə endir” prinsipi
ilə işləyərək və insan faktorunun reaksiyasına vaxt qoymur. Bu isə
eskalasiya riskini artırır, çünki avtomatlaşdırılmış sistemlər diplomatik və
siyasi mexanizmlərdən daha sürətli hərəkət edə bilir. Alqoritmin səhvi və ya məlumatların
yanlış təhlili fəlakətli nəticələr doğura bilər. Silah sistemlərə insan nəzarəti
olmadan qərar vermək səlahiyyəti verillməsi süni intellektin hüquqi - etik problemlərini
bir daha qabardır- alqoritmin səhvinə görə kim məsuliyyət daşıyacaq? Qəsdən
olmayan hərbi-siyasi eskalasiyanın qarşısını necə almaq olar? Beynəlxalq hüquq
texnoloji reallıqdan geri qaldığı üçün bu suallar hələ də açıq qalır.
İqtisadi
təhlükəsizlik də süni intellektlə sıx bağlıdır. Alqoritmik ticarət,
avtomatlaşdırılmış maliyyə sistemləri və proqnozlaşdırma modelləri bazarların
manipulyasiyası və ya süni böhranların yaradılması üçün istifadə oluna bilər.
Qlobal iqtisadiyyatda bu cür hərəkətlər zəncirvari reaksiyalar doğuraraq bütöv
regionlara təsir göstərə bilər. Bundan əlavə, süni intellekt texnologiyalarının
az sayda dövlət və şirkətin əlində cəmlənməsi yeni asılılıq və güc
asimmetriyaları yaradır.
Təsüf ki, süni
intellekt həm də geosiyasi rəqabətin yeni arenasına çevrilib. Dövlətlər bu
texnologiyanı iqtisadi üstünlük, hərbi güc və informasiya təsiri aləti kimi
görürlər. Süni intellekt sahəsində liderlik yalnız innovasiya demək deyil, həm
də standartların, etik normaların və beynəlxalq qaydaların müəyyən edilməsində
üstün mövqeyə sahib olmaq deməkdir. Bu rəqabət bəzən silahlanma yarışına bənzəyir,
lakin burada silahlar görünməzdir və təsiri daha incə, lakin daha dərin ola bilər.
İnkişaf etməkdə olan ölkələr üçün risklər daha mürəkkəbdir. Texnoloji asılılıq,
yerli kadr çatışmazlığı və zəif tənzimləmə mexanizmləri bu ölkələri süni
intellektdən qaynaqlanan təhlükələrə qarşı daha həssas edir. Xaricdən idxal
olunan süni intellekt sistemləri milli məlumatların xarici mərkəzlərə ötürülməsi
riskini yarada bilər. Eyni zamanda, hüquqi çərçivələrin yetərincə inkişaf etməməsi
texnologiyanın sui-istifadəsinə geniş meydan açır.
Müasir dövrdə dövlətlər
süni intellektin təhdidlərinin miqyasını anlayır və cavab strategiyaları
formalaşdırmağa çalışırlar. Məsələn, ABŞ-da qəbul edilmiş Executive Order 14110
sənədi süni intellektin inkişafını və tənzimlənməsini birbaşa milli təhlükəsizlik,
kritik infrastrukturun dayanıqlığı və vətəndaşların müdafiəsi ilə əlaqələndirir.
Sənəd risklərin qiymətləndirilməsini, güclü modellərə nəzarəti və dövlətlə özəl
sektor arasında əməkdaşlığı ön plana çəkir.
Beynəlxalq müstəvidə
də problem diqqət mərkəzindədir. Birləşmiş Millətlər Təşkilatı təhlükəsiz və məsuliyyətli
süni intellektin vacibliyini vurğulayaraq, nəzarətsiz texnoloji inkişafın
qlobal bərabərsizliyi və münaqişələri dərinləşdirə biləcəyini bildirir. Ümumi
normaların formalaşdırılması dövlətlərin maraqlarının toqquşması və texnoloji fərqlər
səbəbindən çətinləşsə də, bu mövzunun gündəmdə olması süni intellektin artıq
qlobal təhlükəsizlik faktoru kimi qəbul edildiyini göstərir. Avropa ölkələri
süni intellekti demokratik institutlara potensial təhdid kimi qiymətləndirərək
hüquqların qorunmasına və tənzimləməyə üstünlük verirlər. Eyni zamanda Çin və bəzi
digər dövlətlər süni intellekti strateji resurs və milli güc elementi kimi görərək,
xüsusilə hərbi və kəşfiyyat sahələrinə böyük sərmayələr yatırırlar.
Qeyri-dövlət təşkilatların
rolu da ayrıca diqqət tələb edir. Bu gün özəl şirkətlər, tədqiqat
laboratoriyaları, hətta fərdi şəxslər bir vaxtlar yalnız dövlətlərin malik
olduğu hesablama gücünə və alqoritmlərə çıxış əldə ediblər. Bu isə güc üzərində
ənənəvi monopoliya anlayışını sarsıdır. Terrorçu və cinayətkar qruplar süni
intellektdən hücumların planlaşdırılması, təbliğat, cəlbetmə və maliyyələşmə
üçün istifadə edə, görünməz qala bilirlər.
Milli təhlükəsizlik
kontekstində süni intellektin tənzimlənməsi azadlıqla nəzarət arasında mürəkkəb
dilemma yaradır. Həddindən artıq məhdudiyyətlər innovasiyaları boğa və iqtisadi
rəqabət qabiliyyətini azalda bilər. Qaydaların olmaması isə sui-istifadə və
proqnozlaşdırılmayan risklər üçün münbit zəmin yaradır. Bu tarazlığı tapmaq
müasir dövlətin əsas vəzifələrindən birinə çevrilir.
Süni intellekti
yalnız təhlükə kimi təqdim etmək də yanlış olardı. Paradoks ondadır ki, milli təhlükəsizliyə
yönəlmiş bir çox risklərin qarşısını almaq üçün yenə də süni intellektin özündən
istifadə olunur. Dezinformasiyanın aşkarlanması, kiberhücumların erkən müəyyən
edilməsi, risklərin proqnozlaşdırılması kimi sahələrdə süni intellekti mühüm
üstünlüklər verir. Burada əsas məsələ balansdır: texnologiyanın potensialından
faydalanmaqla yanaşı, onun yaratdığı riskləri nəzarətdə saxlamaq.
Başqa sözlə, süni intellekt nə yaxşıdır, nə də pis — o, gücləndiricidir. Cəmiyyətin mürəkkəb problemləri həll etmək qabiliyyətini də, zərər vurmaq potensialını da artırır. O, güzgü kimidir: cəmiyyətlərin, dövlətlərin və institutların zəif və güclü tərəflərini daha aydın göstərir. Əgər idarəetmə şəffafdırsa, hüquqi mexanizmlər işləkdirsə və ictimai etimad möhkəmdirsə, süni intellekt təhlükəsizliyi gücləndirə bilər. Əks halda isə o, mövcud problemləri sürətləndirən və dərinləşdirən katalizatora çevrilir. Süni intellekt dövründə milli təhlükəsizlik yalnız texnologiyaların qorunması ilə məhdudlaşa bilməz. XXI əsrin əsas çağırışı texnologiyanı dayandırmaq deyil, onu ağılla, məsuliyyətlə və uzunmüddətli təhlükəsizlik düşüncəsi ilə idarə etməkdir. Bunun üçün yeni hüquqi çərçivələr, təhsil, institusional mədəniyyət və ictimai etimad formalaşmalıdır. Xüsusilə, təhsil və kadr hazırlığı həlledici əhəmiyyət daşıyır. Süni intellekti anlayan idarəçilər, hərbçilər və vətəndaş cəmiyyəti olmadan qəbul edilən qərarlar kor risklərə çevrilə bilər. Alqoritmlərin necə işlədiyini, onların məhdudiyyətlərini və təhlükələrini dərk etmək yeni təhlükəsizlik mədəniyyətinin bir hissəsi olmalıdır.
Azad Qurbanov
BDU-nun dosenti
13:33 14.01.2026
Oxunuş sayı: 3591