Süni intellektdən yanlış istidadə hansı fəsadlara yol aça bilər? - Mütəxəssis bir - bir sadaladı
Süni intellekt (Aİ0 həyatımıza daxil olduğu gündən bəri həm böyük imkanlar, həm də müəyyən narahatlıqlar gündəmə gəlib. Texnologiyanın inkişafı ilə birlikdə montaj tərzində hazırlanan saxta görüntülər, reallığı təhrif edən süni materiallar və manipulyativ məzmunlar daha asan şəkildə yayıla bilir. Bu isə xüsusilə informasiya mühitində etimadın zəifləməsinə səbəb olur. Əslində isə süni intellekt insanlara kömək etmək, işi asanlaşdırmaq, məlumatı daha sürətli və effektiv şəkildə emal etmək üçün yaradılıb. Lakin bəzi hallarda ondan yanlış məqsədlərlə istifadə edilməsi bu texnologiyaya qarşı narahatlıqları artırır. Halbuki düzgün istifadə edildikdə süni intellekt səhiyyədən təhsilə, elmdən gündəlik həyata qədər bir çox sahədə insan həyatını asanlaşdıran güclü bir vasitədir. Bu səbəbdən əsas məsələ texnologiyanın özü deyil, onun necə və hansı məqsədlə istifadə olunmasıdır.

Süni İntellekt üzrə mütəxxəssis Ümid Salay Crossmedia.az-a açıqlamasında süni intellektdən yanlış istifadənin fəsadlarından danışıb: "Süni intellektin yanlış istifadəsi bu gün ən ciddi texnoloji və sosial çağırışlardan biridir. Çünki AI artıq yalnız mətn yazan və ya şəkil yaradan alət deyil; o, səs, video, insan siması, məlumat analizi və qərarvermə proseslərinə də təsir edir. Bu qədər güclü texnologiyanın sui-istifadə riski də təbii olaraq artır. Bu risklərin qarşısını almaq üçün bir neçə əsas mexanizm mövcuddur. Birincisi, platformaların öz təhlükəsizlik filtrləridir. Məsələn, bir çox AI sistemi zorakılıq, cinayət, şəxsi məlumatların sui-istifadəsi, deepfake və manipulyativ məzmun kimi hallara cavab verməmək və ya belə məzmunları məhdudlaşdırmaq üçün xüsusi qaydalarla işləyir. İkinci mexanizm məzmunun nişanlanmasıdır. Süni intellektlə yaradılmış foto, video, audio və mətn materialları mümkün qədər açıq şəkildə qeyd olunmalıdır. Bu, həm istifadəçinin məlumatlı olmasını təmin edir, həm də real və süni məzmun arasındakı sərhədi qoruyur".
Mütəxxəsisin sözlərinə görə, üçüncü mühüm istiqamət insan nəzarətidir: " Süni intellekt sistemləri nə qədər inkişaf etsə də, xüsusilə həssas mövzularda son qərar insanda qalmalıdır. Media, təhsil, hüquq, səhiyyə və dövlət idarəçiliyi kimi sahələrdə AI yalnız dəstəkçi alət kimi istifadə edilməli, yekun məsuliyyət isə mütəxəssisin üzərində olmalıdır. Dördüncü məsələ hüquqi və etik çərçivələrdir. İnsanların səsi, görüntüsü və şəxsi məlumatları icazəsiz istifadə olunmamalıdır. Kiminsə siması ilə saxta video hazırlamaq, səsini təqlid etmək və ya süni kontenti real hadisə kimi təqdim etmək artıq sadəcə texnoloji eksperiment deyil, ciddi etik və hüquqi məsuliyyət yaradan məsələdir. İstifadəçilər isə ilk növbədə üç məqama diqqət etməlidirlər: mənbə, məqsəd və kontekst. Qarşılarına çıxan AI məzmununun haradan gəldiyini, hansı məqsədlə hazırlandığını və hansı kontekstdə təqdim edildiyini yoxlamalıdırlar. Xüsusilə emosional reaksiya yaradan videolar, sensasion xəbərlər və tanınmış şəxslərlə bağlı qeyri-adi görüntülər paylaşılmadan əvvəl mütləq yoxlanmalıdır".
Ü.Salayın fikrincə, süni intellektin sui-istifadəsinin qarşısını almağın ən effektiv yolu yalnız texniki filtrlər deyil, həm də AI savadlılığının artırılmasıdır: " İnsanlar bu texnologiyanın necə işlədiyini, nələri edə bildiyini və hansı hallarda manipulyasiya riski yaratdığını anlamalıdırlar. Çünki gələcəkdə əsas qorunma mexanizmi sadəcə proqramlar yox, daha savadlı və daha diqqətli istifadəçi davranışı olacaq. Yekunda, süni intellekt özü təhlükə deyil. Risk onun necə, kim tərəfindən və hansı məqsədlə istifadə olunmasındadır. Əgər şəffaflıq, razılıq, insan nəzarəti və məsuliyyət prinsipləri qorunsa, AI cəmiyyət üçün risk mənbəyi yox, inkişafı sürətləndirən güclü bir alətə çevrilə bilər".
Fatimə
18:46 11.05.2026
Oxunuş sayı: 60