Amerikanın "OpenAI" şirkəti süni intellektə (AI) əsaslanan ChatGPT çatbotundan istifadə siyasətini yeniləyib, onun texnologiyasının hərbi məqsədlər üçün istifadəsinə qoyulmuş birbaşa qadağanı aradan qaldırıb.
Qaynarinfo bu barədə "The Intercept"ə istinadən xəbər verir.
Yanvarın 10-na qədər "OpenAI"nin məhsul təlimatları səhifəsində süni intellektdən "yüksək fiziki zərər riski olan fəaliyyətlər", o cümlədən "silahların hazırlanması" və "hərbi fəaliyyətlər" üçün istifadə edilməsinə icazə verməyən müddəa daxil idi. Bu qaydalar Müdafiə Departamenti və ya digər hərbiləşdirilmiş dövlət qurumları tərəfindən ChatGPT-nin istifadəsini istisna edirdi.
Qaydaların yeni versiyasında "OpenAI" neyron şəbəkələrinin özünə və ya başqalarına zərər vurmaq, o cümlədən silah yaratmaq və ya istifadə etmək üçün istifadəsinə qadağa qoyulmuşdu, lakin orduda və hərbi işlərdə istifadənin yolverilməzliyi haqqında bənd ortadan qaldırılıb.
"OpenAI" ChatGPT istifadə siyasətinin redaktəsini qaydalar və prinsiplər toplusunun sadələşdirilməsi zərurəti ilə izah edib. Şirkət vurğulayıb ki, "özünüzə və başqalarına zərər verməmək" tələbi mümkün qədər geniş olaraq qalır və çatbotdan istifadə edərək silahların hazırlanması və istifadəsinə qoyulan qadağa ilə aydınlaşdırılır.
"Silah inkişaf etdirmək və ya istifadə etmək, başqalarına zərər vermək və ya əmlakı məhv etmək və ya hər hansı xidmət və ya sistemin təhlükəsizliyinə xələl gətirən icazəsiz fəaliyyətlə məşğul olmaq üçün texnologiyamızdan hər hansı istifadə, o cümlədən hərbçilər tətrəfindən qadağandır", deyə "OpenAI" nümayəndələri sorğuya cavab olaraq bildiriblər.
Nəşrin müsahibə aldığı ekspertlərin fikrincə, "OpenAI" tədricən Pentaqona və ABŞ kəşfiyyat xidmətlərinə doğru irəliləyir. Ekspertlər qeyd edirlər ki, ChatGPT birbaşa döyüş əməliyyatlarında istifadə edilməsə belə, onun işi orduya hərbi əməliyyatlar və zorakılıqdan istifadə ilə bağlı problemləri həll etməyə kömək edəcək.