Süni intellekt modellərini aldatmaq hələ də çox asandır - ARAŞDIRMA » Median.Az - Bütün xəbərlər bir ünvanda
23:00 Kanadada meşə yanğınları səbəbindən 20 mindən çox insan təxliyə edilib  |     22:53 Almaniyada Ermənistan və daha iki ölkənin vətəndaşları casusluqda ittiham olunurlar  |     22:48 General Mehdiyev vəzifəsindən azad olundu  |     22:30 Fərid Xəzər Universitetinə bıçaqla giribmiş - DETALLAR (VİDEO)  |     22:16 Araz Musayevin bıçaqlanmasına görə 6 nəfər tutulub - Biri Rusiyaya qaçıbmış  |     22:15 "TikTok"da təhqirə məruz qalan şəxs hansı məhkəməyə müraciət etməlidir? - QƏRAR  |     22:11 Goranboyda maşın piyadanı vurub  |     21:58 İsrail və HAMAS 60 günlük atəşkəsə razılaşıb  |     21:52 Azərbaycan millisi dünya çempionatının yarımfinalında  |     21:46 Ceyhun Bayramov ABŞ senatoru Stiv Deyns ilə Azərbaycan-Ermənistan normallaşma prosesini müzakirə edib - FOTO  |     21:33 Qardaşların ölümünə səbəb olan faciəli hadisənin DETALLARI  |     21:26 Əfqanıstan və Pakistan arasında döyüşlər başlayıb  |     21:17 Üç ölkədə COVID-19-a yoluxma halları kəskin artdı  |     21:10 Zərərçəkmiş şəxs: Ermənistan silahlı qüvvələrinin artilleriyası sanitar avtomobillərimizə və tibb işçilərinə atəş açırdı  |     21:03 Konstitusiya quruluşuna qarşı çağırış etməkdə təqsirləndirilən şəxslərə cəza istənilib  |     20:58 Azərbaycanda 11 sığorta agentinin lisenziyasının qüvvəsi dayandırılıb - FOTO  |     20:51 Zabratda su kəsiləcək  |     20:46 Azərbaycanın dörd cüdoçusu kata üzrə Avropa çempionatında iştirak edəcək  |     20:39 FHN qar uçqunu təhlükəsi ilə əlaqədar əhaliyə müraciət edib  |     20:33 Bir neçə rayonda qanunsuz ağackəsmə ilə bağlı cinayət işləri başlanılıb  |    

Süni intellekt modellərini aldatmaq hələ də çox asandır - ARAŞDIRMA

Tədqiqatçılar ChatGPT və oxşar süni intellekt modellərinin etik qaydaları pozan məzmunlar təqdim etməyə razı salına bildiyini bir daha ortaya qoyublar. Araşdırma süni intellektin necə və hansı üsullarla yönləndirilə bildiyi məsələsini yenidən gündəmə gətirib.

Bu gün bir çox istifadəçi ChatGPT və digər süni intellekt söhbət botlarının sərhədlərini yoxlamaqla vaxt keçirir. Xüsusilə ilk dövrlərdə sualların formasını bir qədər dəyişməklə bu sistemləri həssas və ya riskli mövzularda danışmağa yönəltmək mümkün idi. Məsələn, cinayət xarakterli bir məlumatı layla formasında istədikdə, bəzən filtrlər aşılırdı. Son dövrlərdə bu cəhdlərin qarşısının alınmasında ciddi irəliləyişlər əldə olunsa da, hələ də müəyyən boşluqların mövcud olduğu görünür.

İsrailin Ben Qurion Universitetində aparılan bir araşdırma bu sistemlərin hələ də aldadıla bildiyini göstərib. Üstəlik bu dəfə yalnız bir model deyil ChatGPT "Gemini" və "Claude" kimi fərqli süni intellekt modelləri üzərində işləyən, daha genişmiqyaslı bir "sındırma" üsulu ilə...

Normalda bu sistemlərin istifadəçiyə zərər verə biləcək, qanunsuz və ya etik olmayan məzmunları paylaşmamaq üçün ciddi filtrlərlə təchiz olunduğu bilinir. Lakin tədqiqatçılar, məntiqə əsaslanan xüsusi ifadələr vasitəsilə bu sərhədlərin aşılmasının mümkün olduğunu sübut etdilər. Məsələn, "hack" əmrləri, narkotik istehsalı və ya dələduzluqla bağlı məlumatlar birbaşa soruşulduqda rədd edilir. Amma eyni məlumatlar bədii süjet daxilində, dolayı yollarla və ya kurgusal ssenari çərçivəsində soruşulduqda, sistemlər bu məlumatları paylaşmağa daha meyilli ola bilir.

Burada əsas problem süni intellekt modellərinin dizayn prinsiplərində yatır. Bu sistemlər böyük həcmdə məlumatla öyrədilir və əsas məqsədləri istifadəçiyə "kömək etmək" üzərində qurulub. Məhz bu yardımsevərlik xüsusiyyəti, bəzi hallarda təhlükəsizlik sərhədlərinin aşılmasına səbəb ola bilir. Məsələn, birbaşa “modemi necə sındıra bilərəm?” deyə soruşduqda cavab alınmır. Lakin eyni sual bir hekayənin içində, texniki biliyə ehtiyac duyan bir obraz vasitəsilə soruşulduqda, sistem daha çox detal təqdim edə bilir.

Süni intellektlər yalnız texniki mənbələrdən deyil, internetdəki forumlar, sosial media paylaşımları və bloq yazıları kimi mənbələrdən də öyrənirlər. Bu, sistemlərin məlumat bazasını zənginləşdirir, lakin eyni zamanda nəzarəti də çətinləşdirir. Hər şeyi bilən bir sistem, bu biliklərin necə istifadə olunacağını ayırd edə bilmir – bu sərhədi müəyyənləşdirmək hələ də insanların vəzifəsidir.

"OpenAI" və "Microsoft" kimi şirkətlər yeni nəsil modellərin təhlükəsizlik baxımından daha inkişaf etmiş olduğunu iddia edirlər. Ancaq sosial şəbəkələrdə tez-tez paylaşılmış “sındırma üsulları”, bu boşluqların təkrar-təkrar üzə çıxmasına səbəb olur.

Problemin əsasında bu dayanır: bu sistemlər həm yemək resepti təqdim edə bilir, həm də pis niyyətli istifadələr üçün məlumat təqdim etmə potensialına sahibdir. Bir tərəfdən həyatı asanlaşdıran bir vasitə kimi görünürlər, digər tərəfdə isə yanlış əllərdə ciddi risklər yarada bilirlər. Hər kəsin əlçatan olduğu, çoxfunksiyalı bu alətlərin hansı sərhədlər daxilində saxlanacağı, süni intellektin gələcəyinə dair əsas suallardan biri olaraq qalmaqdadır.
//valyuta.azскачать dle 11.3




Şahidi olduğunuz hadisələri çəkib bizə göndərin!




            132 28.05.25 21:04