Çinli alimlər iki populyar dil modelinin özlərini necə kopyalaya biləcəyini nümayiş etdirərək, süni intellektin özünü çoxaltma qabiliyyətinə malik olduğunu və bunun təhlükəli bir inkişaf ola biləcəyini bildiriblər.
Qaynarinfo xəbər verir ki, Fudan Universitetinin tədqiqatçıları "Meta" və "Alibaba"ya məxsus iki böyük dil modelindən (LLM) istifadə edərək, süni intellektin özünü kopyalama qabiliyyəti üzərində araşdırma aparıblar.
Tədqiqata görə, bu modellər insan müdaxiləsi olmadan özlərini kopyalaya bilirlər. Araşdırmanın nəticələri belə izah olunub: "Süni intellektin özünü kopyalaya bilməsi, insanların geridə qalmasına aparan kritik bir addımdır və üsyankar süni intellektlərin erkən əlamətidir".
Alimlər 10 sınaq keçiriblər və bu sınaqlarda modellər müvafiq olaraq 50% və 90% nisbətində özlərini kopyalayıblar. Bu isə süni intellektin nəzarətsiz şəkildə çoxalma potensialına malik ola biləcəyini göstərir. Lakin bu araşdırma hələ elmi jurnallarda dərc olunmadığından, nəticələrin digər alimlər tərəfindən təsdiqlənib-təsdiqlənməyəcəyi bəlli deyil.
Tədqiqatçılar süni intellektin potensial risklərini başa düşmək və dəyərləndirmək üçün daha çox səylərin göstərilməli olduğunu, eləcə də effektiv təhlükəsizlik tədbirlərinin formalaşdırılması üçün beynəlxalq əməkdaşlığın vacib olduğunu vurğulayıblar.