"ChatGPT" adlı populyar süni intellekt alətinin yaradıcı şirkəti "OpenAI" istifadəçi söhbətlərinin bəzilərini izlədiyini və zəruri hallarda hüquq-mühafizə orqanlarına məlumat verdiyini etiraf edib.
Valyuta.az xəbər verir ki, şirkətin yayımladığı bloq yazısında bu prosesin təhlükəli vəziyyətlərin qarşısını almaq məqsədi daşıdığı bildirilib.
Şirkət qeyd edib ki, istifadəçilərin bütün yazışmaları yoxlanılmır, lakin təhlükə ehtimalı olduqda susmaqla kifayətlənilmir. Belə ki, "OpenAI" bəzi hallarda istifadəçi fəaliyyətlərini nəzərdən keçirir və süni intellekt tərəfindən zərərli hesab olunan məzmunlar şirkət nümayəndələrinə ötürülür. Bu nümayəndələr isə ehtiyac yarandıqda məlumatları polis orqanlarına təqdim edirlər.
Süni intellekt texnologiyası, xüsusilə də "ChatGPT" gündəlik istifadəçilər üçün əhəmiyyətli faydalar təqdim edir. Məsələn, saatlarla aparılması gərəkən araşdırmaları bir neçə dəqiqəyə yekunlaşdırmaq mümkündür. Lakin bəzi istifadəçilər bu texnologiyadan sui-istifadə edərək bomba hazırlanması və ya ölümcül hücumlar planlaşdırılması kimi təhlükəli məqsədlər üçün istifadə etməyə cəhd edirlər.
"OpenAI" bu kimi halların qarşısını almaq məqsədilə müəyyən nəzarət tədbirləri gördüyünü bildirib. Şirkət rəsmiləri qeyd edirlər ki, süni intellekt sistemləri tərəfindən zərərli hesab edilən məzmunlar avtomatik olaraq müvafiq heyətə çatdırılır və onların qərarı əsasında hüquq-mühafizə orqanlarına məlumat verilir.
Şirkətin açıqlamasında intihar halları ilə bağlı bir istisnaya da diqqət çəkilib. Bildirilir ki, bu kimi vəziyyətlər hüquq-mühafizə orqanlarına bildirilmədən əvvəl məxfilik prinsipləri nəzərə alınır və məlumatın ötürülməsi bu səbəbdən məhdudlaşdırılır.
Mütəxəssislər hesab edirlər ki, bu yanaşma "OpenAI" üçün ikili bir dilemmanın göstəricisidir. Bir tərəfdə istifadəçilərin məxfiliyə olan haqlı tələbləri, digər tərəfdə isə təhlükəli fəaliyyətlərin qarşısını almaq zərurəti durur. Şirkətin bu balansı necə qoruyacağı və yeni hüquqi-etik mübahisələrin yaranıb-yaranmayacağı gələcəkdə daha çox müzakirə ediləcək mövzulardan biri ola bilər.