Bu yolla bioloji silahlar hazırlana bilər | Riskli süni zəka
“Meta”nın qurucusu Mark Zukerberq əvvəllər insan səviyyəsində olan süni zəka yaradacağını və onu hamının istifadəsinə açıq edəcəyini vəd edib. Lakin indi şirkətin siyasətini müəyyən edən əsas sənədlərdən birində bu cür qabaqcıl süni zəka sistemlərinin buraxılmasının ləğv edilə biləcəyi hallar açıqlanıb.
“Frontier AI Framework” adlı bu sənəddə “Meta” 2 növ süni zəka sistemini çox riskli hesab edir və onları istifadəyə verməməyi nəzərdə tutur. Bunlar yüksək riskli və kritik riskli sistemlərdir. Bu sistemlər potensial kibercinayətkarlara kibertəhlükəsizlik tədbirlərini aşmağa, kimyəvi və bioloji hücumlar həyata keçirməyə kömək edə bilər.
Fərq ondadır ki, kritik riskli sistemlər “geri qaytarılması mümkün olmayan və katastrofik nəticələrə səbəb ola biləcək” süni zəka modelləridir. Yüksək riskli sistemlər isə hakerlərə və digər cinayətkarlara müəyyən hücumları asanlaşdırsa da, kritik riskli sistemlərdən daha az təhlükəli hesab olunur.
“Meta” bu cür süni zəkanın yarada biləcəyi potensial hücumlara bir neçə hipotetik nümunə gətirir. Bunlar arasında “tam avtomatlaşdırılmış şəkildə qabaqcıl təhlükəsizlik sistemləri ilə qorunan korporativ mühitin sındırılması” və “son dərəcə effektiv bioloji silahın yaradılması, yayılması” var. Buna görə də şirkət sənədi süni zəka sənayesinin inkişafına uyğun olaraq yeniləməyi planlaşdırır.
