एक नई रिपोर्ट में, एआई पायनियर, फेई-फेई ली के सह-नेतृत्व वाले कैलिफोर्निया-आधारित नीति समूह का सुझाव है कि सांसदों को एआई जोखिमों पर विचार करना चाहिए कि एआई नियामक नीतियों को तैयार करते समय “दुनिया में अभी तक नहीं देखा गया है”।
41-पृष्ठ अंतरिम रिपोर्ट मंगलवार को जारी किया गया कैलिफोर्निया एआई मॉडल पर संयुक्त कैलिफोर्निया नीति वर्किंग ग्रुप से आता है, जो कैलिफोर्निया के विवादास्पद एआई सुरक्षा बिल, एसबी 1047 के अपने वीटो के बाद गवर्नर गेविन न्यूजॉम द्वारा आयोजित एक प्रयास है। जबकि न्यूज़ॉम ने पाया कि एसबी 1047 ने चिह्नित किया, उन्होंने पिछले साल एआई जोखिमों के अधिक व्यापक मूल्यांकन की आवश्यकता को स्वीकार किया।
रिपोर्ट में, ली, सह-लेखक यूसी बर्कले कॉलेज ऑफ कम्प्यूटिंग डीन जेनिफर चायेस और कार्नेगी एंडोमेंट के साथ अंतर्राष्ट्रीय शांति अध्यक्ष मारियानो-फ्लोरेंटिनो क्यूलेर के लिए, कानूनों के पक्ष में तर्क देते हैं कि ओपनई के निर्माण जैसे सीमावर्ती एआई लैब्स में पारदर्शिता बढ़ जाएगी। वैचारिक स्पेक्ट्रम के उद्योग के हितधारकों ने अपने प्रकाशन से पहले रिपोर्ट की समीक्षा की, जिसमें ट्यूरिंग अवार्ड विजेता योशुआ बेंजियो जैसे स्टैच एआई सुरक्षा अधिवक्ताओं के साथ-साथ एसबी 1047 के खिलाफ तर्क दिया गया, जैसे कि डेटाब्रिक्स के सह-संस्थापक आयन स्टोका।
रिपोर्ट के अनुसार, एआई सिस्टम द्वारा उत्पन्न उपन्यास जोखिमों को ऐसे कानूनों की आवश्यकता हो सकती है जो एआई मॉडल डेवलपर्स को सार्वजनिक रूप से अपने सुरक्षा परीक्षणों, डेटा अधिग्रहण प्रथाओं और सुरक्षा उपायों की रिपोर्ट करने के लिए मजबूर करेंगे। रिपोर्ट एआई कंपनी के कर्मचारियों और ठेकेदारों के लिए विस्तारित व्हिसलब्लोअर सुरक्षा के अलावा, इन मैट्रिक्स और कॉर्पोरेट नीतियों के तीसरे पक्ष के मूल्यांकन के आसपास बढ़े हुए मानकों की भी वकालत करती है।
ली एट अल। AI की क्षमता के लिए “सबूतों का एक अनिर्णायक स्तर” लिखें, जो साइबर हमले को पूरा करने में मदद करने, जैविक हथियार बनाने, या अन्य “चरम” खतरों के बारे में लाने में मदद करता है। हालांकि, वे यह भी तर्क देते हैं कि एआई नीति को न केवल वर्तमान जोखिमों को संबोधित करना चाहिए, बल्कि भविष्य के परिणामों का अनुमान लगाना चाहिए जो पर्याप्त सुरक्षा उपायों के बिना हो सकते हैं।
रिपोर्ट में कहा गया है, “उदाहरण के लिए, हमें एक परमाणु हथियार (विस्फोट) का निरीक्षण करने की आवश्यकता नहीं है, यह भविष्यवाणी करने के लिए कि यह व्यापक नुकसान पहुंचा सकता है और यह व्यापक नुकसान पहुंचाएगा।” “अगर जो लोग सबसे चरम जोखिमों के बारे में अनुमान लगाते हैं, वे सही हैं – और हम अनिश्चित हैं कि क्या वे होंगे – तो इस वर्तमान समय में फ्रंटियर एआई पर निष्क्रियता के लिए दांव और लागत बहुत अधिक हैं।”
रिपोर्ट में एआई मॉडल विकास पारदर्शिता को बढ़ावा देने के लिए दो-आयामी रणनीति की सिफारिश की गई है: ट्रस्ट लेकिन सत्यापित करें। एआई मॉडल डेवलपर्स और उनके कर्मचारियों को सार्वजनिक चिंता के क्षेत्रों पर रिपोर्ट करने के लिए रास्ते प्रदान किए जाने चाहिए, रिपोर्ट में कहा गया है, जैसे कि आंतरिक सुरक्षा परीक्षण, जबकि तीसरे पक्ष के सत्यापन के लिए परीक्षण दावों को प्रस्तुत करने के लिए भी आवश्यक है।
जबकि रिपोर्ट, जिसका अंतिम संस्करण जून 2025 में होने वाला है, कोई विशिष्ट कानून का समर्थन करता है, यह एआई नीति निर्धारण बहस के दोनों पक्षों के विशेषज्ञों द्वारा अच्छी तरह से प्राप्त किया गया है।
डीन बॉल, जॉर्ज मेसन विश्वविद्यालय में एक एआई-केंद्रित अनुसंधान साथी, जो एसबी 1047 के महत्वपूर्ण थे, ने एक्स पर एक पोस्ट में कहा कि रिपोर्ट थी एक आशाजनक कदम कैलिफोर्निया के एआई सुरक्षा विनियमन के लिए। कैलिफोर्निया के राज्य के सीनेटर स्कॉट वीनर के अनुसार, यह एआई सुरक्षा अधिवक्ताओं के लिए भी एक जीत है, जिन्होंने पिछले साल एसबी 1047 की शुरुआत की थी। वीनर ने एक प्रेस विज्ञप्ति में कहा कि रिपोर्ट “एआई गवर्नेंस के आसपास तत्काल वार्तालापों पर बनाई गई है, जिसे हमने विधायिका में (2024 में) में शुरू किया था।”
रिपोर्ट SB 1047 और Wiener के अनुवर्ती बिल, SB 53 के कई घटकों के साथ संरेखित करती है, जैसे कि सुरक्षा परीक्षणों के परिणामों की रिपोर्ट करने के लिए AI मॉडल डेवलपर्स की आवश्यकता होती है। एक व्यापक दृश्य लेते हुए, यह एआई सुरक्षा लोगों के लिए एक बहुत जरूरी जीत प्रतीत होती है, जिनके एजेंडे ने पिछले वर्ष में मैदान खो दिया है।