[custom_ad]
वॉरेन और ट्रैहान ने एक पत्र में लिखा, “आपकी सार्वजनिक टिप्पणियों और ओपनएआई की कार्रवाइयों की रिपोर्टों के बीच विसंगति को देखते हुए, हम ओपनएआई के व्हिसलब्लोअर और हितों के टकराव से संबंधित सुरक्षा के बारे में जानकारी मांगते हैं, ताकि यह समझा जा सके कि क्या संघीय हस्तक्षेप आवश्यक हो सकता है।” पत्र विशेष रूप से साझा किया गया कगार.
सांसदों ने कई ऐसे उदाहरण दिए जहां ओपनएआई की सुरक्षा प्रक्रियाओं पर सवाल उठाए गए हैं। उदाहरण के लिए, उन्होंने कहा कि 2022 में, GPT-4 के अप्रकाशित संस्करण का परीक्षण किया जा रहा था। भारत में माइक्रोसॉफ्ट बिंग सर्च इंजन का नया संस्करण ओपनएआई के सुरक्षा बोर्ड से मंजूरी मिलने से पहले। उन्होंने ओपनएआई के सीईओ सैम ऑल्टमैन को 2023 में कंपनी से कुछ समय के लिए बाहर निकाले जाने की घटना को भी याद किया, जो बोर्ड की चिंताओं के परिणामस्वरूप हुआ था, आंशिक रूप से, “परिणामों को समझने से पहले प्रगति का व्यावसायीकरण करने पर।”
वॉरेन और ट्रैहान का ऑल्टमैन को पत्र ऐसे समय में आया है जब कंपनी सुरक्षा संबंधी कई चिंताओं से ग्रस्त है, जो अक्सर कंपनी के सार्वजनिक बयानों से मेल नहीं खाती। उदाहरण के लिए, एक अनाम स्रोत बताया वाशिंगटन पोस्ट ओपनएआई ने सुरक्षा परीक्षण में जल्दबाजी की, सुपरअलाइनमेंट टीम (जो आंशिक रूप से सुरक्षा के लिए जिम्मेदार थी) को भंग कर दिया गया, और एक सुरक्षा कार्यकारी ने यह दावा करते हुए पद छोड़ दिया कि “सुरक्षा संस्कृति और प्रक्रियाएं चमकदार उत्पादों के लिए पीछे चली गई हैं।” ओपनएआई के प्रवक्ता लिंडसे हेल्ड ने इन दावों का खंडन किया। वाशिंगटन पोस्टकी रिपोर्ट में कहा गया है कि कंपनी ने “हमारी सुरक्षा प्रक्रिया में कोई कमी नहीं की, हालांकि हम मानते हैं कि प्रक्षेपण हमारी टीमों के लिए तनावपूर्ण था।”
अन्य सांसदों ने भी कंपनी की सुरक्षा प्रथाओं के बारे में जवाब मांगा है। सीनेटरों के एक समूह सहित जुलाई में ब्रायन शेट्ज़ (डी-एचआई) के नेतृत्व में। वॉरेन और ट्रैहान ने इस पर और स्पष्टता की मांग की उस समूह के प्रति ओपनएआई की प्रतिक्रियाएँइसमें कर्मचारियों के लिए चिंताओं की रिपोर्ट करने हेतु एक नई “ईमानदारी लाइन” का निर्माण भी शामिल है।
इस बीच, OpenAI आक्रामक रुख अपनाता दिख रहा है। जुलाई में, कंपनी ने लॉस एलामोस नेशनल लेबोरेटरी के साथ साझेदारी की घोषणा की यह पता लगाने के लिए कि उन्नत एआई मॉडल जैव वैज्ञानिक अनुसंधान में कैसे सुरक्षित रूप से सहायता कर सकते हैं। पिछले हफ़्ते ही, ऑल्टमैन ने एक्स के ज़रिए घोषणा की कि ओपनएआई यूएस आर्टिफिशियल इंटेलिजेंस सेफ्टी इंस्टीट्यूट के साथ सहयोग कर रहा है और इस बात पर ज़ोर दिया कि कंपनी में 20 प्रतिशत कंप्यूटिंग संसाधन सुरक्षा के लिए समर्पित होंगे (यह वादा मूल रूप से अब बंद हो चुकी सुपरअलाइनमेंट टीम से किया गया था)। उसी पोस्ट में, ऑल्टमैन ने कहा कि ओपनएआई ने कर्मचारियों के लिए गैर-अपमानजनक खंड और निहित इक्विटी को रद्द करने की अनुमति देने वाले प्रावधानों को हटा दिया है, जो वॉरेन और ट्रैहन के पत्र में एक प्रमुख मुद्दा था।
वॉरेन और ट्रैहन ने ऑल्टमैन से इस बारे में जानकारी मांगी कि कर्मचारियों के लिए उनकी नई एआई सुरक्षा हॉटलाइन का उपयोग कैसे किया जा रहा है और कंपनी रिपोर्ट का पालन कैसे करती है। उन्होंने उन सभी समयों का “विस्तृत लेखा-जोखा” भी मांगा जब ओपनएआई उत्पादों ने “सुरक्षा प्रोटोकॉल को दरकिनार किया” और किन परिस्थितियों में किसी उत्पाद को सुरक्षा समीक्षा से बचने की अनुमति दी जाएगी। कानून निर्माता ओपनएआई की संघर्ष नीति के बारे में भी जानकारी मांग रहे हैं। उन्होंने ऑल्टमैन से पूछा कि क्या उन्हें किसी बाहरी होल्डिंग से अलग होने की आवश्यकता है और “ओपनएआई को आपके वित्तीय हितों के टकराव से बचाने के लिए क्या विशिष्ट सुरक्षा उपाय हैं।” उन्होंने ऑल्टमैन से 22 अगस्त तक जवाब देने को कहा।
वॉरेन ने यह भी बताया कि ए.आई. के बारे में अपनी चिंताओं के बारे में एल्टमैन कितने मुखर रहे हैं। पिछले साल सीनेट के सामने एल्टमैन ने कहा था कि एल्टमैन ने ए.आई. के बारे में अपनी चिंताओं के बारे में बहुत कुछ कहा है। चेतावनी दी कि एआई की क्षमताएं “सार्वजनिक सुरक्षा और राष्ट्रीय सुरक्षा के लिए महत्वपूर्ण रूप से अस्थिर करने वाला” और प्रौद्योगिकी के हर संभावित दुरुपयोग या विफलता की आशंका की असंभवता पर जोर दिया। ये चेतावनियाँ कानून निर्माताओं के साथ गूंजती हुई प्रतीत हुईं – ओपनएआई के गृह राज्य कैलिफ़ोर्निया में, राज्य सीनेटर स्कॉट वीनर बड़े भाषा मॉडल को विनियमित करने के लिए एक विधेयक पर जोर दे रहे हैं, जिसमें प्रतिबंध शामिल हैं जो कंपनियों को कानूनी रूप से जवाबदेह ठहराएंगे यदि उनके एआई का उपयोग हानिकारक तरीकों से किया जाता है।
[custom_ad]
Source link
[custom_ad]