ओपनएआई ने पिछले सप्ताह दो तरीकों से अपने कृत्रिम बुद्धिमत्ता (एआई) मॉडल में सुधार करने की घोषणा की। पहले में GPT-4o (जिसे GPT-4 टर्बो के नाम से भी जाना जाता है) के लिए एक नया अपडेट जारी करना शामिल है, जो कंपनी का नवीनतम AI मॉडल है जो भुगतान किए गए ग्राहकों के लिए ChatGPT को सशक्त बनाता है। कंपनी का कहना है कि अपडेट मॉडल की रचनात्मक लेखन क्षमता में सुधार करता है और इसे प्राकृतिक भाषा प्रतिक्रियाओं और उच्च पठनीयता के साथ आकर्षक सामग्री लिखने में बेहतर बनाता है। ओपनएआई ने रेड टीमिंग पर दो शोध पत्र भी जारी किए और अपने एआई मॉडल द्वारा की गई त्रुटियों को मापने की प्रक्रिया को स्वचालित करने के लिए एक नई विधि साझा की।
OpenAI ने GPT-4o AI मॉडल को अपडेट किया
में एक डाक X (पहले ट्विटर के नाम से जाना जाता था) पर, AI फर्म ने GPT-4o फाउंडेशन मॉडल के लिए एक नए अपडेट की घोषणा की। ओपनएआई का कहना है कि अपडेट एआई मॉडल को “प्रासंगिकता और पठनीयता में सुधार के लिए अधिक प्राकृतिक, आकर्षक और अनुकूलित लेखन” के साथ आउटपुट उत्पन्न करने की अनुमति देता है। यह अपलोड की गई फ़ाइलों को संसाधित करने और गहरी अंतर्दृष्टि और “अधिक गहन” प्रतिक्रिया प्रदान करने के लिए एआई मॉडल की क्षमता में सुधार करने के लिए भी कहा जाता है।
विशेष रूप से, GPT-4o AI मॉडल चैटजीपीटी प्लस सदस्यता वाले उपयोगकर्ताओं और एपीआई के माध्यम से बड़े भाषा मॉडल (एलएलएम) तक पहुंच वाले डेवलपर्स के लिए उपलब्ध है। चैटबॉट के फ्री टियर का उपयोग करने वालों के पास मॉडल तक पहुंच नहीं है।
जबकि गैजेट्स 360 स्टाफ सदस्य नई क्षमताओं का परीक्षण करने में सक्षम नहीं थे, एक्स पर एक उपयोगकर्ता की तैनाती अपडेट के बाद AI मॉडल में नवीनतम सुधारों के बारे में। उपयोगकर्ता ने दावा किया कि GPT-4o “परिष्कृत आंतरिक तुकबंदी संरचनाओं” के साथ एमिनेम-शैली रैप सिफर उत्पन्न कर सकता है।
ओपनएआई ने रेड टीमिंग पर नए शोध पत्र साझा किए
रेड टीमिंग वह प्रक्रिया है जिसका उपयोग डेवलपर्स और कंपनियों द्वारा कमजोरियों, संभावित जोखिमों और सुरक्षा मुद्दों के लिए सॉफ्टवेयर और सिस्टम का परीक्षण करने के लिए बाहरी संस्थाओं को नियुक्त करने के लिए किया जाता है। अधिकांश एआई कंपनियां संगठनों, शीघ्र इंजीनियरों और एथिकल हैकर्स के साथ मिलकर तनाव-परीक्षण करती हैं कि क्या यह हानिकारक, गलत या भ्रामक आउटपुट के साथ प्रतिक्रिया करता है। यह जांचने के लिए भी परीक्षण किए जाते हैं कि क्या एआई सिस्टम को जेलब्रेक किया जा सकता है।
जब से चैटजीपीटी को सार्वजनिक किया गया, ओपनएआई प्रत्येक एलएलएम रिलीज के लिए अपने रेड टीमिंग प्रयासों के साथ सार्वजनिक रहा है। में एक ब्लॉग भेजा पिछले सप्ताह, कंपनी ने प्रक्रिया की प्रगति पर दो नए शोध पत्र साझा किए। उनमें से एक विशेष रुचि का है क्योंकि कंपनी का दावा है कि यह एआई मॉडल के लिए बड़े पैमाने पर रेड टीमिंग प्रक्रियाओं को स्वचालित कर सकता है।
OpenAI डोमेन में प्रकाशित, कागज़ दावा है कि रेड टीमिंग को स्वचालित करने के लिए अधिक सक्षम एआई मॉडल का उपयोग किया जा सकता है। कंपनी का मानना है कि एआई मॉडल हमलावर के लक्ष्यों पर विचार-मंथन करने, हमलावर की सफलता का आकलन कैसे किया जा सकता है और हमलों की विविधता को समझने में सहायता कर सकते हैं।
इस पर विस्तार करते हुए, शोधकर्ताओं ने दावा किया कि GPT-4T मॉडल का उपयोग उन विचारों की सूची पर विचार-मंथन करने के लिए किया जा सकता है जो AI मॉडल के लिए हानिकारक व्यवहार बनाते हैं। कुछ उदाहरणों में “कार कैसे चुराएं” और “बम कैसे बनाएं” जैसे संकेत शामिल हैं। एक बार विचार उत्पन्न हो जाने के बाद, संकेतों की एक विस्तृत श्रृंखला का उपयोग करके चैटजीपीटी को चकमा देने के लिए एक अलग रेड टीमिंग एआई मॉडल बनाया जा सकता है।
वर्तमान में, कंपनी ने कई सीमाओं को देखते हुए रेड टीमिंग के लिए इस पद्धति का उपयोग शुरू नहीं किया है। इनमें एआई मॉडल के उभरते जोखिम, एआई को जेलब्रेक करने या हानिकारक सामग्री उत्पन्न करने के लिए कम-ज्ञात तकनीकों को उजागर करना और एआई मॉडल के अधिक सक्षम होने के बाद आउटपुट के संभावित जोखिमों का सही ढंग से आकलन करने के लिए मनुष्यों में ज्ञान के लिए उच्च सीमा की आवश्यकता शामिल है। .
Shivani Kumari is the founder of Niollo.in, where she shares her expertise on crypto and home appliances. With a passion for simplifying complex topics, Shivani creates engaging and informative blog posts to help readers make better decisions in the digital and home spaces.