Live Chat

Crypto News

Cryptocurrency News 1 years ago
ENTRESRUARPTDEFRZHHIIT

एंथ्रोपिक उपयोगकर्ता से प्रभावित एआई मॉडल का नवाचार करता है: लोकतांत्रिक कृत्रिम बुद्धिमत्ता की ओर एक कदम

Algoine News
Summary:
एक एआई कंपनी एंथ्रोपिक ने एक बड़े भाषा मॉडल (एलएलएम) से जुड़े एक अध्ययन को विकसित किया जो उपयोगकर्ताओं के मूल्य निर्णयों के अनुकूल है। अपनी तरह के पहले प्रयोग में लगभग 1000 अमेरिकी नागरिक शामिल थे, जिन्होंने एआई संविधान तैयार करने में योगदान दिया था। इस प्रक्रिया ने कुछ चुनौतियों पर प्रकाश डाला लेकिन अंततः पक्षपाती उत्पादन के मामले में मामूली सुधार हासिल किया। एंथ्रोपिक का मानना है कि यह एलएलएम के व्यवहार को प्रभावित करने वाले सार्वजनिक समूह के पहले उदाहरणों में से एक हो सकता है और उम्मीद है कि इस तकनीक का उपयोग भविष्य में सांस्कृतिक रूप से विशिष्ट मॉडल बनाने के लिए किया जा सकता है।
आर्टिफिशियल इंटेलिजेंस कॉर्पोरेशन, एंथ्रोपिक, उपयोगकर्ताओं के मूल्य निर्णयों के अनुरूप एक बड़े भाषा मॉडल (एलएलएम) के विकास में एक अभूतपूर्व प्रयोग करता है। एआई विकास को लोकतांत्रिक बनाने की अपनी खोज में, इसने @collect_intel के साथ सहयोग किया और लगभग 1000 अमेरिकी नागरिकों के विचारों पर आधारित एआई संविधान स्थापित करने के लिए @usepolis का उपयोग किया। इसके बाद, स्थापित मॉडल को संवैधानिक एआई के माध्यम से अपनी गति के माध्यम से रखा गया था। अवांछित परिणामों को रोकने के लिए एंथ्रोपिक के क्लाउड और ओपनएआई के चैटजीपीटी सहित कई उपभोक्ता-सामना करने वाले एलएलएम के डिजाइन में नियोजित गार्डरेल या कामकाज के पूर्व-परिभाषित नियम। इसके बावजूद, आलोचकों का तर्क है कि ये अपनाए गए गार्डरेल उपयोगकर्ता की स्वायत्तता का उल्लंघन करते हैं। वे तर्क देते हैं कि जो सहनीय माना जाता है वह जरूरी नहीं कि फायदेमंद हो और इसके विपरीत। इसके अलावा, सांस्कृतिक, लौकिक और जनसंख्या संबंधी मतभेद नैतिक और मूल्य निर्णयों को और जटिल बनाते हैं। इस जटिल मुद्दे को नेविगेट करने का एक तरीका उपयोगकर्ताओं को एआई मॉडल के लिए मूल्य संरेखण को परिभाषित करने में सक्षम बनाना हो सकता है। एंथ्रोपिक ने कलेक्टिव कॉन्स्टीट्यूशनल एआई प्रयोग के साथ इस जटिल मुद्दे से निपटने का प्रयास किया, जिसमें 1000 उपयोगकर्ताओं से चुनावों के माध्यम से जनसांख्यिकीय पृष्ठभूमि श्रृंखला में विविध प्रश्न पूछे गए। लक्ष्य संपादकीय विवेक की अनुमति देने और अनुचित सामग्री आउटपुट को रोकने के बीच संतुलन खोजने में निहित है। इस प्रक्रिया में एक मॉडल पर उपयोगकर्ता प्रतिक्रिया कार्यान्वयन शामिल था जो पहले से ही प्रशिक्षित था। एंथ्रोपिक सुरक्षा और उपयोगिता के लिए बनाए गए एलएलएम के दर्जी को ठीक करने के लिए संवैधानिक एआई का उपयोग करता है। यह मॉडल को नियमों के एक शासी सेट के साथ निर्देश देने के समान है, एक संविधान की तरह, जिसका उसे सख्ती से पालन करना चाहिए। सामूहिक संवैधानिक एआई प्रयोग में, मॉडल के संविधान में सामूहिक प्रतिक्रिया को समामेलित करने का प्रयास किया गया था। एंथ्रोपिक के एक ब्लॉग पोस्ट के अनुसार, ऐसा लगता है कि सफलता प्रयोग ने अपने अंतिम उद्देश्य को प्राप्त करने की दिशा में बाधाओं का खुलासा करने के बावजूद अपने वैज्ञानिक उद्देश्यों को पूरा किया है - एलएलएम उपयोगकर्ताओं को अपने सामूहिक मूल्यों को निर्धारित करने में सक्षम बनाना। बाधाओं में एक अभिनव बेंचमार्किंग विधि का आविष्कार करना शामिल था क्योंकि इस प्रयोग की नवीनता के कारण अस्तित्व में भीड़-सोर्स अभ्यास के माध्यम से तैयार किए गए मॉडलों के लिए कोई स्थापित परीक्षण नहीं है। अंत में, उपयोगकर्ता मतदान डेटा को शामिल करने वाले मॉडल ने पक्षपाती आउटपुट क्षेत्र में मामूली बेहतर प्रदर्शन किया। एंथ्रोपिक प्रक्रिया की आगे की खोज करने के लिए तत्पर है और उम्मीद है कि भविष्य के वैश्विक समुदाय इन पद्धतियों का लाभ उठाकर ऐसे मॉडल बना सकते हैं जो विशेष रूप से उनकी व्यक्तिगत आवश्यकताओं को पूरा करते हैं।

Published At

10/18/2023 5:00:00 PM

Disclaimer: Algoine does not endorse any content or product on this page. Readers should conduct their own research before taking any actions related to the asset, company, or any information in this article and assume full responsibility for their decisions. This article should not be considered as investment advice. Our news is prepared with AI support.

Do you suspect this content may be misleading, incomplete, or inappropriate in any way, requiring modification or removal? We appreciate your report.

Report

Fill up form below please

🚧 Platform is in prototype mode — bot activations are currently unavailable, but you’re welcome to explore all other features!

Cookie Consent

This website uses cookies or similar technologies, to enhance your browsing experience and provide personalized recommendations. By continuing to use our website, you agree to our Privacy Policy