Tag: ओपनएआई

  • सैम ऑल्टमैन अंततः ओपनएआई बोर्ड में लौट आए

    ओपनएआई बोर्ड ने विस्तार के प्रति अपनी प्रतिबद्धता के एक हिस्से के रूप में तीन नए बोर्ड सदस्यों के चुनाव की भी घोषणा की।

  • एलोन मस्क ने समझौते के उल्लंघन पर ओपनएआई और सीईओ सैम ऑल्टमैन पर मुकदमा दायर किया | प्रौद्योगिकी समाचार

    नई दिल्ली: टेस्ला और स्पेसएक्स के सीईओ एलोन मस्क ने ओपनएआई और उसके सीईओ सैम अल्टमैन पर कृत्रिम बुद्धिमत्ता (एआई) से संबंधित उनके प्रारंभिक संविदात्मक समझौतों का उल्लंघन करने का आरोप लगाते हुए मुकदमा दायर किया है। संयुक्त राज्य अमेरिका में सैन फ्रांसिस्को अदालत में दायर, मुकदमा OpenAI के GPT-4 प्राकृतिक भाषा मॉडल के हालिया विकास पर केंद्रित है।

    कंपनी X के मालिक ने OpenAI और Microsoft पर GPT-4 को अनुचित तरीके से लाइसेंस देने का आरोप लगाया है। यह इस समझौते के बावजूद है कि कृत्रिम सामान्य बुद्धिमत्ता क्षमताएं गैर-लाभकारी होंगी और मानवता की सेवा करने के उद्देश्य से होंगी। (यह भी पढ़ें: Google ने कुछ भारतीय मैट्रिमोनी ऐप्स को हटाया, एग्जीक्यूटिव कॉल्स को ‘डार्क डे’ कहा गया)

    मुकदमे में कहा गया है, “मस्क ने लंबे समय से माना है कि एजीआई मानवता के लिए एक गंभीर खतरा है – शायद आज हम जिस सबसे बड़े अस्तित्व संबंधी खतरे का सामना कर रहे हैं।” (यह भी पढ़ें: यूके की महिला ने फोन फ्लैश का उपयोग करके बच्चे की दुर्लभ आंख के कैंसर का पता लगाया; पूरी कहानी पढ़ें)

    मस्क के मुकदमे में, उन्होंने अनुबंध के उल्लंघन, प्रत्ययी कर्तव्य के उल्लंघन और अनुचित व्यावसायिक प्रथाओं सहित शिकायतों की रूपरेखा तैयार की है। मस्क ने 2018 तक OpenAI के संस्थापक बोर्ड सदस्य के रूप में कार्य किया।

    मुकदमे के अनुसार, ओपनएआई का प्रारंभिक शोध “ओपन, डिजाइन, मॉडल और कोड तक मुफ्त और सार्वजनिक पहुंच प्रदान करने” में किया गया था।

    जब OpenAI शोधकर्ताओं ने पाया कि “ट्रांसफॉर्मर्स” नामक एक एल्गोरिदम, जिसे मूल रूप से Google द्वारा आविष्कार किया गया था, बिना किसी स्पष्ट प्रशिक्षण के कई प्राकृतिक भाषा कार्य कर सकता है, “पूरे समुदाय OpenAI द्वारा जारी किए गए मॉडल को बढ़ाने और विस्तारित करने के लिए उभरे”।

    ऑल्टमैन 2019 में ओपनएआई के सीईओ बने। 22 सितंबर, 2020 को ओपनएआई ने माइक्रोसॉफ्ट के साथ एक समझौता किया, जिसमें विशेष रूप से माइक्रोसॉफ्ट को उसके जेनरेटिव प्रीट्रेन्ड ट्रांसफार्मर (जीपीटी) -3 भाषा मॉडल का लाइसेंस दिया गया।

    “सबसे गंभीर बात यह है कि Microsoft लाइसेंस केवल OpenAI की प्री-एजीआई तकनीक पर लागू होता है। माइक्रोसॉफ्ट को एजीआई पर कोई अधिकार नहीं मिला। और यह OpenAI के गैर-लाभकारी बोर्ड पर निर्भर था, न कि Microsoft पर, यह निर्धारित करने के लिए कि OpenAI ने AGI कब प्राप्त किया, ”मुकदमा आगे पढ़ा।

    मस्क ने कहा कि यह मामला ओपनएआई को “संस्थापक समझौते का पालन करने और मानवता के लाभ के लिए एजीआई विकसित करने के अपने मिशन पर लौटने के लिए मजबूर करने के लिए दायर किया गया है, न कि व्यक्तिगत प्रतिवादियों और दुनिया की सबसे बड़ी प्रौद्योगिकी कंपनी को व्यक्तिगत रूप से लाभ पहुंचाने के लिए”। (आईएएनएस से इनपुट के साथ)

  • ‘वोक’ विरोधी प्रतिक्रिया के बाद Google ने मिथुन राशि के लोगों की छवि सुविधा रोक दी | प्रौद्योगिकी समाचार

    नई दिल्ली: गूगल ने कई विवादों के बाद अपने जेमिनी एआई चैटबॉट के इमेज-जनरेशन फंक्शन को रोक दिया है। कंपनी ने स्वीकार किया कि जेमिनी ने “कुछ ऐतिहासिक संदर्भों में गलत प्रतिनिधित्व” प्रदान किया है और उपयोगकर्ताओं को आश्वासन दिया है कि सुविधा का एक उन्नत संस्करण शीघ्र ही जारी किया जाएगा।

    जेमिनी की टेक्स्ट-टू-इमेज क्षमताओं के बारे में एक्स प्लेटफ़ॉर्म पर एक बयान में, Google ने कहा, “हम इस प्रकार के चित्रणों को तुरंत सुधारने के लिए काम कर रहे हैं। जेमिनी की एआई छवि पीढ़ी लोगों की एक विस्तृत श्रृंखला उत्पन्न करती है। और यह आम तौर पर एक अच्छी बात है क्योंकि दुनिया भर के लोग इसका उपयोग करते हैं। लेकिन यहां इसकी छाप गायब है।”

    जेमिनी द्वारा निर्मित छवियां हाल ही में सोशल मीडिया पर फैल गईं, जिससे व्यापक उपहास और गुस्सा पैदा हुआ। कुछ उपयोगकर्ताओं ने Google की आलोचना करते हुए दावा किया कि कंपनी सच्चाई या सटीकता के बजाय “जागृत” होने को प्राथमिकता देती है।

    जिन छवियों की आलोचना हुई, उनमें चार स्वीडिश महिलाओं का चित्रण शामिल था, जिनमें से किसी को भी श्वेत के रूप में चित्रित नहीं किया गया था, साथ ही काले और एशियाई सैनिकों को नाज़ियों के रूप में कपड़े पहने हुए दिखाया गया था।

    एंटरप्राइज सर्च स्टार्टअप ग्लीन की स्थापना करने वाले इंजीनियर देबर्घ्य दास ने एक्स प्लेटफॉर्म पर जेमिनी द्वारा बनाई गई कई छवियों वाली एक पोस्ट साझा की, “Google जेमिनी से यह स्वीकार करवाना बेहद शर्मनाक है कि गोरे लोग मौजूद हैं।”

    Google जेमिनी से यह स्वीकार करवाना शर्मनाक है कि गोरे लोग मौजूद हैं pic.twitter.com/4lkhD7p5nR – डेडी (@debarghya_das) 20 फरवरी, 2024

    एआई मॉडल के सामने आने वाली चुनौतियाँ, जैसे कि रंगीन लोगों की अनदेखी करना और रूढ़िवादिता को कायम रखना, एआई विकास में निरंतर सुधार और नैतिक विचारों की आवश्यकता को रेखांकित करता है।

    2022 में ChatGPT के लॉन्च के बाद से OpenAI जैसे प्रतिस्पर्धियों के साथ तालमेल बनाए रखने के Google के प्रयासों को इसके AI उत्पादों के रोलआउट में असफलताओं के साथ मिला है। अपने एआई चैटबॉट बार्ड के प्रदर्शन में अशुद्धियों के लिए पिछले साल जारी की गई माफी जैसे उदाहरण एआई तकनीक में चल रही जटिलताओं को उजागर करते हैं।

  • यूएस पेटेंट कार्यालय के नियमों के अनुसार, OpenAI GPT को ट्रेडमार्क के रूप में पंजीकृत नहीं कर सकता

    पिछले साल जेनेरिक एआई का उपयोग बढ़ने के कारण, कई एआई कंपनियों ने अपने उत्पाद नामों में जीपीटी जोड़ा।

  • ओपनएआई, मेटा और अन्य टेक दिग्गजों ने एआई चुनाव हस्तक्षेप से लड़ने के प्रयास पर हस्ताक्षर किए | प्रौद्योगिकी समाचार

    नई दिल्ली: 20 तकनीकी कंपनियों के एक समूह ने शुक्रवार को घोषणा की कि वे इस साल दुनिया भर में चुनावों में भ्रामक कृत्रिम-बुद्धिमत्ता सामग्री को हस्तक्षेप करने से रोकने के लिए मिलकर काम करने पर सहमत हुए हैं।

    जेनेरिक आर्टिफिशियल इंटेलिजेंस (एआई) की तीव्र वृद्धि, जो संकेतों के जवाब में सेकंडों में पाठ, चित्र और वीडियो बना सकती है, ने यह आशंका बढ़ा दी है कि नई तकनीक का इस्तेमाल इस साल प्रमुख चुनावों को प्रभावित करने के लिए किया जा सकता है, क्योंकि दुनिया के आधे से अधिक जनसंख्या चुनाव के लिए तैयार है। (यह भी पढ़ें: ओपनएआई जीपीटी को ट्रेडमार्क के रूप में पंजीकृत नहीं कर सकता, अमेरिकी पेटेंट कार्यालय के नियम)

    म्यूनिख सुरक्षा सम्मेलन में घोषित तकनीकी समझौते के हस्ताक्षरकर्ताओं में ओपनएआई, माइक्रोसॉफ्ट और एडोब सहित ऐसी कंपनियां शामिल हैं जो सामग्री बनाने के लिए उपयोग किए जाने वाले जेनरेटिव एआई मॉडल का निर्माण कर रही हैं। अन्य हस्ताक्षरकर्ताओं में सोशल मीडिया प्लेटफ़ॉर्म शामिल हैं जिन्हें अपनी साइटों से हानिकारक सामग्री को दूर रखने की चुनौती का सामना करना पड़ेगा, जैसे मेटा प्लेटफ़ॉर्म, टिकटॉक और एक्स, जिन्हें पहले ट्विटर के नाम से जाना जाता था। (यह भी पढ़ें: अब आप YouTube संगीत वीडियो को शॉर्ट्स में रीमिक्स कर सकते हैं – यहां बताया गया है!)

    समझौते में भ्रामक एआई-जनित छवियों, वीडियो और ऑडियो का पता लगाने के लिए उपकरण विकसित करने, भ्रामक सामग्री पर मतदाताओं को शिक्षित करने के लिए सार्वजनिक जागरूकता अभियान बनाने और उनकी सेवाओं पर ऐसी सामग्री पर कार्रवाई करने पर सहयोग करने की प्रतिबद्धताएं शामिल हैं।

    कंपनियों ने कहा कि एआई-जनित सामग्री की पहचान करने या उसके मूल को प्रमाणित करने की तकनीक में वॉटरमार्किंग या एम्बेडिंग मेटाडेटा शामिल हो सकता है। समझौते में प्रतिबद्धताओं को पूरा करने के लिए कोई समयसीमा निर्दिष्ट नहीं की गई या प्रत्येक कंपनी उन्हें कैसे लागू करेगी।

    मेटा प्लेटफ़ॉर्म के वैश्विक मामलों के अध्यक्ष निक क्लेग ने कहा, “मुझे लगता है कि इस (समझौते) की उपयोगिता इस पर हस्ताक्षर करने वाली कंपनियों की व्यापकता है।” “अगर अलग-अलग प्लेटफ़ॉर्म पता लगाने, उत्पत्ति, लेबलिंग, वॉटरमार्किंग इत्यादि की नई नीतियां विकसित करते हैं तो यह सब अच्छा और अच्छा है, लेकिन जब तक साझा इंटरऑपरेबल तरीके से ऐसा करने के लिए व्यापक प्रतिबद्धता नहीं होती है, हम एक हौजपॉज में फंस जाएंगे। विभिन्न प्रतिबद्धताओं के बारे में,” क्लेग ने कहा।

    जेनरेटिव एआई का इस्तेमाल पहले से ही राजनीति को प्रभावित करने और यहां तक ​​कि लोगों को वोट न देने के लिए मनाने के लिए किया जा रहा है। जनवरी में, अमेरिकी राष्ट्रपति जो बिडेन के नकली ऑडियो का उपयोग करते हुए एक रोबोकॉल न्यू हैम्पशायर के मतदाताओं को प्रसारित किया गया, जिसमें उनसे राज्य के राष्ट्रपति प्राथमिक चुनाव के दौरान घर पर रहने का आग्रह किया गया।

    ओपनएआई के चैटजीपीटी जैसे टेक्स्ट-जेनरेशन टूल की लोकप्रियता के बावजूद, तकनीकी कंपनियां एआई फोटो, वीडियो और ऑडियो के हानिकारक प्रभावों को रोकने पर ध्यान केंद्रित करेंगी, आंशिक रूप से क्योंकि लोगों में टेक्स्ट के प्रति अधिक संदेह होता है, एडोब के मुख्य ट्रस्ट अधिकारी दाना राव ने कहा। एक साक्षात्कार।

    उन्होंने कहा, “ऑडियो, वीडियो और छवियों का भावनात्मक संबंध है।” “आपका मस्तिष्क उस तरह के मीडिया पर विश्वास करने के लिए तैयार है।”

  • सोरा क्या है जो टेक्स्ट से 1 मिनट का AI वीडियो बनाता है? ChatGPT मेकर OpenAI के इंस्टेंट वीडियो मेकर के बारे में सब कुछ | प्रौद्योगिकी समाचार

    नई दिल्ली: चैटजीपीटी निर्माता ओपनएआई ने सोरा का अनावरण करके जेनरेटिव एआई में एक और कदम आगे बढ़ाया है – एक एआई मॉडल जो पाठ निर्देशों से यथार्थवादी और कल्पनाशील दृश्य बना सकता है।

    ओपनएआई ने ट्वीट किया, “हमारे टेक्स्ट-टू-वीडियो मॉडल सोरा का परिचय। सोरा अत्यधिक विस्तृत दृश्यों, जटिल कैमरा गति और जीवंत भावनाओं के साथ कई पात्रों की विशेषता वाले 60 सेकंड तक के वीडियो बना सकता है।”

    ट्वीट वीडियो में, ओपन एआई एक लघु वीडियो प्रदर्शित करता है जिसे एआई द्वारा “प्रॉम्प्ट” का उपयोग करके तैयार किया गया है: “सुंदर, बर्फीला टोक्यो शहर हलचल भरा है। कैमरा शहर की हलचल भरी सड़क से गुजरता है, जिसमें कई लोग सुंदर बर्फीले मौसम का आनंद ले रहे हैं और खरीदारी कर रहे हैं। पास के स्टालों पर। खूबसूरत सकुरा पंखुड़ियाँ बर्फ के टुकड़ों के साथ हवा में उड़ रही हैं।”

    पेश है सोरा, हमारा टेक्स्ट-टू-वीडियो मॉडल।

    सोरा अत्यधिक विस्तृत दृश्यों, जटिल कैमरा गति और जीवंत भावनाओं वाले कई पात्रों को प्रदर्शित करते हुए 60 सेकंड तक के वीडियो बना सकता है। https://t.co/7j2JN27M3W

    संकेत: “सुंदर, बर्फीला… pic.twitter.com/ruTEWn87vf

    – ओपनएआई (@OpenAI) 15 फरवरी, 2024

    ओपनएआई ने कहा है कि सोरा – टेक्स्ट-टू-वीडियो मॉडल – दृश्य गुणवत्ता और उपयोगकर्ता के संकेत का पालन करते हुए एक मिनट तक के वीडियो तैयार कर सकता है।

    “केवल पाठ निर्देशों से एक वीडियो उत्पन्न करने में सक्षम होने के अलावा, मॉडल एक मौजूदा स्थिर छवि लेने और उससे एक वीडियो उत्पन्न करने में सक्षम है, छवि की सामग्री को सटीकता और छोटे विवरणों पर ध्यान देने के साथ एनिमेट करता है। मॉडल एक भी ले सकता है मौजूदा वीडियो और इसे विस्तारित करें या लापता फ़्रेम को भरें, “ओपनएआई ने कहा।

    सोरा फिलहाल सार्वजनिक रूप से उपलब्ध नहीं है। यह अब केवल रेड टीमर्स के लिए उपलब्ध है। सोरा DALL·E 3 से रीकैप्शनिंग तकनीक का उपयोग करके DALL·E और GPT मॉडल में पिछले शोध का निर्माण करता है, जिसमें दृश्य प्रशिक्षण डेटा के लिए अत्यधिक वर्णनात्मक कैप्शन तैयार करना शामिल है।

    ओपनएआई ने कहा, “सोरा को ओपनएआई के उत्पादों में उपलब्ध कराने से पहले हम कई महत्वपूर्ण सुरक्षा कदम उठाएंगे। हम रेड टीमर्स के साथ काम कर रहे हैं – गलत सूचना, घृणित सामग्री और पूर्वाग्रह जैसे क्षेत्रों में डोमेन विशेषज्ञ – जो मॉडल का प्रतिकूल परीक्षण करेंगे।” .

  • साइबर हमलों को बढ़ाने के लिए चैटजीपीटी का उपयोग कर रहे हैकर्स, माइक्रोसॉफ्ट और ओपनएआई का खुलासा | प्रौद्योगिकी समाचार

    नई दिल्ली: माइक्रोसॉफ्ट और ओपनएआई ने बुधवार को घोषणा की कि हैकर्स अपने वर्तमान साइबर-हमले के तरीकों को बढ़ाने के लिए चैटजीपीटी जैसे बड़े भाषा मॉडल (एलएलएम) का उपयोग कर रहे हैं। कंपनियों ने लक्ष्यों की जांच करने और सामाजिक इंजीनियरिंग रणनीति विकसित करने के लिए चैटजीपीटी जैसे टूल का उपयोग करने के लिए रूस, उत्तर कोरिया, ईरान और चीन द्वारा समर्थित समूहों के प्रयासों की पहचान की है।

    माइक्रोसॉफ्ट थ्रेट इंटेलिजेंस के साथ साझेदारी में, ओपनएआई ने पांच राज्य-संबद्ध अभिनेताओं को बाधित करने के लिए हस्तक्षेप किया, जिनका उद्देश्य दुर्भावनापूर्ण साइबर संचालन को सुविधाजनक बनाने के लिए एआई सेवाओं का उपयोग करना था। (यह भी पढ़ें: मेटा सीईओ मार्क जुकरबर्ग ने एप्पल विजन प्रो का परीक्षण किया, इंस्टाग्राम पर वीडियो शेयर किया)

    “हमने चारकोल टाइफून और सैल्मन टाइफून के नाम से जाने जाने वाले चीन से जुड़े दो ख़तरनाक अभिनेताओं को नष्ट कर दिया; ईरान-संबद्ध खतरा अभिनेता जिसे क्रिमसन सैंडस्टॉर्म के नाम से जाना जाता है; उत्तर कोरिया से संबद्ध अभिनेता जिसे एमराल्ड स्लीट के नाम से जाना जाता है; और रूस-संबद्ध अभिनेता को फ़ॉरेस्ट ब्लिज़ार्ड के नाम से जाना जाता है,” सैम ऑल्टमैन द्वारा संचालित कंपनी ने कहा। (यह भी पढ़ें: OpenAI का ChatGPT चुनिंदा उपयोगकर्ताओं के साथ नए ‘मेमोरी’ फीचर का परीक्षण कर रहा है)

    इन अभिनेताओं से जुड़े पहचाने गए ओपनएआई खाते समाप्त कर दिए गए। इन बुरे कलाकारों ने ओपन-सोर्स जानकारी की क्वेरी करने, अनुवाद करने, कोडिंग त्रुटियों को ढूंढने और बुनियादी कोडिंग कार्यों को चलाने के लिए ओपनएआई सेवाओं का उपयोग करने की मांग की।

    माइक्रोसॉफ्ट ने एक बयान में कहा, “साइबर अपराध समूह, राष्ट्र-राज्य खतरे वाले अभिनेता और अन्य विरोधी अपने संचालन के संभावित मूल्य और सुरक्षा नियंत्रणों को समझने की कोशिश में विभिन्न एआई प्रौद्योगिकियों की खोज और परीक्षण कर रहे हैं, जिन्हें उन्हें दरकिनार करने की आवश्यकता हो सकती है।” .

    कंपनी ने कहा, हालांकि हमलावर एआई में रुचि रखेंगे और प्रौद्योगिकियों की वर्तमान क्षमताओं और सुरक्षा नियंत्रणों की जांच करेंगे, लेकिन इन जोखिमों को संदर्भ में रखना महत्वपूर्ण है।

    टेक दिग्गज ने कहा, “हमेशा की तरह, मल्टीफैक्टर ऑथेंटिकेशन (एमएफए) और जीरो ट्रस्ट डिफेंस जैसी स्वच्छता प्रथाएं आवश्यक हैं क्योंकि हमलावर अपने मौजूदा साइबर हमलों को बेहतर बनाने के लिए एआई-आधारित टूल का उपयोग कर सकते हैं जो सोशल इंजीनियरिंग और असुरक्षित डिवाइस और खातों को खोजने पर निर्भर करते हैं।” (आईएएनएस इनपुट के साथ)

  • चैटजीपीटी उपयोगकर्ता अब ओपनएआई में किसी भी बातचीत में जीपीटी ला सकते हैं

    OpenAI वर्तमान में केवल अपने भुगतान करने वाले ग्राहकों को GPT ब्राउज़ करने, बनाने और उपयोग करने की क्षमता प्रदान कर रहा है।

  • OpenAI ने ‘राजनीतिक प्रचार, पैरवी’ के लिए अपने AI के उपयोग को प्रतिबंधित किया | प्रौद्योगिकी समाचार

    नई दिल्ली: इस साल संयुक्त राज्य अमेरिका, यूनाइटेड किंगडम और भारत जैसे दुनिया के प्रमुख लोकतंत्रों में चुनाव होने वाले हैं। ओपनएआई ने यह सुनिश्चित करने के लिए कई नीतिगत संशोधन लागू किए हैं कि चैटजीपीटी, डीएएलएल-ई और अन्य सहित इसकी जेनरेटिव एआई प्रौद्योगिकियां आगामी चुनावी घटनाओं के दौरान ‘लोकतांत्रिक प्रक्रिया’ की अखंडता के लिए खतरा पैदा न करें।

    एक ब्लॉग पोस्ट में, ओपनएआई ने विशेष रूप से प्रमुख लोकतंत्रों में 2024 के चुनावों के दौरान अपने एआई सिस्टम के सुरक्षित विकास और उपयोग को सुनिश्चित करने के उपायों की रूपरेखा तैयार की है। उनके दृष्टिकोण में सटीक मतदान जानकारी को बढ़ावा देकर, जिम्मेदार नीतियों को लागू करने और पारदर्शिता को बढ़ाकर प्लेटफ़ॉर्म सुरक्षा को प्राथमिकता देना शामिल है। इसका उद्देश्य चुनावों को प्रभावित करने में एआई के संभावित दुरुपयोग को रोकना है।

    कंपनी संभावित दुरुपयोगों का अनुमान लगाने और उन्हें रोकने के लिए सक्रिय रूप से काम कर रही है, जिसमें भ्रामक “डीपफेक”, बड़े पैमाने पर प्रभाव संचालन और उम्मीदवारों का प्रतिरूपण करने वाले चैटबॉट शामिल हैं। OpenAI राजनीतिक प्रचार और पैरवी के लिए अपनी तकनीक के उपयोग की अनुमति देता है। हालाँकि, कंपनी उन चैटबॉट्स के निर्माण पर प्रतिबंध लगाती है जो उम्मीदवारों या स्थानीय सरकारी प्रतिनिधियों जैसे वास्तविक व्यक्तियों का अनुकरण करते हैं।

    सैन फ्रांसिस्को स्थित एआई उन अनुप्रयोगों को अनुमति नहीं देगा जो व्यक्तियों को लोकतांत्रिक प्रक्रिया में शामिल होने से रोकते हैं, जैसे मतदाताओं को हतोत्साहित करना या योग्यता को गलत तरीके से प्रस्तुत करना। OpenAI ने DALL-E द्वारा बनाई गई छवियों की पहचान करने में उपयोगकर्ताओं की सहायता करने के उद्देश्य से एक प्रोवेंस क्लासिफायर पेश करने की योजना का खुलासा किया है। कंपनी ने संकेत दिया है कि यह टूल शुरुआती परीक्षण के लिए जल्द ही जारी किया जाएगा, जिसमें परीक्षकों के शुरुआती समूह में पत्रकार और शोधकर्ता शामिल होंगे।

    इस घोषणा से पहले, फेसबुक और इंस्टाग्राम जैसे प्रमुख सोशल मीडिया प्लेटफार्मों के मालिक मेटा ने पहले ही राजनीतिक विज्ञापनों को अपने जेनरेटिव एआई-आधारित विज्ञापन निर्माण टूल का उपयोग करने से रोक दिया था। यह निर्णय इस उभरती हुई प्रौद्योगिकी से जुड़े कथित “संभावित जोखिमों” पर आधारित था।

    मेटा ने अपनी वेबसाइट पर एक ब्लॉगपोस्ट में लिखा है, “हमारा मानना ​​है कि यह दृष्टिकोण हमें संभावित जोखिमों को बेहतर ढंग से समझने और विनियमित उद्योगों में संभावित संवेदनशील विषयों से संबंधित विज्ञापनों में जेनरेटिव एआई के उपयोग के लिए सही सुरक्षा उपाय बनाने की अनुमति देगा।”

  • लॉन्च के तुरंत बाद ‘एआई गर्लफ्रेंड्स’ जीपीटी स्टोर में बाढ़, ओपनएआई नियमों का उल्लंघन | प्रौद्योगिकी समाचार

    नई दिल्ली: ओपनएआई का हाल ही में लॉन्च हुआ जीपीटी स्टोर अपनी शुरुआत के कुछ ही दिनों बाद मॉडरेशन में कठिनाइयों का सामना कर रहा है। प्लेटफ़ॉर्म ChatGPT के वैयक्तिकृत संस्करण प्रदान करता है, लेकिन कुछ उपयोगकर्ता ऐसे बॉट विकसित कर रहे हैं जो OpenAI के दिशानिर्देशों का उल्लंघन करते हैं।

    “आपका एआई साथी, त्सू” जैसे नामों वाले ये बॉट उपयोगकर्ताओं को अपने आभासी रोमांटिक साथियों को वैयक्तिकृत करने में सक्षम बनाते हैं, जो स्पष्ट रूप से रोमांटिक रिश्तों को पोषित करने के लिए बनाए गए बॉट पर ओपनएआई के प्रतिबंध का उल्लंघन करते हैं।

    कंपनी इस समस्या के समाधान के लिए सक्रिय रूप से काम कर रही है। 10 जनवरी, 2023 को स्टोर शुरू होने पर ओपनएआई ने अपनी नीतियों को संशोधित किया। हालांकि, दूसरे दिन नीति का उल्लंघन मॉडरेशन से जुड़ी चुनौतियों को उजागर करता है।

    रिलेशनशिप बॉट की बढ़ती मांग के साथ, यह स्थिति में जटिलता की एक परत जोड़ रही है। जैसा कि रिपोर्ट किया गया है, 30 सबसे अधिक डाउनलोड किए गए एआई चैटबॉट में से सात पिछले वर्ष संयुक्त राज्य अमेरिका में आभासी मित्र या भागीदार थे। यह प्रवृत्ति प्रचलित अकेलेपन की महामारी से जुड़ी है।

    जीपीटी मॉडल का आकलन करने के लिए, ओपनएआई का कहना है कि यह हानिकारक माने जाने वाले जीपीटी मॉडल के लिए चेतावनी या बिक्री प्रतिबंध लागू करने के लिए स्वचालित सिस्टम, मानव समीक्षाओं और उपयोगकर्ता रिपोर्ट का उपयोग करता है। हालाँकि, बाज़ार में गर्लफ्रेंड बॉट्स की निरंतर उपस्थिति इस दावे की प्रभावशीलता पर संदेह पैदा करती है।

    मॉडरेशन में कठिनाई एआई डेवलपर्स द्वारा अनुभव की जाने वाली सामान्य चुनौतियों को दर्शाती है। OpenAI को GPT-3 जैसे पिछले मॉडलों के लिए सुरक्षा उपायों को लागू करने में समस्याओं का सामना करना पड़ा है। व्यापक उपयोगकर्ता दर्शकों के लिए उपलब्ध जीपीटी स्टोर के साथ, अपर्याप्त मॉडरेशन की संभावना एक महत्वपूर्ण चिंता का विषय है।

    बढ़ती प्रतिस्पर्धा में त्वरित कार्रवाई के महत्व को समझते हुए, अन्य प्रौद्योगिकी कंपनियां भी अपने एआई सिस्टम की समस्याओं से तेजी से निपट रही हैं। फिर भी, प्रारंभिक उल्लंघन भविष्य में अपेक्षित महत्वपूर्ण चुनौतियों को उजागर करते हैं।

    यहां तक ​​कि एक विशेष जीपीटी स्टोर के विशिष्ट वातावरण में भी, संकीर्ण रूप से केंद्रित बॉट्स को प्रबंधित करना एक जटिल कार्य प्रतीत होता है। जैसे-जैसे एआई आगे बढ़ रहा है, उनकी सुरक्षा सुनिश्चित करना और अधिक जटिल होता जा रहा है।