वायरल एआई-जनित छवियों ने आज कल सभी चीजों को काफी ही आसान कर दिया है। हाल ही में कुछ ऐसी कहबर आई थी जिसमे एक शख्स में एक एआई से बनाई गई महिला से शादी कर ली थी। अब एक नया मामला सामने आ रहा है जिसने सभी को आश्चर्य कर दिया है। इस बार एआई की मदद से एक काफी ही खूबसूरत महिला की तस्वीर बनाई गई है।
क्लाउडिया से मिलें: रेडिट पर एआई-जेनरेटेड महिला
क्लाउडिया नाम की एक 19 वर्षीय महिला की एआई-जनित तस्वीरों ने रेडिट को तूफान में ले लिया है, उपयोगकर्ताओं को इस काले बालों वाले धमाके का एक टुकड़ा पाने के लिए भुगतान करना पड़ता है जो उसकी नग्न छवियों को निजी तौर पर भेजने की पेशकश करता है – सिवाय इसके कि वह मौजूद नहीं है।
A Redditor was left heartbroken after he discovered that the “perfect” woman he met online was actually an AI creation named “Claudia” 😔💔 pic.twitter.com/TN2mD6Ybp4
— Daily Loud (@DailyLoud) April 13, 2023
क्लाउडिया को दो कंप्यूटर विज्ञान के छात्रों द्वारा स्टेबल डिफ्यूजन, एक एआई छवि मॉडल का उपयोग करके बनाया गया था जो सरल पाठ संकेतों के साथ यथार्थवादी तस्वीरें उत्पन्न कर सकता है। दोनों ने बताया कि उन्होंने यह देखने के लिए Reddit खाता ‘u/Cl4ud14’ बनाया कि क्या वे क्लाउडिया की छवियों को बेच सकते हैं – “बिना मेकअप के काले बाल, कंधे की लंबाई के बाल, साधारण पृष्ठभूमि, सीधे बाल, बालों के बैंग्स” के उपयोग से उत्पन्न हैं।
उजागर होने से पहले उन्हें बेचकर लगभग $100 कमाए। इन एआई छवियों में से एक ‘फीलिंग प्रिटी टुडे’ शीर्षक वाली एक सेल्फी थी, जिसमें काल्पनिक महिला की तारीफ करने वाली सैकड़ों टिप्पणियां थीं। रिपोर्ट के अनुसार, स्टैबिलिटी एआई, लंदन स्थित स्टार्ट-अप जिसने स्टेबल डिफ्यूजन विकसित किया है, ने ऐसे प्रतिबंध लगाए हैं जो उपयोगकर्ताओं को ऐसी छवियां बनाने से रोकते हैं जिन्हें “उचित व्यक्ति” द्वारा अश्लील, भद्दा या अपमानजनक माना जा सकता है।
हालांकि, एआई छवि उपकरण स्वतंत्र रूप से डाउनलोड करने योग्य है, कंपनी इसके उपयोग को विनियमित करने या व्यक्तियों द्वारा आपत्तिजनक या आपत्तिजनक सामग्री निर्माण को रोकने के लिए बहुत कम कर सकती है।
एआई-जेनरेटेड पोर्नोग्राफी
नग्न महिलाओं को चित्रित करने वाली एआई-जनित छवियों में हालिया उछाल आया है। इस बीच, एआई-जनित पोर्न के वैधीकरण की वकालत करने वाले एक समूह, अनस्टेबल डिफ्यूजन के उद्भव ने प्लेटफॉर्म से हटाए जाने से पहले किकस्टार्टर पर फंडिंग में लगभग $60,000 जुटाए। एआई के प्रसार ने फोटोग्राफरों और कलाकारों के बीच चिंता पैदा कर दी है, जिन्होंने उद्योग में अधिक विनियमन की मांग की है। विषय की सहमति के बिना अश्लील सामग्री बनाने के लिए डीपफेक तकनीक का उपयोग पहले ही महत्वपूर्ण प्रतिक्रिया का सामना कर चुका है।