ऐप्पल का आईओएस 15.2 बीटा अपडेट मैसेज ऐप के लिए चाइल्ड सेफ्टी फीचर जोड़ता है

ios 15.2, ios 15.2 update, apple child safety, apple csam, child exploitation scan, apple csam scan, apple news, apple, apple privacy features

ऐप्पल ने आईओएस 15.2 बीटा अपडेट को रोल आउट करना शुरू कर दिया है, जो इस साल की शुरुआत में कंपनी द्वारा घोषित बाल सुरक्षा सुविधाओं में से एक लाता है, हालांकि इसमें थोड़ा सा संशोधन है। नवीनतम अपडेट संदेश ऐप के लिए एक संचार सुरक्षा सुविधा जोड़ता है, जैसा कि नाम से ही स्पष्ट है कि इसका उद्देश्य बच्चों को ऑनलाइन सुरक्षित रखना है। नई सुविधा डिफ़ॉल्ट रूप से सक्षम नहीं है और किसी को इसे संदेश ऐप पर मैन्युअल रूप से सक्रिय करना होगा। एक बार फीचर इनेबल हो जाने के बाद, ऐप कथित तौर पर बच्चों द्वारा भेजी या प्राप्त की गई छवियों में नग्नता का पता लगा सकता है। इसके अलावा, यदि कोई नग्न छवि किसी को भेजी जाती है, तो यह स्वतः ही धुंधली हो जाएगी और बच्चे को सामग्री के बारे में चेतावनी प्राप्त होगी, जैसा कि Macrumors की एक रिपोर्ट के अनुसार है। कंपनी कथित तौर पर किसी ऐसे व्यक्ति से संपर्क करने के लिए संसाधनों की पेशकश करेगी जिस पर वे मदद के लिए भरोसा करते हैं। अगर किसी बच्चे को न्यूड इमेज मिलती है, तो ऐप बच्चे को फोटो न देखने के लिए कहेगा। यह ध्यान देने योग्य है कि जब संचार सुरक्षा की पहली बार घोषणा की गई थी, तो Apple ने कहा था कि यदि कोई बच्चा संदेशों में नग्न छवि देखता है, तो 13 वर्ष से कम उम्र के बच्चों के माता-पिता को उसी के लिए एक सूचना प्राप्त करने का विकल्प मिलेगा। लेकिन, ऐसा प्रतीत होता है कि Apple ने इस अधिसूचना विकल्प को हटा दिया है क्योंकि यह बच्चों के लिए जोखिम पैदा कर सकता है यदि वे ऐसी स्थिति में शामिल हैं जहां माता-पिता की हिंसा या दुर्व्यवहार होता है। ऐसा प्रतीत होता है कि Apple ने इसका एक बेहतर समाधान ढूंढ लिया है और यह एक विश्वसनीय वयस्क से मार्गदर्शन प्रदान करने में मदद करेगा। कंपनी का कहना है कि मैसेज ऐप तस्वीरों में नग्नता की जांच के लिए इमेज अटैचमेंट का विश्लेषण करता है और इससे उपयोगकर्ता की गोपनीयता प्रभावित नहीं होगी क्योंकि संदेश एंड-टू-एंड एन्क्रिप्टेड रहेंगे। Apple के पास अभी भी संदेशों तक पहुंच नहीं होगी। इसके अलावा, ऐप्पल ने कुछ महीने पहले एक और सुरक्षा सुविधा की घोषणा की, जिसे एंटी-सीएसएएम (बाल यौन शोषण इमेजरी डिटेक्शन) कहा जाता है। यह कम्युनिकेशन सेफ्टी फीचर से अलग है और इसके भविष्य में रोल आउट किए जाने की उम्मीद है। इस सुविधा के साथ, क्यूपर्टिनो जायंट का उद्देश्य आईक्लाउड तस्वीरों में बाल यौन शोषण और तस्करी का पता लगाना है। लेकिन, इस सुविधा के लॉन्च में देरी हुई क्योंकि Apple ने कहा कि यह पहले गोपनीयता अधिवक्ताओं द्वारा दायर शिकायतों का समाधान करता है। सीएसएएम विरोधी सुविधा एक उपयोगकर्ता के आईक्लाउड फोटोज को ज्ञात सीएसएएम की सूची के खिलाफ स्कैन करके बाल यौन शोषण की छवियों को खोजने के लिए है, जिसने गोपनीयता की चिंताओं को उठाया। यदि फीचर पर्याप्त मिलानों का पता लगाता है, तो यह ऐप्पल के मॉडरेटर को सतर्क करेगा, जो तब खाते को अक्षम कर सकते हैं और छवियों को कानूनी अधिकारियों को रिपोर्ट कर सकते हैं। .

Leave a Reply

Your email address will not be published. Required fields are marked *