Sorry, you need to enable JavaScript to visit this website.

കുട്ടികളുടെ അശ്ലീല ചിത്രങ്ങള്‍ ഐഫോണ്‍ സ്വയം കണ്ടെത്തും, ആളുകള്‍ പെടും;  പുതിയ അപ്‌ഡേറ്റ് വരുന്നു

സാന്‍ഫ്രാന്‍സിസ്‌കോ- കുട്ടികള്‍ ഉള്‍പ്പെട്ട ലൈംഗികതയുള്ള അശ്ലീല ചിത്രങ്ങള്‍ ഇനി ഐ ഫോണുകളും ഐപാഡുകളും സ്വയം തിരിച്ചറിയും. പുതിയ അപ്‌ഡേറ്റ് ഉടന്‍ വരുമെന്ന് ആപ്പിള്‍ അറിയിച്ചതോടെ വ്യക്തികളുടെ സ്വാകാര്യത സംബന്ധിച്ച സംശയങ്ങള്‍ പലരും പ്രകടിപ്പിച്ചു തുടങ്ങി. യുഎസില്‍ ഓണ്‍ലൈന്‍ സ്‌റ്റോറേജില്‍ അപ്‌ലോഡ് ചെയ്യുന്ന  ഇത്തരം ഫോട്ടോകള്‍ സ്വയം കണ്ടെത്തി റിപോര്‍ട്ട് ചെയ്യുന്ന സംവിധാനമാണ് ആപ്പിള്‍ ഇപ്പോള്‍ അവതരിപ്പിക്കുന്നത്.  ഇത് സ്വകാര്യതയിലേക്കുള്ള കടന്ന് കയറ്റമാകുമോ എന്ന ആശങ്കയുമായി സ്വകാര്യതാ സംരക്ഷകരാണ് രംഗത്തെത്തിയത്. 

കമ്യൂണിക്കേഷന്‍ ഉപാധികള്‍ ഉപയോഗിച്ച് കുട്ടികളെ റിക്രൂട്ട് ചെയ്യുന്നവരേയും ചൂഷണം ചെയ്യുന്നവരേയും തടഞ്ഞ് പീഡകരില്‍ നിന്ന് കുട്ടികളെ സംരക്ഷിക്കാന്‍ സഹായിക്കുകയും കുട്ടികള്‍ക്കെതിരായ ലൈംഗികാതിക്രമണ ചിത്രങ്ങള്‍ പ്രചരിക്കുന്നത് പരിമിതപ്പെടുത്തുകയുമാണ് ഞങ്ങളുടെ ലക്ഷ്യം- ആപ്പ്ള്‍ വ്യക്തമാക്കി. 

ഇതിനായി പ്രത്യേകം തയാറാക്കിയ സോഫ്റ്റ്‌വെയര്‍ ഐഫോണുകളിലേയും ഐപാഡുകളിലേയും ചിത്രങ്ങളില്‍ കുട്ടികള്‍ ഉള്‍പ്പെട്ട അശ്ലീല ചിത്രങ്ങളുണ്ടോ എന്ന് സ്വയം സ്‌കാന്‍ ചെയ്ത് കണ്ടെത്തും. ശിശു സംരക്ഷണ ഏജന്‍സികള്‍ നല്‍കുന്ന ചിത്രങ്ങളുമായി ഇവ ഒത്തു നോക്കി കണ്ടെത്തി റിപോര്‍ട്ട് ചെയ്യുന്നതാണ് ഈ സംവിധാനം. ആപ്പിള്‍ ക്ലൗഡ് സ്റ്റോറേജില്‍ അപ്ലോഡ് ചെയ്ത ചിത്രങ്ങളാണ് ഇങ്ങനെ കണ്ടെത്തുക. 

എന്നാല്‍ ഈ സാങ്കേതികവിദ്യ പിന്‍വാതിലിലൂടെ ഉപയോക്താക്കളുടെ ഡിവൈസുകളിലേക്ക് പ്രവേശിക്കാനുള്ള ഉപാധിയായി മാറുമെന്നും ഇത് സര്‍ക്കാരുകളും മറ്റും വ്യക്തികള്‍ക്കെതിരെ പ്രയോഗിക്കാനിടയുണ്ടെന്നും ഡിജിറ്റല്‍ അവകാശ സംഘടനകള്‍ ചൂണ്ടിക്കാട്ടുന്നു. എന്നാല്‍ തങ്ങള്‍ക്ക് ഇത്തരം ചിത്രങ്ങളിലേക്ക് നേരിട്ട് ആക്‌സസ് ഇല്ലെന്നാണ് ആപ്പിളിന്റെ മറുപടി. സുരക്ഷയും സ്വകാര്യതയും സംരക്ഷിക്കാന്‍ നടപടികളെടുക്കുമെന്നും കമ്പനി വ്യക്തമാക്കുന്നു.
 

Latest News