Sorry, you need to enable JavaScript to visit this website.

Error message

Notice: Undefined variable: app_root in include_once() (line 861 of /var/www/html/sites/default/settings.php).

കുട്ടികളുടെ അശ്ലീല ചിത്രങ്ങള്‍ ഐഫോണ്‍ സ്വയം കണ്ടെത്തും, ആളുകള്‍ പെടും;  പുതിയ അപ്‌ഡേറ്റ് വരുന്നു

സാന്‍ഫ്രാന്‍സിസ്‌കോ- കുട്ടികള്‍ ഉള്‍പ്പെട്ട ലൈംഗികതയുള്ള അശ്ലീല ചിത്രങ്ങള്‍ ഇനി ഐ ഫോണുകളും ഐപാഡുകളും സ്വയം തിരിച്ചറിയും. പുതിയ അപ്‌ഡേറ്റ് ഉടന്‍ വരുമെന്ന് ആപ്പിള്‍ അറിയിച്ചതോടെ വ്യക്തികളുടെ സ്വാകാര്യത സംബന്ധിച്ച സംശയങ്ങള്‍ പലരും പ്രകടിപ്പിച്ചു തുടങ്ങി. യുഎസില്‍ ഓണ്‍ലൈന്‍ സ്‌റ്റോറേജില്‍ അപ്‌ലോഡ് ചെയ്യുന്ന  ഇത്തരം ഫോട്ടോകള്‍ സ്വയം കണ്ടെത്തി റിപോര്‍ട്ട് ചെയ്യുന്ന സംവിധാനമാണ് ആപ്പിള്‍ ഇപ്പോള്‍ അവതരിപ്പിക്കുന്നത്.  ഇത് സ്വകാര്യതയിലേക്കുള്ള കടന്ന് കയറ്റമാകുമോ എന്ന ആശങ്കയുമായി സ്വകാര്യതാ സംരക്ഷകരാണ് രംഗത്തെത്തിയത്. 

കമ്യൂണിക്കേഷന്‍ ഉപാധികള്‍ ഉപയോഗിച്ച് കുട്ടികളെ റിക്രൂട്ട് ചെയ്യുന്നവരേയും ചൂഷണം ചെയ്യുന്നവരേയും തടഞ്ഞ് പീഡകരില്‍ നിന്ന് കുട്ടികളെ സംരക്ഷിക്കാന്‍ സഹായിക്കുകയും കുട്ടികള്‍ക്കെതിരായ ലൈംഗികാതിക്രമണ ചിത്രങ്ങള്‍ പ്രചരിക്കുന്നത് പരിമിതപ്പെടുത്തുകയുമാണ് ഞങ്ങളുടെ ലക്ഷ്യം- ആപ്പ്ള്‍ വ്യക്തമാക്കി. 

ഇതിനായി പ്രത്യേകം തയാറാക്കിയ സോഫ്റ്റ്‌വെയര്‍ ഐഫോണുകളിലേയും ഐപാഡുകളിലേയും ചിത്രങ്ങളില്‍ കുട്ടികള്‍ ഉള്‍പ്പെട്ട അശ്ലീല ചിത്രങ്ങളുണ്ടോ എന്ന് സ്വയം സ്‌കാന്‍ ചെയ്ത് കണ്ടെത്തും. ശിശു സംരക്ഷണ ഏജന്‍സികള്‍ നല്‍കുന്ന ചിത്രങ്ങളുമായി ഇവ ഒത്തു നോക്കി കണ്ടെത്തി റിപോര്‍ട്ട് ചെയ്യുന്നതാണ് ഈ സംവിധാനം. ആപ്പിള്‍ ക്ലൗഡ് സ്റ്റോറേജില്‍ അപ്ലോഡ് ചെയ്ത ചിത്രങ്ങളാണ് ഇങ്ങനെ കണ്ടെത്തുക. 

എന്നാല്‍ ഈ സാങ്കേതികവിദ്യ പിന്‍വാതിലിലൂടെ ഉപയോക്താക്കളുടെ ഡിവൈസുകളിലേക്ക് പ്രവേശിക്കാനുള്ള ഉപാധിയായി മാറുമെന്നും ഇത് സര്‍ക്കാരുകളും മറ്റും വ്യക്തികള്‍ക്കെതിരെ പ്രയോഗിക്കാനിടയുണ്ടെന്നും ഡിജിറ്റല്‍ അവകാശ സംഘടനകള്‍ ചൂണ്ടിക്കാട്ടുന്നു. എന്നാല്‍ തങ്ങള്‍ക്ക് ഇത്തരം ചിത്രങ്ങളിലേക്ക് നേരിട്ട് ആക്‌സസ് ഇല്ലെന്നാണ് ആപ്പിളിന്റെ മറുപടി. സുരക്ഷയും സ്വകാര്യതയും സംരക്ഷിക്കാന്‍ നടപടികളെടുക്കുമെന്നും കമ്പനി വ്യക്തമാക്കുന്നു.
 

Latest News