Sorry, you need to enable JavaScript to visit this website.

നിർമിത ബുദ്ധിയിലെ ഡീപ് ഫേക്ക്: ചില വിശേഷങ്ങൾ 

അതിവേഗത്തിലുള്ള സാങ്കേതിക മുന്നേറ്റങ്ങളുടെ ഈ കാലഘട്ടത്തിൽ, ഡിജിറ്റൽ വിപ്ലവത്തിന്റെ മുൻനിരയിൽ ആർട്ടിഫിഷ്യൽ ഇന്റലിജൻസ് ശക്തിയാർജ്ജിച്ച് നിൽക്കുകയാണ്. ഡിജിറ്റൽ യുഗം വലിയ അവസരങ്ങൾ നൽകുമ്പോൾ, അത് പുതിയ വെല്ലുവിളികളും ഉയർത്തുന്നുണ്ട്. 
അത്തരത്തിൽ ഉയർന്നുവരുന്ന ആശങ്കകളിലൊന്നാണ് ഡീപ്ഫേക്ക്. ഒരു രാജ്യത്തിന്റെ തന്നെ ജനാധിപത്യ സംവിധാനത്തെ തടസ്സപ്പെടുത്താനും തകർക്കാനും സാധ്യതയുള്ള ഒരായുധമാണ് ഡീപ് ഫേക്ക്. മാധ്യമങ്ങളുടെ ആധികാരികതയും വിശ്വാസ്യതയും ഇല്ലാതാക്കാനും ഇതിടവരുത്തിയേക്കാം.
ഡീപ്ഫേക്കുകൾ നൂതനമായ ആർട്ടിഫിഷ്യൽ ഇന്റലിജൻസ് ടെക്‌നിക്കുകളാണ്, പ്രത്യേകിച്ച് ഡീപ് ലേണിംഗ് അൽഗോരിതങ്ങൾ ഉപയോഗിച്ച് സൃഷ്ടിച്ച വളരെ റിയലിസ്റ്റിക്കായതും, ആളുകളെ വിശ്വസിപ്പിക്കുന്നതും ബോധ്യപ്പെടുത്തുന്നതുമായ  സിന്തറ്റിക് മീഡിയ, ഇ അൽഗോരിതങ്ങൾ, നിലവിലുള്ള ഡാറ്റയിൽനിന്ന് മുഖഭാവങ്ങൾ, ആംഗ്യങ്ങൾ, സംസാരം എന്നിവ പോലുള്ള പാറ്റേണുകൾ വിശകലനം ചെയ്യുകയും പഠിക്കുകയും ചെയ്യുന്നു. പിന്നീട് ഒരു വ്യക്തിയുടെ രൂപവും പ്രവർത്തനങ്ങളും യഥാർത്ഥവും ആധികാരികവുമായി തോന്നുന്ന രീതിയിൽ പുനർനിർമ്മിക്കുകയോ കൈകാര്യം ചെയ്യുകയോ ചെയ്യുന്നു. പൂർണമായും നിർമ്മിത ബുദ്ധിയുടെ ഒരു അവതാരമായിരിക്കും ഇതിലൂടെ രൂപപ്പെടുക. ഒരു മനുഷ്യന്റെ എല്ലാ ചലനങ്ങളെയും പരിചയപ്പെടുത്തിക്കഴിഞ്ഞാൽ, സംസാരത്തിന്റെ താളവും, മിഴിയനക്കവും, മുഖഭാവങ്ങളിൽ വരുന്ന ചുളിവുകൾ എന്നു തുടങ്ങി സൂക്ഷ്മതയാർന്ന എല്ലാം പഠിച്ച്, നൽകുന്ന വിവരങ്ങളനുസരിച്ച് ഒരു 'നിർമ്മിത ബുദ്ധി അവതാരത്തെ'ത്തന്നെ സൃഷ്ടിക്കാനാകുന്നു.
ചുരുക്കിപ്പറഞ്ഞാൽ നമ്മൾ ആവശ്യമായ വിവരം കൊടുത്തു കഴിഞ്ഞാൽ നമ്മൾ ഉദ്ദേശിക്കുന്ന ആളുകൾ ഒരു വീഡിയോ പ്രസന്റേഷനോ ഓഡിയോ പ്രസന്റേഷനോ അവതരിപ്പിക്കുന്നതായോ, അല്ലെങ്കിൽ ഒരു പ്രത്യേക സാഹചര്യത്തിൽ ആളുകളുടെ കൂടെ ഇരിക്കുന്നതായി ഒരു ഫേക്ക് ചിത്രമോ നിർമ്മിക്കപ്പെടുന്നു
ഡീപ്ഫേക്കുകൾക്ക് പിന്നിലെ സാങ്കേതികവിദ്യ സമീപ വർഷങ്ങളിൽ ഗണ്യമായി വികസിച്ചു, വ്യക്തികൾ ഒരിക്കലും ചെയ്യാത്ത കാര്യങ്ങൾ പറയുന്നതോ ചെയ്യുന്നതോ ആണെന്ന് തോന്നിപ്പിക്കുന്ന വീഡിയോകൾ സൃഷ്ടിക്കാൻ ഇതുവഴി സാധ്യമാക്കുന്നു. അഭിനേതാക്കളുടെ മുഖഭാവങ്ങളിൽ മാറ്റം വരുത്തുന്നത് മുതൽ അവരുടെ ഐഡന്റിറ്റി പൂർണമായും മാറ്റുന്നത് വരെ കൃത്രിമമായി ചെയ്യാം. ഒരു സിനിമ പൂർണ്ണമായി വേണമെങ്കിൽ അഭിനേതാവില്ലാതെ നിർമ്മിക്കാം.
രാഷ്ട്രീയ തെരഞ്ഞെടുപ്പുകളിലെ വ്യാജവാർത്തകളോ തെറ്റായ വിവരങ്ങളോ സൃഷ്ടിക്കുന്നതിനുള്ള പുതിയ ഉപകരണമായി ഡീപ് ഫേക്കുകളെ ഉപയോഗിക്കാം.

തെരഞ്ഞെടുപ്പുകളുടെ മണ്ഡലത്തിൽ, ഡീപ്ഫേക്കുകളുടെ സഹായത്തോടെ നിമിഷങ്ങൾക്കുള്ളിൽ തെറ്റിദ്ധരിപ്പിക്കുന്ന ഉള്ളടക്കം സൃഷ്ടിച്ച് അവതരിപ്പിക്കാം എന്നത് ജനാധിപത്യ സംവിധാനത്തിൽ കടുത്ത പ്രത്യാഘാതം സൃഷ്ടിക്കാം. സ്ഥാനാർത്ഥികളുടേയോ വ്യക്തികളുടേയോ പ്രതികരണങ്ങൾ കെട്ടിച്ചമയ്ക്കാനാകും. അവരുടെ പ്രശസ്തിക്ക് കളങ്കമുണ്ടാക്കാനും തെറ്റായ ധാരണകൾ സൃഷ്ടിക്കാനും ഈ സാങ്കേതികവിദ്യ എതിരാളികൾക്ക് ഉപയോഗപ്പെടുത്താം. ഇങ്ങനെ പൊതുബോധത്തെ ദോഷകരമായി സ്വാധീനിക്കാൻ ഇത്തരം സാങ്കേതിക വിദ്യകളുടെ സഹായം ഉപയോഗപ്പെടുത്താനാകും.
ഇങ്ങനെ സമൂഹത്തിൽ അപകടമുണ്ടാക്കാവുന്ന ഒരു തെറ്റായ വാർത്ത നിമിഷനേരം കൊണ്ട് സൃഷ്ടിക്കാനും അത് വളരെ പെട്ടെന്ന് പ്ലാറ്റ്‌ഫോമുകൾ വഴി ജനങ്ങളിൽ എത്തിക്കാനും ജനങ്ങളിൽ ഭീതി പരത്താനും അനായാസം ഇത്തരം സാങ്കേതികവിദ്യകൾക്ക് സാധിക്കും.
ജനാധിപത്യ സംവിധാനങ്ങൾക്ക് ഇത്തരം ടെക്‌നോളജികൾ ഉയർത്തുന്ന വെല്ലുവിളികൾ ചെറുതല്ല. ടെക്‌നോളജികളുടെ കുത്തകയായി പ്രവർത്തിക്കുന്ന കമ്പനികൾക്ക് വേണമെങ്കിൽ ഒരു ജനാധിപത്യ സംവിധാനത്തെ പൂർണമായി തകർക്കാനും നിഷ്പ്രഭമാക്കാനും നിമിഷനേരം കൊണ്ട് സാധിക്കും. കുത്തകവൽക്കരണത്തിന്റെ ഒരു പുതിയ ആക്രമണത്തിന് സമൂഹം ഇരയാകാൻ പോകുന്നു എന്നതിന്റെ ഒരു ഉദാഹരണം കൂടിയാണ് ഇത്തരം ടെക്‌നോളജികളുടെ കടന്നുകയറ്റം.
സ്ഥാനാർത്ഥികളുടെ ചിത്രങ്ങളും സന്ദേശങ്ങളും വളച്ചൊടിച്ച് രാഷ്ട്രീയ തെരഞ്ഞെടുപ്പുകളിൽ ഡീപ്ഫേക്കുകൾക്ക് കാര്യമായ അപകടമുണ്ടാക്കാൻ കഴിയും. കെട്ടിച്ചമച്ച പ്രതികരണങ്ങളും പ്രസംഗങ്ങളും രൂപപ്പെടുത്തുന്നതിലൂടെ, എതിരാളികൾക്ക് പൊതുജനങ്ങളെ തെറ്റിദ്ധരിപ്പിക്കാനും സ്ഥാനാർത്ഥികളെക്കുറിച്ച് മതിപ്പില്ലായ്മയും സംശയവും അവിശ്വാസവും  സൃഷ്ടിക്കാനും കഴിയും, പൊതുബോധത്തിലെ ഈ കൃത്രിമം തെരഞ്ഞെടുപ്പ് ഫലങ്ങളെ സ്വാധീനിക്കുകയും ജനാധിപത്യ പ്രക്രിയയെ തകർക്കുകയും ചെയ്യും.
ഫെബ്രുവരി 21, 2020 ൽ ഹിന്ദു പ്രസിദ്ധീകരിച്ച ലേഖനത്തിൽ ഇന്ത്യൻ തെരഞ്ഞെടുപ്പുകളിൽ ഡീപ് ഫേക്ക് ഉപയോഗിച്ചതിന്റെ ഉദാഹരണം സൂചിപ്പിക്കുന്നുണ്ട്.
''ഡൽഹി തെരഞ്ഞെടുപ്പിന് ഒരു ദിവസം മുമ്പ് , ബിജെപിക്ക് വോട്ട് ചെയ്യാൻ പൗരന്മാരോട് ആഹ്വാനം ചെയ്യുന്ന ഭാരതീയ ജനതാ പാർട്ടി ഡൽഹി ഘടകം പ്രസിഡന്റ് മനോജ് തിവാരിയുടെ രണ്ട് വീഡിയോകൾ ഇംഗ്ലീഷിലും ഹരിയാൻവിയിലും 5800 വാട്ട്‌സ്ആപ്പ് ഗ്രൂപ്പുകൾ വഴി 15 ദശലക്ഷം വോട്ടർമാർക്ക് അയച്ചു. വീഡിയോകൾ വ്യാജമാണെന്ന് ഡിജിറ്റൽ മീഡിയ സ്ഥാപനമായ വൈസ് റിപ്പോർട്ട് ചെയ്തു.
തന്റെ രാഷ്ട്രീയ എതിരാളിയായ അരവിന്ദ് കെജ്‌രിവാളിനെ വിമർശിക്കുന്ന തിവാരി, 'മോഡിയുടെ നേതൃത്വത്തിലുള്ള സർക്കാർ രൂപീകരിക്കാൻ ഫെബ്രുവരി എട്ടിന് താമര ബട്ടൺ അമർത്താൻ' വോട്ടർമാരോട് ആവശ്യപ്പെടുന്നതും ഡീപ്ഫേക്ക് ഇംഗ്ലീഷ് വീഡിയോയിൽ കാണാം.

 

Latest News