How deepfakes could impact
AI Images

വഴിതെറ്റിക്കുന്ന ഡീപ് ഫേക്കുകള്‍; തെരഞ്ഞെടുപ്പ് കാലത്തെ വില്ലന്‍

കേവലം വ്യക്തികളെ മാത്രമല്ല, പല സര്‍ക്കാരുകളെയും, വന്‍ കമ്പനികളെയും വരെ ഡീപ് ഫേക്ക് പ്രതികൂലമായി ബാധിച്ചുകഴിഞ്ഞു. കോടിക്കണക്കിന് രൂപയുടെ തട്ടിപ്പുകളാണ് ഇതിനോടകം ഡീപ് ഫേക്ക് ഉപയോഗിച്ച് നടന്നത്
Published on

സാങ്കേതിക വിദ്യയുടെ വളര്‍ച്ച വ്യക്തികളുടെ സ്വകാര്യതയിലേക്ക് കടന്നുചെന്ന് ഭീഷണി ഉയര്‍ത്തുന്ന കാലഘട്ടത്തിലാണ് നാം എത്തി നില്‍ക്കുന്നത്. ആര്‍ട്ടിഫിഷ്യല്‍ ഇന്റലിജന്‍സിന്റെ വളര്‍ച്ചയില്‍ ഏറ്റവും അപകടകരമായ ഒന്നാണ് ഡീപ്പ് ഫേക്ക്. ഡീപ് ലേണിങ് അല്‍ഗോരിതങ്ങള്‍ ഉപയോഗിച്ചുള്ള ഒരു സിന്തറ്റിക് മീഡിയയാണ് ഡീപ് ഫേക്ക്. യഥാര്‍ത്ഥ വ്യക്തികളുടേത് എന്ന് തോന്നിപ്പിക്കുന്ന തരത്തില്‍ ഓഡിയോ, വിഡിയോ, ഇമേജുകള്‍ കൃത്രിമമായി സൃഷ്ടിക്കുന്നതിന് വേണ്ടി ഉപയോഗിക്കുന്ന സാങ്കേതിക വിദ്യയാണിത്.

ഇന്റര്‍നെറ്റില്‍ ലഭ്യമായ ടൂളുകള്‍ ഉപയോഗിച്ച് ഒരാളുടെ വിഡിയോയില്‍ മറ്റൊരാളുടെ മുഖവും ശബ്ദവും ചേര്‍ത്ത് ഒറിജിനലിലെ വെല്ലുന്ന ചിത്രങ്ങളും വിഡിയോകളും മിനിറ്റുകള്‍ക്കകം സൃഷ്ടിക്കാന്‍ സാധിക്കും. ഉപകാരപ്രദമായ സാങ്കേതിക വിദ്യയാണെങ്കിലും ഇന്ന് ഇന്നത് ഉപദ്രവകരമായാണ് ഉപയോഗിക്കപ്പെടുന്നത്. കേവലം വ്യക്തികളെ മാത്രമല്ല, പല സര്‍ക്കാരുകളെയും, വന്‍ കമ്പനികളെയും വരെ ഡീപ് ഫേക്ക് പ്രതികൂലമായി ബാധിച്ചുകഴിഞ്ഞു. കോടിക്കണക്കിന് രൂപയുടെ തട്ടിപ്പുകളാണ് ഇതിനോടകം ഡീപ് ഫേക്ക് ഉപയോഗിച്ച് നടന്നത്.

ആര്‍ട്ടിഫിഷ്യല്‍ ഇന്റലിജന്‍സ് (എഐ), മെഷീന്‍ ലേണിങ് ടെക്നോളജികള്‍ എന്നിവയുടെ മിശ്രിതമാണ് ഡീപ് ഫെയ്ക്കുകള്‍. ഇതു കൂടുതലായി പ്രചാരത്തിലാകുന്നത് അടുത്ത കാലത്താണ്. ഒരാള്‍ എങ്ങനെ ചിരിക്കുന്നു, സംസാരിക്കുമ്പോഴുള്ള ചുണ്ടുകളുടെ ചലനം, ഓരോ വ്യക്തികളുടെയും പെരുമാറ്റ രീതി, ഓരോ സാഹചര്യത്തിലും അവര്‍ എങ്ങനെ പ്രതികരിക്കും തുടങ്ങിയോരോന്നും എ ഐയുടെ സാധ്യത(ഗ്രാഫിക് ജനറേറ്റഡ് ഔട്പുട്ട്സ്) പ്രയോജനപ്പെടുത്തി വ്യാജമായി നിര്‍മിക്കാന്‍ കഴിയും.

How deepfakes could impact
എല്ലാം വിരല്‍ത്തുമ്പില്‍, ആന്‍ഡ്രോയിഡ് പിറന്ന കഥ ഇങ്ങനെ...

തെരഞ്ഞെടുപ്പുകളില്‍ ഡീപ് ഫേക്ക് വിഡിയോകള്‍ ഇപയോഗിച്ചുള്ള പ്രചരണങ്ങള്‍ വലിയ രീതിയില്‍ സ്വാധീനം ചെലുത്തുന്നവയാണ്. 2023 നവംബര്‍ 30ന് തെലങ്കാനയില്‍ വോട്ട് രേഖപ്പെടുത്താന്‍ വരിനില്‍ക്കുന്നവരുടെ വാട്‌സ്ആപ്പില്‍ ഒരു വിഡിയോ പ്രത്യക്ഷപ്പെട്ടു. അന്നത്തെ മുഖ്യമന്ത്രിയുടെ മകനും ബി.ആര്‍.എസ് നേതാവുമായ കെ.ടി. രാമറാവു, കോണ്‍ഗ്രസിന് അനുകൂലമായി വോട്ട് ചെയ്യാന്‍ ജനങ്ങളോട് ആഹ്വാനം ചെയ്യുന്ന ആ ദൃശ്യം ഡീപ് ഫേക് സാങ്കേതികവിദ്യ ഉപയോഗിച്ച് കൃത്രിമമായി നിര്‍മിച്ചതായിരുന്നു. തെരഞ്ഞെടുപ്പ് പ്രചാരണത്തിന് ഡീപ് ഫേക് വിദ്യ ഉപയോഗിച്ച ആദ്യ സംഭവമല്ല ഇത്. 2020ല്‍, ബിജെപി എംപിയും ഗായകനുമായ മനോജ് തിവാരി വ്യത്യസ്ത ഭാഷകളില്‍ പ്രചാരണം നടത്തുന്ന ഡീപ് ഫേക്ക് വിഡിയോകള്‍ സൃഷ്ടിച്ച് പ്രചരിപ്പിച്ചിരുന്നു.

2018ല്‍ അന്തരിച്ച ഡിഎംകെ നേതാവ് എം. കരുണാനിധി 2024 ജനുവരി 21ന് നടന്ന ഡിഎംകെയുടെ ലോക്‌സഭ തെരഞ്ഞെടുപ്പ് പ്രചാരണ ഉദ്ഘാടന സമ്മേളനത്തില്‍ ഒരു വിഡിയോ സന്ദേശമായി പ്രത്യക്ഷപ്പെട്ട് മകന്‍ എംകെ സ്റ്റാലിന്റെ ഭരണനേട്ടങ്ങളെക്കുറിച്ച് ജനങ്ങളോട് സംസാരിച്ചു. എഐ സാങ്കേതിക വിദ്യയുടെ ഈ നൂതന സങ്കേതം വഴി ഭൂതകാലത്തിനും വര്‍ത്തമാനത്തിനും ഇടയിലെ അതിരുകള്‍ ഇല്ലാതാക്കും. എതിരാളികള്‍ക്കെതിരെയുള്ള തെറ്റായ സന്ദേശങ്ങളും വാര്‍ത്തകളും വരെ ഇങ്ങനെ സൃക്ഷ്ടിക്കപ്പെടുന്നു. ബിഹാര്‍ തെരഞ്ഞെടുപ്പില്‍ എഐ വിഡിയോ പ്രചാരണം വിവാദമായിരുന്നു. പ്രധാനമന്ത്രി നരേന്ദ്ര മോദിയുടെ പരേതയായ മാതാവ് ഹീരാബെന്നിനെ കഥാപാത്രമാക്കി കോണ്‍ഗ്രസ് പുറത്തിറക്കിയ എഐ വിഡിയോയാണ് വിവാദമായത്.

വിഡിയോക്കെതിരെ അദാനി ഗ്രൂപ്പ് കോടതിയെ സമീപിച്ചതോടെ വിഡിയോ നീക്കം ചെയ്യണമെന്ന് കോടതി നിര്‍ദേശം നൽകി. സമയപരിധിക്കുള്ളില്‍ കോണ്‍ഗ്രസ് നേതാക്കള്‍ ഈ വിഡിയോ നീക്കിയില്ലെങ്കില്‍, 72 മണിക്കൂറിനുള്ളില്‍ എക്‌സ്, ഗൂഗിള്‍ എന്നീ പ്ലാറ്റ്ഫോമുകള്‍ വിഡിയോ നീക്കം ചെയ്യണമെന്ന് കോടതി നിര്‍ദ്ദേശിച്ചു. കേരളത്തില്‍ തദ്ദേശ തെരഞ്ഞെടുപ്പില്‍ ശബരിമല സ്വര്‍ണക്കൊള്ളയുമായി ബന്ധപ്പെട്ട് മുഖ്യമന്ത്രി പിണറായി വിജയന്റെയും ഉണ്ണികൃഷ്ണന്‍ പോറ്റിയുടെയും വിഡിയോ ദൃശ്യങ്ങള്‍ വ്യാജമായി നിര്‍മ്മിച്ച് പ്രചരിച്ചിരുന്നു.

 deepfakes
AI Images
How deepfakes could impact
എഐ മനുഷ്യനേക്കാള്‍ ശക്തനാകുമോ? ആശങ്കപ്പെടുത്തുന്ന സൂപ്പര്‍ ഇന്റലിജന്‍സ്

ഡീപ്‌ഫേക്ക് വിഡിയോകളെ തിരിച്ചറിയാം: ഡീപ്‌ഫേക്ക് വിഡിയോ തിരിച്ചറിയാനുള്ള പ്രധാന മാര്‍ഗ്ഗം മുഖഭാവങ്ങളുടെയും ചലനങ്ങളുടെയും ആധികാരികതയാണ്. മിന്നിമറയുന്ന പാറ്റേണുകള്‍, ചുണ്ടുകളുടെ ചലനം, സംസാരത്തിനോട് യോജിക്കാത്ത മുഖഭാവങ്ങള്‍, മുഖഭാവങ്ങളിലെ അസ്വാഭാവികത എന്നിവ ശ്രദ്ധിക്കുക. മുഖത്തെയും മുഖഭാവങ്ങളെയും സൂക്ഷ്മതലത്തില്‍ സ്വാഭാവികതയോടെ പകര്‍ത്താന്‍ ഡീപ്‌ഫേക്ക് അല്‍ഗോരിതങ്ങള്‍ക്ക് പലപ്പോഴും കഴിയാറില്ല.

ഓഡിയോ നിലവാരവും ചുണ്ടിന്റെ ചലനങ്ങള്‍: ഡീപ്‌ഫേക്ക് വീഡിയോകളില്‍ പലപ്പോഴും ഓഡിയോ ട്രാക്കും വിഷ്വലുകളും (സംഭാഷണവും ദൃശ്യവും) തമ്മില്‍ പൊരുത്തക്കേടുകള്‍ പ്രകടമാണ്. പലപ്പോഴും ചുണ്ടിന്റെ ചലനങ്ങളുമായി പറയുന്നത് യോജിക്കാറില്ല. അതിനാന്‍ ഓഡിയോ ശ്രദ്ധാപൂര്‍വം കേൾക്കുകയും അത് പറയുന്നയാളുടെ വായയുടെ ചലനങ്ങളുമായി യോജിക്കുന്നുണ്ടോയെന്ന് നിരീക്ഷിക്കുകയും ചെയ്യുക. വികലമായ ശബ്ദം, അസ്വാഭാവികമായ ഇടവേളകള്‍ എന്നിവ പോലുള്ള അപാകതകള്‍ കൃത്രിമത്വത്തെ സൂചിപ്പിക്കുന്നു.

ലൈറ്റിങ്ങും ഷാഡോയും പരിശോധിക്കുക: ഒരു വിഡിയോയിലെ ലൈറ്റിങ്ങിനും ഷാഡോകള്‍ക്കും (വെളിച്ചവും നിഴലുകളും) അതിന്റെ ആധികാരികതയെക്കുറിച്ച് സൂചനകള്‍ നല്‍കാന്‍ കഴിയും. വ്യത്യസ്ത ഫ്രെയിമുകളിലെ ലൈറ്റിങ്ങിന്റെ സ്ഥിരത, വസ്തുക്കളുടെയും വ്യക്തികളുടെയും നിഴലുകള്‍ എന്നിവ ശ്രദ്ധിക്കുക. ലൈറ്റിങ്ങിന്റെയും നിഴലുകളുടെയും ദിശയിലോ, തീവ്രതയിലോ ഉള്ള പൊരുത്തക്കേടുകള്‍ വിഡിയോ ഡീപ് ഫേക്ക് ആണെന്നതിനെ സൂചിപ്പിക്കുന്നു.

വിഡിയോ കോളുകളില്‍ ശ്രദ്ധിക്കുക: പലപ്പോഴും വിഡിയോ കോളുകളിലൂടെയാണ് ഡീപ് ഫേക്ക് തട്ടിപ്പ് നടക്കുന്നത്. ഡീപ് ഫേക്കിലൂടെ മറ്റൊരാളുടെ മുഖം പകര്‍ത്തി ആ മുഖവുമായി കോള്‍ ചെയ്താണ് തട്ടിപ്പ് നടക്കുന്നത്. ഇത്തരം സാഹചര്യത്തില്‍ മറുഭാഗത്തുള്ളയാളോട് അപ്രതീക്ഷിതമായി എന്തെങ്കിലും കാര്യം ചെയ്യാന്‍ ആവശ്യപ്പെടുന്നത് ഡീപ് ഫേക്ക് തട്ടിപ്പാണോ എന്നറിയാന്‍ ഉപകരിക്കും.

ഡീപ്‌ഫേക്ക് കണ്ടെത്താനുള്ള ടൂളുകളുടെ ഉപയോഗം: ഡീപ്ഫേക്കുകള്‍ തിരിച്ചറിയാനുള്ള നിരവധി സോഫ്ട്‌വെയര്‍ ടൂളുകള്‍ ഇന്ന് ലഭ്യമാണ്. ഇവയില്‍ പലതും എഐ ഉപയോഗിച്ച് പ്രവര്‍ത്തിക്കുന്നവയാണ്. എഐ ടൂളുകളായതുകൊണ്ടുതന്നെ ഇവയുടെ വിശ്വാസ്യത ചോദ്യം ചെയ്യപ്പെടുന്നുണ്ട്.

 deepfakes
deepfakes
Summary

How deepfakes could impact

Subscribe to our Newsletter to stay connected with the world around you

Follow Samakalika Malayalam channel on WhatsApp

Download the Samakalika Malayalam App to follow the latest news updates 

X
logo
Samakalika Malayalam - The New Indian Express
www.samakalikamalayalam.com