AI fraud is difficult to detect, UAE Cyber ​​Security Authority suggests some ways to identify fraud  പ്രതീകാത്മക ചിത്രം
Gulf

എഐ തട്ടിപ്പ് കണ്ടെത്തൽ പ്രയാസകരം,തിരിച്ചറിയാൻ ചില വഴികൾ; നിർദ്ദേശങ്ങളുമായി യുഎഇ സൈബർ സുരക്ഷാ അതോറിറ്റി

സ്കാം സന്ദേശങ്ങൾ നിയമാനുസൃതമാണെന്ന് വരുത്തിത്തീർക്കാൻ തട്ടിപ്പുകാർ പുതിയ സാങ്കേതികവിദ്യകൾ ഉപയോഗിക്കുന്നുണ്ടെന്ന് സൈബർ സുരക്ഷാ കൗൺസിൽ പറഞ്ഞു.

സമകാലിക മലയാളം ഡെസ്ക്

ദുബൈ: നിർമ്മിത ബുദ്ധി (എഐ, AI) അടിസ്ഥാനമാക്കിയുള്ള തട്ടിപ്പ് വളരെയധികം വർദ്ധിക്കുന്ന സാഹചര്യത്തിൽ സാങ്കേതിക വിദ്യകളെക്കുറിച്ച് അവബോധം വളർത്തേണ്ടതിന്റെ പ്രാധാന്യമേറെ ഉള്ള കാലഘട്ടമാണിതെന്ന് യുഎഇ സൈബർ സുരക്ഷാ കൗൺസിൽ (CSC) അഭിപ്രായപ്പെട്ടു. .

കൗൺസിൽ ആരംഭിച്ച "സൈബർ പൾസ്" സംരംഭത്തിന് കീഴിലുള്ള പ്രതിവാര അവബോധ കാമ്പെയ്‌നിന്റെ ഭാഗമായാണ് ഇക്കാര്യം അറിയിച്ചത്.

നിർമ്മിത ബുദ്ധി അടിസ്ഥാനപരമായി തട്ടിപ്പ് രീതികളെ പുനർനിർമ്മിച്ചിട്ടുണ്ടെന്ന് സി‌എസ്‌സി വ്യക്തമാക്കി. ഒരുകാലത്ത് ഗണ്യമായ സമയവും പരിശ്രമവും ആവശ്യമായിരുന്ന തട്ടിപ്പുകൾ ഇപ്പോൾ നിമിഷങ്ങൾക്കുള്ളിൽ നിർവഹിക്കാൻ കഴിയും. വഞ്ചനാപരമായ പ്രവർത്തനങ്ങൾ നിയമാനുസൃതമാണെന്ന് തോന്നിപ്പിക്കാൻ എഐ ക്ക് കഴിയുമെന്നതിനാൽ, സൈബർ തട്ടിപ്പ് കണ്ടെത്തുന്നതിന്റെ സങ്കീർണ്ണത ഈ സാങ്കേതികവിദ്യകൾ വർദ്ധിപ്പിക്കുന്നു.

പുതിയ സാങ്കേതികവിദ്യകൾക്ക് യഥാർത്ഥ ശബ്ദ അനുകരണം, മാറ്റം വരുത്തിയ ലോഗോകളും സൃഷ്ടിക്കാനും ടെക്സ്റ്റും ഗ്രാഫിക്സും യഥാർത്ഥമാണെന്ന പ്രതീതി സൃഷ്ടിക്കുന്ന ഡിസൈനുകളാക്കി മാറ്റാനും കഴിയും - അടിയന്തര സുരക്ഷാ അഭ്യർത്ഥനകളായും തട്ടിപ്പുകൾ നടത്തുന്നു. പുതിയ രീതിയിലുള്ളതും സാങ്കേതികവിദ്യാധിഷ്ഠിതവുമായ തട്ടിപ്പ് ശ്രമങ്ങളുടെ വേഗത്തിലുള്ള വർദ്ധനവിനിടയിൽ, വിശ്വസനീയമെന്ന് തോന്നുന്ന ലിങ്കുകൾ എഐ ഉപയോഗിച്ച് സൃഷ്ടിച്ചു കൊണ്ടും തട്ടിപ്പുകാർ സജീവമായി രംഗത്തുണ്ട്.

തട്ടിപ്പുകാർ ഇപ്പോൾ ഏതാണ്ട് പൂർണ്ണമായും ആധികാരികമെന്ന് തോന്നുന്ന സന്ദേശങ്ങൾ തയ്യാറാക്കുന്നതിനാൽ, 90 ശതമാനത്തിലധികം ഡിജിറ്റൽ തട്ടിപ്പുകൾക്കും എഐ അധിഷ്ഠിത ഫിഷിങ് കാരണമാകുമെന്ന് കൗൺസിൽ അഭിപ്രായപ്പെട്ടു.

ഈ നൂതന സാങ്കേതിക വിദ്യകൾ ഉപയോഗിച്ച് തട്ടിപ്പുകാർ പിഴവുകൾ കുറച്ച് പെട്ടെന്ന് കണ്ടെത്താനാകാത്ത രീതിയിൽ തങ്ങളുടെ വഞ്ചനാപരമായ പ്രവർത്തനങ്ങൾ നടത്തുകയും ചെയ്യുന്നു. ഏതെങ്കിലും ലിങ്കുകളിൽ ക്ലിക്ക് ചെയ്യുന്നതിനും സെൻസിറ്റീവ് ഡാറ്റ വെളിപ്പെടുത്തുന്നതിനും മുമ്പ് എല്ലാവരും ജാഗ്രത പാലിക്കണം.

എഐ തട്ടിപ്പിൽ നിന്ന് എങ്ങനെ സ്വയം സംരക്ഷിക്കാം

എഐ യുടെ ഉപയോഗം വികസിക്കുമ്പോൾ, ആധികാരികതയും അനുകരണവും തമ്മിലുള്ള അതിർത്തി മങ്ങുന്നത് വർദ്ധിക്കുന്നു, കൂടുതൽ സങ്കീർണ്ണമായ തട്ടിപ്പ് രീതികൾ ആരെയും ബാധിക്കാം. ഈ ഉയർന്നുവരുന്ന ഭീഷണികളുടെ വ്യാപ്തി പൂർണ്ണമായി മനസ്സിലാക്കുന്നതിന് അറിവിലും അവബോധത്തിലും അധിഷ്ഠിതമായ പ്രതിരോധ ടൂളുകളും സാങ്കേതിക വിദ്യകളും സ്വീകരിക്കേണ്ടത് ആവശ്യമാണ്.

അക്കൗണ്ട് ഏറ്റെടുക്കലുകൾക്കും വ്യാജ ഐഡന്റിറ്റികളുടെ ഉപയോഗത്തിനും എതിരെ അധിക പരിരക്ഷ നൽകുന്നതിനും, കണ്ടെത്തൽ കൃത്യത വർദ്ധിപ്പിക്കുന്നതിനും, തെറ്റായ അലർട്ടുകൾ കുറയ്ക്കുന്നതിനും, പേയ്‌മെന്റ് നടപടികൾ സംരക്ഷിക്കുന്നതിനും നടപടികൾ ശക്തിപ്പെടുത്തേണ്ടത് അത്യാവശ്യമാണെന്ന് സി എസ് സി പറഞ്ഞു.

"സൈബർ പൾസ്" കാമ്പെയ്‌ൻ അതിന്റെ പ്രതിവാര അവബോധ സന്ദേശത്തിലൂടെ, എഐ നയിക്കുന്ന തട്ടിപ്പിന് ഇരയാകുന്നത് ഒഴിവാക്കാൻ പ്രായോഗിക കാര്യങ്ങൾ വിശദീകരിച്ചു, .

അതിൽപ്രധാനപ്പെട്ട ചില കാര്യങ്ങൾ ഇവയാണ്:

• വെരിഫൈ ചെയ്യാത്ത ലിങ്കുകൾ ഓപ്പൺ ചെയ്യാതിരിക്കുക

• സംശയാസ്പദമായ സന്ദേശങ്ങളിൽ അക്ഷരത്തെറ്റോ ഭാഷാപരമായ പിശകുകളോ ഉണ്ടോയെന്ന് പരിശോധിക്കുക

• ഔദ്യോഗിക അല്ലെങ്കിൽ വിശ്വസനീയ ചാനലുകൾ വഴി ലഭിച്ച വിവരങ്ങൾ ശരിയാണോ എന്ന് പരിശോധിക്കുക

• മൾട്ടി-ഫാക്ടർ പ്രാമാണീകരണം ഉപയോഗിക്കുക (ഇത് 90 ശതമാനത്തിലധികം തട്ടിപ്പ് ശ്രമങ്ങളെ തടയുന്നതിന് സഹായകമാണ്.)

• വൈറസുകളിൽ നിന്ന് സംരക്ഷിക്കുന്നതിനുമുള്ള സേഫ്റ്റി സോഫ്റ്റ്‌വെയർ ആക്ടിവേറ്റ് ചെയ്യുക.

Gulf News: The UAE Cybersecurity Council (CSC) has emphasised the importance of raising awareness about artificial intelligence (AI)-enabled fraud techniques.

Subscribe to our Newsletter to stay connected with the world around you

Follow Samakalika Malayalam channel on WhatsApp

Download the Samakalika Malayalam App to follow the latest news updates 

വിവാഹിതയാണെന്ന് അറിഞ്ഞില്ല, ബന്ധം ഉഭയസമ്മതപ്രകാരം; രാഹുല്‍ മാങ്കൂട്ടത്തില്‍ ജാമ്യഹര്‍ജി നല്‍കി

'ഹിന്ദു മതം എന്ന ഒന്നില്ല, സംഘടിത മതങ്ങളുടെ സ്വഭാവത്തിലേയ്ക്ക് വരുന്നു'

2026ലെ ഐഎസ്ആര്‍ഒയുടെ ആദ്യ വിക്ഷേപണം; പിഎസ്എല്‍വി സി 62 വിക്ഷേപണം നാളെ

ചികിത്സയ്ക്ക് ശേഷം വിശ്രമിക്കുന്ന എം കെ മുനീറിനെ സന്ദര്‍ശിച്ച് മുഖ്യമന്ത്രി; ഒപ്പം മുഹമ്മദ് റിയാസും

കരുത്തായി കോഹ്‌ലി; ന്യൂസിലന്‍ഡിനെ തകര്‍ത്തു, ഇന്ത്യയ്ക്ക് 4 വിക്കറ്റ് ജയം

SCROLL FOR NEXT