‘AI-യെ അമിതമായി ആശ്രയിക്കരുത്’; യുവാക്കൾക്ക് മുന്നറിയിപ്പുമായി സാം ആൾട്ട്മാൻ

വാഷിംഗ്ടൺ: ആർട്ടിഫിഷ്യൽ ഇന്റലിജന്റ്സ് (AI) ചാറ്റ്‌ബോട്ടായ ചാറ്റ്ജിപിടി (ChatGPT) യെ അമിതമായി ആശ്രയിക്കുന്നത് “മോശവും അപകടകരവുമാണ്” എന്ന് ഓപ്പൺഎഐ (OpenAI) സിഇഒ സാം ആൾട്ട്മാൻ മുന്നറിയിപ്പ് നൽകി. പ്രത്യേകിച്ചും ചെറുപ്പക്കാർ തങ്ങളുടെ ജീവിതത്തിലെ തീരുമാനങ്ങൾ എടുക്കുന്നതിന് ചാറ്റ്ജിപിടി യെ അമിതമായി ആശ്രയിക്കുന്ന പ്രവണത വർദ്ധിച്ചുവരുന്നതിനെക്കുറിച്ചാണ് അദ്ദേഹം ആശങ്ക പ്രകടിപ്പിച്ചത്. ഫെഡറൽ റിസർവ് ഹോസ്റ്റ് ചെയ്ത ഒരു ബാങ്കിംഗ് കോൺഫറൻസിൽ സംസാരിക്കുകയായിരുന്നു അദ്ദേഹം.

“ചാറ്റ്ജിപിടി എല്ലാം അറിയാമെന്നും, തൻ്റെ സുഹൃത്തുക്കളെയും അറിയാമെന്നും, അത് പറയുന്നതെന്തും ചെയ്യുമെന്നും പറയുന്ന ചെറുപ്പക്കാർ ഇന്ന് ധാരാളമാണ്. ഇത് വളരെ മോശമായി തോന്നുന്നു,” ആൾട്ട്മാൻ പറഞ്ഞു. ചെറുപ്പക്കാർക്കിടയിൽ ഇത് വളരെ സാധാരണമായ ഒരു പ്രവണതയാണെന്നും ഓപ്പൺഎഐ ഇതിനെക്കുറിച്ച് എന്തു ചെയ്യണമെന്ന് പഠിച്ചുകൊണ്ടിരിക്കുകയാണെന്നും അദ്ദേഹം കൂട്ടിച്ചേർത്തു. ചാറ്റ്ജിപിടി മികച്ച ഉപദേശം നൽകുന്നുണ്ടെങ്കിൽ പോലും, ഒരു കൂട്ടായി AI പറയുന്ന രീതിയിൽ നമ്മുടെ ജീവിതം നയിക്കാൻ തീരുമാനിക്കുന്നത് മോശവും അപകടകരവുമാണെന്നും അദ്ദേഹം ചൂണ്ടിക്കാട്ടി.

നേരത്തെ, ചാറ്റ്ജിപിടി ഉപയോഗിക്കുന്ന രീതി പ്രായത്തിനനുസരിച്ച് എങ്ങനെ വ്യത്യാസപ്പെടുന്നു എന്ന് ആൾട്ട്മാൻ വെളിപ്പെടുത്തിയിരുന്നു. പ്രായമായവർ ഗൂഗിളിന് പകരമായി ചാറ്റ്ജിപിടി ഉപയോഗിക്കുമ്പോൾ, 20-കളിലും 30-കളിലുമുള്ളവർ ഒരു “ലൈഫ് അഡ്വൈസറായി” ഇതിനെ ഉപയോഗിക്കുന്നു. കോളേജ് വിദ്യാർത്ഥികൾ ഇതിനെ ഒരു ഓപ്പറേറ്റിംഗ് സിസ്റ്റം പോലെയാണ് ഉപയോഗിക്കുന്നതെന്നും അദ്ദേഹം പറഞ്ഞു.

കഴിഞ്ഞ ഏപ്രിലിൽ നടന്ന ഒരു സർവ്വേ പ്രകാരം, 13-നും 17-നും ഇടയിലുള്ള 72% കൗമാരക്കാരും കുറഞ്ഞത് ഒരു തവണയെങ്കിലും AI സഹായികളെ ഉപയോഗിച്ചിട്ടുണ്ടെന്നും, ഇതിൽ പകുതിയോളം പേർ ആർട്ടിഫിഷ്യൽ ഇൻ്റലിജൻസ് നൽകുന്ന വിവരങ്ങളും ഉപദേശങ്ങളും വിശ്വസിക്കുന്നുണ്ടെന്നും കണ്ടെത്തിയിരുന്നു. പ്രായം കുറഞ്ഞ കൗമാരക്കാർക്ക് AI-യോടുള്ള വിശ്വാസം കൂടുതലാണെന്നും പഠനം പറയുന്നു.

അതേസമയം, AI-യുടെ ദുരുപയോഗം വഴിയുള്ള സൈബർ സുരക്ഷാ ഭീഷണികളെക്കുറിച്ചും ആൾട്ട്മാൻ മുന്നറിയിപ്പ് നൽകി. വോയിസ് ക്ലോണിംഗ്, ഡീപ്ഫേക്കുകൾ എന്നിവ ബാങ്കിംഗ് മേഖലയിൽ വലിയ തട്ടിപ്പുകൾക്ക് ഇടയാക്കുമെന്നും, വോയിസ് ഓതൻ്റിക്കേഷൻ പോലുള്ള സംവിധാനങ്ങൾ ഇപ്പോൾ സുരക്ഷിതമല്ലെന്നും അദ്ദേഹം വ്യക്തമാക്കി.

Leave a Reply

error: Content is protected !!

Discover more from Indilipi

Subscribe now to keep reading and get access to the full archive.

Continue reading