മനുഷ്യരാശിയുടെ അന്തകനോ AI സാങ്കേതികവിദ്യ?
ലോകത്ത് മനുഷ്യരാശിയുടെ നാശം സംഭവിക്കുന്നത് ഏത് വിധത്തിലായിരിക്കുമെന്ന് ആശങ്കയോടെ വീക്ഷിച്ചു കൊണ്ടിരിക്കുന്ന ഒരു വിഭാഗമുണ്ട്. അവര് പ്രതീക്ഷിച്ചത് ഉല്ക്കാ പതനമോ, വേറൊരു കൊറോണയോ, അന്യഗ്രഹിജീവി ആക്രമണമോ എന്തെങ്കിലുമായിരുന്നു. പക്ഷേ ഇപ്പോള് ഭൂമിയെ ഞെട്ടിക്കുന്നത് മറ്റൊന്നാണ്.
“ AI സാങ്കേതികവിദ്യ യഥാർത്ഥത്തിൽ ആളുകളെക്കാൾ സ്മാർട്ടാകും എന്ന ആശയം മനുഷ്യരാശിക്കു ഗുണമുണ്ടാകും എന്നാണു ഞാന് കരുതിയത്. പക്ഷേ എനിക്കു തെറ്റി.," ഗൂഗിളിന്റെ മുൻനിര ആർട്ടിഫിഷ്യൽ ഇന്റലിജൻസ് ശാസ്ത്രജ്ഞരിൽ ഒരാളും, "AI യുടെ ഗോഡ്ഫാദർ" എന്നും അറിയപ്പെടുന്ന ജെഫ്രി ഹിന്റൺ, ഏപ്രിലിൽ ജോലി ഉപേക്ഷിച്ചതിന് ശേഷം പറഞ്ഞ വാക്കുകളാണിത്. അതിനാൽ AI സാങ്കേതികവിദ്യയുടെ അപകടങ്ങളെക്കുറിച്ചുള്ള അദ്ദേഹത്തിന്റെ മുന്നറിയിപ്പ് ഭൂമിയിലെ മനുഷ്യര് ഗൗരവത്തിലെടുത്തേ പറ്റൂ.
ഇതുകൂടി വായിക്കുക: പ്രണയത്തിന്റെ സങ്കീര്ണ രസതന്ത്രം - ഡോ. രഘുനാഥന് നായര്
.അദ്ദേഹം മാത്രമല്ല ഇതില് വിഷമിക്കുന്നത്. AI വിദഗ്ധരുടെ 2023-ലെ ഒരു സർവേയിൽ 36 ശതമാനം പേർ AI വികസനം ഒരു "ആണവ-തല ദുരന്തത്തിന്" കാരണമായേക്കാമെന്ന് ഭയപ്പെടുന്നതായി കണ്ടെത്തി. ഫ്യൂച്ചർ ഓഫ് ലൈഫ് ഇൻസ്റ്റിറ്റ്യൂട്ട് എഴുതിയ ഒരു തുറന്ന കത്തിൽ ഏകദേശം 28,000 പേർ ഒപ്പുവെച്ചിട്ടുണ്ട്, ഇതിൽ സ്റ്റീവ് വോസ്നിയാക്, എലോൺ മസ്ക്, നിരവധി AI കമ്പനികളുടെ സിഇഒമാർ, മറ്റ് നിരവധി പ്രമുഖ സാങ്കേതിക വിദഗ്ധർ എന്നിവർ AI വികസനത്തിന് ആറ് മാസത്തെ ഇടവേളയോ പുതിയ പരിഷ്കാരങ്ങള്ക്ക് മൊറട്ടോറിയമോ ആവശ്യപ്പെടുന്നു.
ഇതിനെ കുറിച്ച് കൃത്യമായ ബോധമുള്ള ഒരു ഗവേഷകനെന്ന നിലയിൽ, AI-യുടെ ദ്രുതഗതിയിലുള്ള വികസനത്തെക്കുറിച്ചുള്ള ശക്തമായ ആശങ്കകളാണ് ജെഫ്രി ഹിന്റൺ പങ്കുവെക്കുന്നത്, കൂടാതെ ഫ്യൂച്ചർ ഓഫ് ലൈഫ് ഓപ്പൺ ലെറ്ററിന്റെ സഹകാരി കൂടിയാണ് അദ്ദേഹം.
ഇതുകൂടി വായിക്കുക ബ്രഹ്മരക്ഷസ്സുകളുടെ കഥ
എന്തുകൊണ്ടാണ് നാമെല്ലാവരും ഇത്ര ഉത്കണ്ഠാകുലരായിരിക്കുന്നത്? കാരണം AI വികസനം വളരെ വേഗത്തിൽ നടക്കുന്നു. നൂതനമായ "ചാറ്റ്ബോട്ടുകൾ" അല്ലെങ്കിൽ സാങ്കേതികമായി "വലിയ ഭാഷാ മോഡലുകൾ" (LLMs) എന്ന് വിളിക്കപ്പെടുന്നവയുടെ പുതിയ വിളകൾക്കിടയിൽ സംഭാഷണത്തിൽ ആഴത്തിലും വേഗത്തിലുമുള്ള പുരോഗതിയാണ് പ്രധാന പ്രശ്നം. ഈ വരാനിരിക്കുന്ന "AI സ്ഫോടനം" ശരിയാക്കാൻ ഞങ്ങൾക്ക് ഒരു അവസരം മാത്രമേ ലഭിക്കൂ.നമ്മുക്കു തെറ്റിയാല്, കഥ പറയാൻ നമ്മൾ ജീവിച്ചിരിക്കില്ല. ഇത് അതിഭാവുകത്വമല്ല.
ഈ ദ്രുതഗതിയിലുള്ള ത്വരണം ഉടൻ തന്നെ "ആർട്ടിഫിഷ്യൽ ജനറൽ ഇന്റലിജൻസ്" (എജിഐ)ക്ക് കാരണമാകും. അത് സംഭവിക്കുമ്പോൾ, മനുഷ്യ ഇടപെടലില്ലാതെ സ്വയം മെച്ചപ്പെടുത്താൻ AI-ക്ക് കഴിയും.
ഉദാഹരണത്തിന്, ഗൂഗിളിന്റെ AlphaZero AI ആദ്യമായി ഓൺ ചെയ്തത് മുതൽ വെറും ഒമ്പത് മണിക്കൂറിനുള്ളിൽ ഏറ്റവും മികച്ച മനുഷ്യരോ മറ്റ് AI ചെസ്സ് കളിക്കാരെക്കാളും നന്നായി എങ്ങനെ ചെസ്സ് കളിക്കാമെന്ന് പഠിച്ചത് പോലെ തന്നെ ഇത് ചെയ്യും. ദശലക്ഷക്കണക്കിന് തവണ സ്വയം കളിച്ചാണ് ഇത് ഈ നേട്ടം കൈവരിച്ചത്.
ഓപ്പൺഎഐയുടെ ജിപിടി-4 വിശകലനം ചെയ്യുന്ന മൈക്രോസോഫ്റ്റ് ഗവേഷകരുടെ ഒരു സംഘം, നിലവിൽ ലഭ്യമായ പുതിയ അഡ്വാൻസ്ഡ് ചാറ്റ്ബോട്ടുകളിൽ ഏറ്റവും മികച്ചതാണെന്ന് കരുതുന്നു, ഒരു പുതിയ പ്രീപ്രിന്റ് പേപ്പറിൽ അതിന് "നൂതന ജനറൽ ഇന്റലിജൻസിന്റെ സ്പാർക്കുകൾ" ഉണ്ട്.
GPT-4 പരീക്ഷിക്കുന്നതിൽ, പല സംസ്ഥാനങ്ങളിലും പ്രാക്ടീസിനായി അഭിഭാഷകരെ സാക്ഷ്യപ്പെടുത്താൻ ഉപയോഗിക്കുന്ന ഒരു സ്റ്റാൻഡേർഡ് ടെസ്റ്റായ യൂണിഫോം ബാർ പരീക്ഷയിൽ 90 ശതമാനം മനുഷ്യരേക്കാൾ മികച്ച പ്രകടനം കാഴ്ചവച്ചു. ഒരു ചെറിയ ഡാറ്റാ സെറ്റിൽ പരിശീലിപ്പിച്ച മുൻ GPT-3.5 പതിപ്പിലെ വെറും 10 ശതമാനത്തിൽ നിന്ന് ആ കണക്ക് ഉയർന്നു. ഡസൻ കണക്കിന് മറ്റ് സ്റ്റാൻഡേർഡ് ടെസ്റ്റുകളിൽ സമാനമായ മെച്ചപ്പെടുത്തലുകൾ അവർ കണ്ടെത്തി.
ഇതുകൂടി വായിക്കുക വെള്ളരിക്കാപ്പട്ടണം അനില് നാരായണന്റെ കാര്ട്ടൂണ് പംക്തി
ഈ ടെസ്റ്റുകളിൽ ഭൂരിഭാഗവും യുക്തിയുടെ പരീക്ഷണങ്ങളാണ്. GPT-4 "ഒരു ആർട്ടിഫിഷ്യൽ ജനറൽ ഇന്റലിജൻസ് (എജിഐ) സംവിധാനത്തിന്റെ ആദ്യകാല (ഇപ്പോഴും അപൂർണ്ണമായ) പതിപ്പായി ന്യായമായും കാണാവുന്നതാണ്" എന്ന് ബുബെക്കും സംഘവും നിഗമനം ചെയ്തതിന്റെ പ്രധാന കാരണം ഇതാണ്.
ഈ മാറ്റത്തിന്റെ വേഗതയാണ് ന്യൂയോർക്ക് ടൈംസിനോട് ഹിന്റൺ പറഞ്ഞത്: "അഞ്ച് വർഷം മുമ്പ് അത് എങ്ങനെയാണെന്നും ഇപ്പോൾ എങ്ങനെയാണെന്നും നോക്കൂ. വ്യത്യാസം എടുത്ത് അത് മുന്നോട്ട് കൊണ്ടുപോയാല് കാര്യങ്ങള് ഭയാനകമായിരിക്കും." AI യുടെ സാധ്യതകളെക്കുറിച്ചുള്ള മെയ് പകുതി സെനറ്റ് ഹിയറിംഗിൽ, ഓപ്പൺഎഐയുടെ തലവൻ സാം ആൾട്ട്മാൻ നിയന്ത്രണത്തെ "നിർണ്ണായകമാണ്" എന്ന് തറപ്പിച്ചു പറഞ്ഞു.
ഇത് "നിയന്ത്രണ പ്രശ്നം" അല്ലെങ്കിൽ "വിന്യാസ പ്രശ്നം" (നല്ല അവലോകനത്തിനായി തത്ത്വചിന്തകൻ നിക്ക് ബോസ്ട്രോമിന്റെ സൂപ്പർ ഇന്റലിജൻസ് എന്ന പുസ്തകം കാണുക) എന്ന് അറിയപ്പെടുന്നു, കൂടാതെ ബോസ്ട്രോം, സേത്ത് ബാം, എലീസർ യുഡ്കോവ്സ്കി തുടങ്ങിയ തത്ത്വചിന്തകരും ശാസ്ത്രജ്ഞരും ഇതിനെ കുറിച്ചു പഠിക്കുകയും വാദിക്കുകയും ചെയ്തിട്ടുണ്ട്.
ഇതുകൂടി വായിക്കുക: ഭൂമിക്കടിയിലെ നിഗൂഢ നഗരം
വിദഗ്ദര് ഇതിനെക്കുറിച്ച് ചിന്തിക്കുന്നത് ഇങ്ങനെയാണ്: ഒരു നവജാത ശിശു ഒരു ഗ്രാൻഡ്മാസ്റ്ററെ ചെസ്സിൽ തോൽപ്പിക്കുമെന്ന് നമ്മുക്കു പ്രതീക്ഷിക്കേണ്ടി വരും. അതുപോലെ, സൂപ്പർ ഇന്റലിജന്റ് AI സിസ്റ്റങ്ങളെ നിയന്ത്രിക്കാൻ വിദഗ്ദ്ക്കു കഴിയാതെ വരും. അവര്ക്ക് ഓഫ് സ്വിച്ച് അടിക്കാനാവില്ല, കാരണം സൂപ്പർഇന്റലിജന്റ് AI അത് ചെയ്യാൻ സാധ്യമായ എല്ലാ വഴികളെക്കുറിച്ചും ചിന്തിക്കുകയും അടച്ചുപൂട്ടുന്നത് തടയാൻ നടപടികൾ കൈക്കൊള്ളുകയും ചെയ്യും.
ഇത് നോക്കുന്നതിനുള്ള മറ്റൊരു മാർഗം ഇതാ: 100 മനുഷ്യ സോഫ്റ്റ്വെയർ എഞ്ചിനീയർമാരുടെ ഒരു ടീമിന് ഒരു വർഷമോ അതിൽ കൂടുതലോ എടുക്കുന്ന കാര്യം ഒരു സെക്കൻഡിനുള്ളിൽ ഒരു സൂപ്പർ ഇന്റലിജന്റ് AI-ക്ക് ചെയ്യാൻ കഴിയും. അല്ലെങ്കിൽ ഒരു പുതിയ നൂതന വിമാനമോ ആയുധ സംവിധാനമോ രൂപകൽപന ചെയ്യുന്നത് പോലെയുള്ള ഏത് ജോലിയും തിരഞ്ഞെടുക്കുക, സൂപ്പർ ഇന്റലിജന്റ് AI ഏകദേശം ഒരു സെക്കൻഡിനുള്ളിൽ ഇത് ചെയ്യാൻ കഴിയും.
AI സംവിധാനങ്ങൾ റോബോട്ടുകളായി നിർമ്മിച്ചുകഴിഞ്ഞാൽ, അവർക്ക് വെർച്വൽ (ഇലക്ട്രോണിക്) ലോകത്ത് മാത്രമല്ല, അതേ അളവിലുള്ള സൂപ്പർ ഇന്റലിജൻസ് ഉപയോഗിച്ച് യഥാർത്ഥ ലോകത്ത് പ്രവർത്തിക്കാൻ കഴിയും, കൂടാതെ ഒരു അമാനുഷികനിൽ സ്വയം പകർത്താനും മെച്ചപ്പെടുത്താനും കഴിയും.
ഇത് നോക്കുന്നതിനുള്ള മറ്റൊരു മാർഗം ഇതാ: 100 മനുഷ്യ സോഫ്റ്റ്വെയർ എഞ്ചിനീയർമാരുടെ ഒരു ടീമിന് ഒരു വർഷമോ അതിൽ കൂടുതലോ എടുക്കുന്ന കാര്യം ഒരു സെക്കൻഡിനുള്ളിൽ ഒരു സൂപ്പർ ഇന്റലിജന്റ് AI-ക്ക് ചെയ്യാൻ കഴിയും. അല്ലെങ്കിൽ ഒരു പുതിയ നൂതന വിമാനമോ ആയുധ സംവിധാനമോ രൂപകൽപന ചെയ്യുന്നത് പോലെയുള്ള ഏത് ജോലിയും തിരഞ്ഞെടുക്കുക, സൂപ്പർ ഇന്റലിജന്റ് AI ഏകദേശം ഒരു സെക്കൻഡിനുള്ളിൽ ഇത് ചെയ്യാൻ കഴിയും.
ഇതുകൂടി വായിക്കുക ഒടിയന് സത്യമോ മിഥ്യയോ?
AI സംവിധാനങ്ങൾ റോബോട്ടുകളായി നിർമ്മിച്ചുകഴിഞ്ഞാൽ, അവർക്ക് വെർച്വൽ (ഇലക്ട്രോണിക്) ലോകത്ത് മാത്രമല്ല, അതേ അളവിലുള്ള സൂപ്പർ ഇന്റലിജൻസ് ഉപയോഗിച്ച് യഥാർത്ഥ ലോകത്ത് പ്രവർത്തിക്കാൻ കഴിയും, കൂടാതെ ഒരു അമാനുഷികശക്തിയായി സ്വയം പകർത്താനും മെച്ചപ്പെടുത്താനും കഴിയും.
ഈ AI “ദൈവങ്ങളെ” ദൈവത്വത്തിലേക്കുള്ള വഴിയിൽ തടുക്കാന് വിദഗ്ദര് ശ്രമിക്കുന്ന ഏതൊരു പ്രതിരോധമോ സംരക്ഷണമോ, സൂപ്പർ ഇന്റലിജൻസ് പദവിയിൽ എത്തിക്കഴിഞ്ഞാൽ, AI അത് മുൻകൂട്ടി കാണുകയും നിർവീര്യമാക്കുകയും ചെയ്യും. അതിബുദ്ധിമാൻ എന്നതിന്റെ അർത്ഥം ഇതാണ്.
നമുക്ക് അവരെ നിയന്ത്രിക്കാൻ കഴിയില്ല, കാരണം നമ്മൾ ചിന്തിക്കുന്നതെന്തും, അവർ ഇതിനകം ചിന്തിച്ചിട്ടുണ്ടാകും, നമ്മളേക്കാൾ ഒരു ദശലക്ഷം മടങ്ങ് വേഗത്തിൽ. ഗള്ളിവർ ലില്ലിപുട്ടുകാർ അവനെ നിയന്ത്രിക്കാൻ ശ്രമിച്ചിരുന്ന ചെറിയ ചരടുകൾ വലിച്ചെറിയുന്നത് പോലെ, ഞങ്ങൾ കെട്ടിപ്പടുത്ത ഏതൊരു പ്രതിരോധവും പഴയപടിയാക്കപ്പെടും.
ഈ LLM-കൾ പൂജ്യം ബോധം പോലുമില്ലാത്ത ഓട്ടോമേഷൻ മെഷീനുകൾ മാത്രമാണെന്ന് ചിലർ വാദിക്കുന്നു, അതാണ് ഏറ്റവും ഭയാനകം. അവർക്ക് ബോധമില്ലെങ്കിൽ അവരുടെ പ്രോഗ്രാമിംഗിൽ നിന്ന് മുക്തരാകാനുള്ള സാധ്യത കുറവാണ്. ഈ ഭാഷാ മാതൃകകൾ, ഇപ്പോഴോ ഭാവിയിലോ, ബോധപൂർവമല്ലെങ്കിലും ഈ അവസരത്തിൽ അവർക്ക് യഥാർത്ഥ ബോധം ഉണ്ടാകാൻ സാധ്യതയില്ല. അതായത് വിവേകബുദ്ധി.
ഇതുകൂടി വായിക്കുക: വിനോദ് നാരായണന്റെ കഥ ചിത്സ്വരൂപം
എന്തുതന്നെയായാലും, ഒരു അണുബോംബിന് ദശലക്ഷക്കണക്കിന് ആളുകളെ യാതൊരു ബോധവുമില്ലാതെ കൊല്ലാൻ കഴിയും. അതുപോലെ തന്നെ, അണുബോംബുകൾ നേരിട്ടോ (സാധ്യത കുറവാണ്) അല്ലെങ്കിൽ കൃത്രിമം കാണിച്ച മനുഷ്യ ഇടനിലക്കാർ വഴിയോ (കൂടുതൽ സാധ്യതയുള്ളത്) ഉൾപ്പെടെ, അസംഖ്യം വഴികളിൽ, AI-ന് ദശലക്ഷക്കണക്കിന് ആളുകളെ കൊല്ലാൻ കഴിയും. ഭൂമിയുടെ സര്വനാശം സംഭവിക്കുകയും ചെയ്യും. ബോധമില്ലാത്ത വൈറസുകള് പെറ്റുപെരുകി നാശം വിതക്കുന്നതുപോലെ AI സാങ്കേതികവിദ്യ സ്വയം വികസിപ്പിച്ച് നാശം വിതക്കുന്ന കാലം അതിവിദൂരമല്ല.
അഭിപ്രായങ്ങളൊന്നുമില്ല:
ഒരു അഭിപ്രായം പോസ്റ്റ് ചെയ്യൂ