AI အကြောင်းရေးလာတာ ၂ပုဒ်ရှိပါပြီ။ အဲ့ဒီ ၂ပုဒ်မှာ လူတွေအနေနဲ့ AI ကိုမယှဉ်နိုင်ကြောင်း ပြောခဲ့ပါတယ်။ AI တွေရဲ့ ရည်ရွယ်ချက်ကဘာဖြစ်မလဲ၊ သူတို့ဘယ်လိုတွေးနေမလဲ၊ လူတွေအပေါ်ဆိုးဝါးတဲ့ကိစ္စတွေပဲ ဖြစ်စေမလား ဆိုတာတွေကို ရေးခဲ့ပါတယ်။
Artificial Intelligence (AI) နဲ့လူတွေ သဟဇာတဖြစ်နိုင်လား?
https://ouo.io/8MkZSqR
လူတွေဟာ AI တွေနဲ့ ယှဉ်ပြိုင်နိုင်မလား?
https://ouo.io/hlSUvy
အဲ့လိုအဖြစ်ဆိုးတွေကို ရှောင်ရှားနိုင်အောင် ပညာရှင်တွေက Friendly AI ကိုတီထွင်ကြမယ်ဆိုပြီး ပြောလာပါတယ်။ အခု ပြောမယ့်အကြောင်းတွေဟာ ပညာရှင်တစ်ယောက်ကို စာရေးဆရာတစ်ယောက်က သွားမေးထားတဲ့ အမေးအဖြေတွေပါ။ စိတ်ဝင်စားစရာ ကောင်းလို့ ရေးလိုက်ပါတယ်။

ပညာရှင်က “ကျွန်တော့ရဲ့ဖုန်းနံပါတ်ဂဏန်း ၁၀ လုံးရှိပေမယ့် ၉လုံးပဲ မှန်အောင် နှိပ်တဲ့အခါ ကျွန်တော့ဆီကို ဖုန်းဝင်လာမှာမဟုတ်ပါဘူး။ ကျွန်တော်နဲ့ ၁ဝပုံ ၉ပုံ တူတဲ့လူဆီလည်း ဖုန်းဝင်သွားမှာမဟုတ်ပါဘူး။ AI တွေကို တည်ဆောက်တဲ့အခါ ၉၀% မှန်ကန်အောင် တည်ဆောက်လိုက်လို့ ၉၀% ကောင်းတဲ့ AI တွေဖြစ်လာမှာ မဟုတ်ပါဘူး။ ၁၀၀% ဆိုးတဲ့ AI ဖြစ်သွားမှာပါ။
ကားတွေက လူကိုသတ်ချင်တာ မဟုတ်ပါဘူး။ ဒါပေမယ့် နေ့တိုင်းကားတိုက်ပြီး သေတဲ့လူတွေ အများကြီးပါပဲ။
AI တွေကလည်း လူတွေကို မသေစေချင်ပါဘူး။ ဒါပေမယ့် သူတို့လုပ်ရမယ်လို့ သတ်မှတ်ထားတဲ့ Program အရ လိုအပ်တဲ့ကုန်ကြမ်းပစ္စည်းတွေဖြစ်တဲ့ Atom တွေနဲ့ လူတွေကို တည်ဆောက်ထားပါတယ်။”

“လူတွေရဲ့ စိတ်ထဲမှာ လူကောင်းတွေဟာ Nice AI ကိုတီထွင်ပြီး လူဆိုးတွေဟာ Evil AI ကို တီထွင်မယ်လို့ ထင်ကြပါတယ်။ ဒါပေမယ့် လူကောင်းတွေက AI ကို တီထွင်လိုက်တယ်ဆိုတိုင်း Friendly AI ဖြစ်သွားတာမဟုတ်ပါဘူး။ ဒါကို တော်တော်များများက အမှတ်မှားနေကြပါတယ်။
ဒါဟာ အလွန်ခက်ခဲတဲ့ သင်္ချာပြဿနာဖြစ်တဲ့အပြင် နည်းပညာပြဿနာတစ်ခုလည်း ဖြစ်နေပါတယ်။ ကျွန်တော် တွေ့ဖူးတဲ့ ပညာရှင်တော်တော်များများက ဒါကိုပြဿနာတစ်ခုလို့ မမြင်ဘဲ Friendly AI ကိုဖြစ်နိုင်တယ်လို့ ထင်ကြပါတယ်။ ဒါပေမယ့် Friendly AI ဟာ လူတွေကို သေစေမယ့် တီထွင်မှုတစ်ခု ဖြစ်နေနိုင်ပါတယ်။”

AGI တွေကနေ ASI ဖြစ်သွားဖို့ ဘယ်လောက်ကြာမလဲ မသေချာဘူးဆိုတာ အရင်အပုဒ်တွေမှာ ရေးခဲ့ပြီးပါပြီ။
ဒီတော့ အခုပြောနေတဲ့ Friendly AI က AGI ဖြစ်မလား? ဒါမှမဟုတ် တီထွင်ပြီးမှပဲ “Friendly” ဖြစ်အောင် လုပ်မလား?
Friendly AI ကိုအရင်ဆုံး အဓိပ္ပါယ်ဖွင့်ဆိုချင်ပါတယ်။ သူက လူတွေအပေါ်မှာ အများအားဖြင့် ကောင်းကျိုးတွေကိုဖြစ်စေပြီး ဆိုးကျိူးတွေကို နည်းစေတဲ့ AI ဖြစ်ပါတယ်။ သူ့ကို Program လုပ်ထားတဲ့ ရည်ရွယ်ချက်ကို ပြည့်မီအောင် ကြိုးစားပါလိမ့်မယ်။ ဒါက Definition ဆိုပါတော့။
ဒီတော့ AI ရဲ့ရည်ရွယ်ချက်က ဘာပဲဖြစ်နေပါစေ… လူတွေရဲ့ ကောင်းကျိုးတွေကိုထိန်းသိမ်းပေးမယ့် စံတစ်ခုတော့ သူ့မှာရှိနေရပါမယ်။
Oxford တက္ကသိုလ်က Ethicist Nick Bostrom ကတော့ Paper Clip Maximizer နဲ့ဥပမာပေးပါတယ်။ စာရွက်ကို ညှပ်တဲ့ Paper Clip လေးတွေမြင်ဖူးကြမှာပါ။ လူတွေက ASI ကို Paper Clip တွေလုပ်ဖို့ Program ဆွဲထားတယ်ဆိုရင် ဘာပဲဖြစ်လာဖြစ်လာ Paper Clip တွေကို ရအောင် သူလုပ်တော့မှာပါ။ အဲ့လိုလုပ်လိုက်လို့ ကမ္ဘာကြီးဘယ်လို ပျက်စီးသွားမလဲ၊ လူတွေဘယ်လို သေကုန်မလဲ သူဂရုမစိုက်ပါဘူး။
Friendly AI တွေဟာ သူ့ကို Paper Clip ထုတ်ဖို့ Program ဆွဲထားပေမယ့် လူတွေ၊ ပတ်ဝန်းကျင်တွေ ထိခိုက်လာနိုင်တာကို သိရင် ဆက်မလုပ်တော့ပါဘူး။

နောက်တစ်ချက်က လူတွေလက်ခံတဲ့ အယူအဆတွေကို သူပါလက်ခံနေဖို့လိုအပ်ပါတယ်။ ဥပမာ ၁၇၀၀ ခုနှစ်လောက်မှာ AGI ကိုတီထွင်နိုင်လိုက်တယ်ဆိုရင် လူတန်းစားခွဲခြားခြင်း၊ ကျွန်တွေပိုင်ဆိုင်ခြင်း၊ ကျားမခွဲခြားဆက်ဆံခြင်းတွေကို Norm တစ်ခုအဖြစ်မှတ်ယူသွားနိုင်ပါတယ်။ ၂၁ရာစုရောက်လာတဲ့အထိ သူ့ရဲ့အယူအဆဟာ အရင်လိုပဲ မပြောင်းလဲဘဲရှိနေရင် အဆင်မပြေပါဘူး။ ဒါကြောင့် လူတွေပြောင်းလဲသလို AI တွေလည်း ပြောင်းလဲနေဖို့ လိုပါတယ်။

ဒါကိုတော့ Coherent Extrapolated Volition (CEV) လို့ခေါ်ပါတယ်။ လူတွေဘယ်လိုပြောင်းလဲတော့မလဲဆိုတာ ကြိုတင်ခန့်မှန်းနိုင်တာကို ဆိုလိုချင်တာပါ။ ဒါကြောင့် Friendly AI တွေမှာ CEV လည်းပါဖို့ လိုပါတယ်။
အခုအချိန်မှာ လူတွေရဲ့ဦးနှောက်ကို Reverse Engineering လုပ်ပြီး တီထွင်ဖို့ကြိုးစားနေကြပါတယ်။ ၂၀၀၈ ခုနှစ်တုန်းကတော့ IBM ဟာ ဒီလိုတီထွင်ဖို့ ပထမခြေလှမ်းကို လှမ်းထားပါတယ်။ သူက နို့တိုက်သတ္တဝါတစ်ကောင်ရဲ့ ဦးနှောက်ကို အခြေခံပြီး Cognitive Computer တစ်ခုကို တီထွင်ချင်တာပါ။

စခဲ့တုန်းကတော့ ကြောင်ဦးနှောက်လောက်ပဲ Process လုပ်နိုင်ပေမယ့် တဖြည်းဖြည်းနဲ့ လူဦးနှောက်လို ဖြစ်လာမယ်လို့ ဆိုပါတယ်။ (မျက်စိရှေ့မှာကြီးလာတာကို ပြောတာမဟုတ်ပါဘူး… Function ပိုကောင်းလာတာကို ပြောတာပါ)
အဲ့ဒီပစ္စည်း (Cognitive Computer) ဟာ လူတွေရဲ့ဦးနှောက်အလုပ်လုပ်နိုင်တဲ့ ပမာဏထက် ကျော်လွန်သွားလိမ့်မယ်လို့ ခန့်မှန်းထားပါတယ်။ အဲ့ဒီအခါမှာ လူရဲ့ဦးနှောက်ဟာ စကြဝဠာမှာ ဒုတိယအရှုပ်ထွေးဆုံးအရာ ဖြစ်သွားမယ်လို့ ဆိုပါတယ်။
ဒါ့အပြင် Friendly ဖြစ်တဲ့ Program ဟာလည်း သူ့ရဲ့ Chips တွေမှာ ပါမယ်လို့ဆိုတယ်။ ဒီတော့ လူတွေအတွက် ကောင်းတာတွေပဲ ဖြစ်လာဖို့များတယ် ဘာညာဆိုပြီး စိတ်ကူးယဉ်ကြတာပေါ့။ တကယ်ဖြစ်လာ၊ မလာကတော့ စောင့်ကြည့်ရမှာပါပဲ။

AGI ကို နိုင်ငံကြီးတွေတိုင်းက စိတ်ဝင်စားကြပြီး ခိုးကြောင်ခိုးဝှက်နဲ့ Research တွေလုပ်နေကြတယ်လို့ ပညာရှင်တစ်ယောက်က ပြောပါတယ်။ Google တောင်မှ ဒီအထဲမှာပါပါတယ်။ နည်းပညာကုမ္ပဏီတွေရဲ့ မိခင်နိုင်ငံတွေက ဒါကို သိသိသာသာဖြစ်ဖြစ်၊ မသိမသာဘဲ ဖြစ်ဖြစ် ငွေထောက်ပံ့ထားပါတယ်။

Friendly AI ဖြစ်မဖြစ်မသေချာပေမယ့် အခုချိန်မှာ Friendly ဖြစ်တယ်လို့ ယူဆထားတဲ့ လူမဲ့ စက်ရုပ် Drones တွေဟာ သူ့လူသူသေနတ်နဲ့ ပြန်ချိန်တယ်လို့ ဆိုပါတယ်။ အမေရိကန်တွေ အီရတ်မှာ သွားဆော်တုန်းက ဖြစ်ခဲ့တာပါ။
ဒါ့အပြင် တောင်အာဖရိကမှာလည်း AI ကထိန်းချုပ်တဲ့ လေယာဉ်ပစ်အမြှောက်က သူ့လူသူပြန်ဆော်တာကြောင့် သေခဲ့တဲ့ Case တွေရှိပါတယ်။
နောက်ပြဿနာတစ်ခုက AGI တွေက Friendly ဖြစ်တယ်ဆိုပေမယ့် အဆတစ်ထောင်လောက် ပိုတော်သွားရင် (ASI ဖြစ်သွားရင်) Friendly ဖြစ်ပါဦးမလားဆိုတာပါ။
ဒီအကြောင်းကို မေးတဲ့အခါ ပညာရှင်က “ဂန္ဒီက လူမသတ်ချင်ပါဘူး။ သူ့ကို လူသတ်ချင်စိတ်ပေါ်လာမယ့် ဆေးကိုပေးရင် သောက်မှာမဟုတ်ပါဘူး။ ဘာလို့လဲဆိုတော့ လက်ရှိဂန္ဒီဟာ လူမသတ်ချင်လို့ပါ။” ဆိုပြီးပြောပါတယ်။ ပြောချင်တာက AGI သာ Friendly ဖြစ်ရင် ASI လည်း Friendly ဖြစ်မှာပါ။

ဒါပေမယ့် ဒီအဆိုကို “လူတွေထက် အဆ ၁၀၀၀ လောက်တော်တဲ့ AI ဘယ်လိုတွေးမလဲဆိုတာ ကြိုပြောလို့မရဘူး” ဆိုပြီး ပြန်ငြင်းကြပါတယ်။
ဒါပေမယ့် ပညာရှင်ကတော့ “ASI အဆ ၁၀၀၀ ပိုတော်လာတာဟာ သူလုပ်ဆောင်နိုင်စွမ်းတွေ တိုးလာတာပါ” လို့ပြောတယ်။ အဓိပ္ပါယ်ကတော့ အဆ ၁၀၀၀ ပိုတော်လာတာဟာ ပို Effective ဖြစ်လာတာပဲရှိမယ်။ Friendly ဖြစ်ဆဲပဲလို့ ဆိုလိုပါတယ်။
ဒါကို “လူတွေဟာ Flatworm တွေနဲ့ DNA တူပါတယ်။ သူတို့ဆီကနေ Evolve ဖြစ်လာတာမှန်ပေမယ့် ခုချိန်မှာ Flatworm ကိုသတ်ဆိုရင် သတ်ကြမှာပါပဲ။ ကိုယ်ဟာ နက်ဖြန်မှာ ဒီနေ့ထက် အဆ ၁၀၀၀ လောက်ပိုတော်လာရင် ကိုယ်တန်ဖိုးထားတဲ့ Value တွေကို ဂရုစိုက်ပါဦးမလား” လို့ ပြန်ပြောကြပါတယ်။
ပညာရှင်ကတော့ “ဒါဟာ ခံစားချက်ဖြစ်သွားပါပြီ။ ဒါဟာ Anthropomorphism ပါ။ AI မှာ တန်ဖိုးထားခြင်းဆိုတဲ့ ခံစားချက်မရှိပါဘူး” လို့ပြန်ဖြေပါတယ်။

ဒီတော့ Friendly AI ဟာလည်း Debate လုပ်နေကြဆဲပါ။ ခုချိန်ထိတော့ နည်းပညာကုမ္ပဏီတွေက အစိုးရတွေရဲ့ Funding တွေနဲ့ AGI ကိုတီထွင်နိုင်အောင် စမ်းသပ်နေပုံရပါတယ်။ ၂၂ရာစုမတိုင်ခင် ဖြစ်ဖို့ ၉၀% ရှိတယ်လို့ ပြောကြတဲ့အတွက် မဝေးတော့တဲ့အနာဂတ်မှာ ဘာတွေပြောင်းလဲသွားမလဲဆိုတာ စိတ်ဝင်စားစရာပါပဲ။ ကျွန်တော်တို့ ကမ္ဘာကြီး Eutopia တစ်ခုဖြစ်သွားဖို့တော့ မျှော်လင့်မိပါတယ်။

ဖတ်မိတာရှိရင် AI အကြောင်း ဆက်ရေးသွားပါဦးမယ်။
SAGAN
Next Post, Previous Post မနှိပ်ဘဲ OUO Link ကနေ ၁ပုဒ်ချင်းဝင်ဖတ်ပြီး ကူညီပါ။
အသိအမြင်၊ အတွေးအခေါ် အသစ်တစ်ခုခုရသွားလို့ လှူဒါန်းလိုပါက Science Nuts (Facebook Page) ကို ဆက်သွယ်လှူဒါန်းနိုင်ပါတယ်။
လှူသမျှငွေအကုန်လုံးကို လိုအပ်တဲ့နေရာတွေမှာ ပြန်လည်လှူဒါန်းပေးသွားမှာပါ။