Friendly AI ဆိုတာ လက်တွေ့မှာဖြစ်နိုင်လား?

AI အကြောင်းရေးလာတာ ၂ပုဒ်ရှိပါပြီ။ အဲ့ဒီ ၂ပုဒ်မှာ လူတွေအနေနဲ့ AI ကိုမယှဉ်နိုင်ကြောင်း ပြောခဲ့ပါတယ်။ AI တွေရဲ့ ရည်ရွယ်ချက်ကဘာဖြစ်မလဲ၊ သူတို့ဘယ်လိုတွေးနေမလဲ၊ လူတွေအပေါ်ဆိုးဝါးတဲ့ကိစ္စတွေပဲ ဖြစ်စေမလား ဆိုတာတွေကို ရေးခဲ့ပါတယ်။

Artificial Intelligence (AI) နဲ့လူတွေ သဟဇာတဖြစ်နိုင်လား?
https://ouo.io/8MkZSqR

လူတွေဟာ AI တွေနဲ့ ယှဉ်ပြိုင်နိုင်မလား?
https://ouo.io/hlSUvy

အဲ့လိုအဖြစ်ဆိုးတွေကို ရှောင်ရှားနိုင်အောင် ပညာရှင်တွေက Friendly AI ကိုတီထွင်ကြမယ်ဆိုပြီး ပြောလာပါတယ်။ အခု ပြောမယ့်အကြောင်းတွေဟာ ပညာရှင်တစ်ယောက်ကို စာရေးဆရာတစ်ယောက်က သွားမေးထားတဲ့ အမေးအဖြေတွေပါ။ စိတ်ဝင်စားစရာ ကောင်းလို့ ရေးလိုက်ပါတယ်။

ပညာရှင်က “ကျွန်တော့ရဲ့ဖုန်းနံပါတ်ဂဏန်း ၁၀ လုံးရှိပေမယ့် ၉လုံးပဲ မှန်အောင် နှိပ်တဲ့အခါ ကျွန်တော့ဆီကို ဖုန်းဝင်လာမှာမဟုတ်ပါဘူး။ ကျွန်တော်နဲ့ ၁ဝပုံ ၉ပုံ တူတဲ့လူဆီလည်း ဖုန်းဝင်သွားမှာမဟုတ်ပါဘူး။ AI တွေကို တည်ဆောက်တဲ့အခါ ၉၀% မှန်ကန်အောင် တည်ဆောက်လိုက်လို့ ၉၀% ကောင်းတဲ့ AI တွေဖြစ်လာမှာ မဟုတ်ပါဘူး။ ၁၀၀% ဆိုးတဲ့ AI ဖြစ်သွားမှာပါ။
ကားတွေက လူကိုသတ်ချင်တာ မဟုတ်ပါဘူး။ ဒါပေမယ့် နေ့တိုင်းကားတိုက်ပြီး သေတဲ့လူတွေ အများကြီးပါပဲ။
AI တွေကလည်း လူတွေကို မသေစေချင်ပါဘူး။ ဒါပေမယ့် သူတို့လုပ်ရမယ်လို့ သတ်မှတ်ထားတဲ့ Program အရ လိုအပ်တဲ့ကုန်ကြမ်းပစ္စည်းတွေဖြစ်တဲ့ Atom တွေနဲ့ လူတွေကို တည်ဆောက်ထားပါတယ်။”

“လူတွေရဲ့ စိတ်ထဲမှာ လူကောင်းတွေဟာ Nice AI ကိုတီထွင်ပြီး လူဆိုးတွေဟာ Evil AI ကို တီထွင်မယ်လို့ ထင်ကြပါတယ်။ ဒါပေမယ့် လူကောင်းတွေက AI ကို တီထွင်လိုက်တယ်ဆိုတိုင်း Friendly AI ဖြစ်သွားတာမဟုတ်ပါဘူး။ ဒါကို တော်တော်များများက အမှတ်မှားနေကြပါတယ်။
ဒါဟာ အလွန်ခက်ခဲတဲ့ သင်္ချာပြဿနာဖြစ်တဲ့အပြင် နည်းပညာပြဿနာတစ်ခုလည်း ဖြစ်နေပါတယ်။ ကျွန်တော် တွေ့ဖူးတဲ့ ပညာရှင်တော်တော်များများက ဒါကိုပြဿနာတစ်ခုလို့ မမြင်ဘဲ Friendly AI ကိုဖြစ်နိုင်တယ်လို့ ထင်ကြပါတယ်။ ဒါပေမယ့် Friendly AI ဟာ လူတွေကို သေစေမယ့် တီထွင်မှုတစ်ခု ဖြစ်နေနိုင်ပါတယ်။”

AGI တွေကနေ ASI ဖြစ်သွားဖို့ ဘယ်လောက်ကြာမလဲ မသေချာဘူးဆိုတာ အရင်အပုဒ်တွေမှာ ရေးခဲ့ပြီးပါပြီ။
ဒီတော့ အခုပြောနေတဲ့ Friendly AI က AGI ဖြစ်မလား? ဒါမှမဟုတ် တီထွင်ပြီးမှပဲ “Friendly” ဖြစ်အောင် လုပ်မလား?

Friendly AI ကိုအရင်ဆုံး အဓိပ္ပါယ်ဖွင့်ဆိုချင်ပါတယ်။ သူက လူတွေအပေါ်မှာ အများအားဖြင့် ကောင်းကျိုးတွေကိုဖြစ်စေပြီး ဆိုးကျိူးတွေကို နည်းစေတဲ့ AI ဖြစ်ပါတယ်။ သူ့ကို Program လုပ်ထားတဲ့ ရည်ရွယ်ချက်ကို ပြည့်မီအောင် ကြိုးစားပါလိမ့်မယ်။ ဒါက Definition ဆိုပါတော့။

ဒီတော့ AI ရဲ့ရည်ရွယ်ချက်က ဘာပဲဖြစ်နေပါစေ… လူတွေရဲ့ ကောင်းကျိုးတွေကိုထိန်းသိမ်းပေးမယ့် စံတစ်ခုတော့ သူ့မှာရှိနေရပါမယ်။
Oxford တက္ကသိုလ်က Ethicist Nick Bostrom ကတော့ Paper Clip Maximizer နဲ့ဥပမာပေးပါတယ်။ စာရွက်ကို ညှပ်တဲ့ Paper Clip လေးတွေမြင်ဖူးကြမှာပါ။ လူတွေက ASI ကို Paper Clip တွေလုပ်ဖို့ Program ဆွဲထားတယ်ဆိုရင် ဘာပဲဖြစ်လာဖြစ်လာ Paper Clip တွေကို ရအောင် သူလုပ်တော့မှာပါ။ အဲ့လိုလုပ်လိုက်လို့ ကမ္ဘာကြီးဘယ်လို ပျက်စီးသွားမလဲ၊ လူတွေဘယ်လို သေကုန်မလဲ သူဂရုမစိုက်ပါဘူး။
Friendly AI တွေဟာ သူ့ကို Paper Clip ထုတ်ဖို့ Program ဆွဲထားပေမယ့် လူတွေ၊ ပတ်ဝန်းကျင်တွေ ထိခိုက်လာနိုင်တာကို သိရင် ဆက်မလုပ်တော့ပါဘူး။

နောက်တစ်ချက်က လူတွေလက်ခံတဲ့ အယူအဆတွေကို သူပါလက်ခံနေဖို့လိုအပ်ပါတယ်။ ဥပမာ ၁၇၀၀ ခုနှစ်လောက်မှာ AGI ကိုတီထွင်နိုင်လိုက်တယ်ဆိုရင် လူတန်းစားခွဲခြားခြင်း၊ ကျွန်တွေပိုင်ဆိုင်ခြင်း၊ ကျားမခွဲခြားဆက်ဆံခြင်းတွေကို Norm တစ်ခုအဖြစ်မှတ်ယူသွားနိုင်ပါတယ်။ ၂၁ရာစုရောက်လာတဲ့အထိ သူ့ရဲ့အယူအဆဟာ အရင်လိုပဲ မပြောင်းလဲဘဲရှိနေရင် အဆင်မပြေပါဘူး။ ဒါကြောင့် လူတွေပြောင်းလဲသလို AI တွေလည်း ပြောင်းလဲနေဖို့ လိုပါတယ်။

ဒါကိုတော့ Coherent Extrapolated Volition (CEV) လို့ခေါ်ပါတယ်။ လူတွေဘယ်လိုပြောင်းလဲတော့မလဲဆိုတာ ကြိုတင်ခန့်မှန်းနိုင်တာကို ဆိုလိုချင်တာပါ။ ဒါကြောင့် Friendly AI တွေမှာ CEV လည်းပါဖို့ လိုပါတယ်။

အခုအချိန်မှာ လူတွေရဲ့ဦးနှောက်ကို Reverse Engineering လုပ်ပြီး တီထွင်ဖို့ကြိုးစားနေကြပါတယ်။ ၂၀၀၈ ခုနှစ်တုန်းကတော့ IBM ဟာ ဒီလိုတီထွင်ဖို့ ပထမခြေလှမ်းကို လှမ်းထားပါတယ်။ သူက နို့တိုက်သတ္တဝါတစ်ကောင်ရဲ့ ဦးနှောက်ကို အခြေခံပြီး Cognitive Computer တစ်ခုကို တီထွင်ချင်တာပါ။

Just an illustration

စခဲ့တုန်းကတော့ ကြောင်ဦးနှောက်လောက်ပဲ Process လုပ်နိုင်ပေမယ့် တဖြည်းဖြည်းနဲ့ လူဦးနှောက်လို ဖြစ်လာမယ်လို့ ဆိုပါတယ်။ (မျက်စိရှေ့မှာကြီးလာတာကို ပြောတာမဟုတ်ပါဘူး… Function ပိုကောင်းလာတာကို ပြောတာပါ)
အဲ့ဒီပစ္စည်း (Cognitive Computer) ဟာ လူတွေရဲ့ဦးနှောက်အလုပ်လုပ်နိုင်တဲ့ ပမာဏထက် ကျော်လွန်သွားလိမ့်မယ်လို့ ခန့်မှန်းထားပါတယ်။ အဲ့ဒီအခါမှာ လူရဲ့ဦးနှောက်ဟာ စကြဝဠာမှာ ဒုတိယအရှုပ်ထွေးဆုံးအရာ ဖြစ်သွားမယ်လို့ ဆိုပါတယ်။

ဒါ့အပြင် Friendly ဖြစ်တဲ့ Program ဟာလည်း သူ့ရဲ့ Chips တွေမှာ ပါမယ်လို့ဆိုတယ်။ ဒီတော့ လူတွေအတွက် ကောင်းတာတွေပဲ ဖြစ်လာဖို့များတယ် ဘာညာဆိုပြီး စိတ်ကူးယဉ်ကြတာပေါ့။ တကယ်ဖြစ်လာ၊ မလာကတော့ စောင့်ကြည့်ရမှာပါပဲ။

AGI ကို နိုင်ငံကြီးတွေတိုင်းက စိတ်ဝင်စားကြပြီး ခိုးကြောင်ခိုးဝှက်နဲ့ Research တွေလုပ်နေကြတယ်လို့ ပညာရှင်တစ်ယောက်က ပြောပါတယ်။ Google တောင်မှ ဒီအထဲမှာပါပါတယ်။ နည်းပညာကုမ္ပဏီတွေရဲ့ မိခင်နိုင်ငံတွေက ဒါကို သိသိသာသာဖြစ်ဖြစ်၊ မသိမသာဘဲ ဖြစ်ဖြစ် ငွေထောက်ပံ့ထားပါတယ်။

Friendly AI ဖြစ်မဖြစ်မသေချာပေမယ့် အခုချိန်မှာ Friendly ဖြစ်တယ်လို့ ယူဆထားတဲ့ လူမဲ့ စက်ရုပ် Drones တွေဟာ သူ့လူသူသေနတ်နဲ့ ပြန်ချိန်တယ်လို့ ဆိုပါတယ်။ အမေရိကန်တွေ အီရတ်မှာ သွားဆော်တုန်းက ဖြစ်ခဲ့တာပါ။
ဒါ့အပြင် တောင်အာဖရိကမှာလည်း AI ကထိန်းချုပ်တဲ့ လေယာဉ်ပစ်အမြှောက်က သူ့လူသူပြန်ဆော်တာကြောင့် သေခဲ့တဲ့ Case တွေရှိပါတယ်။

နောက်ပြဿနာတစ်ခုက AGI တွေက Friendly ဖြစ်တယ်ဆိုပေမယ့် အဆတစ်ထောင်လောက် ပိုတော်သွားရင် (ASI ဖြစ်သွားရင်) Friendly ဖြစ်ပါဦးမလားဆိုတာပါ။
ဒီအကြောင်းကို မေးတဲ့အခါ ပညာရှင်က “ဂန္ဒီက လူမသတ်ချင်ပါဘူး။ သူ့ကို လူသတ်ချင်စိတ်ပေါ်လာမယ့် ဆေးကိုပေးရင် သောက်မှာမဟုတ်ပါဘူး။ ဘာလို့လဲဆိုတော့ လက်ရှိဂန္ဒီဟာ လူမသတ်ချင်လို့ပါ။” ဆိုပြီးပြောပါတယ်။ ပြောချင်တာက AGI သာ Friendly ဖြစ်ရင် ASI လည်း Friendly ဖြစ်မှာပါ။

ဒါပေမယ့် ဒီအဆိုကို “လူတွေထက် အဆ ၁၀၀၀ လောက်တော်တဲ့ AI ဘယ်လိုတွေးမလဲဆိုတာ ကြိုပြောလို့မရဘူး” ဆိုပြီး ပြန်ငြင်းကြပါတယ်။
ဒါပေမယ့် ပညာရှင်ကတော့ “ASI အဆ ၁၀၀၀ ပိုတော်လာတာဟာ သူလုပ်ဆောင်နိုင်စွမ်းတွေ တိုးလာတာပါ” လို့ပြောတယ်။ အဓိပ္ပါယ်ကတော့ အဆ ၁၀၀၀ ပိုတော်လာတာဟာ ပို Effective ဖြစ်လာတာပဲရှိမယ်။ Friendly ဖြစ်ဆဲပဲလို့ ဆိုလိုပါတယ်။

ဒါကို “လူတွေဟာ Flatworm တွေနဲ့ DNA တူပါတယ်။ သူတို့ဆီကနေ Evolve ဖြစ်လာတာမှန်ပေမယ့် ခုချိန်မှာ Flatworm ကိုသတ်ဆိုရင် သတ်ကြမှာပါပဲ။ ကိုယ်ဟာ နက်ဖြန်မှာ ဒီနေ့ထက် အဆ ၁၀၀၀ လောက်ပိုတော်လာရင် ကိုယ်တန်ဖိုးထားတဲ့ Value တွေကို ဂရုစိုက်ပါဦးမလား” လို့ ပြန်ပြောကြပါတယ်။

ပညာရှင်ကတော့ “ဒါဟာ ခံစားချက်ဖြစ်သွားပါပြီ။ ဒါဟာ Anthropomorphism ပါ။ AI မှာ တန်ဖိုးထားခြင်းဆိုတဲ့ ခံစားချက်မရှိပါဘူး” လို့ပြန်ဖြေပါတယ်။

Anthropomorphism Illustration

ဒီတော့ Friendly AI ဟာလည်း Debate လုပ်နေကြဆဲပါ။ ခုချိန်ထိတော့ နည်းပညာကုမ္ပဏီတွေက အစိုးရတွေရဲ့ Funding တွေနဲ့ AGI ကိုတီထွင်နိုင်အောင် စမ်းသပ်နေပုံရပါတယ်။ ၂၂ရာစုမတိုင်ခင် ဖြစ်ဖို့ ၉၀% ရှိတယ်လို့ ပြောကြတဲ့အတွက် မဝေးတော့တဲ့အနာဂတ်မှာ ဘာတွေပြောင်းလဲသွားမလဲဆိုတာ စိတ်ဝင်စားစရာပါပဲ။ ကျွန်တော်တို့ ကမ္ဘာကြီး Eutopia တစ်ခုဖြစ်သွားဖို့တော့ မျှော်လင့်မိပါတယ်။

ဖတ်မိတာရှိရင် AI အကြောင်း ဆက်ရေးသွားပါဦးမယ်။

SAGAN

Next Post, Previous Post မနှိပ်ဘဲ OUO Link ကနေ ၁ပုဒ်ချင်းဝင်ဖတ်ပြီး ကူညီပါ။
အသိအမြင်၊ အတွေးအခေါ် အသစ်တစ်ခုခုရသွားလို့ လှူဒါန်းလိုပါက Science Nuts (Facebook Page) ကို ဆက်သွယ်လှူဒါန်းနိုင်ပါတယ်။
လှူသမျှငွေအကုန်လုံးကို လိုအပ်တဲ့နေရာတွေမှာ ပြန်လည်လှူဒါန်းပေးသွားမှာပါ။

Leave a comment

Design a site like this with WordPress.com
Get started