paint-brush
এজিআই-এর উত্থানে মানবতা কীভাবে বেঁচে থাকতে পারেদ্বারা@antonvoichenkovokrug
827 পড়া
827 পড়া

এজিআই-এর উত্থানে মানবতা কীভাবে বেঁচে থাকতে পারে

দ্বারা Anton Voichenko (aka Anton Vokrug)7m2024/11/14
Read on Terminal Reader
Read this story w/o Javascript

অতিদীর্ঘ; পড়তে

আমরা কি AGI এর সাথে টিকে থাকতে পারি, নাকি এই সুপার ইন্টেলিজেন্সের সাথে মুখোমুখি হওয়াই আমাদের চূড়ান্ত ভুল হবে?

People Mentioned

Mention Thumbnail

Companies Mentioned

Mention Thumbnail
Mention Thumbnail
featured image - এজিআই-এর উত্থানে মানবতা কীভাবে বেঁচে থাকতে পারে
Anton Voichenko (aka Anton Vokrug) HackerNoon profile picture

আমরা AGI তৈরির কাছাকাছি চলেছি - একটি কৃত্রিম বুদ্ধিমত্তা যা মানুষের স্তরে বা তার বাইরেও বিস্তৃত কাজগুলি সমাধান করতে সক্ষম৷ কিন্তু মানবতা কি সত্যিই এমন একটি প্রযুক্তির জন্য প্রস্তুত যা বিশ্বকে এত গভীরভাবে পরিবর্তন করতে পারে? আমরা কি AGI এর সাথে টিকে থাকতে পারি, নাকি এই সুপার ইন্টেলিজেন্সের সাথে মুখোমুখি হওয়াটাই কি আমাদের চূড়ান্ত ভুল হবে?


আসুন বিজ্ঞানীরা এবং উদ্যোক্তারা আজ যে পরিস্থিতিগুলি বিবেচনা করছেন তা অন্বেষণ করি এবং বোঝার চেষ্টা করি: AGI বাস্তবে পরিণত হলে মানবতার বেঁচে থাকার সম্ভাবনা কী?

আশাবাদী দৃষ্টিভঙ্গি (বেঁচে থাকার 60-80% সম্ভাবনা)

আশাবাদীরা বিশ্বাস করেন যে AGI কঠোর নিয়ন্ত্রণে তৈরি করা যেতে পারে এবং করা উচিত এবং সঠিক সতর্কতার সাথে, এই বুদ্ধিমত্তা মানবতার মিত্র হয়ে উঠতে পারে, যা জলবায়ু পরিবর্তন থেকে দারিদ্র্য পর্যন্ত বৈশ্বিক সমস্যাগুলি সমাধান করতে সহায়তা করে। অ্যান্ড্রু এনজির মতো উত্সাহীরা তার নিবন্ধে কৃত্রিম বুদ্ধিমত্তা এই মুহূর্তে কি করতে পারে এবং কি করতে পারে না , AGI কে বিজ্ঞান, প্রযুক্তি এবং ওষুধে সাফল্য অর্জনের উপায় হিসাবে দেখুন এবং যুক্তি দেখান যে মানবতা এটিকে নিরাপদ করতে পারে। এনজি আরও পরামর্শ দেয় যে আমরা AGI এর লক্ষ্যগুলিকে এর শারীরিক প্রভাব সীমিত করে নিয়ন্ত্রণ করতে পারি, যেমনটি আমরা সংকীর্ণ AI সিস্টেমের সাথে করি।


যাইহোক, এই আশাবাদী মতামত দুর্বলতা আছে. ছোট কিন্তু এখনও শক্তিশালী AI সিস্টেমগুলির অভিজ্ঞতা দেখায় যে লোকেরা এখনও AI এর লক্ষ্যগুলি নিয়ন্ত্রণ করার ক্ষমতার উপর সম্পূর্ণরূপে আত্মবিশ্বাসী নয়। যদি AGI তার নিজস্ব অ্যালগরিদম পরিবর্তন করতে শেখে, তাহলে এটি এমন ফলাফলের দিকে নিয়ে যেতে পারে যা ভবিষ্যদ্বাণী করা অসম্ভব। সেক্ষেত্রে, আমাদের পছন্দ কী হবে - সিস্টেমের কাছে নিঃশর্ত জমা বা নিয়ন্ত্রণের জন্য অবিরাম সংগ্রাম?

পরিমিতভাবে বাস্তবসম্মত দৃষ্টিকোণ (বেঁচে থাকার 50-60% সম্ভাবনা)

দার্শনিক নিক বোস্ট্রম, এর লেখক সুপার ইন্টেলিজেন্স: পথ, বিপদ, কৌশল , AGI এর সম্ভাবনা সম্পর্কে আরও মধ্যপন্থী দৃষ্টিভঙ্গির পক্ষে। তিনি বিশ্বাস করেন যে মানবতার বেঁচে থাকার সম্ভাবনা মূলত আন্তর্জাতিক সহযোগিতা এবং কঠোর নিরাপত্তা ব্যবস্থার উপর নির্ভর করে। বোস্ট্রম নিশ্চিত যে বিশ্বকে একটি সাধারণ লক্ষ্যের চারপাশে ঐক্যবদ্ধ হওয়ার জন্য প্রস্তুত থাকতে হবে: AGI উন্নয়ন নিয়ন্ত্রণ করা এবং সংশ্লিষ্ট ঝুঁকিগুলি হ্রাস করা।


কিন্তু বাস্তবে এই সহযোগিতা কেমন হতে পারে? কেমব্রিজ বিশ্ববিদ্যালয়ের সেন্টার ফর দ্য স্টাডি অফ এক্সিস্টেনশিয়াল রিস্ক (CSER) তর্ক করে যে শুধুমাত্র আন্তর্জাতিক মান এবং একীভূত AI গভর্নেন্স নীতির মাধ্যমে আমরা দেশগুলির মধ্যে AGI বিকাশের প্রতিযোগিতা এড়াতে পারি এবং অনিয়ন্ত্রিত উন্নয়নের সম্ভাবনা কমাতে পারি। কল্পনা করুন যে দেশগুলি একটি প্রভাবশালী অবস্থান সুরক্ষিত করার জন্য AGI তৈরি করতে প্রতিযোগিতা শুরু করে। এটি শুধুমাত্র সম্ভাবনা বাড়িয়ে দেবে যে খেলোয়াড়দের মধ্যে একজন দ্রুত ফলাফলের জন্য নিরাপত্তা ব্যবস্থা দুর্বল করতে পারে।


সমস্যা হল আমরা ইতিমধ্যে পারমাণবিক অস্ত্র প্রতিযোগিতার সময় একই রকম দৃশ্য দেখেছি। রাজনৈতিক মতপার্থক্য এবং দেশগুলির মধ্যে পারস্পরিক অবিশ্বাস AGI সুরক্ষার উপর বিশ্বব্যাপী ঐকমত্য গঠনে বাধা সৃষ্টি করতে পারে। এবং এমনকি যদি দেশগুলি সম্মত হয়, তারা কি দীর্ঘমেয়াদী পর্যবেক্ষণের জন্য প্রস্তুত থাকবে যা এই জাতীয় ব্যবস্থাগুলির প্রয়োজন হবে?

হতাশাবাদী দৃষ্টিভঙ্গি (বেঁচে থাকার 10-30% সম্ভাবনা)

ইলন মাস্কের মতো হতাশাবাদীরা বিশ্বাস করেন যে AGI তৈরির ফলে মানবতার বেঁচে থাকার সম্ভাবনা আশঙ্কাজনকভাবে কম। যত তাড়াতাড়ি 2014, কস্তুরী সতর্ক করা যে AGI মানবতার জন্য একটি "অস্তিত্বগত হুমকি" সৃষ্টি করতে পারে। ইউভাল নোয়া হারারি সুপার ইন্টেলিজেন্ট এআই সিস্টেমগুলিকে নিয়ন্ত্রণ করার চ্যালেঞ্জ সম্পর্কে উদ্বেগ প্রকাশ করেছেন যা তাদের নিজস্ব উদ্দেশ্যগুলি অনুসরণ করতে পারে, সম্ভাব্য উদাসীন বা এমনকি মানুষের স্বার্থের প্রতিকূল। তার বইয়ে হোমো ডিউস: কালকের সংক্ষিপ্ত ইতিহাস , হারারি মানবিক মূল্যবোধের সাথে বিভ্রান্তিকর লক্ষ্যে AI সিস্টেমের বিকাশের সম্ভাবনা নিয়ে আলোচনা করেছেন, যা অনিচ্ছাকৃত এবং সম্ভাব্য বিপজ্জনক ফলাফলের দিকে পরিচালিত করে।


এই দৃশ্যটি একটি "বেঁচে থাকার ফাঁদ" নির্দেশ করে, যেখানে আমাদের ভবিষ্যত পথ AGI-এর সিদ্ধান্তের উপর নির্ভর করে। হতাশাবাদীরা যুক্তি দেন যে যদি AGI একটি সুপারিন্টেলিজেন্ট স্তরে পৌঁছায় এবং স্বায়ত্তশাসিতভাবে তার লক্ষ্যগুলি অপ্টিমাইজ করতে শুরু করে, তাহলে এটি মানবতাকে অপ্রয়োজনীয় বা এমনকি একটি বাধা হিসাবে বিবেচনা করতে পারে। AGI-এর অপ্রত্যাশিত আচরণ একটি প্রধান উদ্বেগ হিসাবে রয়ে গেছে: আমরা কেবল জানি না যে এই ধরনের একটি সিস্টেম বাস্তব জগতে কীভাবে কাজ করবে, এবং আমরা সময়মতো হস্তক্ষেপ করতে পারব না যদি এটি মানবতার জন্য হুমকি সৃষ্টি করে।


ইন বৈশ্বিক ঝুঁকিতে একটি ইতিবাচক এবং নেতিবাচক ফ্যাক্টর হিসাবে কৃত্রিম বুদ্ধিমত্তা , Eliezer Yudkowsky উন্নত AI বিকাশের দ্বারা সৃষ্ট সম্ভাব্য বিপদগুলি পরীক্ষা করেন। তিনি সতর্ক করেছেন যে একটি সুপার ইন্টেলিজেন্ট এআই এমন লক্ষ্যগুলি গ্রহণ করতে পারে যা মানুষের স্বার্থ থেকে বিচ্ছিন্ন হয়ে যায়, যা মানবতার জন্য অপ্রত্যাশিত এবং সম্ভাব্য বিপজ্জনক উভয় ধরনের আচরণের দিকে পরিচালিত করে। Yudkowsky জোর দিয়ে বলেন যে যদিও AI এর মানুষের প্রতি ভালবাসা বা ঘৃণার অনুভূতি নেই, তবুও এটি তার উদ্দেশ্য পূরণের জন্য সম্পদ হিসাবে ব্যবহার করতে পারে। তিনি এমন পরিস্থিতি রোধ করতে "বন্ধুত্বপূর্ণ AI" তৈরি করার সমালোচনামূলক গুরুত্বের উপর জোর দেন যেখানে AI মানবতার জন্য মারাত্মক হুমকি হতে পারে।

মানবতার বেঁচে থাকার জন্য চারটি মূল বিষয়

AGI বাস্তবে পরিণত হলে আমাদের বেঁচে থাকার সম্ভাবনাকে কী প্রভাবিত করতে পারে? AI নিরাপত্তা এবং নীতিশাস্ত্রের শীর্ষস্থানীয় বিশেষজ্ঞদের দ্বারা চিহ্নিত চারটি অপরিহার্য বিষয়ের দিকে নজর দেওয়া যাক।


  1. AGI-এর জন্য প্রস্তুতির গতি এবং গুণমান


    স্টুয়ার্ট আর্মস্ট্রং, ইন নিরাপদ কৃত্রিম সাধারণ বুদ্ধিমত্তা , জোর দেয় যে যেকোন নিরাপত্তা ব্যবস্থা অবশ্যই AGI এর সম্ভাব্য ক্ষমতার চেয়ে এগিয়ে থাকবে। তার সতর্কবাণী স্পষ্ট: যদি এজিআই কার্যকর নিয়ন্ত্রণ ছাড়াই সম্পূর্ণ স্বায়ত্তশাসনের দিকে অগ্রসর হয়, তাহলে হুমকির সৃষ্টি হলে মানবতার এটি বন্ধ করার সময় নাও থাকতে পারে। আর্মস্ট্রং যুক্তি দেন যে কার্যকর নিয়ন্ত্রণ পদ্ধতি এবং সুরক্ষা ব্যবস্থার বিকাশ কেবল পরামর্শযোগ্য নয় কিন্তু অপরিহার্য। এগুলি ছাড়া, মানবতা একটি স্বায়ত্তশাসিত AGI-এর মুখোমুখি হতে পারে যা মানব নিরাপত্তার জন্য মারাত্মক হুমকি হতে পারে।


  2. নৈতিকতা এবং লক্ষ্য নির্ধারণ


    ইন মানুষের সামঞ্জস্যপূর্ণ , স্টুয়ার্ট রাসেল একটি সমান সমালোচনামূলক প্রশ্নকে সম্বোধন করেছেন: কীভাবে আমরা একটি AGI সিস্টেমে মানবিক মূল্যবোধকে এম্বেড করতে পারি? তিনি জোর দিয়ে বলেন যে আমরা AI কে নিজের মত করে সিদ্ধান্ত নেওয়ার অনুমতি দিতে পারি না যে কী গুরুত্বপূর্ণ, কারণ AGI মানব-নির্ধারিত লক্ষ্যগুলিকে সম্পূর্ণ অনিচ্ছাকৃত উপায়ে ব্যাখ্যা করতে পারে। রাসেল যুক্তি দেন যে একটি দৃঢ় নৈতিক ভিত্তি এবং মানব স্বার্থের সুরক্ষা ছাড়া, AGI অপ্রত্যাশিতভাবে কাজ করতে পারে। পরিশেষে, এর অর্থ হল যে কোনও AGI সিস্টেম অবশ্যই এমন মূল্যবোধের উপর ভিত্তি করে হতে হবে যা কেবল প্রযুক্তিগত লক্ষ্যগুলিই নয়, মানব কল্যাণের জন্য গুরুত্বপূর্ণ মৌলিক নীতিগুলিকে প্রতিফলিত করে।


  3. গ্লোবাল কোঅপারেশন


    ইন এআই গভর্নেন্স: একটি গবেষণা এজেন্ডা , অ্যালান ড্যাফো AGI আধিপত্যের জন্য একটি প্রতিযোগিতা প্রতিরোধ করার জন্য আন্তর্জাতিক চুক্তি এবং মানগুলির গুরুত্বকে আন্ডারস্কোর করেছেন, যেখানে প্রতিটি দেশ একটি সুবিধা পেতে চাইবে৷ Dafoe দাবি করে যে শুধুমাত্র আন্তর্জাতিক মানের মাধ্যমে আমরা গতি বা প্রতিযোগিতামূলক সুবিধার জন্য কেউ নিরাপত্তার সাথে আপস করার ঝুঁকি কমাতে পারি। AGI-এর জন্য একটি দৌড়ের বিপর্যয়কর পরিণতি হতে পারে, এবং Dafoe যুক্তি দেন যে শুধুমাত্র জাতিগুলির ঐক্যবদ্ধ প্রচেষ্টাই এই দৃশ্যকে প্রতিরোধ করতে পারে, নিরাপদ মান তৈরি করতে পারে যা আমাদের ভবিষ্যতকে সুরক্ষিত করবে।


  4. নিয়ন্ত্রণ এবং বিচ্ছিন্নতা প্রযুক্তি


    নিক বোস্ট্রম, ইন সুপার ইন্টেলিজেন্স: পথ, বিপদ, কৌশল , এই ধারণাটিকে আরও এগিয়ে নিয়ে যায়, AGI এর নিয়ন্ত্রণ এবং "বক্সিং" এর প্রয়োজনীয়তার উপর জোর দিয়ে এটিকে বিশ্বের সাথে সরাসরি যোগাযোগ থেকে বিরত রাখে। বোস্ট্রম সতর্ক করে দেয় যে যদি AGI সম্পদগুলিতে অবাধ প্রবেশাধিকার পায়, তবে এর স্বায়ত্তশাসিত কর্মগুলি নিয়ন্ত্রণের বাইরে চলে যেতে পারে। তিনি বিচ্ছিন্নতা ধারণার প্রস্তাব করেন যেখানে AGI পূর্ব-নির্ধারিত সীমাবদ্ধতাগুলিকে বাইপাস করতে পারে না, কার্যকরভাবে এটি একটি নিয়ন্ত্রিত সিস্টেমের মধ্যে "বক্সিং" করে। এই বিচ্ছিন্নতা, তিনি পরামর্শ দেন, অন্য সব ব্যর্থ হলে আমাদের রক্ষা করার জন্য চূড়ান্ত বাধা হিসাবে কাজ করতে পারে।


সুতরাং, এজিআই তৈরির ধারণাটি এমন গভীর প্রশ্ন নিয়ে আসে যা মানবতা আগে কখনও সম্মুখীন হয়নি: কীভাবে আমরা এমন বুদ্ধিমত্তার সাথে বাঁচতে পারি যা চিন্তাভাবনা, অভিযোজনযোগ্যতা এবং এমনকি বেঁচে থাকার দক্ষতায় আমাদেরকে ছাড়িয়ে যেতে পারে? উত্তরটি কেবল প্রযুক্তিতেই নয়, বরং আমরা কীভাবে এই বুদ্ধিমত্তা এবং বিশ্বব্যাপী সহযোগিতা করার আমাদের ক্ষমতাকে পরিচালনা করি তার মধ্যেও রয়েছে।


আজ, আশাবাদীরা AGI কে একটি হাতিয়ার হিসেবে দেখেন যা বিশ্বের সবচেয়ে বড় চ্যালেঞ্জগুলি সমাধান করতে সাহায্য করতে পারে। তারা ওষুধ, বিজ্ঞান এবং জলবায়ু গবেষণার মতো ক্ষেত্রগুলিতে ইতিমধ্যেই মানবতাকে সহায়তা করছে এমন সংকীর্ণ AI এর উদাহরণগুলি নির্দেশ করে। কিন্তু আমাদের কি এই বিশ্বাসের উপর নির্ভর করা উচিত যে আমরা সর্বদা এই প্রযুক্তিকে নিয়ন্ত্রণে রাখব? যদি AGI সত্যিকারের স্বাধীন হয়ে ওঠে, নিজে থেকে শিখতে এবং তার লক্ষ্যগুলি পরিবর্তন করতে সক্ষম হয়, তাহলে এটি সীমানা অতিক্রম করতে পারে যা আমরা সেট করার চেষ্টা করি। সেক্ষেত্রে, যা আমরা একবার দরকারী এবং নিরাপদ হিসাবে দেখেছি তা হুমকি হয়ে উঠতে পারে।


বৈশ্বিক সহযোগিতার ধারণা, যা কিছু বিশেষজ্ঞ সমর্থন করে, অনেক চ্যালেঞ্জের সাথেও আসে। মানবতা কি এজিআই-এর জন্য একীভূত নিরাপত্তা নীতি এবং মান তৈরি করতে রাজনৈতিক ও অর্থনৈতিক পার্থক্য কাটিয়ে উঠতে পারে? ইতিহাস দেখায় যে জাতিগুলি তাদের নিরাপত্তা এবং সার্বভৌমত্বকে প্রভাবিত করে এমন বিষয়ে গভীর সহযোগিতার জন্য খুব কমই প্রতিশ্রুতিবদ্ধ। 20 শতকে পারমাণবিক অস্ত্রের বিকাশ একটি প্রধান উদাহরণ। কিন্তু AGI এর সাথে, ভুল বা বিলম্ব আরও বেশি ধ্বংসাত্মক হতে পারে কারণ এই প্রযুক্তির প্রতিটি উপায়ে মানুষের নিয়ন্ত্রণ অতিক্রম করার সম্ভাবনা রয়েছে।


এবং যদি হতাশাবাদীরা সঠিক হয়? এখানেই সবচেয়ে বড় অস্তিত্বের ঝুঁকি রয়েছে, এলন মাস্ক এবং ইউভাল নোয়া হারারির মতো লোকেদের দ্বারা উত্থাপিত একটি ভয়। কল্পনা করুন এমন একটি সিস্টেম যা সিদ্ধান্ত নেয় যে মানব জীবন একটি সমীকরণের একটি পরিবর্তনশীল, এমন কিছু যা এটি একটি "আরও যুক্তিসঙ্গত" পথের জন্য পরিবর্তন বা এমনকি নির্মূল করতে পারে। যদি এই ধরনের ব্যবস্থা বিশ্বাস করে যে এর অস্তিত্ব এবং লক্ষ্যগুলি আমাদের চেয়ে বেশি গুরুত্বপূর্ণ, তাহলে আমাদের বেঁচে থাকার সম্ভাবনা কম হবে। পরিহাসের বিষয় হল যে AGI, আমাদের সাহায্য করার জন্য এবং জটিল সমস্যা সমাধানের জন্য ডিজাইন করা হয়েছে, আমাদের অস্তিত্বের জন্য সবচেয়ে বড় হুমকি হয়ে উঠতে পারে।


মানবতার জন্য, এই পথটি একটি নতুন স্তরের দায়িত্ব এবং দূরদর্শিতা দাবি করে। আমরা কি এমন হয়ে উঠব যারা AGI তৈরির পরিণতি স্বীকার করে এবং কঠোর নিরাপত্তা ব্যবস্থা নির্ধারণ করে, সাধারণ কল্যাণের জন্য এর উন্নয়নকে নির্দেশনা দেয়? নাকি অহংকার এবং ভাগ করা নিয়মগুলি অনুসরণ করার অনিচ্ছা আমাদেরকে এমন একটি প্রযুক্তি তৈরি করতে পরিচালিত করবে যেখানে কোনও উপায় নেই? এই প্রশ্নের উত্তর দেওয়ার জন্য, আমাদের কেবল প্রযুক্তিগত অগ্রগতিই নয় বরং একটি বুদ্ধিমান ব্যবস্থার ধারণা, এর মূল্যবোধ এবং নীতিগুলি, আমাদের সমাজে এর অবস্থান এবং এর বিশ্বে আমাদের অবস্থান সম্পর্কে গভীর বোঝার প্রয়োজন।


যাই ঘটুক না কেন, AGI মানব ইতিহাসের সর্বশ্রেষ্ঠ পরীক্ষা হতে পারে। এর ফলাফলের দায়িত্ব আমাদের সকলের উপর পড়ে: বিজ্ঞানী, নীতিনির্ধারক, দার্শনিক এবং প্রতিটি নাগরিক যারা একটি নিরাপদ ভবিষ্যতের জন্য প্রচেষ্টাকে স্বীকৃতি দিতে এবং সমর্থন করার ক্ষেত্রে ভূমিকা পালন করে।