আমরা AGI তৈরির কাছাকাছি চলেছি - একটি কৃত্রিম বুদ্ধিমত্তা যা মানুষের স্তরে বা তার বাইরেও বিস্তৃত কাজগুলি সমাধান করতে সক্ষম৷ কিন্তু মানবতা কি সত্যিই এমন একটি প্রযুক্তির জন্য প্রস্তুত যা বিশ্বকে এত গভীরভাবে পরিবর্তন করতে পারে? আমরা কি AGI এর সাথে টিকে থাকতে পারি, নাকি এই সুপার ইন্টেলিজেন্সের সাথে মুখোমুখি হওয়াটাই কি আমাদের চূড়ান্ত ভুল হবে?
আসুন বিজ্ঞানীরা এবং উদ্যোক্তারা আজ যে পরিস্থিতিগুলি বিবেচনা করছেন তা অন্বেষণ করি এবং বোঝার চেষ্টা করি: AGI বাস্তবে পরিণত হলে মানবতার বেঁচে থাকার সম্ভাবনা কী?
আশাবাদীরা বিশ্বাস করেন যে AGI কঠোর নিয়ন্ত্রণে তৈরি করা যেতে পারে এবং করা উচিত এবং সঠিক সতর্কতার সাথে, এই বুদ্ধিমত্তা মানবতার মিত্র হয়ে উঠতে পারে, যা জলবায়ু পরিবর্তন থেকে দারিদ্র্য পর্যন্ত বৈশ্বিক সমস্যাগুলি সমাধান করতে সহায়তা করে। অ্যান্ড্রু এনজির মতো উত্সাহীরা তার নিবন্ধে
যাইহোক, এই আশাবাদী মতামত দুর্বলতা আছে. ছোট কিন্তু এখনও শক্তিশালী AI সিস্টেমগুলির অভিজ্ঞতা দেখায় যে লোকেরা এখনও AI এর লক্ষ্যগুলি নিয়ন্ত্রণ করার ক্ষমতার উপর সম্পূর্ণরূপে আত্মবিশ্বাসী নয়। যদি AGI তার নিজস্ব অ্যালগরিদম পরিবর্তন করতে শেখে, তাহলে এটি এমন ফলাফলের দিকে নিয়ে যেতে পারে যা ভবিষ্যদ্বাণী করা অসম্ভব। সেক্ষেত্রে, আমাদের পছন্দ কী হবে - সিস্টেমের কাছে নিঃশর্ত জমা বা নিয়ন্ত্রণের জন্য অবিরাম সংগ্রাম?
দার্শনিক নিক বোস্ট্রম, এর লেখক
কিন্তু বাস্তবে এই সহযোগিতা কেমন হতে পারে? কেমব্রিজ বিশ্ববিদ্যালয়ের সেন্টার ফর দ্য স্টাডি অফ এক্সিস্টেনশিয়াল রিস্ক (CSER)
সমস্যা হল আমরা ইতিমধ্যে পারমাণবিক অস্ত্র প্রতিযোগিতার সময় একই রকম দৃশ্য দেখেছি। রাজনৈতিক মতপার্থক্য এবং দেশগুলির মধ্যে পারস্পরিক অবিশ্বাস AGI সুরক্ষার উপর বিশ্বব্যাপী ঐকমত্য গঠনে বাধা সৃষ্টি করতে পারে। এবং এমনকি যদি দেশগুলি সম্মত হয়, তারা কি দীর্ঘমেয়াদী পর্যবেক্ষণের জন্য প্রস্তুত থাকবে যা এই জাতীয় ব্যবস্থাগুলির প্রয়োজন হবে?
ইলন মাস্কের মতো হতাশাবাদীরা বিশ্বাস করেন যে AGI তৈরির ফলে মানবতার বেঁচে থাকার সম্ভাবনা আশঙ্কাজনকভাবে কম। যত তাড়াতাড়ি 2014, কস্তুরী
এই দৃশ্যটি একটি "বেঁচে থাকার ফাঁদ" নির্দেশ করে, যেখানে আমাদের ভবিষ্যত পথ AGI-এর সিদ্ধান্তের উপর নির্ভর করে। হতাশাবাদীরা যুক্তি দেন যে যদি AGI একটি সুপারিন্টেলিজেন্ট স্তরে পৌঁছায় এবং স্বায়ত্তশাসিতভাবে তার লক্ষ্যগুলি অপ্টিমাইজ করতে শুরু করে, তাহলে এটি মানবতাকে অপ্রয়োজনীয় বা এমনকি একটি বাধা হিসাবে বিবেচনা করতে পারে। AGI-এর অপ্রত্যাশিত আচরণ একটি প্রধান উদ্বেগ হিসাবে রয়ে গেছে: আমরা কেবল জানি না যে এই ধরনের একটি সিস্টেম বাস্তব জগতে কীভাবে কাজ করবে, এবং আমরা সময়মতো হস্তক্ষেপ করতে পারব না যদি এটি মানবতার জন্য হুমকি সৃষ্টি করে।
ইন
AGI বাস্তবে পরিণত হলে আমাদের বেঁচে থাকার সম্ভাবনাকে কী প্রভাবিত করতে পারে? AI নিরাপত্তা এবং নীতিশাস্ত্রের শীর্ষস্থানীয় বিশেষজ্ঞদের দ্বারা চিহ্নিত চারটি অপরিহার্য বিষয়ের দিকে নজর দেওয়া যাক।
AGI-এর জন্য প্রস্তুতির গতি এবং গুণমান
স্টুয়ার্ট আর্মস্ট্রং, ইন
নৈতিকতা এবং লক্ষ্য নির্ধারণ
ইন
গ্লোবাল কোঅপারেশন
ইন
নিয়ন্ত্রণ এবং বিচ্ছিন্নতা প্রযুক্তি
নিক বোস্ট্রম, ইন
সুতরাং, এজিআই তৈরির ধারণাটি এমন গভীর প্রশ্ন নিয়ে আসে যা মানবতা আগে কখনও সম্মুখীন হয়নি: কীভাবে আমরা এমন বুদ্ধিমত্তার সাথে বাঁচতে পারি যা চিন্তাভাবনা, অভিযোজনযোগ্যতা এবং এমনকি বেঁচে থাকার দক্ষতায় আমাদেরকে ছাড়িয়ে যেতে পারে? উত্তরটি কেবল প্রযুক্তিতেই নয়, বরং আমরা কীভাবে এই বুদ্ধিমত্তা এবং বিশ্বব্যাপী সহযোগিতা করার আমাদের ক্ষমতাকে পরিচালনা করি তার মধ্যেও রয়েছে।
আজ, আশাবাদীরা AGI কে একটি হাতিয়ার হিসেবে দেখেন যা বিশ্বের সবচেয়ে বড় চ্যালেঞ্জগুলি সমাধান করতে সাহায্য করতে পারে। তারা ওষুধ, বিজ্ঞান এবং জলবায়ু গবেষণার মতো ক্ষেত্রগুলিতে ইতিমধ্যেই মানবতাকে সহায়তা করছে এমন সংকীর্ণ AI এর উদাহরণগুলি নির্দেশ করে। কিন্তু আমাদের কি এই বিশ্বাসের উপর নির্ভর করা উচিত যে আমরা সর্বদা এই প্রযুক্তিকে নিয়ন্ত্রণে রাখব? যদি AGI সত্যিকারের স্বাধীন হয়ে ওঠে, নিজে থেকে শিখতে এবং তার লক্ষ্যগুলি পরিবর্তন করতে সক্ষম হয়, তাহলে এটি সীমানা অতিক্রম করতে পারে যা আমরা সেট করার চেষ্টা করি। সেক্ষেত্রে, যা আমরা একবার দরকারী এবং নিরাপদ হিসাবে দেখেছি তা হুমকি হয়ে উঠতে পারে।
বৈশ্বিক সহযোগিতার ধারণা, যা কিছু বিশেষজ্ঞ সমর্থন করে, অনেক চ্যালেঞ্জের সাথেও আসে। মানবতা কি এজিআই-এর জন্য একীভূত নিরাপত্তা নীতি এবং মান তৈরি করতে রাজনৈতিক ও অর্থনৈতিক পার্থক্য কাটিয়ে উঠতে পারে? ইতিহাস দেখায় যে জাতিগুলি তাদের নিরাপত্তা এবং সার্বভৌমত্বকে প্রভাবিত করে এমন বিষয়ে গভীর সহযোগিতার জন্য খুব কমই প্রতিশ্রুতিবদ্ধ। 20 শতকে পারমাণবিক অস্ত্রের বিকাশ একটি প্রধান উদাহরণ। কিন্তু AGI এর সাথে, ভুল বা বিলম্ব আরও বেশি ধ্বংসাত্মক হতে পারে কারণ এই প্রযুক্তির প্রতিটি উপায়ে মানুষের নিয়ন্ত্রণ অতিক্রম করার সম্ভাবনা রয়েছে।
এবং যদি হতাশাবাদীরা সঠিক হয়? এখানেই সবচেয়ে বড় অস্তিত্বের ঝুঁকি রয়েছে, এলন মাস্ক এবং ইউভাল নোয়া হারারির মতো লোকেদের দ্বারা উত্থাপিত একটি ভয়। কল্পনা করুন এমন একটি সিস্টেম যা সিদ্ধান্ত নেয় যে মানব জীবন একটি সমীকরণের একটি পরিবর্তনশীল, এমন কিছু যা এটি একটি "আরও যুক্তিসঙ্গত" পথের জন্য পরিবর্তন বা এমনকি নির্মূল করতে পারে। যদি এই ধরনের ব্যবস্থা বিশ্বাস করে যে এর অস্তিত্ব এবং লক্ষ্যগুলি আমাদের চেয়ে বেশি গুরুত্বপূর্ণ, তাহলে আমাদের বেঁচে থাকার সম্ভাবনা কম হবে। পরিহাসের বিষয় হল যে AGI, আমাদের সাহায্য করার জন্য এবং জটিল সমস্যা সমাধানের জন্য ডিজাইন করা হয়েছে, আমাদের অস্তিত্বের জন্য সবচেয়ে বড় হুমকি হয়ে উঠতে পারে।
মানবতার জন্য, এই পথটি একটি নতুন স্তরের দায়িত্ব এবং দূরদর্শিতা দাবি করে। আমরা কি এমন হয়ে উঠব যারা AGI তৈরির পরিণতি স্বীকার করে এবং কঠোর নিরাপত্তা ব্যবস্থা নির্ধারণ করে, সাধারণ কল্যাণের জন্য এর উন্নয়নকে নির্দেশনা দেয়? নাকি অহংকার এবং ভাগ করা নিয়মগুলি অনুসরণ করার অনিচ্ছা আমাদেরকে এমন একটি প্রযুক্তি তৈরি করতে পরিচালিত করবে যেখানে কোনও উপায় নেই? এই প্রশ্নের উত্তর দেওয়ার জন্য, আমাদের কেবল প্রযুক্তিগত অগ্রগতিই নয় বরং একটি বুদ্ধিমান ব্যবস্থার ধারণা, এর মূল্যবোধ এবং নীতিগুলি, আমাদের সমাজে এর অবস্থান এবং এর বিশ্বে আমাদের অবস্থান সম্পর্কে গভীর বোঝার প্রয়োজন।
যাই ঘটুক না কেন, AGI মানব ইতিহাসের সর্বশ্রেষ্ঠ পরীক্ষা হতে পারে। এর ফলাফলের দায়িত্ব আমাদের সকলের উপর পড়ে: বিজ্ঞানী, নীতিনির্ধারক, দার্শনিক এবং প্রতিটি নাগরিক যারা একটি নিরাপদ ভবিষ্যতের জন্য প্রচেষ্টাকে স্বীকৃতি দিতে এবং সমর্থন করার ক্ষেত্রে ভূমিকা পালন করে।