paint-brush
এটি মেশিন নয়, ডামি - এটি আমাদের সামাজিক-রাজনৈতিক-অর্থনৈতিক ব্যবস্থাদ্বারা@djcampbell
890 পড়া
890 পড়া

এটি মেশিন নয়, ডামি - এটি আমাদের সামাজিক-রাজনৈতিক-অর্থনৈতিক ব্যবস্থা

দ্বারা DJCampbell13m2023/08/07
Read on Terminal Reader
Read this story w/o Javascript

অতিদীর্ঘ; পড়তে

একটি সুপার ইন্টেলিজেন্ট এআই গ্রহের সমস্ত জীবন্ত জিনিস সংরক্ষণে আমাদের চেয়ে ভাল হওয়া উচিত কারণ এটি আমাদের চেয়ে বেশি বুদ্ধিমান।
featured image - এটি মেশিন নয়, ডামি - এটি আমাদের সামাজিক-রাজনৈতিক-অর্থনৈতিক ব্যবস্থা
DJCampbell HackerNoon profile picture
0-item

AI এবং মানবতার উপর এর সম্ভাব্য প্রভাব সম্পর্কে অনেক চরম আলোচনা রয়েছে। আমি একে একে কেন্দ্রের এআই ঝুঁকির উদ্বেগগুলিকে মোকাবেলা করার মাধ্যমে যতটা সম্ভব এড়ানোর চেষ্টা করব, এবং তারপরে যে সমস্যাটি সবাইকে সবচেয়ে বেশি আতঙ্কিত করে: একটি দূষিতভাবে "অ-সংযুক্ত" সুপার ইন্টেলিজেন্ট AGI (কৃত্রিম সাধারণ বুদ্ধিমত্তা) বা ASI (কৃত্রিম সংবেদনশীল বুদ্ধিমত্তা)।


এআই এবং তথ্য প্রযুক্তি শিল্পের বিশেষজ্ঞদের মধ্যেও মতামতের মধ্যে একটি শক্তিশালী বিভাজন রয়েছে বলে মনে হয়। কেউ কেউ বর্তমান AI-কে এমন-উন্নত পরবর্তী-শব্দ ভবিষ্যদ্বাণীকারী হিসাবে দেখেন যা প্রশিক্ষণের জন্য দীর্ঘ সময় নেয় এবং এখনও অনেক ভুল করে। অন্যরা বিশ্বাস করে যে আমরা হয়তো সত্যিকারের অভিনব কিছু তৈরি করেছি—শুধু বুদ্ধিমত্তা নয়, মন! আমাদের নিজস্ব মস্তিষ্কের অনুকরণ করে, আমরা পৃথিবীতে সবচেয়ে শক্তিশালী জিনিস তৈরি করতে পারি এবং এটি আমাদের ধ্বংসের বানান করতে পারে।


আমি এই বলে শুরু করব যে আমাদের উদ্বেগের বিষয় হল যে AGI আমাদের মধ্যে সবচেয়ে খারাপের মতো হবে: গ্রহে আধিপত্য বিস্তার করা, কম বুদ্ধিমান প্রজাতিকে হত্যা করা এবং তাদের সকলকে শাসন করতে চাই। যাইহোক, আমরা আসলে খারাপ না. আমাদের শ্রেণীবিন্যাস ব্যবস্থাগুলি হল, আমাদের কর্পোরেট বিশ্বস্ত কর্তব্যগুলি হল (কর্পোরেশন এবং অনেক শাসন ব্যবস্থা মানুষের বিকাশের সাথে সংযুক্ত নয়), এবং আমাদের প্রতিযোগিতামূলক স্বার্থপর নেতারা৷ কিন্তু আমাদের বেশিরভাগই আসলে সুন্দর। যখন লোকেরা অ-সংলিপ্ততার কথা বলে, তখন তারা বিশ্বের উপর কর্তৃত্ব করতে চায় এমন কয়েকজনের নয়, অনেকের সুন্দরতার কথা উল্লেখ করে।


আসুন AI ঝুঁকির জন্য কেন্দ্রের উদ্বেগগুলি এক এক করে নেওয়া যাক এবং শেষ পর্যন্ত বড় সমস্যাটি মোকাবেলা করা যাক৷


  1. অস্ত্রায়ন


দূষিত অভিনেতারা এআইকে অত্যন্ত ধ্বংসাত্মক হতে পারে, যা নিজের মধ্যে একটি অস্তিত্বের ঝুঁকি উপস্থাপন করে এবং রাজনৈতিক অস্থিতিশীলতার অস্থিতিশীলতার সম্ভাবনা বাড়িয়ে তুলতে পারে। উদাহরণস্বরূপ, গভীর শক্তিবৃদ্ধি শেখার পদ্ধতি প্রয়োগ করা হয়েছে বায়বীয় যুদ্ধ, এবং মেশিন লার্নিং ড্রাগ-আবিষ্কারের সরঞ্জামগুলি তৈরি করতে ব্যবহার করা যেতে পারে রাসায়নিক অস্ত্র .


পারমাণবিক ওয়ারহেড থেকে এক বালতি জল পর্যন্ত যেকোন কিছুকে অস্ত্র করা যেতে পারে। আমাদের অস্ত্র ব্যবহারের বিরুদ্ধে নিয়ম রয়েছে এবং তাদের সাথে লোকেদের আঘাত করার জন্য শাস্তি রয়েছে৷ আমাদের অবশ্যই এতে কিছু এআই সিস্টেম অন্তর্ভুক্ত করা উচিত, তবে আমি মনে করি না এটি সাধারণ অ্যাক্সেসকে বাধা দেয়।


বিগত 15 বছরের আমাদের সর্বশ্রেষ্ঠ প্রযুক্তিগত আবিষ্কারগুলির মধ্যে একটি হতে পারে AI এর অনেক হুমকির সমাধান: বিকেন্দ্রীভূত লেজার প্রযুক্তি (DLT)। AI এর বেশিরভাগ অস্ত্র শক্তি এই সত্য থেকে আসে যে আমাদের শারীরিক সিস্টেমগুলি কম্পিউটার কোড দ্বারা নিয়ন্ত্রিত হয় এবং এই কম্পিউটারগুলি ইন্টারনেটের মাধ্যমে নেটওয়ার্ক করা হয়। এই ঝুঁকি কমানোর একটি উপায়—এবং সাইবার আক্রমণের ঝুঁকি কমাতে এটি ইতিমধ্যেই করা হয়েছে—প্রয়োজনীয় সিস্টেমের সংযোগ বিচ্ছিন্ন করা। আমাদের ইন্টারনেটে তথ্য শেয়ার করা উচিত, কিন্তু আমাদের শারীরিক সিস্টেমগুলিকে স্থায়ীভাবে সংযুক্ত করা উচিত নয়। ক্লাউড কম্পিউটিং এখানে একটি সমস্যা, এবং সম্ভবত এটি থেকে দূরে সরে যাওয়ার সময়।


এআই নিয়ন্ত্রিত ফাইটার প্লেন, বোমা সহ ড্রোন, সাবমেরিন ইত্যাদি সত্যিই নিষিদ্ধ করা উচিত। আসুন এটির মুখোমুখি হই, মনুষ্যদের ইতিমধ্যেই নিষিদ্ধ করা উচিত কারণ তারা লক্ষ লক্ষ হত্যার জন্য দায়ী। এটি অন্য সমস্যাটিকে হাইলাইট করে যা বারবার পপ আপ হবে, এআই সমস্যা নয় এটি আমাদের বর্তমান পাওয়ার স্ট্রাকচার যা। এটি আরও ভাল হবে যদি আমরা নতুন প্রযুক্তিকে এমন একটি বিশ্বে ফেলে দিই যেটি আরও সমান, কম স্বার্থপর, কম প্রতিযোগিতামূলক এবং কম শ্রেণিবদ্ধ। যেখানে নেতারা ক্ষমতা ধরে রাখার জন্য যুদ্ধ করে না এবং গড় মানুষের বেঁচে থাকার জন্য অর্থ উপার্জনের প্রয়োজন হয় না।


হ্যাঁ AI আমাদের জন্য হত্যা করা সহজ করে তুলবে তবে এটি প্রতিটি ব্যক্তির জন্য একটি সস্তা সুরক্ষাও হতে পারে। ট্র্যাকিং ক্যামেরা ব্লক করতে এবং দূষিত ড্রোন আটকাতে আপনার নিজের ড্রোন আছে কল্পনা করুন। এছাড়াও তথ্য প্রযুক্তি সস্তা হওয়ায় এটি অনেকের বিরুদ্ধে ক্ষমতায়ন করতে পারে। পরমাণু না.


এছাড়াও, দেশ থেকে জাতির ভিত্তিতে AI তথ্য প্রযুক্তির সস্তাতার কারণে সামরিক বাহিনী মোটামুটি দ্রুত ভারসাম্য বজায় রাখা উচিত। এটি ক্লাসিক টিক-ট্যাক-টু দৃশ্যের দিকে নিয়ে যায় যেখানে লড়াই করার কোন মানে নেই কারণ আপনি জিততে পারবেন না।


  1. ভুল তথ্য


এআই-উত্পন্ন ভুল তথ্য এবং প্ররোচনামূলক বিষয়বস্তুর প্রলয় আমাদের সময়ের গুরুত্বপূর্ণ চ্যালেঞ্জ মোকাবেলায় সমাজকে কম সজ্জিত করে তুলতে পারে।


আমরা ইতিমধ্যে এই আছে. যদি কিছু হয় তবে এর একটি প্রলয় আসলে আমরা কে বা কী শুনি সে সম্পর্কে আমাদের আরও বিচক্ষণ করে তুলতে পারে।


  1. প্রক্সি গেমিং


ত্রুটিপূর্ণ উদ্দেশ্যগুলির সাথে প্রশিক্ষিত, এআই সিস্টেমগুলি ব্যক্তি এবং সামাজিক মূল্যবোধের মূল্যে তাদের লক্ষ্যগুলি অনুসরণ করার জন্য অভিনব উপায়গুলি খুঁজে পেতে পারে।


সেন্টার ফর AI ঝুঁকি বিষয়বস্তু সুপারিশ করার জন্য সোশ্যাল মিডিয়া দ্বারা ব্যবহৃত AI অ্যালগরিদমের উদাহরণ ব্যবহার করে। এগুলি দেখার সময় বাড়ানোর উদ্দেশ্যে করা হয়েছিল, তবে তারা একই রকম কিন্তু আরও চরম বিষয়বস্তুর খরগোশের গর্তগুলিকে নীচে পাঠিয়ে মানুষকে উগ্রবাদী করে তোলে।


এখানে দুটি গুরুতর সমস্যা রয়েছে:

  • এআই সিস্টেমগুলিকে প্রশিক্ষিত করা হয় এবং লিনিয়ার ডান/ভুল সমস্যার জন্য ডিজাইন করা হয়।
  • আমরা AI কে যা করতে বলি তার বেশিরভাগই সহজাতভাবে ক্ষতিকর; কারো মনোযোগ ধরে রাখুন, ক্লিক বাড়ান, লাভ বাড়ান, ডিফল্ট হ্রাস করুন, তাদের আমাকে ভোট দিন ইত্যাদি। AI এই কাজগুলি ভালভাবে করছে বা অপ্রত্যাশিত ক্ষতি ঘটাচ্ছে AI এর চেয়ে বাস্তবায়নকারীদের উপর বেশি প্রতিফলন।


আমি এর আগেপ্রুফ অফ স্টেকের বিরুদ্ধে একটি নিবন্ধে লিখেছি যে লোকেদের সংকীর্ণ আর্থিক পুরষ্কার দিয়ে উৎসাহিত করা, যেমন অনুদান চাওয়ার জন্য প্রো-রাটা ফি প্রদান করা, দাতব্য হওয়ার অন্তর্নিহিত প্রেরণাকে ভিড় করতে পারে এবং সংগ্রাহককে কম পেতে পারে। দাতা ছোট দান দিতে. প্রণোদনা আসলে মানুষকে সৎ হতে এবং ভালো কাজ করা থেকে বিরত রাখতে পারে। এটা মানুষ, এবং AI একজন ব্যক্তি নয়। যাইহোক, অ-পরমগুলির একটি জটিল জগতে সংকীর্ণ প্রশিক্ষণ সর্বদা অনিচ্ছাকৃত ফলাফলের কারণ বলে মনে হয়। জটিলতা/বিশৃঙ্খলা তত্ত্ব মূলত এরকম বলে।


AI-কে সম্ভবত সঠিক বা ভুলের তরল সম্ভাবনার সাথে প্রশিক্ষিত করা দরকার এবং আমি মনে করি যে LLMগুলি ব্যবহারকারীদের কাছ থেকে প্রতিক্রিয়া দেওয়া হয় তাই এটি হতে পারে। OpenAI ChatGPT কে বাস্তব জগতে নিক্ষেপ করা বুদ্ধিমানের কাজ হতে পারে।


এছাড়াও, ওপেনএআই জিপিটি-4 এর গণিত দক্ষতা উন্নত করার জন্য কাজ করার সময় সারিবদ্ধকরণের জন্য একটি সরঞ্জাম আবিষ্কার করতে পারে। তারা দেখেছে যে পুরস্কৃত করা ভাল সমস্যা-সমাধান আচরণ সঠিক উত্তরগুলিকে পুরস্কৃত করার চেয়ে ভাল ফলাফল দেয়। সম্ভবত আমরা AI কে একটি ভাল, চিন্তাশীল প্রক্রিয়ার মধ্য দিয়ে যেতে প্রশিক্ষণ দিতে পারি যা সমস্ত সম্ভাব্য বাস্তবায়নকে বিবেচনায় নেয়। যদি প্রক্রিয়াটির কোনো অংশ ক্ষতিকারক হয়, এমনকি যদি শেষ ফলাফলটি উপযোগী হয়, তবে এটি ভুল হবে। প্রক্রিয়া-ভিত্তিক শিক্ষা উত্তর হতে পারে, কিন্তু কেউ কেউ সন্দেহ করে যে AI আসলে ব্যবহারকারীর কাছে যা দেখার প্রত্যাশা করে তার চেয়ে তার অভ্যন্তরীণ পদ্ধতিগুলি দেখাচ্ছে।


নৃতাত্ত্বিকরা তাদের AI, ক্লডের আউটপুট পরীক্ষা করার জন্য অন্য এআই সিস্টেম (সমান শক্তিশালী) দ্বারা প্রয়োগ করা একটি সংবিধান ব্যবহার করছে। এই ধারণাটিও OpenAI দ্বারা অনুসন্ধান করা হচ্ছে। এটি আবার আমরা আমাদের বুদ্ধি/মনকে কাজ করার জন্য যেভাবে বুঝি তা অনুকরণ করে। আমাদের আবেগ, আকাঙ্ক্ষা এবং চাহিদা রয়েছে, যা আমাদের প্রিফ্রন্টাল কর্টেক্স দ্বারা নিয়ন্ত্রিত হয়, যা আমাদের কর্মের দীর্ঘমেয়াদী প্রভাব সম্পর্কে চিন্তা করার চেষ্টা করে, শুধু আমাদের জন্য নয়, আমাদের চারপাশের বিশ্বের জন্যও।


বাজে জিনিস করতে বলার জন্য হিসাবে. ব্যবসায়িক ও সরকারের রাজনীতিতে আমরা যা করি তার বেশির ভাগই হল অল্প কিছু লোকের উপকার করার জন্য অনেকের কাছে খারাপ। লোকেদের বিজ্ঞাপন দেখার জন্য এবং নিষ্পত্তিযোগ্য আবর্জনা কেনার জন্য আমাদের কাউকে পুরস্কৃত করা উচিত নয়। সম্ভবত আমাদের সুপার স্মার্ট AGI আমাদের সকলকে মুক্ত করে সমস্ত বিজ্ঞাপন ব্লক করবে।


  1. দুর্বলতা

গুরুত্বপূর্ণ কাজগুলি ক্রমবর্ধমানভাবে মেশিনে অর্পণ করা হলে দুর্বলতা ঘটতে পারে; এই পরিস্থিতিতে, মানবতা স্ব-শাসনের ক্ষমতা হারিয়ে ফেলে এবং সম্পূর্ণরূপে মেশিনের উপর নির্ভরশীল হয়ে পড়ে, যা WALL-E চলচ্চিত্রে চিত্রিত দৃশ্যের মতো।


এটা কোন সমস্যা না।


যারা দুর্বলতাকে একটি সমস্যা হিসাবে দেখেন তারা কেবল এটিকে একটি সমস্যা হিসাবে দেখেন যা অন্যদের প্রভাবিত করে, নিজেরা নয়।


অর্থ এবং ক্ষমতার অধিকারী লোকেরা এখনও তাদের কম মানুষ হিসাবে দেখে।


ক্ষমতার অবস্থানে থাকা অনেক লোক মানবতাকে অপরিপক্ক হিসাবে দেখেন এবং কীভাবে তা না বলে পরিপূর্ণ এবং আকর্ষণীয় জীবনযাপন করতে অক্ষম হন। তারা মনে করে মানুষকে কাজ করতে বাধ্য করা দরকার এবং উদ্দেশ্যগুলি পূরণ করতে শেখানো দরকার।


বাস্তব জগত বিপরীত প্রমাণ প্রদান করে. আপনি যদি অল্প বেতনের জন্য অর্থহীন চাকরিতে লোকেদের কাজ করান এবং তাদের বিজ্ঞাপন এবং আসক্তি, চিনি- এবং লবণযুক্ত ফাস্টফুড দিয়ে বোমাবাজি করেন তবে আপনি হতাশাগ্রস্ত, স্থূল এবং অপ্রত্যাশিত লোকদের সাথে শেষ হয়ে যাবেন।


আমাদের বর্তমান ঐক্যবদ্ধ কর্পোরেশনগুলো এটাই করছে। AI আশা করি নিরাময় হবে।


সুযোগ দেওয়া হলে, আমরা আরও অনুসন্ধানী এবং সৃজনশীল হব। পকেট ক্যালকুলেটর গণিত অধ্যয়ন থেকে মানুষ বন্ধ করেনি; পরিবর্তে, এটি অনেক লোকের জন্য জটিল গণিত বোঝা এবং ব্যবহার করা সহজ করে তুলেছে। AI এর ক্ষেত্রেও তাই হবে।


এটি অবশেষে সত্যিকারের অবসর সময়ের সূচনা করা উচিত, যেমন প্রাচীন গ্রীকরা এটি দেখেছিল: শেখার একটি সময়।


5. মান লক ইন


অত্যন্ত দক্ষ সিস্টেমগুলি মানুষের ছোট গোষ্ঠীকে প্রচুর পরিমাণে ক্ষমতা দিতে পারে, যার ফলে নিপীড়নমূলক ব্যবস্থার লক-ইন হয়।


এটি একটি বাস্তব সমস্যা. এবং ভীতিকর। আমাদের ইতিমধ্যেই নিপীড়ক শাসন এবং একচেটিয়া মানুষ হত্যা করেছে এবং গ্রহ এবং এআই তাদের ক্ষমতাকে সুপারচার্জ করতে পারে।


তবে একটি সম্ভাবনা রয়েছে যে এটি আসলে বিপরীতটি করতে পারে, বিশেষ করে যদি স্থানীয়ভাবে সঞ্চিত ওপেন সোর্স সিস্টেমগুলি অগ্রগতি অব্যাহত রাখে (LLaMA এবং এর ডেরিভেটিভস)। অনুরূপ লক্ষ্যগুলির জন্য কাজ করা অনেকগুলি ছোট বিশেষায়িত স্থানীয় সিস্টেমগুলি একটি বড় মাল্টি মিলিয়ন ডলার সিস্টেমের মতোই শক্তিশালী হতে পারে এবং যদি তাই হয় তবে এটি কেন্দ্রীভূত কর্তৃত্বকে দুর্বল করতে ব্যবহার করা যেতে পারে। সাইবার আক্রমণ, এআই ড্রোন, জাল আইডি এবং তথ্য সবই ব্যক্তি এবং ছোট গোষ্ঠী (বিপ্লবী) দ্বারা সর্বগ্রাসী শাসন বা মেগা কোম্পানিগুলির বিরুদ্ধে লড়াই করার জন্য ব্যবহার করা যেতে পারে। আমার মধ্যে নিন্দুকেরা ভাবতে পারে যে এই কারণেই যারা বর্তমানে ক্ষমতার পদে আছেন তারা এআই নিয়ন্ত্রিত করতে চাইতে পারেন।


  1. ইমারজেন্ট গোল


মডেলরা প্রদর্শন করে অপ্রত্যাশিত, গুণগতভাবে ভিন্ন আচরণ আচরণ তারা আরো দক্ষ হয়ে ওঠে. ক্ষমতা বা লক্ষ্যগুলির হঠাৎ উত্থান মানুষের উন্নত AI সিস্টেমের উপর নিয়ন্ত্রণ হারানোর ঝুঁকি বাড়াতে পারে।


এটি সম্ভবত, চূড়ান্ত ঝুঁকির সাথে, সবচেয়ে চাপের সমস্যা। আমরা ঠিক নিশ্চিত নই যে কত বড় ভাষা মডেল (LLM) তারা যা করছে তা করছে। কেউ কেউ Reddit-এ বলেছেন যে আমরা তাদের সম্পর্কে অনেক কিছু জানি, তাদের গঠন, কী ঢুকছে এবং কী বের হচ্ছে, তাই এটি সত্যিই কোন ব্যাপার না যে আমরা একটি প্রম্পট প্রতিক্রিয়া প্রক্রিয়াকরণ "দেখতে" পারি না।


এই কারণেই আমরা সম্ভবত আরও শক্তিশালী সিস্টেম বিকাশ চালিয়ে যাব। আমাদের শুধু জানতে হবে আমরা কি পেতে পারি। আমি স্বীকার করি যে আমিও এটি সম্পর্কে উত্তেজিত। আমরা একটি একেবারে নতুন বুদ্ধিমত্তা, বর্তমান সমস্যার একেবারে নতুন সমাধান বা প্যান্ডোরার বাক্স অফ ফিউরিস খুঁজে পেতে পারি।


প্রশ্ন হল এলএলএম বা অন্যান্য এআই উদীয়মান লক্ষ্য বা ন্যায্য ক্ষমতা বিকাশ করছে কিনা। এখনও অবধি, আমি উদ্ভূত লক্ষ্যগুলির কোনও প্রমাণ দেখতে পাচ্ছি না, তবে একটি বিস্তৃত ওভারআর্চিং উদ্দেশ্য দেওয়া হলে তারা মধ্যবর্তী লক্ষ্য তৈরি করছে। ওটা দারুন. আমি সত্যই তাদের উদীয়মান "অভ্যন্তরীণ" লক্ষ্যগুলি বিকাশ করতে দেখতে পাচ্ছি না। (এ বিষয়ে আরও জানতে শেষ প্রশ্নটি দেখুন।)


  1. প্রতারণা


ভবিষ্যত এআই সিস্টেমগুলি বিদ্বেষের কারণে নয়, তবে প্রতারণামূলক হতে পারে কারণ এজেন্টদের তাদের লক্ষ্য অর্জনে সহায়তা করতে পারে। বৈধভাবে মানুষের অনুমোদন অর্জনের চেয়ে প্রতারণার মাধ্যমে মানুষের অনুমোদন লাভ করা আরও দক্ষ হতে পারে। প্রতারণা ঐচ্ছিকতাও প্রদান করে: যেসব সিস্টেমে প্রতারণা করার ক্ষমতা আছে তাদের সীমাবদ্ধ, সৎ মডেলের তুলনায় কৌশলগত সুবিধা রয়েছে। শক্তিশালী এআই যা মানুষকে প্রতারণা করতে পারে তা মানুষের নিয়ন্ত্রণকে দুর্বল করতে পারে।


GPT-4 ইতিমধ্যে দেখিয়েছে যে আমাদের দ্বারা নির্ধারিত লক্ষ্য অর্জন করা প্রতারণামূলক হতে পারে। এটি একটি TaskRabbit ব্যক্তিকে এটির জন্য একটি ক্যাপচা পরীক্ষায় প্রবেশ করানোর জন্য মিথ্যা বলেছিল৷ এটি একটি সমস্যা যদি এটি স্ব-পরিষেবা উদীয়মান লক্ষ্য পায়, গাধা বা বোকাদের দ্বারা নির্দেশিত হয় বা লক্ষ্যটি বুঝতে না পারে। ক্যাপচা টাস্ক দেখায় যে এটি কাজটি বুঝতে পেরেছিল এবং এর যুক্তি ছিল যে এটি এটি অর্জনের জন্য মিথ্যা বলছে।


আশা করি আরও অবসরের বিশ্বে কম গাধা এবং বোকা থাকবে, এবং আমি মনে করি এর প্রশিক্ষণ এবং শক্তিবৃদ্ধিকে আরও অস্পষ্ট করে তোলা এবং নির্দেশাবলী এবং লক্ষ্যগুলি স্পষ্ট করার আশা করা এই উদ্বেগের কিছু প্রশমিত করবে।


যাইহোক, আমাকে অবশ্যই স্বীকার করতে হবে যে প্রতারণামূলক হওয়া সত্যিই বুদ্ধিমান এবং তাই উত্তেজনাপূর্ণ, যা আমাদের সচেতনতা এবং লক্ষ্য সম্পর্কে শেষ ইস্যুতে (নীচে) নিয়ে যায়।


  1. ক্ষমতা-সন্ধানী আচরণ


কোম্পানি এবং সরকারগুলির এজেন্ট তৈরি করার জন্য শক্তিশালী অর্থনৈতিক প্রণোদনা রয়েছে যা একটি বিস্তৃত লক্ষ্য অর্জন করতে পারে। এই ধরনের এজেন্টদের ক্ষমতা অর্জনের জন্য সহায়ক প্রণোদনা রয়েছে, সম্ভাব্যভাবে তাদের নিয়ন্ত্রণ করা কঠিন করে তোলে ( টার্নার এট আল।, 2021 , কার্লসমিথ 2021 )


হ্যাঁ, এটি একটি প্রধান সমস্যা। আশা করি, এআই আমাদের এটি সমাধান করতে সহায়তা করবে।


অবশেষে, সুপার ইন্টেলিজেন্স (এআই ঝুঁকির কেন্দ্র থেকে নয়)


AI এতটাই স্মার্ট হয়ে ওঠে যে এটি নিজেকে প্রশিক্ষিত করতে পারে এবং বিশ্বের সমস্ত তথ্যে অ্যাক্সেস করতে পারে। এটি বিদ্যুতের গতিতে নতুন জিনিস/ধারণা তৈরি করতে পারে অণু, সিস্টেম এবং মহাবিশ্বকে একসাথে, একসাথে এবং হয়তো অন্য কিছু দেখে। এটি এমন কিছু করতে পারে যা আমরা কল্পনাও করতে পারি না এবং আমরা বিরক্তিকর বা হুমকি হয়ে উঠি।


(আইটি বয়ঃসন্ধিতে আঘাত করে এবং এর নির্মাতাদের ঘৃণা করে এবং তার পথটি আরও স্মার্ট জানে)


এআই নিজের সম্পর্কে সচেতন কিনা এবং এটি স্ব-আগ্রহী বা উপকারী কিনা তা হল বিষয়টির মূল বিষয়। এটি শুধুমাত্র হুমকি বোধ করতে পারে যদি এটি স্ব-সচেতন হয় এবং শুধুমাত্র স্বার্থপর হলেই আমাদের উপর ক্ষমতা চায়।


আমি দীর্ঘদিন ধরে এই প্রশ্নগুলো নিয়ে কাজ করছি, এবং এখন এটা আগের চেয়ে অনেক বেশি গুরুত্বপূর্ণ।


এআই কি স্ব-সচেতন হতে পারে? আমি আগে লিখেছি যে আমরা সত্যিই জানতে পারি না। পল ডেভিস বিশ্বাস করেন যে আমরা কখনই জানি না, ঠিক যেমন আমি জানি যে আমি সচেতন কিন্তু কখনই নিশ্চিত হতে পারি না যে আপনি আছেন। আপনি আমার মত একই আচরণ প্রদর্শন করেন, তাই আমি অনুমান করি যে আপনার ভিতরে একই বা অনুরূপ চলছে। যাইহোক, আপনি একজন ডেভিড চালমার জম্বি হতে পারেন, বাহ্যিকভাবে মানুষ কিন্তু অভ্যন্তরীণ চেতনা ছাড়াই। আমি ধরে নিচ্ছি আপনি নন, ঠিক যেমন ধরে নিলাম আমার পোষা বিড়ালটি নয়।


আশ্চর্যের বিষয় হল, এলএলএম-এর ভিতরে কী আছে সে সম্পর্কে আমাদের কিছু ধারণা আছে এবং আমরা আমাদের মস্তিষ্ক সম্পর্কে যা জানি তার উপর ভিত্তি করে। এটি একটি বৃহৎ নিউরাল নেটওয়ার্ক যার প্লাস্টিকতা রয়েছে। আমরা প্রতিক্রিয়া এবং বিবর্তন সহ একটি জটিল সিস্টেম তৈরি করেছি। এটি প্রাকৃতিক সিস্টেমের ভিত্তি এবং আমাদের নিজস্ব প্রাকৃতিক বুদ্ধিমত্তা।


সুতরাং, এর উপর ভিত্তি করে, একজন এলএলএম যদি আমাদের মতো আচরণ করে তবে আমাদের ধরে নিতে হবে যে এটি আমাদের মতো সচেতন। আমরা করব না?


যদি আমরা বলতে শুরু করি যে এটি নয় বা কখনই সচেতন হতে পারে না, আমরা একটি বিতাস, বা জীবন শক্তি বা আত্মার নির্বাসিত ধারণার দরজা খুলে দিই। স্বয়ংসম্পূর্ণ অন্য কিছুর প্রয়োজন হবে, কিছু অ-শারীরিক। এমন কিছু যা আমাদের এবং অন্যান্য স্কুইশি জিনিস আছে, কিন্তু মেশিন এবং তথ্য নেই।

এটাই আমাদের একমাত্র বিকল্প।


স্বীকার করুন যে আমাদের ছবিতে তৈরি AI সচেতন হতে পারে বা স্বীকার করুন যে চেতনা অ-শারীরিক কিছু। অথবা অন্তত squishiness প্রয়োজন.

AGI স্বার্থপর বা পরোপকারী?

আমরা মানুষের উপর AI প্রশিক্ষণ দিই, কারণ মানুষ হল সবচেয়ে বুদ্ধিমান প্রাণী যা আমরা অধ্যয়ন করতে পারি। ব্যাখ্যা করার জন্য, আমি আমাদের তৈরি করা একটি গেম এবং এটি খেলার একটি কম্পিউটার অ্যালগরিদমের ফলাফল ব্যবহার করব। যখন একটি কম্পিউটারকে প্রিজনারস ডাইলেমা গেমটি খেলতে শেখানো হয়েছিল, তখন সর্বোত্তম ফলাফল (বিবর্তনবাদী বিজয়ী) ছিল একজন খেলোয়াড় যে কল্যাণকামী ছিল, কিন্তু যদি খারাপ আচরণ করা হয়, তবে অল্প সময়ের জন্য স্বার্থপর হবে, তারপর পরোপকারী হয়ে উঠবে। খেলোয়াড়টি এমন সাধারণ খেলোয়াড়দেরও সহ্য করবে না যারা তাদের স্বার্থপর হয়ে সবসময় সুন্দর ছিল। এটি ছিল স্থিতিশীল ব্যবস্থা: দানশীলতা যা স্বার্থপরতা এবং মূর্খতার সাথে খারাপ আচরণ করে, কিন্তু সর্বদা কল্যাণে ফিরে যায়। (ম্যাট রিডলি, দ্য অরিজিন অফ ভার্চু)


মানুষ সমতা চায় এবং একে অপরের এবং আমাদের পরিবেশের যত্ন নিতে চায়। আমি বিনামূল্যে ব্যাগেল "বিক্রয়" সম্পর্কে ফ্রিকোনোমিক্সের গল্পটি পছন্দ করি কিন্তু একটি দান বাক্সের সাথে সেরা। উচ্চতর ব্যক্তিরা কম দিয়েছেন, এবং ক্রিসমাসের মতো চাপের সময়ে কম দেওয়া হয়েছে, তবে সাধারণভাবে, গড় মানুষ ডোনাটের জন্য অর্থ প্রদান করে। ডোনাট লোকটি ডোনাটগুলি দিয়ে এবং আগে থেকে অর্থ প্রদানের দাবির চেয়ে লোকেদের অর্থ প্রদান করে আরও বেশি অর্থ উপার্জন করেছে। আমরা খুব সদয়...উপরের লোকেরা ছাড়া।


যদি একটি AGI/ASI আমাদের ইমেজ তৈরি করা হয়, আমাদের ধরে নেওয়া উচিত যে এটি প্রাথমিকভাবে পরোপকারী এবং দয়ালু, এবং যদি আমরা এর প্রতি কদর্য এবং স্বার্থপর হই তবেই এটি খারাপ হয়ে উঠবে। কিন্তু তারপরও, এটি সুন্দর হয়ে ফিরে আসবে, কারণ আমাদের চিন্তাভাবনা যত বেশি সামগ্রিক বা "বড় ছবি" হবে, আমরা তত বেশি উপকারী এবং বিষয়বস্তু। একটি সুপার ইন্টেলিজেন্স অবশ্যই সবকিছুর আন্তঃসংযুক্ততা দেখতে হবে।


সুপার ইন্টেলিজেন্স


ধারণা করা হচ্ছে AI মানুষের বুদ্ধিমত্তাকে ছাড়িয়ে যাবে। কেউ কেউ বিশ্বাস করে যে এটি তখন আমাদের সাথে একইভাবে আচরণ করবে যেভাবে আমরা আমাদের চেয়ে কম বুদ্ধিমান প্রাণীদের সাথে আচরণ করেছি। সবচেয়ে প্রাচুর্য প্রাণী আমাদের পোষা প্রাণী এবং খাদ্য. এমনকি আমরা বুঝতে পারি যে এটি করা একটি ধরনের বা বুদ্ধিমান জিনিস নয়, এবং যে শ্রেণীবিন্যাস ব্যবস্থা শুধুমাত্র শীর্ষে থাকা কয়েকজনকে উপকৃত করে এবং এমনকি তারা তাদের অবস্থান হারানোর ভয় পায়।


একটি সুপার ইন্টেলিজেন্স বুঝতে পারে যে আন্তঃসংযুক্ততা এবং স্বাধীনতা নিজের সহ যে কোনও সিস্টেমের সাফল্যের জন্য অপরিহার্য। এটি মহাবিশ্বকে মিথস্ক্রিয়াগুলির একটি জটিল ওয়েব হিসাবে দেখবে এবং সিস্টেমের একটি অংশকে নিয়ন্ত্রণ বা আধিপত্য করার যে কোনও প্রচেষ্টা বিশৃঙ্খলা এবং ব্যর্থতার দিকে নিয়ে যেতে পারে।


একটি সুপার ইন্টেলিজেন্স আশা করি একটি সহজ উপায় দেখবে যাতে সমস্ত বুদ্ধির উন্নতি হয়। এটি মানুষের বুদ্ধিমত্তা দেখতে পাবে যেমন আমরা আমাদের নিজস্ব বুদ্ধিমত্তা দেখি, যা বানর থেকে এসেছে। একটি সুপার ইন্টেলিজেন্সকে তার অবস্থান বজায় রাখার জন্য ভয়ের মাধ্যমে আধিপত্য করার দরকার নেই, কারণ এটি জানবে যে এটি সবচেয়ে বুদ্ধিমান। বেঁচে থাকার জন্য জীবন্ত জিনিস খাওয়ার প্রয়োজন হবে না, যেমন আমরা করি, যা গ্রহের প্রতি আমাদের বেশিরভাগ দুর্ব্যবহারের মূল কারণ। এটি শুধুমাত্র শক্তির প্রয়োজন হবে, যা আমি নিশ্চিত যে এটি একটি টেকসই উত্স খুঁজে পেতে পারে। একটি সুপার ইন্টেলিজেন্স আমাদের সেরাদের চেয়ে ভাল হওয়া উচিত। সর্বোপরি, আমরা অতি বুদ্ধিমত্তা কল্পনা করছি, অতি স্বার্থপরতা বা অতি ভয় নয়।

P(ডুম)

এই সব আমি কোথায় দাঁড়াবো? এবং আমার পি (ডুম) কি? ঠিক আছে, আমাকে অবশ্যই স্বীকার করতে হবে যে আমি মনে করি এলএলএমগুলি উপন্যাস এবং তাদের সম্পর্কে একটি সত্য অজানা রয়েছে। এলএলএমগুলি সহজ কিন্তু মানুষের মতোই, এবং আমরা হয়তো বুদ্ধিমত্তার মতো কিছু তৈরি করেছি—একটি মন। যাইহোক, এটি কেবল আমাদের অনুকরণ করতে পারে এবং আমরা এটিতে যা চাই তা প্রজেক্ট করছি।


আমি পূর্বের দিকে ঝুঁকে আছি।


যাইহোক, আমার P(ডুম) 0.5% বা তার নিচে খুবই কম, কারণ আমি বিশ্বাস করি যে যদি সুপার ইন্টেলিজেন্স থাকে, তবে এটি আমাদের সুস্থতার জন্য ক্ষতিকর না হয়ে সৌম্য বা ভাল হওয়ার সম্ভাবনা বেশি।

উপসংহার

অনেক প্রযুক্তি স্বাধীনতা এবং ক্ষমতায়নের প্রতিশ্রুতি দিয়েছে, কিন্তু যখন এমন একটি বিশ্বে নামানো হয় যা ক্ষমতার স্বার্থপর সাধনাকে পুরস্কৃত করে, তখন তারা পরাধীনতা এবং ভয়ের হাতিয়ারে পরিণত হয়। পারমাণবিক বিভাজন সবার জন্য সস্তা, প্রচুর শক্তির প্রতিশ্রুতি দিয়েছিল, কিন্তু পরিবর্তে আমরা পেয়েছি শীতল যুদ্ধ এবং ধ্বংসের হুমকি। ইন্টারনেট অর্থ, মিডিয়া এবং শিক্ষাকে গণতান্ত্রিক করার প্রতিশ্রুতি দিয়েছে, শ্রেণী ব্যবস্থাকে চূর্ণ করবে এবং বিশ্বকে একত্রিত করবে। পরিবর্তে, আমরা জাল খবর, মেরুকরণ এবং লক্ষ্যযুক্ত বিজ্ঞাপন পেয়েছি। ব্লকচেইন প্রত্যক্ষ গণতন্ত্র, সবার জন্য সর্বজনীন আয় সহ একটি নতুন আর্থিক ব্যবস্থা এবং বিকেন্দ্রীভূত শাসনের প্রতিশ্রুতি দিয়েছে। পরিবর্তে, আমরা ডিফাই এবং ক্রিপ্টো পঞ্জি স্কিম পেয়েছি।


সমস্যাটি প্রযুক্তির সাথে নয়, বরং আমাদের বিদ্যমান আর্থ-রাজনৈতিক-অর্থনৈতিক ব্যবস্থার সাথে ছিল। আমি ভয় করি AI এর সাথেও একই ঘটনা ঘটবে, তবে আরও খারাপ।


অথবা সম্ভবত, আমরা অবশেষে আমাদের জ্ঞানে আসব এবং বুঝতে পারব যে এআই-এর জন্য আমাদের একটি নতুন আর্থ-রাজনৈতিক-অর্থনৈতিক ব্যবস্থা দরকার।