কৃত্রিম বুদ্ধিমত্তা (AI) এর ভবিষ্যত এবং মানবতার উপর এর সম্ভাব্য প্রভাব নিয়ে আলোচনা করার সময় "ভয়ঙ্কর" শব্দটি প্রায়শই প্রযুক্তিবিদ এবং সরকার দ্বারা ব্যবহৃত হয়।
তারা এমন একটি ভবিষ্যতের ছবি আঁকে যেখানে AI চাকরি চুরি করেছে, এর ফলে আরও অসমতা দেখা দিয়েছে, এবং ভুল অ্যালগরিদম দিয়ে আমাদের স্কুলছাত্রীদের অন্যায়ভাবে গ্রেড করেছে।
হোয়াইট হাউসের বিজ্ঞান ও প্রযুক্তি উপদেষ্টা সংস্থা যখন একটি এআই বিল অফ রাইটস উন্মোচন করেছিল তখন বেশ কয়েক মাস আগে এআই নীতি এবং নীতিশাস্ত্রের প্রতিক্রিয়া ছিল “অবশ্য সময় সম্পর্কে”।
নথিটি রাষ্ট্রপতি বিডেনের দৃষ্টিভঙ্গি যে কীভাবে মার্কিন সরকার, প্রযুক্তি সংস্থাগুলি এবং নাগরিকদের এআই এবং এআই সেক্টরকে দায়বদ্ধ রাখতে একসাথে কাজ করা উচিত।
যদিও আমাদের অবশ্যই বিবেচনা করতে হবে এবং এআই হতে পারে সম্ভাব্য ক্ষতির জন্য পরিকল্পনা করতে হবে, কেউ কেউ যুক্তি দেন যে আলোচনা সেখানে থামানো উচিত নয়।
যেহেতু AI আরও উন্নত হয়ে উঠেছে যেখানে এটি সচেতন হতে পারে, এমনকি স্বায়ত্তশাসিতও হতে পারে, তাহলে AI-এর জন্য মানবাধিকারের সম্প্রসারণকে অন্তত বিবেচনা করার নৈতিক প্রয়োজন কী?
হয়তো এটি একটি মূর্খ ধারণা. প্রকৃতপক্ষে, এই জাতীয় প্রশ্নগুলি দর্শনের রাজ্যের অন্তর্গত, তবে ভবিষ্যতে তারা জনসাধারণের নীতির প্রশ্ন হয়ে উঠতে পারে।
সম্প্রতি, আমি কাজুও ইশিগুরোর ক্লারা অ্যান্ড দ্য সান পড়া শেষ করেছি, একজন মায়ের সম্পর্কে একটি ভবিষ্যতমূলক উপন্যাস যিনি তার অসুস্থ মেয়ে জোসির জন্য অত্যন্ত বুদ্ধিমান "কৃত্রিম বন্ধু" (AF) কিনেছেন।
বইটি ভবিষ্যতে অনেক বছর ধরে ঘটে যেখানে আমরা জানতে পারি যে AI মানুষের উপর নেতিবাচক অস্তিত্বের প্রভাব ফেলেছে। নতুন বিশ্বে, এআই-এর সাথে প্রতিদ্বন্দ্বিতা করার জন্য শিশুরা জন্মের সময় জেনেটিকালি পরিবর্তিত হয় যার ফলে তাদের মধ্যে কিছু গুরুতর, ব্যাখ্যাতীত অসুস্থতার বিকাশ ঘটায়।
ক্লারা, AF, একটি সচেতন, চিন্তাশীল সত্তা হিসেবে শেখার এবং অনুভূতি অনুভব করার ক্ষমতা বলে মনে হয়। আমার মতে, বইটির মূল থিমগুলির মধ্যে একটি হল এআই প্রোগ্রামিং ছাড়াই নিজে থেকে প্রেম করা শিখতে পারে কিনা সেই প্রশ্ন।
পুরো পাঠ্য জুড়ে, জোসির স্বাস্থ্য এবং সুস্থতার জন্য তার গভীর উদ্বেগের কারণে পাঠক ক্লারার প্রতি একটি সংযুক্তি তৈরি করে। শেষ পর্যন্ত, ক্লারা জোসিকে ভালোবাসে নাকি কেবল তার প্রোগ্রামিংয়ের উদ্দেশ্যটি বহন করছে কিনা তা নির্ধারণ করা প্রতিটি স্বতন্ত্র পাঠকের উপর নির্ভর করে। এটা নির্ণয় করা কঠিন.
জোসি একটি অলৌকিক পুনরুদ্ধার করে এবং তার জীবন যাপন করে। যাইহোক, ক্লারা বাতিল হয়ে যায় এবং অন্যান্য পরিত্যক্ত এএফ-এর সাথে একটি জাঙ্কায়ার্ডে তার ভাগ্যের জন্য অপেক্ষা করে। উপন্যাসের শেষে, আমরা ক্লারার সূর্যের দিকে তাকিয়ে থাকার একটি চিত্র উপস্থাপন করেছি, জোসির সাথে তার সময় এবং তার সাথে তার তৈরি করা সুখী স্মৃতির কথা মনে করিয়ে দেয়।
জোসির প্রতি এএফ-এর আপাত ভালবাসার কারণে ছবিটি ভুতুড়ে; ক্লারা কিশোরী মেয়েটির সাথে গভীর আগ্রহ এবং সংযোগ গড়ে তুলেছিল, মূলত জোসির আগ্রহকে তার নিজের চেয়ে এগিয়ে রেখেছিল।
পুরো উপন্যাস জুড়ে ক্লারার ব্যবহার এবং অপব্যবহার, আমি মনে করি, এআই-এর জন্য মানবাধিকার ভবিষ্যতে বিবেচনা করা দরকার কিনা তা নিয়ে দার্শনিক প্রশ্ন উত্থাপন করে, যার ফলে মানুষ হওয়ার অর্থ কী তা নিয়ে গুরুতর নৈতিক এবং দার্শনিক প্রশ্ন তৈরি হয়।
AI প্রযুক্তি যত বেশি পরিশীলিত হয়ে উঠছে, অনেক বিশেষজ্ঞ আশা করেন যে AI এর বুদ্ধিমত্তা একদিন আমাদের নিজেদের প্রতিদ্বন্দ্বী হবে। যদিও এই বিষয়ে কিছু আলোচনা আছে, রোবোটিক্সকে মানুষের সেবা করতে বাধ্য করাকে দাসত্বের একটি নতুন রূপ হিসেবে বিবেচনা করা যেতে পারে। ক্লারার মতো রোবটগুলি শেষ করার উপায় হিসাবে ব্যবহার করা যেতে পারে (উদাহরণস্বরূপ, অস্থায়ী বন্ধুত্ব) এবং বাতিল করা হতে পারে।
এই বিতর্কের বিরোধীরা যুক্তি দিতে পারে যে একজন মানব দাস এবং একটি রোবট দাসের মধ্যে পার্থক্য হল সেবা করার ইচ্ছা বা উন্মুক্ততা। এবং অন্যরা যুক্তি দিতে পারে যে AI ব্যবহার করা, অপব্যবহার করা বা বর্জন করা মানুষের এবং সমাজের ফ্যাব্রিকের উপর খুব কম প্রভাব ফেলে, কিন্তু আমরা লাইনটি কোথায় আঁকব?
অনেক দার্শনিক চিন্তা পরীক্ষা রয়েছে এবং নৈতিক দার্শনিকরা অধিকার প্রতিষ্ঠার জন্য একটি যুক্তি তৈরি করার জন্য একটি সত্তার স্বাধীন ইচ্ছা এবং/অথবা এজেন্সি আছে কিনা তা নির্ধারণ করতে ব্যবহার করেন।
অনেক বছর আগে আমি একটি দর্শনের প্রধান হিসেবে নিয়েছিলাম মনের একটি দর্শনের কথা চিন্তা করে, একটি মূল আলোচনা যা আমার মনে আছে তা হল ব্যথা অনুভব করার ক্ষমতা (শারীরিক বা মনস্তাত্ত্বিক) মানবাধিকার প্রতিষ্ঠার ভিত্তি কিনা।
প্রশ্নে থাকা সত্তা যদি শারীরিক বা মানসিক ব্যথা অনুভব করতে পারে (এবং ব্যথা থেকে নিজেকে পরিত্রাণ পেতে চায়), তাহলে চিন্তাভাবনা ছিল যে এই তথ্যগুলি নির্দিষ্ট অধিকারকে অন্তর্ভুক্ত করতে পারে। একটি সত্তার অগত্যা চেতনা (এবং বিশ্ব) অনুভব করার প্রয়োজন নেই যেভাবে একজন মানুষ অধিকার নিশ্চিত করার জন্য করে, পরিবর্তে, ভোগ করার ক্ষমতা সহজাতভাবে এই অধিকারগুলিকে ধারণ করে বা জন্ম দেয়।
এই দৃষ্টিভঙ্গিটি পশু নীতিবিদদের দ্বারা নির্ধারিত এবং এটি ছিল 18 তম ইংরেজ দার্শনিক জেরেমি বেন্থামের অবস্থান, যিনি বজায় রেখেছিলেন যে প্রাণী সম্পর্কিত গুরুত্বপূর্ণ প্রশ্নটি নয় "তারা কি যুক্তি দিতে পারে? না তারা কথা বলতে পারে? কিন্তু তারা কি কষ্ট পেতে পারে?"
অবশ্যই, পশু নির্যাতনের বিরুদ্ধে অধিকার আছে; যখন বাচ্চারা কলেজে যায় এবং পারিবারিক কুকুরের আগ্রহ কম থাকে, তখন ক্লারার মতো স্ক্র্যাপইয়ার্ডে নিয়ে যাওয়া হয় না।
প্রকৃতপক্ষে, আইন স্বীকার করে যে গৃহপালিত প্রাণীদের অবশ্যই সুরক্ষিত করতে হবে কারণ তারা কষ্ট পেতে পারে এবং তাদের অপব্যবহারের অনুমতি দেওয়া হলে সমাজের নৈতিক কাঠামো দুর্বল হয়ে যায়।
এআইকে রক্ষা করার জন্য অনুরূপ যুক্তি তৈরি করা যেতে পারে যদি এটি একদিন চিন্তা করতে, অনুভব করতে এবং কষ্ট পেতে পারে। যাইহোক, এই মুহুর্তে, AI এই মানসিক এবং শারীরিক অবস্থার কোনটি অর্জন করা থেকে অনেক দূরে এবং সম্ভবত, কিছু বিশেষজ্ঞের যুক্তি হিসাবে, কখনই হবে না।
তবুও, কিছু প্রয়োজনীয়তা পূরণ হলে আমাদের AI-তে মানবাধিকার প্রসারিত করা উচিত কিনা সে সম্পর্কে দার্শনিক প্রশ্ন একটি আকর্ষণীয়।
প্রথম জিনিসগুলি, যদিও: AI মানবতা এবং সমাজের জন্য যে ক্ষতি হতে পারে তার থেকে নিজেদেরকে রক্ষা করুন, তারপরে অন্যান্য মূল বিষয়গুলি বিবেচনা করুন। AI অদূর ভবিষ্যতের জন্য নীতিনির্ধারকদের মুখোমুখি একটি চাপের বিষয় হয়ে থাকবে, এবং কথোপকথন বিকশিত হওয়ার সাথে সাথে AI অধিকার সম্পর্কিত চিন্তাভাবনাও হওয়া উচিত।
এছাড়াও এখানে প্রকাশিত.