কৃত্রিম বুদ্ধিমত্তা (AI ) জীবনের অনেক ক্ষেত্রে একটি রূপান্তরকারী শক্তি হিসাবে বিকাশ অব্যাহত রেখেছে, ইতিমধ্যেই শিল্পগুলিতে বিপ্লব ঘটাতে শুরু করেছে এবং আমাদের জীবনযাত্রা ও কাজ করার পদ্ধতিকে নতুন আকার দিতে শুরু করেছে। যুদ্ধে AI-এর বিষয়টি সরকার, নীতিনির্ধারক এবং আন্তর্জাতিক সংস্থাগুলির ক্রমবর্ধমান মনোযোগের প্রয়োজন হবে। এর একটি বড় অংশ স্বায়ত্তশাসিত অস্ত্র ব্যবস্থার (AWS) উন্নয়নে উল্লেখযোগ্য অগ্রগতির কারণে, যা যুদ্ধক্ষেত্রে স্বাধীনভাবে এবং মানুষের তত্ত্বাবধান ছাড়াই কাজ করার জন্য অ্যালগরিদম ব্যবহার করে। আরও বিস্তৃতভাবে, AI এর বিভিন্ন আকারে রোবোটিক্স এবং অস্ত্রের পছন্দ থেকে শুরু করে গোয়েন্দা তথ্য সংগ্রহ এবং সিদ্ধান্ত গ্রহণের বিভিন্ন ধরণের সামরিক ক্রিয়াকলাপ বাড়ানোর সম্ভাবনা রয়েছে।
সম্ভাব্য অ্যাপ্লিকেশনের এই ধরনের বৈচিত্র্যের সাথে নৈতিক দ্বিধাগুলির একটি অনন্য সেট আসে। যুদ্ধে AI এর সুবিধাগুলি হল ক্রমবর্ধমান নির্ভুলতা, মানুষের হতাহতের সংখ্যা হ্রাস এবং এমনকি পারমাণবিক যুদ্ধের হুমকির অনুরূপ সশস্ত্র সংঘাতে প্রবেশের বিরুদ্ধে প্রতিরোধ। যাইহোক, এর অর্থ মেশিনগুলিকে ইচ্ছাকৃত জীবন-মৃত্যুর সিদ্ধান্ত নেওয়ার ক্ষমতা দেওয়া, জবাবদিহিতার লাইনগুলিকে অস্পষ্ট করা এবং সম্ভবত যুদ্ধে নৈতিকতার মৌলিক নীতিগুলির বিরুদ্ধে যাওয়া।
স্টকহোম ইন্টারন্যাশনাল পিস রিসার্চ ইনস্টিটিউটের রূপরেখা হিসাবে, AI সামরিক কৌশল এবং বাজেটের একটি গুরুত্বপূর্ণ অংশ হয়ে উঠেছে, বিস্তৃত 'অস্ত্র প্রতিযোগিতায়' অবদান রেখেছে[1]। পারমাণবিক এবং পারমাণবিক হুমকির পছন্দের সাথে মিলিত, ভূ-রাজনীতিকে তাই প্রযুক্তির অব্যাহত অস্ত্রায়নের নৈতিকতাকে প্রশ্নবিদ্ধ করতে হবে। কেউ কেউ বিশ্বাস করেন যে এই অগ্রগতিগুলি শেষ পর্যন্ত বিশ্ব রাজনীতিতে আধিপত্যশীল শূন্য-সমষ্টি চিন্তার দিকে নিয়ে যাবে। এই যুক্তি নতুন নয়; আলফ্রেড নোবেল আশা করেছিলেন ডিনামাইটের ধ্বংসাত্মক শক্তি সমস্ত যুদ্ধের অবসান ঘটাবে[2]।
AI ইতিমধ্যেই ড্রোন ঝাঁক, গাইডেড ক্ষেপণাস্ত্র এবং লজিস্টিক বিশ্লেষণের মতো যুদ্ধ প্রযুক্তিতে অন্তর্ভুক্ত হতে শুরু করেছে। স্বায়ত্তশাসিত ব্যবস্থাগুলিকে আরও দীর্ঘ সময়ের জন্য প্রতিরক্ষামূলক অস্ত্রের মধ্যে অন্তর্ভুক্ত করা হয়েছে, যেমন অ্যান্টি-ভেহিক্যাল এবং অ্যান্টিপারসোনেল মাইন। ভবিষ্যত উন্নয়নগুলি স্বায়ত্তশাসনের ক্রমবর্ধমান মাত্রার আকাঙ্খা অব্যাহত রাখবে। ইউএস এআই বট পরীক্ষা করছে যা F-16 ফাইটার জেটের একটি পরিবর্তিত সংস্করণ স্ব-উড়াতে পারে; রাশিয়া স্বায়ত্তশাসিত ট্যাঙ্ক পরীক্ষা করছে; এবং চীনও তার নিজস্ব এআই-চালিত অস্ত্র তৈরি করছে[3]।
লক্ষ্য হল যুদ্ধক্ষেত্রগুলিকে যান্ত্রিকীকরণ এবং স্বয়ংক্রিয়ভাবে চালিয়ে যাওয়ার মাধ্যমে মানুষের জীবন রক্ষা করা। নিউক্লিয়ার থ্রেট ইনিশিয়েটিভের সিনিয়র উপদেষ্টা ডগলাস শ বলেন, "আমি সহজেই এমন একটি ভবিষ্যৎ কল্পনা করতে পারি যেখানে সশস্ত্র বাহিনীতে ড্রোনের সংখ্যা অনেক বেশি[3]।" সুতরাং, সৈন্যদের মাটিতে মোতায়েন করার পরিবর্তে আমরা তাদের বিমানে রেখে এবং ক্ষেপণাস্ত্র দিয়ে তাদের জীবন রক্ষা করেছি। এখন AI এর সাথে, সামরিক বাহিনী তার বাহিনী থেকে আরও বেশি মানুষের জীবন বাঁচানোর আশা করছে।
এই পর্যন্ত মহান শোনাচ্ছে. ড্রোনকে সরাসরি AI ব্যবহার করে জীবন বাঁচান। ক্ষেপণাস্ত্র চালু করতে AI ব্যবহার করে জীবন বাঁচান। যুদ্ধের এই প্রযুক্তিগত লাফ এবং অতীতের উদ্ভাবনের মধ্যে পার্থক্য হল সিদ্ধান্ত গ্রহণে মানুষের ইনপুটের অভাব। AWS এবং প্রাণঘাতী স্বায়ত্তশাসিত অস্ত্র ব্যবস্থা (LAWS), আমরা একজন মানুষকে হত্যা করার ক্ষমতা এমন একটি অ্যালগরিদমের হাতে তুলে দিচ্ছি যার কোনো স্বজ্ঞাত মানবতা নেই।
এখানে বেশ কিছু নৈতিক, নৈতিক এবং আইনি সমস্যা দেখা দেয়।
সেই কর্মকাণ্ডের অপর প্রান্তে অন্য মানুষকে না রেখে যুদ্ধে মানুষের জীবন নেওয়া কি ন্যায়সঙ্গত? একটি LAWS-এ একটি অ্যালগরিদমের প্রোগ্রামার কি একজন ফাইটার পাইলট হিসাবে তাদের দেশের প্রতিনিধিত্ব করার জন্য একই দায়িত্ব এবং/অথবা শত্রুর জীবন গ্রহণে অবদান রাখার একই অধিকার?
স্বায়ত্তশাসিত যানবাহনগুলির আশেপাশের নৈতিক দ্বিধাগুলির মতো, এআই-চালিত অ্যালগরিদমগুলিতে জীবন-মৃত্যুর সিদ্ধান্ত অর্পণ করা কি নৈতিকভাবে ন্যায়সঙ্গত? প্রযুক্তিগত দৃষ্টিকোণ থেকে, এটি AWS-এর প্রোগ্রামিংয়ের স্বচ্ছতার উপর আংশিকভাবে নির্ভর করবে: এই মডেলগুলিতে প্রশিক্ষণ, ডেটাসেট ব্যবহার করা, কোডেড পছন্দ এবং পক্ষপাতের মতো ত্রুটি। এমনকি যদি আমরা নির্ভুলতা এবং স্বচ্ছতার একটি পর্যাপ্ত স্তরে পৌঁছাই, তবে কি যুদ্ধের ক্ষেত্রে AWS এবং LAWS কে নৈতিক হিসাবে বিবেচনা করা উচিত?
জাস্ট ওয়ার থিওরি, 13 শতকে সেন্ট অগাস্টিন এবং টমাস অ্যাকুইনাসকে কৃতিত্ব দেওয়া হয়[5], সশস্ত্র সংঘাতে যুদ্ধের নৈতিকতা এবং নৈতিক সিদ্ধান্ত গ্রহণের মূল্যায়ন করে। জুস অ্যাড বেলুম (যুদ্ধের ন্যায়বিচার) এবং জুস ইন বেলো (যুদ্ধের ন্যায়বিচার) জন্য নির্দেশিকা জুড়ে, সবচেয়ে উল্লেখযোগ্য বিবেচ্য বিষয়গুলি হল:
এটা যুক্তি দেওয়া যেতে পারে যে AI-চালিত অস্ত্রের ব্যবহার এবং আইন এই কনভেনশনগুলি মেনে চলার নিশ্চয়তা দেয় না।
আনুপাতিকতার ভিত্তিতে, এআই-সমর্থিত অস্ত্রগুলি আগের চেয়ে বেশি গতি, শক্তি এবং নির্ভুলতার সাথে শক্তি সরবরাহ করার ক্ষমতা রাখে। এই স্তরের শক্তি কি অগত্যা উত্থাপিত হুমকি/সামরিক উদ্দেশ্যের সাথে মিলবে, বিশেষ করে যদি কম প্রযুক্তিগতভাবে উন্নত অস্ত্র সহ একটি দেশের বিরুদ্ধে ব্যবহার করা হয়? একইভাবে, যদি একটি আইন ভুল ইন্টেল খাওয়ানো হয়, বা হ্যালুসিনেট করে এবং একটি ভুল ভবিষ্যদ্বাণী তৈরি করে? এটি অপ্রয়োজনীয় সামরিক বাহিনী গঠন এবং কার্যকর করতে পারে এবং অসামঞ্জস্যপূর্ণ কর্মকাণ্ড ঘটাতে পারে।
বৈষম্যের ক্ষেত্রে, এই প্রযুক্তিগুলি 100% সঠিক নয়। শত্রু বাহিনীকে লক্ষ্য করে ক্ষেপণাস্ত্র নিক্ষেপ করার সময়, মুখের স্বীকৃতি[6] প্রযুক্তি বেসামরিকদের যোদ্ধাদের থেকে আলাদা করতে না পারলে কী হবে? এটি বৈধ সামরিক লক্ষ্যবস্তু এবং নির্দোষ পথচারীদের মধ্যে নৈতিক পার্থক্যকে ক্ষুন্ন করবে।
জাতিসংঘের বিশেষজ্ঞদের একটি প্যানেল 2020 সালে লিবিয়ায় হাফতার অ্যাফিলিয়েটেড ফোর্সেস (HAF) [7] এর বিরুদ্ধে তুর্কি সামরিক বাহিনী দ্বারা মোতায়েন একটি LAWS - STM Kargu-2 - এর সম্ভাব্য ব্যবহারের রিপোর্ট করেছে। "অপারেটর এবং যুদ্ধাস্ত্রের মধ্যে ডেটা সংযোগের প্রয়োজন ছাড়াই লক্ষ্যবস্তুতে আক্রমণ করার জন্য প্রোগ্রাম করা হয়েছে" হিসাবে বর্ণনা করা হয়েছে [৮], ড্রোন ইউনিটগুলি অবশেষে ইলেকট্রনিক জ্যামিং দ্বারা নিরপেক্ষ করা হয়েছিল। এই দূরবর্তী বায়ু প্রযুক্তির সম্পৃক্ততা যদিও পূর্বে "একটি নিম্ন-তীব্রতা, নিম্ন-প্রযুক্তির সংঘাত যেখানে হতাহতের পরিহার এবং বল সুরক্ষা উভয় পক্ষের জন্য অগ্রাধিকার ছিল"[7] এর জন্য জোয়ার পরিবর্তন করেছে।
উল্লেখযোগ্য ক্ষয়ক্ষতি ঘটালেও, মনুষ্যবিহীন হামলার ড্রোন কোনো প্রাণহানি ঘটিয়েছে কিনা তা স্পষ্ট নয়[8]। তবুও, এটি যুদ্ধের আকাশযান এবং ড্রোনগুলির অনিয়ন্ত্রিত, মনুষ্যবিহীন ব্যবহারের সমস্যাগুলিকে হাইলাইট করে।
এইচএএফ ইউনিটগুলিকে এই ধরণের আক্রমণের বিরুদ্ধে রক্ষা করার জন্য প্রশিক্ষিত করা হয়নি, বিমান হামলা থেকে তাদের কোন সুরক্ষা ছিল না (যা ড্রোন অফলাইনে থাকা সত্ত্বেও ঘটেছিল), এবং এমনকি পশ্চাদপসরণেও LAWS দ্বারা হয়রানির শিকার হতে হয়েছিল। এটি একাই আনুপাতিকতার নীতি লঙ্ঘন করতে শুরু করে, এবং আরও বেশি করে যখন বিবেচনা করা হয় যে STM Kargu-2s সংঘর্ষের গতিশীলতা পরিবর্তন করেছে। প্রতিবেদনগুলি এতদূর পর্যন্ত যায় যে পরামর্শ দেয় যে "সংঘাতে তুরস্কের দ্বারা উন্নত সামরিক প্রযুক্তির প্রবর্তন ছিল একটি নির্ধারক উপাদান... অসম যুদ্ধে 2020 সালে পশ্চিম লিবিয়াতে এইচএএফের পরাজয়ের ফলে"[7]।
2018 সাল থেকে, জাতিসংঘের মহাসচিব আন্তোনিও গুতেরেস বজায় রেখেছেন যে আইন রাজনৈতিক এবং নৈতিক উভয়ভাবেই অগ্রহণযোগ্য[9]। শান্তির জন্য তার 2023 সালের নতুন এজেন্ডায়, গুতেরেস এটিকে 2026 সালের মধ্যে আনুষ্ঠানিকভাবে কাজ করার জন্য আহ্বান জানিয়েছেন। এর অধীনে, তিনি AWS-এর ব্যবহারের উপর সম্পূর্ণ নিষেধাজ্ঞার পরামর্শ দিয়েছেন যা মানব তদারকি ছাড়া কাজ করে এবং আন্তর্জাতিক আইন, এবং নিয়মনীতি মেনে চলে না। অন্য সব AWS.
আমরা যে নৈতিক উদ্বেগগুলি নিয়ে আলোচনা করেছি তা কাটিয়ে উঠতে সাহায্য করার জন্য এই ধরনের আন্তর্জাতিক সহযোগিতা এবং প্রবিধানের প্রয়োজন হবে৷ আপাতত, মানুষের তত্ত্বাবধান ছাড়া AWS ব্যবহার সবচেয়ে তাৎক্ষণিক সমস্যা সৃষ্টি করবে। একজন মানুষের সিদ্ধান্ত গ্রহণকারীর অভাব দায়িত্বের সমস্যা তৈরি করে। একটি চেইন অফ কমান্ড ছাড়া কে একটি AI-চালিত সিস্টেমের ত্রুটি বা সাধারণ ত্রুটির জন্য দায়ী?
অধিকন্তু, জবাবদিহিতার একটি আসন্ন অভাব হবে। বিশেষ করে ঐতিহ্যবাহী যুদ্ধে যেখানে জাস্ট ওয়ার থিওরির মতো নৈতিক নীতিগুলি সংজ্ঞায়িত করা হয়েছে, এখানে স্বায়ত্তশাসিত ব্যবস্থার দ্বারা গৃহীত পদক্ষেপের জন্য কোনও দোষী এজেন্ট থাকবে না।
অবশেষে, যখন সামরিক প্রয়োগে AI-কে ক্রমবর্ধমানভাবে গ্রহণ করার সুবিধা রয়েছে, এই প্রযুক্তিগুলি কীভাবে শেষ পর্যন্ত ব্যবহার করা হবে তা নির্ধারণ করবে এটি একটি ইউটোপিক সমাধান বা ইতিমধ্যে রাজনৈতিকভাবে অস্থিতিশীল অস্ত্র প্রতিযোগিতার প্রসার ঘটবে কিনা।
অতএব, এআই যুদ্ধে জবাবদিহিতা নিশ্চিত করার জন্য আন্তর্জাতিক, আইনগতভাবে বাধ্যতামূলক কাঠামোর চারপাশে অব্যাহত আলোচনা অদূর ভবিষ্যতে এআই নিয়ন্ত্রণের সবচেয়ে গুরুত্বপূর্ণ ক্ষেত্রগুলির মধ্যে একটি হবে।