paint-brush
আধুনিক যুদ্ধে এআই-এর নীতিশাস্ত্র: নৈতিক জবাবদিহিতার সাথে উদ্ভাবনের ভারসাম্যদ্বারা@nimit
12,710 পড়া
12,710 পড়া

আধুনিক যুদ্ধে এআই-এর নীতিশাস্ত্র: নৈতিক জবাবদিহিতার সাথে উদ্ভাবনের ভারসাম্য

দ্বারা Nimit6m2024/04/06
Read on Terminal Reader

অতিদীর্ঘ; পড়তে

এই নিবন্ধটি স্বায়ত্তশাসিত অস্ত্র ব্যবস্থার প্রভাব এবং সামরিক কৌশলগুলির উপর তাদের প্রভাব পরীক্ষা করে, যুদ্ধে AI-এর ব্যবহার দ্বারা সৃষ্ট নৈতিক দ্বিধাগুলি সম্পর্কে আলোচনা করে। এটি মেশিনে জীবন-মৃত্যুর সিদ্ধান্ত অর্পণ করার নৈতিক উদ্বেগ এবং জাস্ট ওয়ার থিওরি নীতিগুলি মেনে চলার চ্যালেঞ্জগুলির বিরুদ্ধে বর্ধিত নির্ভুলতা এবং হ্রাসকৃত মানুষের হতাহতের সুবিধাগুলিকে ওজন করে। অংশটি এআই-চালিত সামরিক অ্যাপ্লিকেশনগুলিতে নিয়ন্ত্রণ এবং জবাবদিহিতার জন্য আন্তর্জাতিক প্রচেষ্টা নিয়েও আলোচনা করে।
featured image - আধুনিক যুদ্ধে এআই-এর নীতিশাস্ত্র: নৈতিক জবাবদিহিতার সাথে উদ্ভাবনের ভারসাম্য
Nimit HackerNoon profile picture
0-item

কৃত্রিম বুদ্ধিমত্তা (AI ) জীবনের অনেক ক্ষেত্রে একটি রূপান্তরকারী শক্তি হিসাবে বিকাশ অব্যাহত রেখেছে, ইতিমধ্যেই শিল্পগুলিতে বিপ্লব ঘটাতে শুরু করেছে এবং আমাদের জীবনযাত্রা ও কাজ করার পদ্ধতিকে নতুন আকার দিতে শুরু করেছে। যুদ্ধে AI-এর বিষয়টি সরকার, নীতিনির্ধারক এবং আন্তর্জাতিক সংস্থাগুলির ক্রমবর্ধমান মনোযোগের প্রয়োজন হবে। এর একটি বড় অংশ স্বায়ত্তশাসিত অস্ত্র ব্যবস্থার (AWS) উন্নয়নে উল্লেখযোগ্য অগ্রগতির কারণে, যা যুদ্ধক্ষেত্রে স্বাধীনভাবে এবং মানুষের তত্ত্বাবধান ছাড়াই কাজ করার জন্য অ্যালগরিদম ব্যবহার করে। আরও বিস্তৃতভাবে, AI এর বিভিন্ন আকারে রোবোটিক্স এবং অস্ত্রের পছন্দ থেকে শুরু করে গোয়েন্দা তথ্য সংগ্রহ এবং সিদ্ধান্ত গ্রহণের বিভিন্ন ধরণের সামরিক ক্রিয়াকলাপ বাড়ানোর সম্ভাবনা রয়েছে।


সম্ভাব্য অ্যাপ্লিকেশনের এই ধরনের বৈচিত্র্যের সাথে নৈতিক দ্বিধাগুলির একটি অনন্য সেট আসে। যুদ্ধে AI এর সুবিধাগুলি হল ক্রমবর্ধমান নির্ভুলতা, মানুষের হতাহতের সংখ্যা হ্রাস এবং এমনকি পারমাণবিক যুদ্ধের হুমকির অনুরূপ সশস্ত্র সংঘাতে প্রবেশের বিরুদ্ধে প্রতিরোধ। যাইহোক, এর অর্থ মেশিনগুলিকে ইচ্ছাকৃত জীবন-মৃত্যুর সিদ্ধান্ত নেওয়ার ক্ষমতা দেওয়া, জবাবদিহিতার লাইনগুলিকে অস্পষ্ট করা এবং সম্ভবত যুদ্ধে নৈতিকতার মৌলিক নীতিগুলির বিরুদ্ধে যাওয়া।


ওয়ারফেয়ারে এআই-এর একটি সংক্ষিপ্ত বিবরণ

স্টকহোম ইন্টারন্যাশনাল পিস রিসার্চ ইনস্টিটিউটের রূপরেখা হিসাবে, AI সামরিক কৌশল এবং বাজেটের একটি গুরুত্বপূর্ণ অংশ হয়ে উঠেছে, বিস্তৃত 'অস্ত্র প্রতিযোগিতায়' অবদান রেখেছে[1]। পারমাণবিক এবং পারমাণবিক হুমকির পছন্দের সাথে মিলিত, ভূ-রাজনীতিকে তাই প্রযুক্তির অব্যাহত অস্ত্রায়নের নৈতিকতাকে প্রশ্নবিদ্ধ করতে হবে। কেউ কেউ বিশ্বাস করেন যে এই অগ্রগতিগুলি শেষ পর্যন্ত বিশ্ব রাজনীতিতে আধিপত্যশীল শূন্য-সমষ্টি চিন্তার দিকে নিয়ে যাবে। এই যুক্তি নতুন নয়; আলফ্রেড নোবেল আশা করেছিলেন ডিনামাইটের ধ্বংসাত্মক শক্তি সমস্ত যুদ্ধের অবসান ঘটাবে[2]।


AI ইতিমধ্যেই ড্রোন ঝাঁক, গাইডেড ক্ষেপণাস্ত্র এবং লজিস্টিক বিশ্লেষণের মতো যুদ্ধ প্রযুক্তিতে অন্তর্ভুক্ত হতে শুরু করেছে। স্বায়ত্তশাসিত ব্যবস্থাগুলিকে আরও দীর্ঘ সময়ের জন্য প্রতিরক্ষামূলক অস্ত্রের মধ্যে অন্তর্ভুক্ত করা হয়েছে, যেমন অ্যান্টি-ভেহিক্যাল এবং অ্যান্টিপারসোনেল মাইন। ভবিষ্যত উন্নয়নগুলি স্বায়ত্তশাসনের ক্রমবর্ধমান মাত্রার আকাঙ্খা অব্যাহত রাখবে। ইউএস এআই বট পরীক্ষা করছে যা F-16 ফাইটার জেটের একটি পরিবর্তিত সংস্করণ স্ব-উড়াতে পারে; রাশিয়া স্বায়ত্তশাসিত ট্যাঙ্ক পরীক্ষা করছে; এবং চীনও তার নিজস্ব এআই-চালিত অস্ত্র তৈরি করছে[3]।


লক্ষ্য হল যুদ্ধক্ষেত্রগুলিকে যান্ত্রিকীকরণ এবং স্বয়ংক্রিয়ভাবে চালিয়ে যাওয়ার মাধ্যমে মানুষের জীবন রক্ষা করা। নিউক্লিয়ার থ্রেট ইনিশিয়েটিভের সিনিয়র উপদেষ্টা ডগলাস শ বলেন, "আমি সহজেই এমন একটি ভবিষ্যৎ কল্পনা করতে পারি যেখানে সশস্ত্র বাহিনীতে ড্রোনের সংখ্যা অনেক বেশি[3]।" সুতরাং, সৈন্যদের মাটিতে মোতায়েন করার পরিবর্তে আমরা তাদের বিমানে রেখে এবং ক্ষেপণাস্ত্র দিয়ে তাদের জীবন রক্ষা করেছি। এখন AI এর সাথে, সামরিক বাহিনী তার বাহিনী থেকে আরও বেশি মানুষের জীবন বাঁচানোর আশা করছে।


যুদ্ধে এআই এর নৈতিক প্রভাব

এই পর্যন্ত মহান শোনাচ্ছে. ড্রোনকে সরাসরি AI ব্যবহার করে জীবন বাঁচান। ক্ষেপণাস্ত্র চালু করতে AI ব্যবহার করে জীবন বাঁচান। যুদ্ধের এই প্রযুক্তিগত লাফ এবং অতীতের উদ্ভাবনের মধ্যে পার্থক্য হল সিদ্ধান্ত গ্রহণে মানুষের ইনপুটের অভাব। AWS এবং প্রাণঘাতী স্বায়ত্তশাসিত অস্ত্র ব্যবস্থা (LAWS), আমরা একজন মানুষকে হত্যা করার ক্ষমতা এমন একটি অ্যালগরিদমের হাতে তুলে দিচ্ছি যার কোনো স্বজ্ঞাত মানবতা নেই।


এখানে বেশ কিছু নৈতিক, নৈতিক এবং আইনি সমস্যা দেখা দেয়।


সেই কর্মকাণ্ডের অপর প্রান্তে অন্য মানুষকে না রেখে যুদ্ধে মানুষের জীবন নেওয়া কি ন্যায়সঙ্গত? একটি LAWS-এ একটি অ্যালগরিদমের প্রোগ্রামার কি একজন ফাইটার পাইলট হিসাবে তাদের দেশের প্রতিনিধিত্ব করার জন্য একই দায়িত্ব এবং/অথবা শত্রুর জীবন গ্রহণে অবদান রাখার একই অধিকার?


স্বায়ত্তশাসিত যানবাহনগুলির আশেপাশের নৈতিক দ্বিধাগুলির মতো, এআই-চালিত অ্যালগরিদমগুলিতে জীবন-মৃত্যুর সিদ্ধান্ত অর্পণ করা কি নৈতিকভাবে ন্যায়সঙ্গত? প্রযুক্তিগত দৃষ্টিকোণ থেকে, এটি AWS-এর প্রোগ্রামিংয়ের স্বচ্ছতার উপর আংশিকভাবে নির্ভর করবে: এই মডেলগুলিতে প্রশিক্ষণ, ডেটাসেট ব্যবহার করা, কোডেড পছন্দ এবং পক্ষপাতের মতো ত্রুটি। এমনকি যদি আমরা নির্ভুলতা এবং স্বচ্ছতার একটি পর্যাপ্ত স্তরে পৌঁছাই, তবে কি যুদ্ধের ক্ষেত্রে AWS এবং LAWS কে নৈতিক হিসাবে বিবেচনা করা উচিত?


শুধু যুদ্ধ তত্ত্বের নৈতিক প্রভাব

জাস্ট ওয়ার থিওরি, 13 শতকে সেন্ট অগাস্টিন এবং টমাস অ্যাকুইনাসকে কৃতিত্ব দেওয়া হয়[5], সশস্ত্র সংঘাতে যুদ্ধের নৈতিকতা এবং নৈতিক সিদ্ধান্ত গ্রহণের মূল্যায়ন করে। জুস অ্যাড বেলুম (যুদ্ধের ন্যায়বিচার) এবং জুস ইন বেলো (যুদ্ধের ন্যায়বিচার) জন্য নির্দেশিকা জুড়ে, সবচেয়ে উল্লেখযোগ্য বিবেচ্য বিষয়গুলি হল:


  • আনুপাতিকতা: শক্তির ব্যবহার অবশ্যই অনুসৃত উদ্দেশ্যের সমানুপাতিক হতে হবে এবং প্রত্যাশিত সুবিধার তুলনায় অত্যধিক ক্ষতি বা ক্ষতির কারণ হতে হবে না।
  • বৈষম্য: অ-যোদ্ধা অনাক্রম্যতা নামেও পরিচিত, এই নীতির প্রয়োজন যে যোদ্ধারা যোদ্ধা এবং অ-যোদ্ধাদের মধ্যে পার্থক্য করতে পারে, এবং পরবর্তীদের ক্ষতি কমানোর সময় শুধুমাত্র পূর্ববর্তীকে লক্ষ্য করে।


এটা যুক্তি দেওয়া যেতে পারে যে AI-চালিত অস্ত্রের ব্যবহার এবং আইন এই কনভেনশনগুলি মেনে চলার নিশ্চয়তা দেয় না।


আনুপাতিকতার ভিত্তিতে, এআই-সমর্থিত অস্ত্রগুলি আগের চেয়ে বেশি গতি, শক্তি এবং নির্ভুলতার সাথে শক্তি সরবরাহ করার ক্ষমতা রাখে। এই স্তরের শক্তি কি অগত্যা উত্থাপিত হুমকি/সামরিক উদ্দেশ্যের সাথে মিলবে, বিশেষ করে যদি কম প্রযুক্তিগতভাবে উন্নত অস্ত্র সহ একটি দেশের বিরুদ্ধে ব্যবহার করা হয়? একইভাবে, যদি একটি আইন ভুল ইন্টেল খাওয়ানো হয়, বা হ্যালুসিনেট করে এবং একটি ভুল ভবিষ্যদ্বাণী তৈরি করে? এটি অপ্রয়োজনীয় সামরিক বাহিনী গঠন এবং কার্যকর করতে পারে এবং অসামঞ্জস্যপূর্ণ কর্মকাণ্ড ঘটাতে পারে।


বৈষম্যের ক্ষেত্রে, এই প্রযুক্তিগুলি 100% সঠিক নয়। শত্রু বাহিনীকে লক্ষ্য করে ক্ষেপণাস্ত্র নিক্ষেপ করার সময়, মুখের স্বীকৃতি[6] প্রযুক্তি বেসামরিকদের যোদ্ধাদের থেকে আলাদা করতে না পারলে কী হবে? এটি বৈধ সামরিক লক্ষ্যবস্তু এবং নির্দোষ পথচারীদের মধ্যে নৈতিক পার্থক্যকে ক্ষুন্ন করবে।


কেস স্টাডি

জাতিসংঘের বিশেষজ্ঞদের একটি প্যানেল 2020 সালে লিবিয়ায় হাফতার অ্যাফিলিয়েটেড ফোর্সেস (HAF) [7] এর বিরুদ্ধে তুর্কি সামরিক বাহিনী দ্বারা মোতায়েন একটি LAWS - STM Kargu-2 - এর সম্ভাব্য ব্যবহারের রিপোর্ট করেছে। "অপারেটর এবং যুদ্ধাস্ত্রের মধ্যে ডেটা সংযোগের প্রয়োজন ছাড়াই লক্ষ্যবস্তুতে আক্রমণ করার জন্য প্রোগ্রাম করা হয়েছে" হিসাবে বর্ণনা করা হয়েছে [৮], ড্রোন ইউনিটগুলি অবশেষে ইলেকট্রনিক জ্যামিং দ্বারা নিরপেক্ষ করা হয়েছিল। এই দূরবর্তী বায়ু প্রযুক্তির সম্পৃক্ততা যদিও পূর্বে "একটি নিম্ন-তীব্রতা, নিম্ন-প্রযুক্তির সংঘাত যেখানে হতাহতের পরিহার এবং বল সুরক্ষা উভয় পক্ষের জন্য অগ্রাধিকার ছিল"[7] এর জন্য জোয়ার পরিবর্তন করেছে।


উল্লেখযোগ্য ক্ষয়ক্ষতি ঘটালেও, মনুষ্যবিহীন হামলার ড্রোন কোনো প্রাণহানি ঘটিয়েছে কিনা তা স্পষ্ট নয়[8]। তবুও, এটি যুদ্ধের আকাশযান এবং ড্রোনগুলির অনিয়ন্ত্রিত, মনুষ্যবিহীন ব্যবহারের সমস্যাগুলিকে হাইলাইট করে।


এইচএএফ ইউনিটগুলিকে এই ধরণের আক্রমণের বিরুদ্ধে রক্ষা করার জন্য প্রশিক্ষিত করা হয়নি, বিমান হামলা থেকে তাদের কোন সুরক্ষা ছিল না (যা ড্রোন অফলাইনে থাকা সত্ত্বেও ঘটেছিল), এবং এমনকি পশ্চাদপসরণেও LAWS দ্বারা হয়রানির শিকার হতে হয়েছিল। এটি একাই আনুপাতিকতার নীতি লঙ্ঘন করতে শুরু করে, এবং আরও বেশি করে যখন বিবেচনা করা হয় যে STM Kargu-2s সংঘর্ষের গতিশীলতা পরিবর্তন করেছে। প্রতিবেদনগুলি এতদূর পর্যন্ত যায় যে পরামর্শ দেয় যে "সংঘাতে তুরস্কের দ্বারা উন্নত সামরিক প্রযুক্তির প্রবর্তন ছিল একটি নির্ধারক উপাদান... অসম যুদ্ধে 2020 সালে পশ্চিম লিবিয়াতে এইচএএফের পরাজয়ের ফলে"[7]।


সামরিক অ্যাপ্লিকেশনে এআই-এর আন্তর্জাতিক সহযোগিতা ও নিয়ন্ত্রণ

2018 সাল থেকে, জাতিসংঘের মহাসচিব আন্তোনিও গুতেরেস বজায় রেখেছেন যে আইন রাজনৈতিক এবং নৈতিক উভয়ভাবেই অগ্রহণযোগ্য[9]। শান্তির জন্য তার 2023 সালের নতুন এজেন্ডায়, গুতেরেস এটিকে 2026 সালের মধ্যে আনুষ্ঠানিকভাবে কাজ করার জন্য আহ্বান জানিয়েছেন। এর অধীনে, তিনি AWS-এর ব্যবহারের উপর সম্পূর্ণ নিষেধাজ্ঞার পরামর্শ দিয়েছেন যা মানব তদারকি ছাড়া কাজ করে এবং আন্তর্জাতিক আইন, এবং নিয়মনীতি মেনে চলে না। অন্য সব AWS.


আমরা যে নৈতিক উদ্বেগগুলি নিয়ে আলোচনা করেছি তা কাটিয়ে উঠতে সাহায্য করার জন্য এই ধরনের আন্তর্জাতিক সহযোগিতা এবং প্রবিধানের প্রয়োজন হবে৷ আপাতত, মানুষের তত্ত্বাবধান ছাড়া AWS ব্যবহার সবচেয়ে তাৎক্ষণিক সমস্যা সৃষ্টি করবে। একজন মানুষের সিদ্ধান্ত গ্রহণকারীর অভাব দায়িত্বের সমস্যা তৈরি করে। একটি চেইন অফ কমান্ড ছাড়া কে একটি AI-চালিত সিস্টেমের ত্রুটি বা সাধারণ ত্রুটির জন্য দায়ী?


অধিকন্তু, জবাবদিহিতার একটি আসন্ন অভাব হবে। বিশেষ করে ঐতিহ্যবাহী যুদ্ধে যেখানে জাস্ট ওয়ার থিওরির মতো নৈতিক নীতিগুলি সংজ্ঞায়িত করা হয়েছে, এখানে স্বায়ত্তশাসিত ব্যবস্থার দ্বারা গৃহীত পদক্ষেপের জন্য কোনও দোষী এজেন্ট থাকবে না।


অবশেষে, যখন সামরিক প্রয়োগে AI-কে ক্রমবর্ধমানভাবে গ্রহণ করার সুবিধা রয়েছে, এই প্রযুক্তিগুলি কীভাবে শেষ পর্যন্ত ব্যবহার করা হবে তা নির্ধারণ করবে এটি একটি ইউটোপিক সমাধান বা ইতিমধ্যে রাজনৈতিকভাবে অস্থিতিশীল অস্ত্র প্রতিযোগিতার প্রসার ঘটবে কিনা।


অতএব, এআই যুদ্ধে জবাবদিহিতা নিশ্চিত করার জন্য আন্তর্জাতিক, আইনগতভাবে বাধ্যতামূলক কাঠামোর চারপাশে অব্যাহত আলোচনা অদূর ভবিষ্যতে এআই নিয়ন্ত্রণের সবচেয়ে গুরুত্বপূর্ণ ক্ষেত্রগুলির মধ্যে একটি হবে।



তথ্যসূত্র

  1. অস্ত্রের উদ্ভাবন: ইইউতে কৃত্রিম বুদ্ধিমত্তা-সক্ষম নিরাপত্তা এবং প্রতিরক্ষা ম্যাপিং
  2. যুদ্ধ ও প্রযুক্তি - ফরেন পলিসি রিসার্চ ইনস্টিটিউট
  3. এআই কীভাবে যুদ্ধে বিপ্লব ঘটাবে
  4. নৈতিক এআই এবং স্বায়ত্তশাসিত যানবাহন: স্ব-ড্রাইভিং গাড়ির যুগে নৈতিক নীতিগুলিকে চ্যাম্পিয়ন করা | হ্যাকারনুন
  5. শুধু যুদ্ধ তত্ত্ব | দর্শনের ইন্টারনেট এনসাইক্লোপিডিয়া
  6. ফেসিয়াল রিকগনিশন টেকে পক্ষপাতিত্ব: ফেসিয়াল রিকগনিশন সিস্টেম কীভাবে পক্ষপাতকে স্থায়ী করতে পারে তা অন্বেষণ করুন | হ্যাকারনুন
  7. লিবিয়া, প্রাণঘাতী স্বায়ত্তশাসিত অস্ত্র সিস্টেমের ব্যবহার | যুদ্ধে আইন কিভাবে রক্ষা করে? - অনলাইন কেসবুক
  8. কারগু-২ অটোনোমাস অ্যাটাক ড্রোন: আইনি ও নৈতিক মাত্রা - লিবার ইনস্টিটিউট ওয়েস্ট পয়েন্ট
  9. প্রাণঘাতী স্বায়ত্তশাসিত অস্ত্র সিস্টেম (আইন) - ইউএনওডিএ