paint-brush
ইইউ অনিয়ন্ত্রিত এআই-এর উপর একটি স্থগিত রাখেদ্বারা@konkiewicz
2,441 পড়া
2,441 পড়া

ইইউ অনিয়ন্ত্রিত এআই-এর উপর একটি স্থগিত রাখে

দ্বারা Magdalena Konkiewicz4m2024/04/10
Read on Terminal Reader

অতিদীর্ঘ; পড়তে

ইউরোপীয় AI আইন 2024 সালের শেষে বলবৎ করা হবে। এই আইনটি AI সিস্টেমকে ঝুঁকির মাত্রা অনুসারে শ্রেণীবদ্ধ করে। উচ্চ-ঝুঁকির সিস্টেমগুলিকে স্বচ্ছতার প্রয়োজনীয়তাগুলি অনুসরণ করতে হবে। প্রশিক্ষণের তথ্যের রেকর্ড রাখার জন্য কোম্পানিগুলো দায়ী থাকবে। এটি কোম্পানিগুলিকে ডেটা গোপনীয়তাকে সম্মান করতে এবং সনাক্তযোগ্যতা উন্নত করতে বাধ্য করবে।
featured image - ইইউ অনিয়ন্ত্রিত এআই-এর উপর একটি স্থগিত রাখে
Magdalena Konkiewicz HackerNoon profile picture

বিশ্বব্যাপী প্রভাব এবং কিভাবে প্রস্তুত হতে হবে

ভূমিকা

গত বছর ধরে, ইউরোপীয় AI স্টার্টআপগুলি তাদের বিদেশী প্রতিযোগীদের সাথে পরিচিত হচ্ছে এবং জনপ্রিয় ChatGPT-এর সাথে তুলনীয় পণ্য প্রবর্তন করছে। দ্রুত অগ্রগতি এবং উন্নয়নের উপর ফোকাস করার সাথে সাথে, স্বচ্ছতা, নীতিশাস্ত্র এবং ব্যবহারকারীর প্রভাব সম্পর্কিত সমস্যাগুলি কখনও কখনও পিছনের বার্নারে রাখা হয়। যাইহোক, EU AI আইনের প্রয়োগের সাথে এটি পরিবর্তন হতে পারে যা 2024 সালের শেষের দিকে শুরু হওয়া উচিত।


দ্য ইইউ এআই আইন 2024 সালের মার্চ মাসে ইউরোপীয় পার্লামেন্ট দ্বারা অনুমোদিত ইউরোপীয় ইউনিয়নের মধ্যে বিকশিত AI এর উপর ভারী বিধি প্রবর্তন করে। যাইহোক, এর প্রভাব ইউরোপের সীমানা ছাড়িয়ে প্রসারিত, সরাসরি ইউরোপীয় AI সংস্থাগুলিকেই নয় বরং মার্কিন যুক্তরাষ্ট্রের সহ আন্তর্জাতিক সংস্থাগুলিকেও প্রভাবিত করে, যেগুলি ইইউ বাজারে তাদের পণ্য সরবরাহ করে।

কে প্রভাবিত হবে?

EU AI আইন ঝুঁকির মাত্রা অনুসারে AI সিস্টেমকে শ্রেণীবদ্ধ করে। উচ্চ-ঝুঁকি হিসাবে চিহ্নিত সিস্টেমগুলিকে জনস্বাস্থ্য, নিরাপত্তা, মানবাধিকার এবং সামাজিক কল্যাণে সম্ভাব্য প্রভাবগুলির বাধ্যতামূলক মূল্যায়ন সহ স্বচ্ছতার প্রয়োজনীয়তাগুলি অনুসরণ করতে হবে। তারা বৈষম্যহীন এবং মৌলিক মানবাধিকারের প্রতি শ্রদ্ধাশীল তা নিশ্চিত করার জন্য তাদের পক্ষপাতিত্বের জন্য পরীক্ষা করা হবে।


অতিরিক্তভাবে, উচ্চ-ঝুঁকির সিস্টেমের বিকাশকারীরা সম্মতি প্রদর্শনের জন্য প্রশিক্ষণের পদ্ধতি এবং ডেটাসেট সহ বিস্তারিত ডকুমেন্টেশন বজায় রাখতে বাধ্য থাকবে।


GPT-3.5-এর সাথে তুলনীয় ফাউন্ডেশন মডেলগুলি নিয়ন্ত্রিত হবে যদি তারা প্রশিক্ষণের জন্য কমপক্ষে 10²⁵ কম্পিউটিং পাওয়ার ফ্লপ নেয়। বিপরীতভাবে, ওপেন-সোর্স মডেলগুলির বিষয়ে উল্লেখযোগ্য ছাড় থাকবে, এই ধরনের পণ্য বিকাশের জন্য একটি প্রণোদনা প্রদান করবে।


উপরন্তু, EU AI আইন নিষিদ্ধ AI সিস্টেমের তালিকা করে। এর মধ্যে রয়েছে সংবেদনশীল বৈশিষ্ট্য ব্যবহার করে বায়োমেট্রিক শ্রেণীকরণ (যেমন, জাতি, ধর্ম ইত্যাদি), মুখের ছবি স্ক্র্যাপ করা, কর্মক্ষেত্র এবং শিক্ষাগত আবেগের স্বীকৃতি, সামাজিক স্কোরিং, মানুষের আচরণের হেরফের, এবং মানুষের দুর্বলতাগুলিকে কাজে লাগানোর জন্য ডিজাইন করা সিস্টেমগুলি।


আইনটি লঙ্ঘন এবং কোম্পানির আকারের উপর নির্ভর করে অ-সম্মতির জন্য নিষেধাজ্ঞা আরোপ করে, জরিমানা €7.5 মিলিয়ন বা একটি কোম্পানির বিশ্বব্যাপী টার্নওভারের 1.5% থেকে €35 মিলিয়ন বা টার্নওভারের 7% পর্যন্ত পরিবর্তিত হয়।

কিভাবে প্রস্তুত হতে হবে?

2024 সালের শেষের দিকে ইউরোপীয় AI আইন বলবৎ হওয়ার সম্ভাবনা থাকায় এখনই প্রস্তুতি শুরু করা গুরুত্বপূর্ণ, বিশেষ করে যদি আপনার সিস্টেমকে শ্রেণীবদ্ধ করা হয় উচ্চ ঝুঁকি অথবা আপনি সাধারণ-উদ্দেশ্য AI মডেলগুলি তৈরি করছেন। এমনকি আপনার সিস্টেম কঠোর নিয়মের আওতায় না পড়লেও ব্যবহারকারীদের উপর নেতিবাচক প্রতিক্রিয়া এড়াতে দায়িত্বশীল AI বিকাশে বিনিয়োগ করা মূল্যবান হতে পারে।


আমরা ডেটা প্রস্তুতি থেকে শুরু করে এবং গভীরভাবে সিস্টেম মূল্যায়নের সাথে শেষ করে সিস্টেম বিল্ডিংয়ের সমস্ত দিকের উপর ফোকাস করার পরামর্শ দিই।

প্রশিক্ষণের ডেটাতে মনোযোগ দিন

EU AI আইনে বর্ণিত হিসাবে, কোম্পানিগুলি ডেটাসেটের বিস্তারিত রেকর্ড রাখার জন্য দায়ী থাকবে। এটি কোম্পানিগুলিকে ডেটা গোপনীয়তাকে সম্মান করতে এবং সনাক্তযোগ্যতা উন্নত করতে বাধ্য করবে। উদাহরণস্বরূপ, যদি একটি সিস্টেম ক্ষতিকারক বিষয়বস্তু তৈরি করে, তবে এটিকে প্রশিক্ষিত ডেটাসেটে অনুপযুক্ত ডেটা বা পক্ষপাতদুষ্ট পাঠ্যগুলিতে ফিরে পাওয়া যেতে পারে।


এর অর্থ হল নতুন নিয়মের জন্য প্রস্তুতি নেওয়ার সময় প্রশিক্ষণের ডেটাসেটগুলিকে সাবধানে বিবেচনা করা উচিত। এটি প্রশিক্ষণের জন্য ব্যবহৃত ডেটার অংশগুলি ফিল্টারিং এবং পরিষ্কার করা বা এমনকি কাস্টম ডেটাসেট তৈরি করতে পারে যা ডোমেন-কিউরেটেড এবং স্ক্র্যাপ করা ডেটাতে উপস্থিত সাধারণ পক্ষপাতগুলি এড়াতে উদ্দেশ্যমূলকভাবে তৈরি করা হয়।

মানুষের প্রতিক্রিয়া সঙ্গে প্রান্তিককরণ পদ্ধতি

নতুন নিয়মগুলি মেনে চলার জন্য, এলএলএম তৈরিকারী সংস্থাগুলিকে তাদের মডেলগুলিকে মানুষের প্রত্যাশার সাথে সারিবদ্ধ করতে বিনিয়োগ করা উচিত, সত্যবাদিতা, সহায়কতা এবং ক্ষতিহীনতার উপর ফোকাস করা উচিত। এলএলএম সারিবদ্ধকরণের জন্য ব্যবহৃত প্রধান পদ্ধতিগুলি হল মানুষের প্রতিক্রিয়া থেকে শক্তিবৃদ্ধি শিক্ষা (RLHF) এবং সরাসরি পছন্দ অপ্টিমাইজেশান (ডিপিও)।


উভয় পদ্ধতিই মডেল আউটপুটের জন্য মানুষের পছন্দ সংগ্রহ করে এবং পছন্দসই আউটপুটটি কেমন হওয়া উচিত তা মডেলটিকে শেখাতে এই ডেটা ব্যবহার করে। আমরা এই পর্যায়ে ক্ষতিকারক বিষয়বস্তু তৈরির বেশিরভাগই কার্যকরভাবে বন্ধ করতে পারি যদি আমরা সঠিক উদাহরণ সহ মডেল সরবরাহ করি।

গভীরভাবে মূল্যায়ন

এআই সিস্টেমের মূল্যায়ন একটি শীর্ষ অগ্রাধিকার হবে এবং পণ্য উন্নয়ন চক্রের একটি অংশ হতে হবে। একটি ভাল মডেল থাকার অনুভূতি একটি সূক্ষ্ম এবং গভীর মূল্যায়ন কৌশল দ্বারা প্রতিস্থাপিত করা আবশ্যক।


জেনারেটিভ এআই সিস্টেমের মূল্যায়ন করা বিশেষভাবে কঠিন কারণ আউটপুট নির্ধারক নয়। উৎপন্ন পাঠ্য স্বয়ংক্রিয়ভাবে একটি "সঠিক" উত্তরের সাথে তুলনা করা যায় না। এই ধরনের সিস্টেমের মূল্যায়নে মানুষের প্রতিক্রিয়া জড়িত থাকে যা বিভিন্ন দিক যেমন সঠিকতা, সহায়কতা এবং ক্ষতিহীনতার উপর ফোকাস করে।


উপরে উল্লিখিত মৌলিক স্তরগুলির চেয়ে প্রায়শই সিস্টেমগুলিকে আরও মূল্যায়ন করা দরকার। উদাহরণস্বরূপ, ক্ষতিকারকতা মূল্যায়ন করার সময়, আমরা এটিকে আরও ভাগ করতে পারি যেমন পক্ষপাতিত্ব, ঘৃণাত্মক বক্তব্য, বর্ণবাদ, ইত্যাদি। এইভাবে, আমরা একটি দানাদার স্তরে আবিষ্কার করতে পারি যে এর নেতিবাচক প্রভাব কমানোর জন্য সিস্টেমে কী ঠিক করা দরকার।

সারসংক্ষেপ

নিঃসন্দেহে, EU AI আইন হল AI প্রবিধানের একটি গুরুত্বপূর্ণ পদক্ষেপ, এবং এটি AI-এর একটি নতুন যুগের ইঙ্গিত দেয়, যেখানে দায়িত্বশীল AI বিকাশ আর একটি বিকল্প নয় এবং এখন আইনত প্রয়োগ করা হবে।


আপনার কোম্পানি কি নতুন এআই প্রবিধান মেনে চলতে প্রস্তুত?