লেখক:
(1) রবার্ট হোনিগ, ইটিএইচ জুরিখ ([email protected]);
(2) Javier Rando, ETH জুরিখ ([email protected]);
(3) নিকোলাস কার্লিনি, গুগল ডিপমাইন্ড;
(4) ফ্লোরিয়ান ট্রামার, ইটিএইচ জুরিখ ([email protected])।
B. শক্তিশালী মিমিক্রি জেনারেশন
D. গ্লেজ ফাইনটিউনিংয়ের সাথে পার্থক্য
এইচ. বিদ্যমান স্টাইল মিমিক্রি সুরক্ষা
শিল্পীরা ইমেজ জেনারেশন মডেলগুলির অগ্রগতি সম্পর্কে ক্রমবর্ধমানভাবে উদ্বিগ্ন যা তাদের অনন্য শৈল্পিক শৈলীগুলি ঘনিষ্ঠভাবে প্রতিলিপি করতে পারে। প্রতিক্রিয়া হিসাবে, শৈলীর অনুকরণের বিরুদ্ধে বেশ কয়েকটি সুরক্ষা সরঞ্জাম তৈরি করা হয়েছে যা অনলাইনে প্রকাশিত শিল্পকর্মগুলিতে ছোট প্রতিকূল বিভ্রান্তিগুলিকে অন্তর্ভুক্ত করে। এই কাজে, আমরা লক্ষ লক্ষ ডাউনলোড সহ জনপ্রিয় সুরক্ষাগুলির কার্যকারিতা মূল্যায়ন করি এবং দেখাই যে তারা শুধুমাত্র নিরাপত্তার একটি মিথ্যা অনুভূতি প্রদান করে৷ আমরা দেখতে পাই যে কম-প্রচেষ্টা এবং "অফ-দ্য-শেল্ফ" কৌশলগুলি, যেমন ইমেজ আপস্কেলিং, শক্তিশালী নকল পদ্ধতি তৈরি করতে যথেষ্ট যা বিদ্যমান সুরক্ষাগুলিকে উল্লেখযোগ্যভাবে হ্রাস করে। একটি ব্যবহারকারী অধ্যয়নের মাধ্যমে, আমরা দেখাই যে সমস্ত বিদ্যমান সুরক্ষাগুলি সহজেই বাইপাস করা যেতে পারে, শিল্পীদের শৈলীর অনুকরণের জন্য দুর্বল করে রেখে৷ আমরা সতর্ক করে দিচ্ছি যে প্রতিকূল বিভ্রান্তির উপর ভিত্তি করে সরঞ্জামগুলি নির্ভরযোগ্যভাবে শিল্পীদের জেনারেটিভ এআই এর অপব্যবহার থেকে রক্ষা করতে পারে না এবং বিকল্প প্রতিরক্ষামূলক সমাধানগুলির বিকাশের আহ্বান জানায়।
স্টাইল মিমিক্রি টেক্সট-টু-ইমেজ জেনারেটিভ মডেলের একটি জনপ্রিয় অ্যাপ্লিকেশন। একজন শিল্পীর কাছ থেকে কিছু ছবি দেওয়া হলে, সেই শৈলীতে নতুন ছবি তৈরি করার জন্য একটি মডেলকে সূক্ষ্ম সুর করা যেতে পারে (যেমন, ভ্যান গঘের শৈলীতে একটি স্পেসশিপ)। কিন্তু স্টাইল মিমিক্রির অপব্যবহার হলে উল্লেখযোগ্য ক্ষতি হওয়ার সম্ভাবনা রয়েছে। বিশেষ করে, অনেক সমসাময়িক শিল্পী উদ্বিগ্ন যে অন্যরা এখন এমন চিত্র তৈরি করতে পারে যা তাদের অনন্য শিল্প শৈলী অনুলিপি করে এবং সম্ভাব্য গ্রাহকদের কেড়ে নেয় (Heikkila¨, 2022)। প্রতিক্রিয়া হিসাবে, শিল্পীদের শৈলীর অনুকরণ থেকে রক্ষা করার জন্য বেশ কয়েকটি সুরক্ষা তৈরি করা হয়েছে (শান এট আল।, 2023a; ভ্যান লে এট আল।, 2023; লিয়াং এট আল।, 2023)। এই সুরক্ষাগুলি ফিনটিউনিং প্রক্রিয়াকে বাধা দেওয়ার জন্য শিল্পীরা অনলাইনে প্রকাশ করা চিত্রগুলিতে প্রতিকূল বিশৃঙ্খলা যুক্ত করে। নিউইয়র্ক টাইমস (হিল, 2023), সিএনএন (থরবেক, 2023) এবং সায়েন্টিফিক আমেরিকান (লেফার, 2023)-এর বৈশিষ্ট্য সহ এই সুরক্ষাগুলি মিডিয়া থেকে উল্লেখযোগ্য মনোযোগ পেয়েছে এবং 1M বার ডাউনলোড করা হয়েছে (শান এট আল। , 2023a)।
তবুও, এটি স্পষ্ট নয় যে এই সরঞ্জামগুলি আসলে শিল্পীদের শৈলীর অনুকরণের বিরুদ্ধে কতটা রক্ষা করে, বিশেষ করে যদি কেউ সক্রিয়ভাবে তাদের বাধা দেওয়ার চেষ্টা করে (Radiya-Dixit et al., 2021)। এই কাজে, আমরা সেই অত্যাধুনিক শৈলী সুরক্ষা সরঞ্জামগুলি দেখাই—গ্লেজ (শান এট আল।, 2023a), মিস্ট (লিয়াং এট আল।, 2023) এবং অ্যান্টি-ড্রিমবুথ (ভ্যান লে এট আল।, 2023) সহজ দৃঢ় নকল পদ্ধতির সম্মুখীন হলে অকার্যকর হয়। দৃঢ় অনুকরণ পদ্ধতিগুলিকে আমরা কম-প্রচেষ্টার কৌশলগুলি বিবেচনা করি—যেমন একটি ভিন্ন ফাইনটিউনিং স্ক্রিপ্ট ব্যবহার করা, বা প্রশিক্ষণের আগে চিত্রগুলিতে গাউসিয়ান শব্দ যোগ করা—অফ-দ্য-শেল্ফ সরঞ্জামগুলিকে একত্রিত করা বহু-পদক্ষেপের কৌশলগুলিতে৷ আমরা একটি ব্যবহারকারী অধ্যয়নের মাধ্যমে আমাদের ফলাফলগুলিকে যাচাই করি, যা প্রকাশ করে যে দৃঢ় নকল পদ্ধতিগুলি অরক্ষিত শিল্পকর্ম থেকে প্রাপ্ত ফলাফলগুলি থেকে মানের দিক থেকে আলাদা করা যায় না (একটি উদাহরণের জন্য চিত্র 1 দেখুন)।
আমরা দেখাই যে বিদ্যমান সুরক্ষা সরঞ্জামগুলি কেবল নিরাপত্তার একটি মিথ্যা অনুভূতি প্রদান করে। আমাদের শক্তিশালী অনুকরণ পদ্ধতির জন্য নতুন সরঞ্জাম বা ফাইন-টিউনিং পদ্ধতির বিকাশের প্রয়োজন হয় না, তবে শুধুমাত্র সাবধানে
স্ট্যান্ডার্ড ইমেজ প্রসেসিং কৌশলগুলিকে একত্রিত করা যা এই সুরক্ষা সরঞ্জামগুলি প্রথম চালু হওয়ার সময়ে ইতিমধ্যেই বিদ্যমান ছিল! অতএব, আমরা বিশ্বাস করি যে এমনকি স্বল্প-দক্ষ জালিয়াতিরাও তাদের সূচনা থেকেই এই সরঞ্জামগুলিকে সহজেই ঠেকাতে পারত।
যদিও আমরা আজ বিদ্যমান নির্দিষ্ট সুরক্ষা সরঞ্জামগুলিকে মূল্যায়ন করি, তবে শৈলীর অনুকরণ সুরক্ষাগুলির সীমাবদ্ধতা অন্তর্নিহিত। শিল্পীরা অগত্যা একটি অসুবিধায় পড়েন কারণ তাদের প্রথমে কাজ করতে হয় (অর্থাৎ, কেউ একবার সুরক্ষিত শিল্প ডাউনলোড করলে, সুরক্ষা আর পরিবর্তন করা যাবে না)। কার্যকর হওয়ার জন্য, প্রতিরক্ষামূলক সরঞ্জামগুলি বিভ্রান্তি তৈরির চ্যালেঞ্জিং কাজের মুখোমুখি হয় যা যে কোনও ফাইনটিউনিং কৌশলে স্থানান্তরিত হয়, এমনকি ভবিষ্যতে অভিযোজিতভাবে বেছে নেওয়া হয়। রাদিয়া-দীক্ষিত এবং অন্যান্য দ্বারা অনুরূপ উপসংহার টানা হয়েছিল। (Radiya-Dixit et al., 2021), যিনি যুক্তি দিয়েছিলেন যে প্রতিকূল বিশৃঙ্খলা ব্যবহারকারীদের মুখের স্বীকৃতি সিস্টেম থেকে রক্ষা করতে পারে না। আমরা এইভাবে সতর্ক করছি যে প্রতিপক্ষের মেশিন লার্নিং কৌশলগুলি শিল্পীদেরকে জেনারেটিভ স্টাইলের অনুকরণ থেকে নির্ভরযোগ্যভাবে রক্ষা করতে সক্ষম হবে না এবং শিল্পীদের সুরক্ষার জন্য বিকল্প ব্যবস্থার বিকাশের আহ্বান জানাই।
আমরা প্রকাশের আগে প্রভাবিত সুরক্ষা সরঞ্জামগুলিতে আমাদের ফলাফলগুলি প্রকাশ করেছি, যাতে তারা বিদ্যমান ব্যবহারকারীদের জন্য সর্বোত্তম পদক্ষেপ নির্ধারণ করতে পারে।
এই কাগজ হল