paint-brush
کیا مشین آؤٹ پٹ کو مفت تقریر کے تحفظ کے لیے اہل ہونا چاہیے؟کی طرف سے@pawarashishanil
نئی تاریخ

کیا مشین آؤٹ پٹ کو مفت تقریر کے تحفظ کے لیے اہل ہونا چاہیے؟

کی طرف سے Ashish Anil Pawar6m2024/11/28
Read on Terminal Reader

بہت لمبا؛ پڑھنے کے لئے

جیسا کہ GPT-4 جیسے تخلیقی AI سسٹمز تیزی سے نفیس مواد تیار کرتے ہیں، ایک پیچیدہ سوال ابھرتا ہے: کیا ان کے آؤٹ پٹ کو آزادانہ تقریر کے تحفظات کے تحت "تقریر" کے طور پر اہل ہونا چاہیے؟ جب کہ AI میں ارادے، اصلیت اور جوابدہی کا فقدان ہے — انسانی تقریر کے اہم عناصر — اس کے زندگی بھر کے نتائج بااثر، متنازعہ اور نقصان دہ بھی ہو سکتے ہیں۔ اس سے سخت قانونی اور اخلاقی چیلنجز پیدا ہوتے ہیں: ان نتائج کا مالک کون ہے یا جوابدہ ہے — ڈویلپر، صارف، یا کوئی نہیں؟ کیا حکومتوں کو ان کو ٹولز کی طرح ریگولیٹ کرنا چاہیے، یا کیا وہ انسانی اظہار کی طرح تحفظات کے مستحق ہیں؟ یہ مضمون AI سے تیار کردہ مواد کے میکانکس کی کھوج کرتا ہے، نفرت انگیز تقریر اور غلط معلومات جیسے حقیقی دنیا کے خطرات کا پتہ لگاتا ہے، اور AI آؤٹ پٹس کو "نقلی تقریر" کے طور پر درجہ بندی کرنے کے لیے ایک نیا فریم ورک تجویز کرتا ہے۔ نقلی تقریر انسانی اظہار کی نقل کرنے کی AI کی صلاحیت کو تسلیم کرتی ہے اور اس کی ایجنسی یا ارادے کی کمی کو تسلیم کرتی ہے، جو ہمیں انسانی آزادی اظہار کے حقوق کی خلاف ورزی کیے بغیر مشین سے تیار کردہ مواد کو منظم کرنے کی اجازت دیتی ہے، آخر کار، بحث ایک اہم تقسیم کو اجاگر کرتی ہے: آزادی اظہار ایک انسانی حق ہے۔ کیا یہ پیدا کرنے والی مشینوں تک پھیلا ہوا ہے، یا کیا نئی لکیر کھینچنے کی ضرورت ہے؟
featured image - کیا مشین آؤٹ پٹ کو مفت تقریر کے تحفظ کے لیے اہل ہونا چاہیے؟
Ashish Anil Pawar HackerNoon profile picture
0-item

آپ اپنی X فیڈ کے ذریعے سکرول کر رہے ہیں، اور آپ کو ایک سیاسی منشور نظر آتا ہے جس میں آب و ہوا کی پالیسی پر اشتعال انگیز اقدام ہوتا ہے۔ یہ معقول، پرجوش، اور ہزاروں ریٹویٹ حاصل کرتا ہے۔ بعد میں، آپ کو معلوم ہوگا کہ یہ کسی سیاست دان یا کسی انسان نے نہیں لکھا تھا۔ اس کے بجائے، یہ کچھ طاقتور AI ماڈل کے ذریعہ تیار کیا گیا تھا - ایک زبان کا ماڈل جس نے انٹرنیٹ کے وسیع حصوں میں مشاہدہ کیے گئے نمونوں کی بنیاد پر الفاظ کو ایک ساتھ سلائی کرنے کی تربیت دی تھی۔ کیا اس سے منشور کے بارے میں آپ کی سوچ بدل جاتی ہے؟ یہ چاہئے؟ اور یہاں معاہدہ توڑنے والا ہے: کیا یہ "تقریر" اسی طرح ہے جیسے کسی انسان نے اسے لکھا ہو؟


انسانوں سے چلنے والے اظہار اور مشین سے تیار کردہ مواد کے درمیان لائن کو سمجھنا مشکل سے مشکل تر ہوتا جا رہا ہے۔ جنریٹو AI ماڈلز جیسے OpenAI's GPT-4 یا Google's Gemini صرف کلیدی الفاظ یا سادہ جوابات نہیں تھوکتے ہیں — وہ پوری داستانیں، ڈیزائن کے دلائل، اور کبھی کبھار تنازعات کو ہوا دیتے ہیں۔ وہ نظمیں لکھ سکتے ہیں، درخواستوں کا مسودہ بنا سکتے ہیں، یا اشتعال انگیز مواد بھی تیار کر سکتے ہیں۔ اور اس سے ایک متجسس اور قدرے غیر آرام دہ سوال پیدا ہوتا ہے: کیا ان کے نتائج واقعی "تقریر" ہیں؟ اگر ایسا ہے تو کیا اس تقریر کو وہی قانونی تحفظ حاصل ہے جو ہم انسانی اظہار کو دیتے ہیں؟ یا AI سے تیار کردہ مواد کو الگ الگ قوانین کے ساتھ مکمل طور پر اپنے زمرے میں آنا چاہیے؟


آئیے اس کو نہ صرف سطحی سطح کے "مواد تخلیق کار" کے نقطہ نظر سے دریافت کریں، بلکہ حقیقتاً گندی تکنیکی حقیقت، قانونی مضمرات، اور فلسفیانہ الجھنوں میں ڈوب جائیں۔ کیونکہ، ایمانداری سے، یہ اتنا سیدھا نہیں ہے جتنا آپ سوچ سکتے ہیں۔

AI بات نہیں کر رہا ہے، یہ حساب کر رہا ہے۔

سب سے پہلے، آئیے پردے کو پیچھے ہٹاتے ہیں اور جائزہ لیتے ہیں کہ جب AI "تقریر" تیار کرتا ہے تو اصل میں کیا ہوتا ہے۔ اس کے بنیادی طور پر، GPT-4 جیسا تخلیقی AI ماڈل جملے کو پتلی ہوا سے باہر نہیں نکال رہا ہے یا اصل خیالات کے ساتھ نہیں آرہا ہے۔ اس کے بجائے، یہ شماریاتی امکانات پر کام کر رہا ہے — زبان کی مشکل ریاضی۔


یہاں یہ ہے کہ یہ کیسے کام کرتا ہے: AI ماڈلز کو وسیع ڈیٹا سیٹس پر تربیت دی جاتی ہے جس میں کتابیں، بلاگز، سوشل میڈیا پوسٹس، اور بنیادی طور پر انٹرنیٹ پر دستیاب کوئی اور چیز شامل ہوتی ہے۔ تربیت کے دوران، وہ الفاظ کے درمیان تعلق کو سمجھنے کے لیے ان عبارتوں کا تجزیہ کرتے ہیں۔ الفاظ کمپیوٹر میں بالکل الفاظ کی طرح محفوظ نہیں ہوتے ہیں۔ وہ ٹوکنز میں تبدیل ہو جاتے ہیں، جو کہ چھوٹے بلڈنگ بلاکس کی طرح ہوتے ہیں۔ "The Quick Brown Fox" جیسے فقرے کو انفرادی ٹوکنز جیسے `[The]`, `[quick]`, `[brown]`, `[fox]` میں توڑا جا سکتا ہے۔ AI پھر سیکھتا ہے کہ کون سا ٹوکن دوسرے کی پیروی کرنے کا امکان ہے۔ اس کے کافی پیٹرن لینے کے بعد، یہ ایک ترتیب میں اگلے ٹوکن کی پیشین گوئی کر سکتا ہے۔


ایک سیکنڈ کے لیے اس کے بارے میں سوچیں: AI اس بارے میں نہیں سوچ رہا ہے کہ وہ کیا کہنا چاہتا ہے۔ یہ اگلے لفظ کے ریاضیاتی امکان کا حساب لگا رہا ہے۔ مثال کے طور پر، اگر آپ اسے "The quick brown fox jumps" کے ساتھ اشارہ کرتے ہیں، تو ماڈل پیش گوئی کر سکتا ہے کہ منطقی اگلا ٹوکن "ختم" ہو گیا ہے۔ یہ تخلیقی صلاحیت یا ارادہ نہیں ہے - یہ صرف ریاضی ہے۔


لیکن یہ ہے ککر: جب آپ کھربوں پیرامیٹرز (بڑے پیمانے پر، پیچیدہ عددی وزن جو کہ ماڈل کے کام کرنے کے طریقہ کار کی رہنمائی کرتے ہیں) میں ان پیشین گوئیوں کو ایک ساتھ باندھتے ہیں، تو آپ کو ناقابل یقین حد تک زندگی جیسی چیز ملتی ہے۔ ٹرانسفارمر آرکیٹیکچرز اور توجہ دینے کے جدید طریقہ کار جیسی تکنیکوں کا استعمال کریں، اور اچانک آپ موسمیاتی تبدیلی پر ایک مکمل مضمون یا نقصان اور امید کے بارے میں مکمل طور پر محسوس شدہ نظم دیکھ رہے ہیں۔ یہ نتائج حیران کن طور پر انسانی محسوس کرتے ہیں۔ لیکن کیا وہ تقریر کرتے ہیں؟

فلسفیانہ خرگوش سوراخ: "تقریر" کیا ہے، ویسے بھی؟

تقریر، ایک تصور کے طور پر، بہت زیادہ وزن رکھتی ہے۔ یہ صرف کچھ کہنے کے بارے میں نہیں ہے - یہ کچھ کہنے کے بارے میں ہے۔ تقریر ارادے، ایجنسی، اور جوابدہی کو فرض کرتی ہے۔ جب میں یہ بلاگ لکھتا ہوں، میں اپنے خیالات کا اظہار کر رہا ہوں، چاہے آپ ان سے متفق ہوں یا نہ ہوں۔ اگر مجھے غلط اطلاع دی گئی یا مجھے ناگوار گزرا، تو میں جو کچھ کہتا ہوں اس کے نتائج کا ذمہ دار ہوں۔ میرا نام اس پوسٹ کے ساتھ منسلک ہے۔ میں مفکر ہوں، اور یہ میرا اظہار ہے۔


لیکن جنریٹو AI میں خیالات نہیں ہوتے ہیں۔ یہ نہیں جانتا کہ یہ کیا کہہ رہا ہے یا کیوں کہہ رہا ہے۔ جب آپ ایک پرامپٹ ٹائپ کرتے ہیں جیسے کہ، "الیکٹرک کاروں کو پٹرول کی گاڑیوں کی جگہ کیوں لینی چاہیے،" پر ایک قائل کرنے والا مضمون لکھیں، GPT-4 صاف توانائی اور جغرافیائی سیاست کے فوائد اور نقصانات کا وزن نہیں کرتا ہے۔ یہ زبان کے ان نمونوں کو کھینچتا ہے جو اسے جانتا ہے اور آپ کو اعداد و شمار کے لحاظ سے آپ کے ان پٹ کی پیروی کرنے کا سب سے زیادہ امکان والا جملہ دیتا ہے۔ پھر بھی، کچھ جادوئی ہوتا ہے: یہ تقریر کی طرح محسوس ہوتا ہے ۔


اور یہ وہ جگہ ہے جہاں چیزیں چپچپا ہوجاتی ہیں۔ اگر کوئی AI کوئی ایسی چیز تیار کرتا ہے جو عوامی گفتگو کو متاثر کرتا ہے — آئیے کہتے ہیں کہ اس سے ماحولیاتی غلط معلومات پیدا ہوتی ہیں جو وائرل ہو جاتی ہیں — کیا ان الفاظ کو آزادانہ تقریر کے قوانین کے تحت محفوظ کیا جانا چاہیے؟ ہم جانتے ہیں کہ کسی انسان نے یہ خیالات پیدا نہیں کیے، تو کون، اگر کوئی ہے، ان کا ذمہ دار ہے؟ آئیے مزید گہرائی سے تحقیقات کریں۔

ڈویلپرز، صارفین، یا AI: اصل اسپیکر کون ہے؟

یہ وہ جگہ ہے جہاں آزادانہ تقریر کی بحث ایک احتسابی پہیلی میں بدل جاتی ہے: اگر تخلیقی AI نتائج انسانوں سے چلنے والے نہیں ہیں، تو ان الفاظ کا مالک کون ہے اور مواد کے غلط استعمال ہونے پر کس کو ذمہ دار ٹھہرایا جاتا ہے؟


- دی ڈویلپرز: اوپن اے آئی یا گوگل جیسی کمپنیاں اکثر یہ بحث کرتی ہیں کہ وہ صرف ٹولز بنا رہے ہیں—غیر جانبدار پلیٹ فارمز جنہیں صارف اشارے کے ذریعے شکل دیتے اور ہدایت کرتے ہیں۔ "ہم نے ابھی پیانو کو تربیت دی ہے،" وہ کہتے ہیں۔ "یہ دوسروں پر منحصر ہے کہ وہ کون سی دھنیں بجانا چاہتے ہیں۔" لیکن یہ استعارہ چیزوں کو زیادہ آسان بنا دیتا ہے۔ AI آؤٹ پٹس ڈویلپرز کے منتخب کردہ ڈیٹاسیٹس سے بہت زیادہ متاثر ہوتے ہیں اور انہوں نے اپنے ماڈلز کو کس طرح ٹھیک بنایا ہے۔ ایک متعصب ڈیٹا سیٹ کے نتیجے میں متعصبانہ نتائج برآمد ہوتے ہیں — اگر نقصان دہ متن سامنے آتا ہے، تو کیا تخلیق کار واقعی غیر جانبداری کا دعویٰ کر سکتے ہیں؟


- صارفین: اس شخص کے بارے میں کیا خیال ہے جو پرامپٹ داخل کر رہا ہے؟ کچھ دلیل دیتے ہیں کہ انہیں ذمہ داری اٹھانی چاہئے۔ اگر میں AI سے کہوں کہ "ویکسین کے بارے میں جعلی معلومات پھیلانے والا ایک آگ لگانے والا مضمون لکھیں"، اور یہ اس کی تعمیل کرتا ہے، تو میرا واضح طور پر ارادہ تھا۔ یہ زیادہ مشکل ہے، اگرچہ، جب صارف نادانستہ طور پر نقصان دہ آؤٹ پٹ کا اشارہ کرتے ہیں یا جب آؤٹ پٹ آف اسکرپٹ کو صارف کے کنٹرول سے باہر کے علاقوں میں لے جاتا ہے۔


- خود AI: کیا AI کو اسپیکر سمجھا جا سکتا ہے؟ کچھ مستقبل کے ماہرین نے AI سسٹمز کو "ڈیجیٹل پرسنہڈ" حاصل کرنے کے بارے میں قیاس کیا ہے، لیکن یہ خیال انتہائی مشکل ہے۔ مشینوں کا ارادہ نہیں ہوتا، وہ ذمہ داری نہیں اٹھا سکتی، اور مشینوں تک آزادانہ تقریر کے حقوق کو بڑھانا قانونی افراتفری کے لیے میدان کا دن بناتا ہے۔


سچ تو یہ ہے کہ کوئی بھی مکمل احتساب نہیں کرنا چاہتا۔ ڈویلپرز ذمہ داری کو کم کرتے ہیں، صارفین اسے غیر ارادی طور پر چھوڑ دیتے ہیں، اور AI، ٹھیک ہے، صرف ایک مشین ہے۔ اور پھر بھی، AI سے تیار کردہ مواد کا بہاو اثر بہت زیادہ ہو سکتا ہے۔

جب AI آؤٹ پٹ نقصان کا باعث بنتا ہے تو کیا ہوتا ہے؟

آئیے مسئلے کے وزن کو محسوس کرنے کے لیے کچھ حقیقی دنیا کے منظرناموں کو مکس کرتے ہیں۔


- کیس 1: نفرت انگیز تقریر

کہتے ہیں کہ ایک تخلیقی AI نظام صریح طور پر نسل پرستی یا جنس پرست مواد تیار کرتا ہے۔ OpenAI اور دیگر ڈویلپرز حفاظتی تدابیر کو سرایت کرتے ہیں — جیسے انسانی تاثرات (RLHF) سے کمک سیکھنا — نقصان کو کم سے کم کرنے کے لیے، لیکن کوئی بھی ماڈل کامل نہیں ہے۔ زہریلا اب بھی پھسل سکتا ہے۔ جب ایسا ہوتا ہے تو قصوروار کون ہے؟ AI نہیں جانتا کہ یہ کیا کر رہا ہے۔ کیا یہ OpenAI کے ڈیٹاسیٹ میں ناکامی تھی؟ کیا ایک انسانی صارف ان کے اشارے میں غیر ذمہ دار تھا؟ یا کیا ہم صرف ان آؤٹ پٹ کو چیک نہیں ہونے دیتے ہیں؟


- کیس 2: غلط معلومات

اب تصور کریں کہ ایک AI کسی سیاسی امیدوار کے بارے میں انتہائی قابل اعتبار جعلی خبریں بناتا ہے اور سوشل میڈیا پر سیلاب آ جاتا ہے۔ انسانی تخلیق کردہ پروپیگنڈے کے برعکس، یہ غلط معلومات کم سے کم کوشش کے ساتھ بڑے پیمانے پر پیدا کی جا سکتی ہے۔ کیا اس طرح کے نتائج محفوظ سیاسی تقریر کے اہل ہیں، یا یہ ایک عوامی خطرہ ہیں جن پر بہت زیادہ ریگولیٹ ہونا چاہیے (یا اس پر مکمل پابندی لگا دی گئی)؟


- کیس 3: فنکارانہ اظہار

جب AI آرٹ یا شاعری تخلیق کرتا ہے تو کیا ہوگا؟ کیا یہ آزاد تقریر کے اصولوں کے تحت "اظہار" کے طور پر محفوظ ہے؟ اور جب AI آرٹ کے مقابلے جیتتا ہے یا تخلیقی کام تخلیق کرتا ہے، تو ان نتائج کے حقوق کس کے پاس ہیں؟ ڈویلپر کرتا ہے؟ صارف؟ یا یہ عوامی ڈومین ہے؟


جوابات مبہم ہیں، یہی وجہ ہے کہ عدالتیں اور پالیسی ساز اس سے دور رہتے ہیں۔ یہ ایسے معاملات ہیں جن کا کسی کو اندازہ نہیں تھا جب آزادانہ تقریر کے قوانین لکھے گئے تھے۔

کیا یہ ایک نئی قسم کا وقت ہے؟ "نقلی تقریر"

تخلیقی AI آؤٹ پٹس کو محفوظ شدہ تقریر کے طور پر نہیں بلکہ "نقلی تقریر" کے طور پر درجہ بندی کرنا مفید ہو سکتا ہے۔ اس سے یہ ثابت ہو گا کہ AI آؤٹ پٹ انسانی اظہار کی عکاسی کرتا ہے ، لیکن ان میں ارادے اور جوابدہی کی کمی ہے جو صحیح معنوں میں اس کی وضاحت کرتی ہے جسے ہم "تقریر" کہتے ہیں۔ اس نئے زمرے کے ساتھ، ہم انسانی آزادی اظہار کے حقوق کو مجروح کیے بغیر AI سے تیار کردہ مواد کو منظم کر سکتے ہیں۔


مثال کے طور پر:

- AI سے تیار کردہ آؤٹ پٹس کو یہ بتانے کے لیے میٹا ڈیٹا ٹیگنگ کی ضرورت ہو سکتی ہے کہ وہ مشین سے تیار کردہ ہیں (مثال کے طور پر، "GPT-4 کے ذریعے تیار کردہ")۔

- نقصان دہ نتائج (مثال کے طور پر، غلط معلومات، انتہا پسندانہ پروپیگنڈہ) کو خاص جانچ پڑتال کا سامنا کرنا پڑ سکتا ہے یا انتخابات جیسے اعلی خطرے والے سیاق و سباق میں پابندیاں بھی لگ سکتی ہیں۔

- بڑے پیمانے پر AI مواد تیار کرنے والے APIs بڑے پیمانے پر غلط معلومات کی مہم کو روکنے کے لیے "اخلاقی تھروٹلنگ" کے تابع ہو سکتے ہیں۔


اس طرح کا فریم ورک ہمیں AI آؤٹ پٹس کا علاج کرنے کی گنجائش فراہم کرے گا کہ وہ واقعی کیا ہیں: طاقتور ٹولز، فری وہیلنگ ایکسپریشن نہیں۔

حتمی خیالات: انسانوں کے لیے تقریر، مشینوں کے لیے اوزار

اگر میں محتاط محسوس کرتا ہوں تو اس کی وجہ یہ ہے کہ اس بحث میں "تقریر کیا ہے" کے بارے میں سطحی دلائل سے کہیں زیادہ داؤ پر لگا ہوا ہے۔ تخلیقی AI نتائج کو انسانی تقریر کے ساتھ مساوی کرنے سے آزادانہ تقریر کے مقاصد کو چھوٹا کرنے کے خطرات لاحق ہوتے ہیں — ایک عمل جو ارادے، تخلیقی صلاحیتوں اور جوابدہی سے منسلک ہے۔ مجھے یقین ہے کہ تقریر فطری طور پر ایک انسانی کاروبار ہے۔ یہ ذمہ داری اور خیالات کے بامقصد تبادلے پر پروان چڑھتا ہے۔ مشینیں اس جذبے کا اشتراک نہیں کرتی ہیں، چاہے ان کے نتائج ہماری نقل کریں۔


جس لمحے ہم مشین سے تیار کردہ الفاظ کو انہی قوانین کے تحت محفوظ کرنا شروع کر دیتے ہیں جو انسانی اظہار کا دفاع کرتے ہیں، ہم آزادانہ اظہار کے معنی کو کمزور کر دیتے ہیں۔ آئیے AI کا جشن مناتے ہیں کہ یہ کیا ہے — ایک غیر معمولی ٹول — لیکن آئیے یہ بھی پہچانتے ہیں کہ اس کی پہنچ کہاں رک جانی چاہیے۔ بہر حال، آزادی اظہار انسانیت کے بارے میں ہے، اعصابی جال میں امکانات نہیں۔


تو، آپ کا کیا خیال ہے؟ کیا ہم ایک پھسلن والی ڈھلوان پر ہیں، یا میں صرف ضرورت سے زیادہ محتاط ہو رہا ہوں؟ مجھے بتائیں — بس اس بات کو یقینی بنائیں کہ آپ، کوئی AI بوٹ نہیں، وہ ایک ہیں جو اس میں گھل مل رہے ہیں :)

L O A D I N G
. . . comments & more!

About Author

Ashish Anil Pawar HackerNoon profile picture
Ashish Anil Pawar@pawarashishanil
Ashish Pawar is an experienced software engineer skilled in creating scalable software and AI-enhanced solutions across data-driven and cloud applications, with a proven track record at companies like Palantir, Goldman Sachs and WHOOP.

ہینگ ٹیگز

یہ مضمون اس میں پیش کیا گیا تھا۔...