paint-brush
ایا د ماشین محصول باید د وړیا وینا محافظت لپاره وړ وي؟لخوا@pawarashishanil
203 لوستل

ایا د ماشین محصول باید د وړیا وینا محافظت لپاره وړ وي؟

لخوا Ashish Pawar6m2024/11/28
Read on Terminal Reader

ډېر اوږد؛ لوستل

لکه څنګه چې د تولیدي AI سیسټمونه لکه GPT-4 په زیاتیدونکي ډول پیچلي مینځپانګې تولیدوي ، یوه پیچلې پوښتنه راپورته کیږي: ایا د دوی محصول د بیان د آزادۍ محافظت لاندې د "وینا" په توګه وړ وي؟ پداسې حال کې چې AI د ارادې، اصليت، او حساب ورکونې نشتوالی - د انسان د وینا کلیدي عناصر - د دې ژوندانه پایلې کیدای شي اغیزمن، متنازع، او حتی زیانمن وي. دا فشار قانوني او اخلاقي ننګونې راپورته کوي: څوک د دې پایلو مالکیت لري یا د دې لپاره مسؤل دی — پراختیا کونکی ، کارونکي یا هیڅ څوک؟ ایا حکومتونه باید دوی د وسیلو په څیر تنظیم کړي، یا دوی د انساني بیان په څیر ورته محافظت مستحق دي؟ دا مقاله د AI لخوا رامینځته شوي مینځپانګې میکانیکونه لټوي ، د ریښتیني نړۍ خطرونو لکه د کرکې وینا او غلط معلومات په ګوته کوي ، او د AI محصولاتو طبقه بندي کولو لپاره یو نوی چوکاټ وړاندیز کوي د "نقل شوي وینا" په توګه. سمولیټ وینا د AI وړتیا مني چې د انسان بیان نقل کړي پداسې حال کې چې د هغې د ادارې یا ارادې نشتوالی پیژني، موږ ته اجازه راکوي چې د ماشین لخوا رامینځته شوي مینځپانګې تنظیم کړو پرته لدې چې د انسان د بیان آزادۍ حقونه تر پښو لاندې کړو په نهایت کې ، بحث یو مهم توپیر روښانه کوي: د بیان آزادۍ یو انساني حق دی. ایا دا تولیدي ماشینونو ته غځول کیږي، یا نوې کرښه باید رسم شي؟
featured image - ایا د ماشین محصول باید د وړیا وینا محافظت لپاره وړ وي؟
Ashish Pawar HackerNoon profile picture
0-item

تاسو د خپل ایکس فیډ له لارې سکرول کوئ، او تاسو یو سیاسي منشور وګورئ چې د اقلیم پالیسي په اړه د پارونکي ګام سره. دا ښه استدلال دی، په زړه پوری دی، او په زرګونو ریټویټونه راټولوي. وروسته، تاسو پوه شئ چې دا د یو سیاستوال یا حتی یو انسان لخوا نه دی لیکل شوی. پرځای یې، دا د ځینې ځواکمن AI ماډل لخوا رامینځته شوی — د ژبې ماډل چې روزل شوی ترڅو د نمونو پراساس کلمې سره یوځای کړي چې دا د انټرنیټ په پراخه برخه کې لیدل شوي. ایا دا د منشور په اړه ستاسو احساس بدلوي؟ باید؟ او دلته د معاملې ماتونکی دی: ایا دا "تقریر" په ورته ډول دی لکه څنګه چې یو انسان لیکلی وي؟


د انسان لخوا پرمخ وړل شوي بیان او د ماشین لخوا رامینځته شوي مینځپانګې ترمینځ کرښه د پیژندلو لپاره سخت او سخت کیږي. د AI تولیدي ماډلونه لکه OpenAI's GPT-4 یا د ګوګل جیمیني یوازې کلیدي ټکي یا ساده ځوابونه نه سپموي — دوی ټول داستانونه رامینځته کوي ، ډیزاین دلیلونه ، او کله ناکله شخړې راپورته کوي. دوی کولی شي شعرونه ولیکي، غوښتنلیکونه مسوده کړي، یا حتی د انفلاسیون منځپانګې تولید کړي. او دا یوه عجیبه - او یو څه نا آرامه - پوښتنه راپورته کوي: ایا د دوی پایلې واقعیا "وینا" دي؟ که داسې وي، ایا دا وینا د ورته قانوني خوندیتوب څخه خوند اخلي چې موږ یې د انسان بیان ته پراختیا ورکوو؟ یا باید د AI لخوا تولید شوي مینځپانګې په بشپړ ډول د جلا قواعدو سره په خپله کټګورۍ کې راشي؟


راځئ چې دا وپلټو، نه یوازې د سطحې کچې "منځپانګې جوړونکي" لید څخه، مګر په حقیقت کې د خندا تخنیکي واقعیت، قانوني اغیزو، او فلسفي خنډونو کې ډوب شو. ځکه چې، په صادقانه توګه، دا دومره مستقیم ندی لکه څنګه چې تاسو فکر کوئ.

AI خبرې نه کوي، دا حساب کوي

لومړی، راځئ چې پرده بیرته راوباسئ او وګورو چې واقعیا څه پیښیږي کله چې AI "وینا" رامینځته کوي. په اصل کې، د تولیدي AI ماډل لکه GPT-4 جملې له پتلی هوا څخه نه ایستل یا د اصلي نظرونو سره راځي. پرځای یې، دا د احصایوي احتمالاتو باندې کار کوي - د ژبې سخت ریاضی.


دلته دا دی چې دا څنګه کار کوي: د AI ماډلونه په پراخه ډیټاسیټونو کې روزل شوي چې پکې کتابونه، بلاګونه، د ټولنیزو رسنیو پوسټونه، او اساسا په انټرنیټ کې نور څه شتون لري. د روزنې په جریان کې، دوی دا متنونه تحلیلوي ترڅو د کلمو ترمنځ اړیکو پوه شي. کلمې په کمپیوټر کې د کلمو په څیر نه ذخیره کیږي. دوی په هغه څه بدل شوي چې د ټوکن په نوم یادیږي، کوم چې د وړو ودانیو بلاکونو په څیر دي. یوه جمله لکه د "چټک نسواري ګیدړ" کیدای شي په انفرادي ټوکونو ویشل شي لکه `[The]`، `[چټک]`، `[نصواري]`، `[لومړی]. AI بیا زده کوي چې کوم نښه احتمال لري بل تعقیب کړي. وروسته لدې چې دا په کافي اندازه نمونې وخوري ، دا کولی شي په ترتیب کې د راتلونکي نښه وړاندوینه وکړي.


د یوې ثانیې لپاره د دې په اړه فکر وکړئ: AI د هغه څه په اړه فکر نه کوي چې ویل یې غواړي؛ دا د راتلونکي کلمې ریاضياتي احتمال محاسبه کوي. د مثال په توګه، که تاسو دا د "چټک نسواري کودونو" سره اشاره وکړئ، ماډل ممکن وړاندوینه وکړي چې منطقي راتلونکی نښه "ختم" ده. دا خلاقیت یا اراده نه ده - دا یوازې ریاضی دی.


مګر دلته کیکر دی: کله چې تاسو د دې وړاندوینو څخه کافي اندازه په ټریلیونونو پیرامیټونو کې یوځای کړئ (ډېر ، پیچلي شمیري وزنونه چې لارښود کوي چې ماډل څنګه کار کوي) ، تاسو یو څه په زړه پوري ژوندۍ ترلاسه کوئ. د ټرانسفارمر معمارۍ او د پاملرنې پرمختللي میکانیزمونو په څیر تخنیکونه وغورځوئ ، او ناڅاپه تاسو د اقلیم بدلون په اړه یوه بشپړه مقاله یا د زیان او امید په اړه بشپړ احساس شوي شعر ګورئ. دا پایلې په حیرانونکي ډول انساني احساس کوي. مګر ایا دوی وینا کوي؟

د فلسفي خرگوش سوري: "تقریر" څه شی دی؟

وینا، د مفهوم په توګه، ډیر وزن لري. دا یوازې د یو څه ویلو په اړه ندي - دا د څه ویلو په اړه دي. وینا اراده، اداره او حساب ورکوی. کله چې زه دا بلاګ لیکم، زه خپل فکرونه بیانوم، ایا تاسو ورسره موافق یاست یا نه. که زه غلط معلومات ورکړم یا توهین وکړم، زه د هغه څه د پایلو لپاره مسؤل یم چې زه یې وایم. زما نوم د دې پوسټ سره تړلی دی. زه فکر کوونکی یم، او دا زما بیان دی.


مګر تولیدي AI فکرونه نلري. دا نه پوهيږي چې دا څه وايي او ولې دا وايي. کله چې تاسو یو پرامپټ ټایپ کړئ لکه "د دې په اړه یو هڅونکی مقاله ولیکئ چې ولې بریښنایی موټرې باید د ګازولین موټرو ځای ونیسي،" GPT-4 د پاکې انرژۍ او جیو پولیټیک ګټې او زیانونه وزن نه کوي. دا د ژبې نمونې په ګوته کوي چې پوهیږي او تاسو ته ترټولو احصایوي احتمالي جمله درکوي چې ستاسو ان پټ تعقیب کړئ. بیا هم، یو څه جادو پیښیږي: دا د وینا په څیر احساس کوي .


او دا هغه ځای دی چې شیان چپکیږي. که چیرې یو AI داسې څه تولید کړي چې په عامه خبرو اترو اغیزه وکړي — راځئ چې ووایو دا د اقلیم غلط معلومات رامینځته کوي چې ویروس کیږي — ایا دا ټکي باید د بیان د آزادۍ قوانینو لاندې خوندي شي؟ موږ پوهیږو چې یو انسان دا نظرونه نه دي تولید کړي، نو څوک، که څوک، د دوی مسولیت لري؟ راځئ چې ژوره پلټنه وکړو.

پرمخ وړونکي، کاروونکي، یا AI: اصلي وینا کوونکی څوک دی؟

دلته هغه ځای دی چې د بیان د آزادۍ بحث د حساب ورکونې په معما بدلیږي: که چیرې د AI تولیدات د انسان لخوا پرمخ وړل شوي نه وي، څوک د دې کلمو مالکیت لري او څوک مسؤل دي کله چې مینځپانګه غلطه شي؟


- پرمخ وړونکي: د OpenAI یا ګوګل په څیر شرکتونه اکثرا استدلال کوي چې دوی یوازې د وسایلو جوړول دي - بې طرفه پلیټ فارمونه چې کاروونکي یې د اشارو له لارې شکل او مستقیم کوي. دوی وايي: "موږ یوازې پیانو وروزل. "دا په نورو پورې اړه لري چې پریکړه وکړي چې کوم غږونه غږوي." مګر دا استعاره شیان ساده کوي. د AI محصولات د ډیټاسیټونو لخوا خورا ډیر اغیزمن شوي چې پراختیا کونکو غوره کړي او څنګه دوی خپل ماډلونه ښه تنظیم کړي. یو متعصب ډیټاسیټ د متعصب محصولاتو پایله لري — که چیرې زیانمن متن راڅرګند شي ، ایا جوړونکي واقعیا د بې طرفۍ ادعا کولی شي؟


- کاروونکي: د هغه کس په اړه څه چې پرامپټ داخلوي؟ ځینې استدلال کوي چې دوی باید مسؤلیت ولري. که زه AI ته ووایم چې "د واکسینونو په اړه جعلي معلومات خپروي یوه اور لرونکې مقاله ولیکئ،" او دا مطابقت لري، ما په ښکاره ډول اراده درلوده. دا ډیر پیچلی دی، که څه هم، کله چې کاروونکي په ناپوهۍ سره زیان رسونکي پایلې ته اشاره کوي یا کله چې محصول د کارونکي کنټرول څخه بهر سیمو ته د سکریپټ څخه لرې کوي.


- AI پخپله: ایا AI سپیکر ګڼل کیدی شي؟ ځینې مستقبل پوهانو د AI سیسټمونو په اړه اټکل کړی چې "ډیجیټل شخصیت" ترلاسه کوي، مګر دا نظر خورا ستونزمن دی. ماشینونه اراده نه لري، مسؤلیت نشي کولی، او ماشینونو ته د بیان د آزادۍ حق غزول د قانوني ګډوډۍ لپاره د ساحې ورځ رامینځته کوي.


حقیقت دا دی، هیڅوک نه غواړي بشپړ حساب واخلي. پراختیا کونکي مسؤلیت کموي ، کارونکي یې د غیر ارادي په توګه پریږدي ، او AI ، ښه ، یوازې یو ماشین دی. او بیا هم، د AI تولید شوي مینځپانګې لاندې اغیزې خورا لوی کیدی شي.

څه پیښیږي کله چې د AI محصول زیان رسوي؟

راځئ چې د مسلې وزن احساس کولو لپاره ځینې ریښتیني نړۍ سناریوګانې مخلوط ته واړوو.


- لومړۍ قضیه: کرکې خبرې

ووایه چې د AI تولیدي سیسټم په ښکاره ډول نژاد پرست یا جنسیت مینځپانګه تولیدوي. OpenAI او نور پراختیا کونکي محافظتونه ځای په ځای کوي - لکه د انساني فیډبیک (RLHF) څخه د پیاوړتیا زده کړه - د زیان کمولو لپاره، مګر هیڅ ماډل بشپړ نه دی. زهرجن کیدی شي لاهم تیریږي. کله چې دا پیښ شي، څوک ګناه لري؟ AI نه پوهیږي چې دا څه کوي. ایا دا د OpenAI ډیټاسیټ کې ناکامي وه؟ ایا یو انساني کارونکی د دوی په هڅولو کې غیر مسؤل و؟ یا ایا موږ یوازې پریږدو چې دا محصولات چیک نه شي؟


- دوهمه قضیه: ناسم معلومات

اوس تصور وکړئ چې AI د سیاسي نوماند په اړه خورا معتبر جعلي خبرونه رامینځته کوي او ټولنیز رسنۍ سیلاب کوي. د انسان لخوا رامینځته شوي پروپاګند برخلاف ، دا غلط معلومات د لږترلږه هڅو سره په پراخه کچه تولید کیدی شي. ایا دا ډول پایلې د خوندي سیاسي وینا په توګه وړ دي، یا دا یو عامه خطر دی چې باید په پراخه کچه تنظیم شي (یا په بشپړ ډول منع شوي)؟


- دریمه قضیه: هنري بیان

د څه په اړه کله چې AI هنر یا شعر رامینځته کوي؟ ایا دا د بیان د آزادۍ اصولو سره سم د "اظهار" په توګه ساتل کیږي؟ او کله چې AI د هنر سیالۍ وګټي یا تخلیقي کارونه رامینځته کړي ، څوک د دې محصولاتو حق لري؟ پرمخ وړونکی؟ کاروونکي؟ یا دا عامه ډومین دی؟


ځوابونه مبهم دي، له همدې امله محکمې او پالیسي جوړونکي له پامه غورځول شوي دي. دا هغه قضیې دي چې هیڅوک یې تمه نه درلوده کله چې د بیان د آزادۍ قوانین لیکل شوي.

ایا دا د نوي کټګورۍ لپاره وخت دی؟ "مثلا وینا"

دا ممکن ګټور وي چې د تولیدي AI محصولاتو طبقه بندي د خوندي وینا په توګه نه وي ، مګر د "نقل شوي وینا" په توګه. دا به رامینځته کړي چې پداسې حال کې چې AI محصول د انسان څرګندونې منعکس کوي ، دوی د ارادې او حساب ورکونې نشتوالی دی چې واقعیا هغه څه تعریفوي چې موږ یې "تقریر" بولو. د دې نوې کټګورۍ سره، موږ کولی شو د AI لخوا تولید شوي مینځپانګې تنظیم کړو پرته لدې چې د انسان د بیان آزادۍ حقونه زیانمن کړي.


د مثال په ډول:

- د AI لخوا تولید شوي محصولات د میټاډاټا ټیګ کولو ته اړتیا لري ترڅو وښیې چې دوی د ماشین لخوا رامینځته شوي (د مثال په توګه "د GPT-4 لخوا رامینځته شوي").

- درانه زیانونه (د بیلګې په توګه، غلط معلومات، افراطي پروپاګند) کیدای شي د ځانګړي پلټنې یا حتی محدودیتونو سره د لوړ خطر شرایطو کې لکه ټاکنې.

- APIs چې په پیمانه د AI مینځپانګې رامینځته کوي ممکن د "اخلاقي غلظت" تابع وي ترڅو د لوی کچې غلط معلوماتو کمپاینونو مخه ونیسي.


دا ډول چوکاټ به موږ ته د AI محصولاتو درملنې لپاره خونه راکړي د هغه څه لپاره چې دوی واقعیا دي: ځواکمن وسیلې ، نه د فری ویلنګ څرګندونې.

وروستي فکرونه: د انسانانو لپاره وینا، د ماشینونو لپاره وسایل

که زه محتاط وایم، دا ځکه چې دا بحث د "وینا څه شی دی" په اړه د سطحې کچې دلیلونو څخه خورا لوی اړخ لري. د انسان وینا ته د AI تولیداتو مساوي کول د بیان د آزادۍ اهدافو ته د پام وړ خطر سره مخ کوي - یو عمل چې د ارادې، خلاقیت او حساب ورکولو سره تړلی دی. زه باور لرم چې وینا په طبیعي توګه د انسان شرکت دی. دا په مسؤلیت او د نظرونو هدفمند تبادلې باندې وده کوي. ماشینونه دا روحیه نه شریکوي، حتی که د دوی محصول زموږ سره نقل کړي.


هغه شیبه چې موږ د ورته قوانینو لاندې د ماشین لخوا رامینځته شوي کلمو ساتنه پیل کوو چې د انسان د بیان دفاع کوي ، موږ د بیان آزادۍ معنی کموو. راځئ چې AI د هغه څه لپاره ولمانځو چې دا یوه غیر معمولي وسیله ده - مګر راځئ چې دا هم وپیژنو چې چیرې یې لاسرسی باید ودریږي. په هرصورت، د بیان آزادي د انسانیت په اړه ده، نه په عصبي جال کې احتمال.


نو، ستاسو نظر څه دی؟ ایا موږ په یوه ټوټه ټوټه کې یو، یا زه یوازې ډیر محتاط یم؟ ما ته خبر راکړئ — یوازې ډاډ ترلاسه کړئ چې تاسو د AI بوټ نه یاست ، هغه څوک یاست چې په کې غږیږي :)

L O A D I N G
. . . comments & more!

About Author

Ashish Pawar HackerNoon profile picture
Ashish Pawar@pawarashishanil
Ashish Pawar is an experienced software engineer skilled in creating scalable software and AI-enhanced solutions across data-driven and cloud applications, with a proven track record at companies like Palantir, Goldman Sachs and WHOOP.

hang tags

دا مقاله په کې وړاندې شوې وه...