paint-brush
د تشریح وړ AI یوازې د ګډوډۍ بیا نومول دي ، نه یې حل کويلخوا@bigmao
نوی تاریخ

د تشریح وړ AI یوازې د ګډوډۍ بیا نومول دي ، نه یې حل کوي

لخوا susie liu7m2024/12/13
Read on Terminal Reader

ډېر اوږد؛ لوستل

د تشریح وړ AI ګرم دی. د روڼتیا ژمنه د پام وړ ده، مګر د سوداګرۍ بندونه کولی شي د AI ریښتیني وړتیا ودروي. ایا د "ولې" تعقیب د پرمختګ مخه نیسي؟
featured image - د تشریح وړ AI یوازې د ګډوډۍ بیا نومول دي ، نه یې حل کوي
susie liu HackerNoon profile picture
0-item
1-item


تاسو یوازې د AI سیسټم لخوا ګروي رد شوي. هیڅ انسان ستاسو قضیه نه ده بیاکتنه کړې، هیڅ اپیل ممکن نه دی، او ستاسو د تسلیت جایزه یو روښانه توضیح دی: "ستاسو د کریډیټ کارولو تناسب منفي پایلې رامینځته کړې." د ډاډ احساس کوئ؟ داسې فکر نه کاوه .


هرڅومره چې موږ ماشینونو ته کښته کوو ، هومره په لوړ غږ موږ د توضیحي AI (XAI) غوښتنه کوو - هغه وسیلې چې بوټونه ماتوي او موږ د تور بکسونو له ویب څخه وباسو. دا د برنامې بشپړتیا ده! زموږ د ټیکنو فوبیا کمولو او ماشینونو په چک کې ساتلو لپاره یو بند حل.


پرته له دې چې نه وي.


د تشریح وړ AI ګډوډي ساده نه کوي؛ دا یوازې دا بیا برانډ کوي.


هغه څه چې موږ ترلاسه کوو هغه د سرو زرو ډک فریب دی: ملیاردونه د کوډ کولو سیسټمونو کې اچول شوي پداسې حال کې چې اصلي ستونزې - تعصب، ناوړه ګټه اخیستنه، ډیر لاس رسی - ناڅاپه پاتې دي.


قیمت؟ د ډالرو په پرتله ډیر.

XAI 101: نفوذ ډیکوډ کوي، نه اراده

اوسنۍ د تشریح وړ AI (XAI) په میتودونو تکیه کوي لکه SHAP (Shapley Additive Explanations) او LIME (Local Interpretable Model-Agnostic Explanations) تر څو د علت پر ځای ارتباط معلوم کړي. SHAP د کوپراتیف لوبې تیورۍ باندې تکیه کوي ترڅو کلیدي آخذونو ته "ملامت" ورکړي — لکه د عاید کچه ، د کریډیټ تاریخ ، یا د پکسل کلسترونه — د متغیرونو نقشه کول چې ترازو ته یې اشاره کړې ، پداسې حال کې چې LIME د ان پټ ډیټا ټیک کوي ترڅو وګوري چې وړاندوینې څنګه بدلیږي ، یو ساده ماډل رامینځته کوي دا تشریح کوي چې کوم ځانګړتیاوې د یوې ځانګړې پریکړې لپاره خورا مهم دي. د عکس - درانه غوښتنلیکونه د سلینسی نقشه کولو ته لاره هواروي ، کوم چې د تدریجي تحلیل څخه تخنیکونه کاروي ترڅو دا معلومه کړي چې کوم پکسلونه د AI سترګې نیولي. د لوړ ونډې سناریوګانې لکه روغتیا پاملرنې او د جعلي توضیحاتو لپاره د استخدام ځای چې د احتمالي پایلو څرګندولو لپاره د بدیل واقعیتونو خوب ویني که چیرې انډول په احتمالي ډول بدل شي: د مثال په توګه ، "که چیرې تومور 2mm کوچنی و؟"


که تاسو غواړئ د بریښنا لوی بیل تادیه کړئ، XAI کولی شي د پام وړ راپور ورکړي چې څه مهم دي. خو ولې ؟ ندا.

د 'ولې' د پوښتنې په وړاندې قضیه

"زما د عصبي عصبي شبکې 34th پرت په پورتنۍ ښي کواډرینټ کې د 12.3٪ پکسل شدت بې نظمۍ ثبت کړې ، د 15-سیمه ایز ډیټاسیټونو کې د خرابۍ نښه کونکو سره تړاو لري چې د ډیموګرافیک او جنیټیک هماهنګۍ لپاره نورمال شوي ، د باور نمرې ترلاسه کوي چې د بایرشیا لخوا رامینځته شوي. شاته اندازه کول."


دا هغه څه دي چې " ولې" ورته ښکاري. مغشوش؟ په یقین سره . راحته؟ .


مګر د دې کچې توضیحاتو رامینځته کول (چې ډیری به یوازې د IKEA مجلس لارښود سره یوځای شي) یوازې ګران ندي - دا به ګډوډي وي . په بده توګه. تشریح کول کمپیوټري سرچینې له مینځه وړي ، نوښت ورو کوي ، او خطرونه رامینځته کوي چې هر نوی پرمختګ د ځان توجیه کولو بیوروکراسي بدلوي. پداسې حال کې چې د توضیح کولو ژمنې عالي احساس کوي ، د سوداګرۍ بندونه کولی شي د AI ریښتیني ظرفیت ودروي. ایا د "ولې" هدف د پرمختګ مخه نیولو ارزښت لري؟


په نهایت کې، مهمه نده چې AI څنګه کار کوي - دا دا ده چې ایا دا زموږ لپاره * کار کوي.


روښانه کول ارزانه ندي

د ریښتیني ځواب ورکولو لپاره چې ولې پریکړه شوې وه ، راپورته کیدونکي ټیکنالوژي لکه نیورو سمبولیک AI ، متضاد توضیحات ، او د علت تحلیل ماډلونه رامینځته کیږي. دا میتودونه په هایبرډ جوړښتونو تکیه کوي چې د ژورې زده کړې نمونې پیژندنه د سمبولیک استدلال د اصولو پراساس منطق سره ترکیب کوي. د داسې سیسټمونو روزنه د پام وړ لوړ کمپیوټري سرچینو ته اړتیا لري، ځکه چې دا ماډلونه باید په ورته وخت کې غیر منظم شوي ډاټا (د بیلګې په توګه، انځورونه یا متن) او د منطقي جوړښت چوکاټونه پروسس کړي، د ګډ پیچلتیا معرفي کوي چې د دندې د اندازې سره بیلون کوي.


مګر اصلي ننګونه په هارډویر کې ده. اوسني GPUs او TPUs، لکه د NVIDIA's H100 یا د Google's TPU v5، د دې لپاره ډیزاین شوي چې د روزنې او انټرنېشن لپاره د ټرپوټ اعظمي کولو لپاره ډیزاین شوي - نه د تکراري، تدریجي - درنو کمپیوټرونو لپاره چې د XAI لپاره اړین دي. د پرمختللو توضیحاتو رامینځته کول ، لکه د علت ځانګړتیا یا د پاملرنې لید لید ، د تدریجي بیا پلی کولو ، متحرک حافظې لاسرسي ، او د ټیټ ځنډ موازي کولو لپاره مطلوب چپس ته اړتیا لري. د XAI کاري بار په بنسټیز ډول مختلف هارډویر غوښتنه کوي ، په ځانګړي توګه د ریښتیني وخت غوښتنلیکونو لپاره لکه خودمختاره وسایط یا طبي تشخیص ، چیرې چې تشریح باید د وړاندوینو ترڅنګ واقع شي. وګورئ چې لوی هلکان د LLMs بریښنا کولو لپاره د چپس لپاره څومره پخلی کوي. د XAI ځانګړي چپسونو رامینځته کولو لګښت به احتمال د کمپیوټري سر نوي پرتونو ته اړتیا له امله ډیر شي. د انجینرۍ ننګونه؟ نور د مالي خوب په څیر.

د ذهن سوله VS پرمختګ پاراډوکس

د AI جوړول لا دمخه د تجربې او اصلاح کولو لوړ تار عمل دی. په مخلوط کې د وضاحت وړتیا اضافه کړئ، او تاسو یوازې د ټایټروپ په لاره نه یاست - تاسو دا په خپل شا کې د یخچال سره ترسره کوئ.


تشریح کول د بیا معمارۍ ماډلونو غوښتنه کوي ترڅو د تشریح وړ محصول تولید کړي. د لوړ فعالیت سیسټمونه لکه د لید ټرانسفارمر (ViTs) په پیچلتیا کې وده کوي - د لوی ډیټاسیټونو سکین کول ترڅو د پام وړ نمونې راوباسي - مګر د دوی توضیحي کول اکثرا د پاملرنې میکانیزمونو یا سروګیټ ماډلونو ځای په ځای کول معنی لري ، کوم چې کمپیوټري ځواک سیفون کوي او کولی شي فعالیت ټانک کړي. د پیاوړتیا زده کړې کې، پراختیا کونکي مجبور کیدی شي چې د انعام جوړښتونه ساده کړي یا د منلو وړ پالیسي ډیزاین کړي، د اجنټ د اصلاح کولو وړتیا په ګونډو کړي. ورته پیچلتیا چې د پام وړ پایلې رامینځته کوي په هغه سیسټم کې چې د روڼتیا اړتیاو سره تړلې وي په بدیل بدلیږي .


د دیو پایپ لاین هم ښه ټکان ترلاسه کوي. د تشریح کولو تخنیکونه لکه د نقل یا علت ماډلینګ په ګډوډ شوي ډیټاسیټونو کې د تکراري ارزونو غوښتنه کوي او د بیاکتنې اوسني پیس ته د پوسټ هاک تاییدونو په پرت کې پرت اضافه کوي (فکر وکړئ د هایپرپرامیټرونو اصلاح کول ، د ضایع کیدو فنکشنونه ، او په پیمانه چلول اټکل). دا یو څو اضافي ګامونه نه دي؛ دا په هر پړاو کې یو میراتون دی، هغه څه چې باید د بریالیتوبونو په لور یو بیوروکراټیک شعار بدل کړي. د محاسبې بار؟ توضیحات سایکلونه خوري لکه دوی وړیا دي ، په پرمختللو برخو کې لکه ملټي ماډل یا تولیدي AI کې دمخه د ګلیشیل روزنې پروسې ورو کوي.


حوزه، تا جوړ کړ! دومره ګړندی ندی ، مقررات د وروستي باس په توګه ګام اخلي. د روغتیا پاملرنې او مالیې په څیر صنعتونه د ګمارنې لپاره توضیحي وړتیا لري ، مګر دا اړتیاوې ډیری وختونه داسې احساس کوي لکه د لو هیملټن څخه وغواړي چې د پای کرښې څخه تیریدو دمخه د هغه د مړوند هر توجیه توجیه کړي. پراختیا کونکي ډیر وخت تیروي ترڅو ثابت کړي چې د دوی ماډلونه د تشریح وړ دي د دې ډاډ ترلاسه کولو په پرتله چې دوی په ښه توګه کار کوي. د AI لخوا پرمخ وړل شوي سرطان تشخیصي وسیله په نښه کړې؟ په زړه پوري — اوس لاړشئ هر تدریجي او وزن د لید شوي ریګز کوټې ته تشریح کړئ. په هغه وخت کې چې تاسو سرته رسولی وي، ټیک شاید متروک شوی وي، او هغه نوښت چې تاسو یې تعقیب کوئ د تعمیل پاکولو کې پاتې دی.


تشریح کول لومړیتوبونه خرابوي. د دې پرځای چې د AI څه ترلاسه کولی شي د حدودو فشار راوړي ، ټیمونه اړ دي چې د روڼتیا غوښتنو شاوخوا ټیپټوي وکړي. پیل او څیړونکي یو شان ممکن د زړور نظرونو څخه شاته شي ، د مون شاټونو په اړه د موافقت دوستانه وینیلا تکرار غوره کوي. د پرمختګ سټالونه، د هوښیارۍ فزیلونه، او ساحه په انچو کې مخکې ځي کله چې دا باید سپرینګ وي .

د روسیې د ګولۍ ستونزه: توضیحات د توضیحاتو غوښتنه کوي

د تشریح وړ AI ادعا کوي چې د نه منلو وړ ساده کول دي، مګر تشریح کوونکی هیڅ سنت نه دی. هر هغه وسیله چې د پرمختللي ماډل د افشا کولو لپاره کافي هوښیار ده د خپل اسرار رامینځته کولو لپاره خورا هوښیار دی . تشریح کونکی ژباړونکي ته اړتیا لري، ژباړونکی به ژباړونکي ته اړتیا ولري، او تاسو ټکی ترلاسه کړئ. تکرار د وحی په توګه راوتلی، موږ ته هیڅوک نه پریږدي.


متضاد توضیحات واخلئ، هغه هلکان چې د بدیل واقعیتونو تقلید کوي - د بیلګې په توګه څه شی که تاسو د ایوکاډو ټوسټ د ویشلو پرځای خوندي کړي - ترڅو وښيي چې پایلې به څنګه بدل شي. مګر دا سناریوګانې د اصلاح کولو انګیرنې باندې تکیه کوي چې په ندرت سره ریښتیا وي ، لکه د ځانګړتیاو خپلواکي یا د معلوماتو تر مینځ خطي اړیکه. کله چې دا انګیرنې ناکامې شي، توضیحات یو بل د پام وړ خلاصون شي. او د دې د حل لپاره؟ د causal ماډلونو یا سلینسی نقشو دوهمه طبقه، موږ ته ژوره سرپل ته رسوي چیرې چې هره نوې وسیله د خپل ژباړونکي غوښتنه کوي. د تور بکس د ماتولو پر ځای، موږ یوازې په دننه کې کوچني، مساوي ناپاک ځالې جوړوو .


ملټي موډل سیسټمونه — AI ماډلونه چې متن ، عکسونه او آډیو ټول په یوځل پروسس کوي — په زړه پورې ګټور دي ، مګر په ناخوښه ډول مغشوش شوي. دا تشریح کول چې څنګه دا سیسټمونه په پراخه کچه مختلف ځایونو کې سیالي کونکي آخذې توازن کوي یو هیرکولین دنده ده چې د فیوژن میکانیزمونو (لکه د پاملرنې پرتونه یا کراس ماډل ټرانسفارمرونه) ډیکوډ کول شامل دي چې د ډیری مختلف ډیټا ډولونو کې ځانګړتیاوې وزن او تنظیموي. مګر دا د توضیحي وسیلې پخپله د پیچلي اصلاح کولو لوپونو او پیرامیټرونو ټونینګ باندې تکیه کوي ، د تحلیل اضافي پرتونو ته اړتیا لري.


آه، په زړه پورې ستړیا : XAI د AI له مینځه وړل نه کوي - دا یو بل ماشین جوړوي، لکه څنګه چې په زړه پورې وي، د دې برم ترسره کولو لپاره.


موږ تور بکس نه حل کوو؛ موږ دا د جزوي وضاحت په لامحدود برخو ویشو، هر یو د وروستي په پرتله لږ د پوهیدو وړ دی.


هرڅومره چې موږ "ولې" تعقیب کوو ، هومره مبهم او ګران AI رامینځته کیږي ، موږ په خپل ځان تحمیل شوي پاراډکس کې اخته کیږو: AI دومره تشریح کیدی شي ، هیڅ څوک یې نشي تشریح کولی.

خوندي کول، یا د غاړې لاس؟

SHAP او LIME ممکن تاسو ته پاک پای چارټونه وښیې چې په پریکړه یې څه اغیزه کړې ، مګر دا چارټونه یوازې هغومره صادق دي څومره چې خلک یې ډیزاین کوي . تبعیضي پایلې د منطقي په توګه تکرار کیدی شي، د بې ضرر متغیرونو سره لکه د زپ کوډونو او د مصرف کولو عادتونه د پام وړ ځای نیسي پداسې حال کې چې ناوړه تعصبونه - د جنسیت پراکسي، عاید کلسترونه - په اسانۍ سره د چوکاټ څخه بهر پټیږي. په غلطو لاسونو کې، روڼتیا تیاتر کیږي.


په لوړ پوړو ډومینونو کې، سازمانونه کولی شي محصول تولید کړي چې د سختو مقرراتو اړتیاوو سره سمون لري پداسې حال کې چې غیر اخلاقي عملونه یا تخنیکي شارټ کټونه یوازې د څو پیرامیټونو په ترمیمولو سره. تشریح کوونکی ټیک کړئ، سم داستان یې ورکړئ، او غږ: د کوډ په بڼه کې د منلو وړ انکار . د متعصب ډیټاسیټونو یا نیمګړو اهدافو لخوا پرمخ وړل شوي پریکړې کولی شي په پاک شوي منطق کې ډوب شي، د محاسبې لپاره د لارې په ځای د پلټنې په وړاندې د تشریح وړتیا په ډال بدلوي - د سیډو - منطق یو بې ساري پرت ډیزاین شوی چې مخکې له دې چې پوښتنې پیل شي ودروي .

"ولې" هیڅکله ستونزه نه وه

د دې پر ځای چې د AI ځان تشریح کولو لپاره ملیاردونه ولګوو، موږ باید د دې په ښه کولو تمرکز وکړو. د AI سره اصلي ستونزې دا ندي چې موږ نه پوهیږو چې ولې دا هغه څه کوي چې دا یې کوي - دا هغه څه دي چې دا په لومړي ځای کې غلط کارونه کوي. په پریکړو کې تعصب؟ د 50 پرت توضیحاتو پرځای چې ولې د ټیک آوټ امرونو او تخلصونو پور رد کړ ، په سرچینه کې د الګوریتمیک تعصب کمولو کې پانګه اچونه وکړئ: ډیټاسیټونه بیا وزن کړئ ، د روزنې پرمهال د عادلانه محدودیتونو پلي کول ، یا د پټ تعصب افشا کولو او لرې کولو لپاره مخالف تخنیکونه وکاروئ. روټ سم کړئ مخکې له دې چې موډل ته پخه شي.

تشریح کول هم اعتبار نه حل کوي. د غلطو توجیه کولو لپاره د LIME یا SHAP په څیر وسیلو سره د شا تګ پرځای ، د اصلاح کولو قوي تخنیکونه وکاروئ کوم چې ماډلونه د شور یا مخالف معلوماتو لپاره لږ حساس کوي. ښه منظم کول، د بهر کشف، او د کیلیبریشن میتودونه - لکه د تودوخې اندازه کول یا د بایسیان ناڅرګندتیا ماډلونه - کولی شي ډاډ ترلاسه کړي چې وړاندوینې نه یوازې دقیقې بلکې د اعتبار وړ دي. دا کړنلاره د خرابو پریکړو د زیات تشریح کولو ګډوډ منځنی طبقه پریږدي او په غوره کولو تمرکز کوي.


مقررات یو بل سرحد دی چې د XAI قانع شوي جمناسټیک ته اړتیا نلري. باور اړین نه دی چې AI خپل روح ولري، یوازې دا چې AI په دوامداره توګه کار کوي. د مبهم معیار په توګه د توضیحي وړتیا ورکولو پرځای ، د خورا خراب حالت یا څنډې سناریوګانو او د پلټنې پایپ لاینونو لپاره د قوي ازموینې چوکاټونو ته فشار ورکړئ. د دې په اړه فکر وکړئ لکه د موټرو لپاره د حادثې ازموینې - هیڅ څوک اړتیا نلري چې د ایربګ ځای پرځای کولو میکانیک پوه شي؛ موږ باید پوه شو چې دا کار کوي. ولې AI باید توپیر ولري؟


"ولې" یو ګډوډ دی. غوره پوښتنه دا ده چې "څه" - موږ څه کولی شو چې AI غوره، خوندي او ډیر باوري کړو؟


نړۍ 100 ګامه توضیح ته اړتیا نلري چې څه غلط شوي.


دا داسې سیسټمونو ته اړتیا لري چې په لومړي ځای کې شیان سم ترلاسه کړي.


وروستنی فکرونه: بیړه وکړئ، مګر احمق مه کیږئ

که چیرې AI تاسو د نږدې Xanax سره لاس او ګریوان نه وي، نو تاسو یا هم یو متعصب یاست، په انکار کې، یا د ګډوډۍ نقشه. AI خورا ډارونکی دی . مګر موږ نشو کولی د وجود ویره موږ ته د پلیسبو حلونو ته اړ کړو لکه د ګډوډۍ په څیر چې موږ یې د حل کولو هڅه کوو .


مسخره ، د AI اداره کولو غوره لاره ممکن پدې باندې لږ تکیه کول وي. هره ستونزه د ماشین زده کړې حل ته اړتیا نلري، او ځینې وختونه، ساده زاړه انسان قضاوت سم کار کوي. خندل ډارېږئ. د پارونیا ځواک پرمختګ کوي .

مګر اجازه مه ورکوئ چې ویره موږ د هغه سیسټمونو په پرتله احمق کړي چې موږ یې د ماتولو هڅه کوو.