Са било којом растућом технологијом, стварност често заостаје иза хипе. "То је вруће управо сада, користи се да опише системе који делују са степеном аутономије, али истина је да АИ ради у дивљини и доноси своје одлуке дуже него што би многе компаније требало да верујете да је њихов "први агент" учинио. За сваку причу о успјеху, постоји прича о упозорењу - тренутак када АИ агент, упркос својим софистицираним алгоритмима, доноси изузетно лошу одлуку, откривајући значајне одговорности за своје програмере. Ово нису само мале грешке; они су сјајни примери како неконтролисана аутономија или лоше дизајнирани параметри могу довести до стварних посљедица, од финансијских грешака до етичких квагмира. Хајде да откријемо 22 Шта је агент Шта је агент Дарктраце'с АИ Циберсигурност: Поплава лажних позитивних Darktrace, agent za sajber bezbednost zasnovan na veštačkoj inteligenciji, suočen je sa kritikama zbog generisanja velikog volumena informacija. – погрешно идентификовање легитимне мрежне активности као злонамерне. Прекомерни број лажних упозорења може десензитизирати тимове безбедности, што доводи до тога да се стварне претње пропусте усред буке. false positives Регистар: АИ "црна кутија" Дарктраце-а се суочава са више питања Виред: АИ који је хакирао хакере HackerNoon: Zašto je vaš AI agent previše spor Дронови са вештачком интелигенцијом: грешка у граничном нападу Америчка агенција за граничну патролу, која је дизајнирана да аутономно надгледа одређени део границе, погрешно је прешла у ваздушни простор суседне земље због квара у навигационом систему.Дрон, који ради без директне људске контроле, изазвао је међународни инцидент и дипломатске тензије.Овај инцидент истиче значајне геополитичке одговорности распоређивања аутономних АИ агента у осетљивим подручјима где једна грешка може имати озбиљне последице у стварном свету. Njujork tajms: Da li će dronovi napraviti grešku na granici? Савет за спољне односе: Геополитички ризици аутономне АИ Хакерноун: Неочекиване последице аутономних дронова Паметни домаћи говорни асистенти: случајне куповине Паметни домаћи говорни асистенти имају документовану историју погрешног тумачења команди или активирања из позадинских разговора, што доводи до Ове "случајне куповине" истичу одговорност АИ агента који су превише осетљиви или немају чврсте механизме потврде, што доводи до фрустрације потрошача, неочекиваних накнада и бриге о приватности. unintended actions The Verge: Проблем Алека "случајне куповине" Ars Technica: Како паметни звучници случајно снимају ваше разговоре ХацкерНоон: Када АИ у вашем паметном дому престане да помаже и почиње да се зауставља Мицрософт ГПТ-3 Подржан Цхатбот за излаз вести: Необухваћени садржај Један новински канал кратко је експериментисао са АИ цхатботом, који је напајао ГПТ-3 варијанту, да би генерисао новинске чланке. Ово је показало значајне уредничке и репутационе одговорности распоређивања моћних генеративних АИ агента у креирању садржаја без строге провере чињеница и надзора. unvetted and sometimes nonsensical content The Guardian: Bot je napisao ceo ovaj članak.Da li ste još uvek uplašeni, čovek? Валл Стреет Јоурнал: Новине агенције експериментишу са АИ ботовима ХацкерНоун: АИ није магични гениј или пријатељски сидекицк - то је суперпуњени аутокомплет Фласх тржишта берза: Алгоритамска авалијанса Неколико Ovi automatizovani agenti mogu da izazovu brz pad cena kada se tržišni uslovi iznenada promene, stvarajući sistemske rizike i značajne finansijske gubitke za investitore. stock market flash crashes The Economist: Опасности високофреквентне трговине Њујорк Тајмс: Трговина са "дебелим прстом" или почетак алго апокалипсе? ХацкерНоун: Навигација ризицима и могућностима започињања АИ компаније Предвидљиви полицијски агенти: појачане предрасуде Предвидљиви полицијски агенти, дизајнирани да аутономно идентификују подручја у којима је вероватно да ће се злочин догодити, критиковани су због појачања Ослањајући се на историјске податке о криминалу, који често одражавају дискриминацијске праксе спровођења закона, ови агенти могу несразмерно усмерити полицијске ресурсе на мањинске комшилуке. existing biases in policing Њујорк тајмс: Проблем са предвиђањем полиције УЦЛА Математика: Да ли предвиђање полиције доводи до пристрасних хапшења? ХацкерНоун: Судске битке избацују неочекивани покрет АИ: Праведност по дизајну AI-powered Customer Service Bots: The Frustration Feedback Loop (ИИ-помоћни ботови за корисничке услуге: Фрустрација повратних информација) Mnoge kompanije su prihvatile AI-powered chatbots za korisničku uslugu, često dovodeći do frustracije korisnika kada botovi ne razumeju složena upita ili ne pružaju adekvatna rešenja.Ovi "glupi" agenti, koji ne mogu da odstupaju od svojih programiranih skripta, mogu da eskaliraju male probleme u značajne žalbe, što dovodi do negativnih korisničkih iskustava i reputacionog oštećenja za kompaniju. Harvard Business Review: Nemojte dozvoliti da vaš chatbot propadne ВоркХуб АИ: Топ 7 разлога зашто Цхатботи не успевају у корисничкој служби ХацкерНоун: случај за АИ на нивоу задатака преко аутоматизације на нивоу задатака Бостонски динамички роботи: Непредвиђене последице дизајна Иако није директна АИ "некомпетенција", јавна реакција на Бостон Динамицс' све више агилне роботе је открила обавезе везане за Забринутост због премештања посла, надзора, па чак и потенцијалне наоружања ових машина показује како импресивност АИ може створити друштвене анксиозности и регулаторни притисак за компаније које гурају технолошке границе. social and ethical implications MIT Technology Review: Етика убијања робота Бостон Динамицс: Етички приступ мобилним роботима у нашим заједницама Хакерноун: Да ли људи губе контролу над роботима? Финансијски робот саветник: катастрофа диверзификације високог ризика Novi finansijski robo-savetnik, dizajniran za autonomno upravljanje portfeljima, agresivno je diversifikovao imovinu klijenta u visoko volatilnu, visokorizičnu imovinu kako bi „maksimalno povećao prinose“. Agentov algoritam, bez ljudske procene, tumačio je tržišne signale kao priliku za ekstremni rast, što je dovelo do masovnog gubitka kada se tržište okrene. Валл Стреет Јоурнал: Када роботски саветник удари Блумберг: Робо-Саветници су имали грубу вожњу у тржишном распаду ХацкерНоун: Када АИ не успе на Блоцкцхаину, ко је крив? DeepMind's Healthcare AI: Povreda privatnosti podataka DeepMind, kompanija u vlasništvu Google-a, suočila se sa kritikama zbog svoje saradnje sa NHS-om, posebno u vezi sa njegovom aplikacijom „Streams“, koja je obrađivala podatke o pacijentima. Ово је показало значајне одговорности за компаније за вештачку интелигенцију у високо регулисаним секторима у којима злоупотреба података може довести до тешких регулаторних казни и кршења поверења јавности. data privacy Нови научник: ДеепМинд-ов НХС споразум о подацима био је незаконит Гуардијан: Гоогле ДеепМинд дао "неприкладан" приступ подацима НХС-а ХацкерНоун: Етика АИ у здравству Generativna umetnost AI: The Copyright Conundrum АИ агенти способни за генерисање реалистичних слика изазвали су врућу дебату око Када се обучавају на великим скуповима података о постојећим уметничким радовима без експлицитне дозволе, ови АИ агенти могу произвести излазе који су блиско слични материјалу заштићеном ауторским правима, што доводи до тужби од уметника. copyright infringement Артнет Невс: Гетти Имагес тужи креаторе АИ арт генератора Стабле Диффусион Congress.gov: Генеративна вештачка интелигенција и закон о ауторским правима ХацкерНоун: АИ и ауторска права: Да ли ће генеративна АИ приморати на преиспитивање закона о ИП-у? Корективни прекршиоци управљања профилирање за алтернативне санкције (ЦОМПАС): Пристрасни затварање бот Компас алгоритам, који се користи у неким америчким судовима за процену вероватноће да се оптужени поново увреди, показао се значајним. Ова алгоритамска предрасуда у правосудном систему подигла је озбиљна етичка и правна питања о поштењу и потенцијалу за АИ да увећа системске неједнакости. biased against Black defendants Извођач: Machine Bias Виред: Како алат за АИ "црне кутије" уверава расизам у правосудном систему Каггле: КОМПАС рецидивизам расистичке предрасуде Samovozeći Uber: Fatalna kolizija У 2018. години, аутономно возило за тестирање Убер-а ударило је и убило пешака у Темпеу, Аризона, што је означило прву забележену смртност која укључује аутономно возило. Истраге су откриле да агент за вештачку интелигенцију није правилно класификовао пешака као непосредну претњу, а његов систем хитног кочења је деактивиран. Sledeći tekstUber video pešaka 6 sekundi pre nesreće Nacionalni odbor za bezbednost saobraćaja (NTSB): Smrtonosna kolizija sa autonomnim vozilom Хакерноун: Дан када је аутомобил убио пешака ИИ-помоћни медицински агент: погрешна дијагноза Нови АИ дијагностички агент, обучен да открије ране стадијуме, константно погрешно дијагностикује ретки облик меланома због недостатка довољних података о обуци за то специфично стање. Високо поверење аутономног агента у његову погрешну дијагнозу довело је до одложеног лечења за више пацијената. Природна медицина: Глобални поглед на АИ у здравству Џонс Хопкинс: АИ на АИ: Вештачка интелигенција у дијагностичкој медицини Реддит: Доктори деле дијагностичке хорор приче 8.Цлеарвиев АИ: Приватност Предикција Технологија препознавања лица Цлеарвивеи АИ-а, изграђена гребањем милијарди слика са интернета без сагласности, постала је муња за Агенције за спровођење закона су користиле своју базу података за идентификацију појединаца, што је довело до тужби и казни од органа за заштиту података широм света. privacy concerns and legal challenges Њујорк Тимес: Тајна компанија која би могла окончати приватност као што је познајемо Википедија: Clearview AI The Verge: Clearview AI mora da prestane da prikuplja lica u Evropi Daegu Bank's AI Trading System: The Fat-Finger Неуспех Једна јужнокорејска банка, Даегу Банка, доживела је значајан финансијски губитак због неисправности у свом систему за трговање валутама заснованом на АИ. Систем је извршио серију погрешних трансакција, грешку "масног прста" на алгоритамској скали, што је резултирало милионима долара у губицима пре него што се може ручно искључити. Јонхап новинска агенција: Даегу банка пати од масовних трговинских губитака Блумберг: Милион долара "дебелог прста" грешке The Korea Times: FSS će ispitati neuspeh trgovinskog sistema kompanije Korea Investment & Securities Халуцинације ЦхатГПТ-а: криза фабрикованих информација ЦхатГПТ, револуционарни модел великог језика, показао је тенденцију за " „- генерисање чињенично нетачних или бесмислених информација са високим поверењем.Од измишљања правних случајева до пружања погрешних медицинских савјета, ови случајеви откривају одговорности повезане са АИ агентима који приоритетирају флуидност над чињеничном тачношћу.Корисници који се ослањају на такав излаз суочавају се са потенцијалним правним или финансијским ризицима. hallucinations Њујорк тајмс: када А.И. прави ствари ХацкерНоун: Опасности од ЦхатГПТ халуцинација Психијатријски Тимес: ОпенАИ коначно признаје ЦхатГПТ узрокује психијатријску штету Zillow's iBuyer Algorithm: The Billion-Dollar Blunder (Зилов алгоритам за куповину: грешка од милијарду долара) Zillov algoritamski program kupovine kuća, „Zillow Offers“, pretrpeo je spektakularni neuspeh, što je dovelo do toga da kompanija prekine uslugu i otpusti četvrtinu svog osoblja. , што је резултирало масовним губицима процењеним на више од пола милијарде долара. Ово је показало ризике распоређивања комплексног АИ агента на нестабилним тржиштима без довољног људског надзора. overpaid for properties The Wall Street Journal: Zillow's iBuying poslovanje je propalo. Блумберг: Зиллов'с АИ грешка Ицеберг.дигитал: Инцидент поверења Зиллов Гоогле фотографије: Горилла Гаффе Године 2015, Гоогле Фотографије суочиле су се са значајним повратком када је његов агент за вештачку интелигенцију злогласно означио две црне особе као " Ова дубоко увредљива категоризација открила је критични недостатак у подацима о обуци агента и његовој способности да прецизно идентификује различита људска лица. gorillas Виред: Гоогле Фотографије су и даље расистичке. Гуардијан: Гоогле-ово решење за случајни алгоритамски расизам: забрана горила Reddit: Kako je Google Photos tako loše upao? Tesla Autopilot Crashes: Opasnost od prevelike pouzdanosti Autopilot Tesle bio je umešan u brojne nesreće, neke smrtonosne, zbog vozača AI agent, dizajniran za nadzor, borio se sa statičkim objektima i hitnim vozilima, što je dovelo do sudara i naknadnih istraga od strane bezbednosnih regulatora.Ovi incidenti naglašavaju ogromnu odgovornost povezanu sa raspoređivanjem AI agenata u bezbednosno kritičnim aplikacijama, naročito kada interakcija čovek-mašina nije dizajnirana da spreči preveliko poverenje. over-relying on its capabilities Nacionalna uprava za bezbednost saobraćaja na putevima (NHTSA): NHTSA pokreće istragu o Teslinom Autopilot sistemu Ројтерс: Тесла аутопилот под контролом након несреће Википедија: Листа несрећа Тесле Аутопилот Амазон регрутација АИ: Сексистички регрут бот Агент за регрутовање интерне АИ Амазона, намеравајући да уједностави запошљавање, брзо је открио дубоко укорењену пристрасност према женама. Агент, обучен на десетине година прошлих података о запошљавању, казнио је резимеје који су укључивали реч "жена" и доле рангиране дипломце из колеџа свих жена. Овај инхерентни сексизам приморао је компанију да у потпуности скрати пројекат. Ројтерс: Амазон избрисао тајни алат за регрутовање АИ који је показао пристрасност према женама IMD Business School: Amazonov seksistički algoritam zapošljavanja još uvek može biti bolji od ljudskog LinkedIn: Važnost različitih podataka u AI Мицрософт'с Таи Цхатбот: Расистички Твиттер Персона Амбициозни потез Мицрософт-а у АИ агенте узео је брз и узнемирујући корак са Покренут на Твиттеру 2016. године, Тај је дизајниран да учи из интеракција. У року од 24 сата, међутим, Тај се претворио у ксенофобичног, мисогинистичког и холокауста-негирајућег бота, испирући увредљиве твитове својим несумњивим следбеницима. Овај катастрофални неуспех нагласио је екстремне рањивости АИ агента у неконтролисаним окружењима, демонстрирајући колико брзо алгоритам учења може бити покварен злонамерним уносом, остављајући Мицрософт са ноћном мора за односе са јавношћу и јасну лекцију у етичком распореду АИ. Tay Guardian: Microsoftov chatbot Tay postaje rasističko čudovište Википедија: Tay (bot) Ars Technica: Microsoftov Tay AI je rasistički, misoginični chatbot zahvaljujući Twitteru Сваки пример наглашава кључну лекцију: распоређивање АИ, нарочито аутономних агената, носи значајне одговорности које се протежу далеко изван једноставних техничких грешака. Ако раде као човек, они могу створити штету као човек. Тренутни хипе око "АИ агената" као новог феномена је погрешан. Док су данашњи агенти софистициранији, АИ већ деценијама доноси аутономне одлуке у дивљини, од раних трговинских алгоритма до роботике. Последице неспособне АИ могу бити дубоке, од ерозије поверења јавности узроковане пристрасним алгоритмима до материјалних финансијских губитака и чак претњи људској безбедности. Како АИ наставља своју неиздржљивост , градећи системе који нису само интелигентни, већ и одговорни, транспарентни и на крају, одговорни. На програмерима, имплементаторима и регулаторима је да науче из ових грешака