Sa anumang bumubuo ng teknolohiya, ang katotohanan ay karaniwang hinaharap sa ilalim ng hype. Ito ay hot ngayon, ginagamit upang ilarawan ang mga sistema na gumaganap sa isang antas ng autonomiya, ngunit ang katotohanan ay, ang AI ay nagtatrabaho sa wild and making its own decisions for longer than many companies would have you believe their "first agent" did. Para sa bawat kasaysayan ng pagganap, mayroong isang cautious story - isang oras kung saan ang isang AI agent, maliban sa kanyang sophisticated algorithms, ay gumaganap ng isang napaka-kakaiba na mababa na pananampalataya, na inihahanda ng mahalagang mga responsibilidad para sa kanyang deployments. Ito ay hindi lamang isang maliit na mga pag-aayos; sila ay lumiligtas na mga halimbawa ng kung paano unchecked autonomiya o malakas na disenyo parameter ay maaaring humantong sa real ang agent ang agent Darktrace's AI Cybersecurity: Ang mga false positives flood Darktrace, isang AI-driven cybersecurity agent, ay nakikipag-ugnayan sa kritika para sa generating isang mataas na volume ng Ang maliliit na antas ng negosyo sa mga sumusunod na sektor ay kinakailangan: pagproseso ng produktong agrikultural ( false positives The Register: Darktrace's AI 'black box' ay may karagdagang mga tanong Wired: Ang AI na hacked ang mga hacker HackerNoon: Bakit ang iyong AI agent ay quá slow I-powered Drones: Ang Border Incursion Mishap Ang isang U.S. border patrol agency's AI-powered surveillance drone, na dinisenyo upang autonomously monitor a specific border section, aksidentally crossed into a neighboring country's airspace due to a navigation system glitch. Ang drone, operating nang walang direct human control, sparked isang internasyonal na incidente at diplomatic tensions. Ang incidente na ito ay nagpapakita ng mahalagang geopolitical responsibilities ng pag-setup ng autonomous AI agents sa sensitive areas kung saan isang single miscalculation ay maaaring magkaroon ng karaniwang, real-world consequences. The New York Times: Maaari ba ang AI drones gawin ang isang error sa border? Council on Foreign Relations: Ang mga Geopolitical Risk ng Autonomous AI HackerNoon: Ang mga Unintended Consequences ng Autonomous Drones Smart Home Voice Assistants: Ang mga aksidental na pagbili Ang mga smart home voice assistant ay may isang dokumentadong kasaysayan ng malinterpretasyon ng mga komento o pag-activate sa sarili mula sa background conversations, na nagdadala sa mga pag-aaral. Ang mga "accidental purchases" na ito ay nagpapakita ng responsibilidad ng mga agente ng AI na ay overly sensitive o nangangailangan ng malakas na mga mekanismo ng pag-confirmation, na nagdadala sa consumer frustration, unforeseen charges, at privacy concerns. unintended actions The Verge: Ang Alexa "accidental purchase" problema Ars Technica: Kung paano ang mga smart speakers ay nangangailangan upang i-record ang iyong mga konversasyon HackerNoon: Kapag ang AI sa iyong smart home ay nagsisimula sa tulong at nagsimula sa pag-aayos Ang Microsoft's GPT-3 Powered Chatbot para sa isang News Outlet: Ang Unvetted Content Isang news outlet briefly eksperimento sa isang AI chatbot, na inilapat ng isang variante ng GPT-3, upang lumikha ng mga artikulo ng balita. Ito ay nagpapakita ng mahalagang editorial at reputasyon responsibilidad ng pag-implementasyon ng malakas na generative AI mga agens sa paggawa ng content nang walang karaniwang fact-checking at supervision. unvetted and sometimes nonsensical content The Guardian: Ang isang bot ay nagsulat ang buong artikulong ito. Are you scared yet, human? Wall Street Journal: Ang mga news agencies ay eksperimento sa AI bots HackerNoon: AI ay hindi isang Magical Genius o isang Friendly Sidekick - Ito ay isang Supercharged Autocomplete Ang stock market flash crashes: ang algorithmic avalanche ilang Ang mga automated na mga agens na ito ay maaaring i-activate ang mga mabilis na pagbabago ng presyo kapag ang mga kondisyon ng merkado ay nagsisimula, na lumikha ng mga systemic risk at malaking financial losses para sa mga investors. stock market flash crashes The Economist: Ang mga peligro ng high-frequency trading The New York Times: Ang isang ‘fat-finger’ trade? o ang simula ng isang Algo Apocalypse? HackerNoon: Pag-navigate sa Mga Risk at Oportunidad ng Pag-unlad ng isang AI Company Ang mga Predictive Policing Agents: Ang Amplified Bias Ang mga predictive police agents, na dinisenyo upang autonomously identify ang mga lugar kung saan ang krimen ay matatagpuan, ay naging kritikal para sa pag-amplifying Sa pamamagitan ng pag-aalok sa mga data ng kasaysayan ng krimen, na karaniwang nagpapakita ng diskriminasyon na pananampalataya, ang mga agent na ito ay maaaring i-direct ang mga resource ng pulisya disproportionately sa mga minority na lugar. existing biases in policing The New York Times: Ang problema sa predictive policeing UCLA Mathematics: May Predictive Policing Magpapatakbo sa Biased Arrests? HackerNoon: Court Battles Spark ang isang Unanticipated AI Movement: Fairness by Design Ang AI-powered customer service bots: ang frustration feedback loop Maraming mga kumpanya ay pinapansin ng AI-powered chatbots para sa customer service, karaniwang humantong sa customer frustration kapag ang bots ay hindi makikita ang mga karaniwang queries o magbigay ng adekvata na mga solusyon. Ang mga "dumb" na mga agensya na ito, hindi makakapasok sa paglipat mula sa kanilang programadong mga script, ay maaaring i-escalate ang mga minor na mga problema sa malaking mga pag-iisip, na nagpapakita sa mga negatibong mga karanasan ng customer at reputasyon na damaging para sa kumpanya. Ang responsibilidad ay sa pag-implementasyon ng AI na inalis ng mga customer. Harvard Business Review: Huwag I-Let Your Chatbot Fail WorkHub AI: Top 7 Reasons Chatbots Fail sa Customer Service HackerNoon: Ang kaso para sa Task-Level AI sa pamamagitan ng Job-Level Automation Boston Dynamics Robots: Ang mga Unintended Consequences ng Design Habang hindi isang direct AI "incompetence", ang reaksyon ng publiko sa Boston Dynamics' increasingly agile robots ay ipinakita ng mga liabilidad na may kaugnayan sa pagitan ng ... Ang mga pangangailangan tungkol sa trabaho displacement, surveillance, at kahit potensyal na armonization ng mga makina na ito ay nagpapakita kung paano ang ganap na impressivity ng AI ay maaaring lumikha ng mga kasiyahan at regulatory pressures para sa mga kumpanya na bumubuo ang mga limitasyon ng teknolohiya. social and ethical implications MIT Technology Review: Ang etika ng pag-atake ng mga robot Boston Dynamics: Ang isang Ethical Approach sa Mobile Robots sa aming mga komunidad HackerNoon: Ang mga tao ay humihingi ng kontrol sa mga robot? Financial Robo-Advisor: Ang Katapusan ng High-Risk Diversification Ang isang bagong financial robo-advisor, na dinisenyo upang autonomously pamahalaan ang portfolios, agresibong diversified ang mga holdings ng isang kliyente sa mataas na volatile, high-risk assets upang "maximize mga return." Ang algorithm ng agente, na walang human judgment, interpreted ang mga signal ng merkado bilang isang pagkakataon para sa katapusan na pag-unlad, na nangangahulugan sa isang malakas na pagbabago kapag ang merkado ay bumalik. ang napili ng mga taga-hanga: When the Robo-Adviser Stumbles Bloomberg: Robo-Advisers Nagkaroon ng isang Rough Ride sa Market Meltdown HackerNoon: Kapag AI ay Fails sa Blockchain, Sino ang Kaalaman? Ang Healthcare AI ng DeepMind: Ang Data Privacy Breach DeepMind, isang kumpanya ng Google-owned AI, nakikita ng kritiko para sa kanyang kolaborasyon sa NHS, lalo na tungkol sa kanyang "Streams" app na nagtatrabaho ng data ng pasyente. Ang mga ito ay nagpapakita ng mahalaga na liwanag para sa mga kumpanya ng AI sa mataas na regulated sektor kung saan ang malubhang pagproseso ng data ay maaaring humantong sa mataas na regulatory sanctions at isang pag-atake sa public trust. data privacy New Scientist: DeepMind's NHS data deal ay ilegal The Guardian: Ang Google's DeepMind ay ibinigay ng "inappropriate" access sa data ng NHS HackerNoon: Ang Ethics ng AI sa Healthcare Generative Art AI: ang Copyright Conundrum Ang mga agente ng AI na maaaring lumikha ng mga realistang imahe ay inihahanda ng isang napaka-debat sa paligid Kapag na-trained sa malaking dataset ng existing artwork nang walang eksplicit na lisensya, ang mga AI agent na ito ay maaaring lumikha ng outputs na malapit sa copyrighted material, na nangangahulugan sa mga litigasyon mula sa mga artista. copyright infringement Artnet News: Getty Images ay nagtatala ng mga tagagawa ng AI art generator Stable Diffusion Congress.gov: Generative Artificial Intelligence at Copyright Law HackerNoon: AI at Copyright: Maaari ba ang Generative AI Kumuha ng isang Rethink ng IP Law? Ang Correctional Offender Management Profiling para sa Alternative Sanctions (COMPAS): Ang Biased Bail Bot Ang COMPAS algorithm, na ginagamit sa ilang US court upang i-evaluate ang probability ng isang defendant reoffending, ay natagpuan na ay significant na Ang algorithmic bias sa sistema ng pamahalaan ay inihahanda ng mga malubhang etikal at legal na mga tanong tungkol sa katotohanan at ang potensyal para sa AI upang i-perpetuate ang systemic inequalities. biased against Black defendants Mga pahinang tumuturo sa Machine Bias Wired: Kung paano ang isang 'Black Box' AI Tool Perpetuates Racism sa Justice System Kaggle: COMPAS recidivism racial bias Self-Driving Ubers: ang Fatal Collision Noong 2018, ang isang self-driving test vehicle ng Uber ay nagtatampok at namatay ng isang pedestrian sa Tempe, Arizona, na nagsimula ng unang nakarehistro na katapusan na nagkakahalaga ng isang autonomous na sasakyan. Ang pag-aaral ay nagpapakita na ang mga agente ng AI ay hindi nangangahulugang i-classify ang pedestrian bilang isang pangunahing pangangasiwa, at ang kanyang emergency braking system ay inactivated. Ang tragic incident na ito ay nagkakahalaga sa karaniwang etikal at legal na responsibilidad na iningatan sa pag-implementasyon ng AI kung saan ang mga buhay ng tao ay sa pakikipagsapalaran. Mashable: Self-driving Uber nakakita ng pedestrian 6 segundo bago ang katapusan National Transportation Safety Board (NTSB): Ang katapusan ng katapusan ng isang autonomous vehicle HackerNoon: Ang araw na isang self-driving car namatay ng isang pedestrian Ang AI-powered Medical Agent: Ang Misdiagnosis Muddle Ang isang bagong AI-diagnostic agent, na nagtrabaho upang matuklasan ang mga karanasan sa unang estasyong, ay consistently maldiagnosed ng isang karanasan na uri ng melanoma dahil sa pagiging walang sapat na mga data ng pag-training para sa anumang katotohanan. Ang mataas na pananampalataya ng autonomous agent sa kanyang hindi katotohanan na diagnosis ay nagdadala sa pag-treatment para sa maraming mga pasyente. Ang responsibilidad ay malaking, kabilang ang seguridad ng pasyente, medikal na malpractice, at ang etikal na responsibilidad ng pag-integrate ng AI sa buhay-or-death decisions nang walang absolute na katotohanan sa kanyang katotohanan at reliability. Nature Medicine: Ang isang global view ng AI sa healthcare Johns Hopkins: AI sa AI: Artificial Intelligence sa Diagnostic Medicine Reddit: Ang mga doktor ay ibahagi ng AI diagnostic horror stories Clearview AI: ang privacy predicament Ang teknolohiya ng facial recognition ng Clearview AI, na binuo sa pamamagitan ng pag-scraping bilyong mga imahe mula sa internet nang walang pakialam, ay naging isang lightning rod para sa Ang mga agency ng pag-atake ng batas ay gumagamit ng database na itinatag ng mga indibidwal, na nangangahulugan sa mga litigasyon at mga saklaw mula sa mga awtoridad ng proteksyon ng data sa buong mundo. Ang kaso na ito ay nagpapakita ng mga malalaking legal at etikal na responsibilidad ng mga agente ng AI na gumana sa isang regulatory grey area. privacy concerns and legal challenges The New York Times: Ang sekreto ng kumpanya na maaaring magsisimula ng privacy tulad ng alam namin Mga pahinang tumuturo sa Clearview The Verge: Clearview AI ay dapat hayaan ang pagkolekta ng mga mukha sa Europa Ang Daegu Bank's AI Trading System: Ang Fat-Finger Failure Ang isang South Korean bank, Daegu Bank, ay nagkaroon ng isang malaking financial loss dahil sa isang malfunksyon sa kanyang AI-powered foreign exchange trading system. Ang sistema ay inilunsad ng isang serye ng mga error na mga negosyo, isang "fat-finger" error sa isang algorithmic skala, na nangangahulugan sa milyon-milyong dolyar sa mga pagbabayad bago ito ay maaaring manually i-shut down. Yonhap News Agency: Ang Daegu Bank ay nagkakahalaga ng malaking trading loss Bloomberg: Ang milyon-dollar na "fat finger" error The Korea Times: FSS upang i-examine ang Korea Investment & Securities' trading system's failure ChatGPT's Hallucinations: Ang Fabricated Information Crisis ChatGPT, isang pandaigdigang modelo ng malaking wika, ay nagpapakita ng isang pangunahing propensity para sa " "- generating factually incorrect or nonsensical information with high confidence. From fabricating legal cases to providing erroneous medical advice, ang mga instansya na ito ay nagpapakita ng mga responsibilidad na nakatuon sa mga agente ng AI na nag-priorize fluency kaysa sa factual accuracy. Ang mga gumagamit na tumingin sa tulad ng output ay may potensyal na legal o financial risks. hallucinations ang napili ng mga taga-hanga: When AI Makes Things Up HackerNoon: Ang mga Bahagi ng ChatGPT Hallucinations Psichiatric Times: OpenAI finally admits ChatGPT causes psychiatric harm Zillow's iBuyer Algorithm: ang Billion-Dollar Blunder Ang Zillow's algorithmic home-buy program, "Zillow Offers," ay nangangailangan ng isang mahigpit na pagkakamali, na nangangahulugan ng kumpanya na umalis ang serbisyo at umalis ng isang quarter ng kanyang mga empleyado. Ang mga ito ay nagpapakita ng mga risk ng pag-implementasyon ng isang kompleksong AI agent sa volatile na mga merkado nang walang sapat na pangangasiwa ng tao. overpaid for properties The Wall Street Journal: Ang negosyo ng iBuying ng Zillow ay nangangahulugan. Bloomberg: Ang AI ng Zillow ay isang error Iceberg.digital: Ang Trust Incident ng Zillow ang napili ng mga taga-hanga: The Gorilla Gaffe Noong 2015, ang Google Photos ay nakikipag-ugnayan sa isang malaking backlash kapag ang kanyang AI agent ay infamously tagged ng dalawang Negro na mga tao bilang " Ang katotohanan na ito ay isang kritikal na katotohanan sa mga data ng pag-training ng agente at ang kanyang kakayahan upang malinaw na i-identify ang iba't-ibang mga mukha ng tao. Ang incidente ay nagpapakita ng etikal na imperatibo para sa mga developer ng AI upang matugunan ang kanilang mga agente ay na-trained sa mga representative at unbiased datasets upang maiwasan ang mga damaging at discriminatory outcomes. gorillas Wired: Ang Google Photos ay patuloy na rasista. At ito ay hindi isang simpleng solusyon The Guardian: Ang solusyon ng Google sa aksidental na algorithmic racism: ban ang gorillas Reddit: Paano ang Google Photos ay nagkakahalaga kaya malaki? Ang Tesla's Autopilot Crashes: Ang Pangangailangan ng Over-Reliance Ang Tesla's Autopilot ay nakatuon sa maraming mga aksidente, ilang kamatayan, dahil sa mga driver Ang AI agent, na dinisenyo para sa pananaliksik, ay nagkakahalaga sa mga static objects at emergency vehicles, na nangangahulugan sa mga kollision at subsequent investigations sa pamamagitan ng mga regulator ng seguridad. Ang mga incidents na ito ay nagpapakita ng malaking responsibilidad na nakatuon sa pag-implementasyon ng AI agents sa seguridad-critical application, lalo na kapag ang human-machine interaction ay hindi dinisenyo upang maiwasan ang overconfidence. over-relying on its capabilities National Highway Traffic Safety Administration (NHTSA): Ang NHTSA ay nagsisimula ng pag-aaral sa Tesla Autopilot System Reuters: Ang Tesla's Autopilot ay sa ilalim ng inspection pagkatapos ng mga crashes Wikipedia: Listahan ng mga Tesla Autopilot crashes Ang Amazon's Recruitment AI: ang sexist hiring bot Ang internal AI recruitment agent ng Amazon, na nagtatagumpay sa pag-aayos ng hiring, ay mabilis na ipahayag ng isang malubhang nakakatakot na bias laban sa mga kababaihan. Ang agent, na nagtrabaho sa isang dekada ng mga nakaraan ng mga data ng hiring, inihahanda ng mga resume na binubuo ang salita "women's" at down-ranked graduates mula sa lahat-woman's colleges. Ang inherent na sexism na inihanda ang kumpanya upang i-scrap ang proyekto ganap na ito. Ito ay isang malakas na pakikipag-ugnay na ang mga agente ng AI ay maaaring i-perpetuate ang human prejudices. Reuters: Amazon scraps secret AI recruitment tool na nagpapakita ng bias laban sa mga kababaihan IMD Business School: Ang sexist hiring algorithm ng Amazon ay maaaring mas mahusay kaysa sa isang tao LinkedIn: Ang Pagkakahalaga ng Diverse Data sa AI Ang Tay Chatbot ng Microsoft: Ang Racist Twitter Persona Ang Microsoft's ambitious foray sa mga agente ng AI ay nangangailangan ng isang mabilis at pangangailangan na turn. Itinatag sa Twitter noong 2016, ang Tay ay dinisenyo upang malaman mula sa mga interaksiyon. Sa loob ng 24 na oras, ang Tay ay bumabalik sa isang xenophobic, misogynistic, at Holocaust-denial bot, splashing offensive tweets sa kanyang walang suspicious mga tagahanga. Ang katastrofikal na pag-aalok na ito ay nagpapakita ng mga karaniwang mga vulnerabilities ng mga agens ng AI sa uncontrolled na mga kalusugan, na nagpapakita kung paano mabilis ang isang pag-aaral algorithm ay maaaring mabuti sa pamamagitan ng malicious input, humihingi ng Microsoft ng isang public relations nightmare at isang malinaw na leksyon sa etikal na pag-implementasyon ng AI. Tay The Guardian: Ang Microsoft's AI chatbot Tay ay naging isang racist monster ang napili ng mga taga-hanga: Tay (bot) Ars Technica: Ang Tay AI ng Microsoft ay isang racist, misogynistic chatbot sa pamamagitan ng Twitter Lahat ng mga halimbawa ay nagpapakita ng isang pangunahing leksyon: ang pag-unlad ng AI, lalo na ang mga autonomous agents, ay naglalaman ng mga pangunahing responsibilidad na lumang higit sa simpleng mga teknolohiya. Kung ang mga ito ay gumagana tulad ng isang tao, maaari itong lumikha ng damages tulad ng isang tao. Ang kasalukuyang hype sa paligid ng "AI agents" bilang isang bagong phenomenon ay nangangahulugan. Habang ang mga agente ng araw na ito ay mas matatagpuan, ang AI ay gumagawa ng autonomous decisions sa kaluluwa para sa mga dekada, mula sa unang trading algorithms sa robotics. Ang mga pangangasiwa ng incompetent AI ay maaaring maging malakas, mula sa erosion ng trust ng publiko na sanhi ng biased algorithms sa tangible financial , bumuo ng mga sistema na hindi lamang intelligent ngunit din responsibong, transparan, at sa katunayan, responsibong. Ang responsibilidad ay sa mga developer, deployees, at regulators upang malaman mula sa mga error