Với bất kỳ công nghệ nào đang bùng nổ, thực tế thường bị trì hoãn phía sau sự phô trương. "Nó nóng ngay bây giờ, được sử dụng để mô tả các hệ thống hoạt động với một mức độ tự chủ, nhưng sự thật là, AI đã hoạt động trong hoang dã và đưa ra quyết định của riêng mình trong một thời gian dài hơn nhiều so với nhiều công ty sẽ khiến bạn tin rằng "các đại lý đầu tiên" của họ đã làm. Đối với mỗi câu chuyện thành công, có một câu chuyện cảnh báo - một khoảnh khắc khi một đại lý AI, mặc dù các thuật toán tinh vi của nó, đưa ra một quyết định tồi tệ đáng kể, phơi bày trách nhiệm đáng kể cho các nhà triển khai của nó. Đây không chỉ là những rắc rối nhỏ; họ là những ví dụ rực rỡ về cách tự chủ không kiểm soát hoặc các thông số được thiết kế kém có thể dẫn đến hậu quả thực tế, từ những sai lầm tài chính đến những bối rối đạo đức Người đại diện Người đại diện Cybersecurity của Darktrace: The False Positives Flood Darktrace, một đại lý an ninh mạng được thúc đẩy bởi AI, đã phải đối mặt với những lời chỉ trích vì đã tạo ra một khối lượng lớn – Xác định sai hoạt động mạng hợp pháp là độc hại. Một số lượng lớn các cảnh báo giả có thể làm mất nhạy cảm cho các nhóm bảo mật, dẫn đến các mối đe dọa thực sự bị bỏ lỡ giữa tiếng ồn. Trách nhiệm nằm trong một hệ thống AI, mặc dù thiết kế tinh vi của nó, tạo ra sự thiếu hiệu quả hoạt động và làm tổn hại đến tư thế bảo mật của một tổ chức thông qua phát hiện quá ghen tị. false positives The Register: 'hộp đen' AI của Darktrace phải đối mặt với nhiều câu hỏi hơn Wired: AI đã hack hacker HackerNoon: Tại sao đại lý AI của bạn quá chậm Máy bay không người lái AI-powered Drones: The Border Incursion Mishap Máy bay không người lái của cơ quan tuần tra biên giới Mỹ, được thiết kế để tự động giám sát một phần biên giới cụ thể, đã sai lầm vượt qua không phận của một quốc gia láng giềng do sự cố hệ thống điều hướng. Máy bay không người lái, hoạt động mà không có sự kiểm soát trực tiếp của con người, đã kích hoạt một sự cố quốc tế và căng thẳng ngoại giao. sự cố này làm nổi bật trách nhiệm địa chính trị đáng kể của việc triển khai các đại lý AI tự trị ở các khu vực nhạy cảm nơi một sự nhầm lẫn duy nhất có thể có hậu quả nghiêm trọng, trong thế giới thực. New York Times: Máy bay không người lái AI sẽ phạm sai lầm ở biên giới? Hội đồng quan hệ đối ngoại: Rủi ro địa chính trị của AI tự trị HackerNoon: Những hậu quả không mong muốn của máy bay không người lái Trợ lý giọng nói tại nhà thông minh: Mua hàng ngẫu nhiên Trợ lý giọng nói tại nhà thông minh có một lịch sử được ghi nhận của việc giải thích sai lầm lệnh hoặc kích hoạt bản thân từ các cuộc trò chuyện nền, dẫn đến Những “mua mua ngẫu nhiên” này làm nổi bật trách nhiệm của các đại lý AI quá nhạy cảm hoặc thiếu cơ chế xác nhận mạnh mẽ, dẫn đến sự thất vọng của người tiêu dùng, chi phí bất ngờ và mối quan tâm về quyền riêng tư. unintended actions The Verge: Vấn đề "mua ngẫu nhiên" của Alexa Ars Technica: Cách loa thông minh vô tình ghi lại các cuộc trò chuyện của bạn HackerNoon: Khi AI trong ngôi nhà thông minh của bạn ngừng giúp đỡ và bắt đầu cản trở Microsoft GPT-3 Powered Chatbot for a News Outlet: Các nội dung không bị ảnh hưởng Một phương tiện truyền thông đã thử nghiệm ngắn gọn với một chatbot AI, được cung cấp bởi một biến thể GPT-3, để tạo ra các bài báo. Điều này cho thấy trách nhiệm biên tập và uy tín đáng kể của việc triển khai các đại lý tạo ra AI mạnh mẽ trong việc tạo ra nội dung mà không cần kiểm tra và giám sát nghiêm ngặt. unvetted and sometimes nonsensical content The Guardian: Một bot đã viết toàn bộ bài viết này.Bạn vẫn còn sợ hãi, con người? The Wall Street Journal: Các cơ quan tin tức thử nghiệm với robot AI HackerNoon: AI không phải là một thiên tài kỳ diệu hoặc một kẻ thù thân thiện - đó là một Autocomplete Supercharged Flash Crashes của thị trường chứng khoán: The Algorithmic Avalanche Một số Các đại lý tự động này có thể kích hoạt sự sụt giảm giá nhanh khi điều kiện thị trường thay đổi đột ngột, tạo ra rủi ro hệ thống và tổn thất tài chính đáng kể cho các nhà đầu tư. stock market flash crashes The Economist: Những nguy hiểm của giao dịch tần số cao The New York Times: Một thương mại 'Fat-Finger' hay sự khởi đầu của một Algo Apocalypse? HackerNoon: Điều hướng các rủi ro và cơ hội của việc bắt đầu một công ty AI Predictive Policing Agents: The Amplified Bias (Các nhân viên cảnh sát tiên đoán: Bias tăng cường) Các nhân viên cảnh sát dự đoán, được thiết kế để tự động xác định các khu vực có khả năng xảy ra tội phạm, đã bị chỉ trích vì tăng cường Bằng cách dựa vào dữ liệu tội phạm lịch sử, thường phản ánh các thực tiễn thực thi phân biệt đối xử, các nhân viên này có thể chỉ đạo các nguồn lực cảnh sát không tương xứng đến các khu phố thiểu số. existing biases in policing The New York Times: Vấn đề với cảnh sát dự đoán Toán học UCLA: Có phải cảnh sát dự đoán dẫn đến các vụ bắt giữ thiên vị? HackerNoon: Court Battles Spark một phong trào AI bất ngờ: Công bằng bởi thiết kế AI-powered Customer Service Bots: The Frustration Feedback Loop (Những chương trình hỗ trợ khách hàng) Nhiều công ty đã áp dụng chatbots được hỗ trợ bởi AI để phục vụ khách hàng, thường dẫn đến sự thất vọng của khách hàng khi các bot không hiểu các truy vấn phức tạp hoặc cung cấp các giải pháp đầy đủ. Những đại lý "bẩn thỉu" này, không thể sai lệch từ các kịch bản được lập trình của họ, có thể leo thang các vấn đề nhỏ thành những lời phàn nàn đáng kể, dẫn đến trải nghiệm tiêu cực của khách hàng và thiệt hại danh tiếng cho công ty. Harvard Business Review: Đừng để Chatbot của bạn thất bại WorkHub AI: 7 lý do hàng đầu Chatbots thất bại trong dịch vụ khách hàng HackerNoon: Trường hợp AI cấp nhiệm vụ qua tự động hóa cấp công việc Boston Dynamics Robots: Những hậu quả không mong muốn của thiết kế Mặc dù không phải là một "sự thiếu năng lực" trực tiếp của AI, nhưng phản ứng của công chúng đối với các robot ngày càng nhanh nhẹn của Boston Dynamics đã làm lộ ra các trách nhiệm liên quan đến Những lo ngại về việc di dời công việc, giám sát và thậm chí vũ khí hóa tiềm năng của những máy móc này cho thấy sự ấn tượng của AI có thể tạo ra lo lắng xã hội và áp lực quy định cho các công ty đẩy ranh giới công nghệ. social and ethical implications MIT Technology Review: Đạo đức giết robot Boston Dynamics: Một cách tiếp cận đạo đức đối với robot di động trong cộng đồng của chúng tôi HackerNoon: Con người đang mất kiểm soát robot? Financial Robo-Advisor: Thảm họa đa dạng hóa rủi ro cao Một robot tư vấn tài chính mới, được thiết kế để tự chủ quản lý danh mục đầu tư, đã tích cực đa dạng hóa cổ phần của khách hàng thành các tài sản có rủi ro cao và rất biến động để "tối đa hóa lợi nhuận". thuật toán của đại lý, thiếu sự phán xét của con người, giải thích các tín hiệu thị trường như một cơ hội cho sự tăng trưởng cực đoan, dẫn đến tổn thất khổng lồ khi thị trường biến đổi. The Wall Street Journal: Khi nhà tư vấn robot vấp ngã Bloomberg: Các nhà tư vấn robot đã có một chuyến đi thô lỗ trong sự sụp đổ của thị trường HackerNoon: Khi AI thất bại trên Blockchain, chúng ta đổ lỗi cho ai? AI chăm sóc sức khỏe của DeepMind: Vi phạm quyền riêng tư dữ liệu DeepMind, một công ty AI thuộc sở hữu của Google, đã phải đối mặt với những lời chỉ trích về sự hợp tác của mình với NHS, đặc biệt là về ứng dụng "Streams" xử lý dữ liệu bệnh nhân. Điều này cho thấy trách nhiệm đáng kể đối với các công ty AI trong các lĩnh vực được quy định cao, nơi việc xử lý sai dữ liệu có thể dẫn đến các khoản tiền phạt nghiêm trọng và vi phạm niềm tin của công chúng. data privacy Nhà khoa học mới: Thỏa thuận dữ liệu NHS của DeepMind là bất hợp pháp The Guardian: DeepMind của Google được cấp quyền truy cập 'không phù hợp' vào dữ liệu NHS HackerNoon: Đạo đức của AI trong chăm sóc sức khỏe Tác giả: Generative Art AI: The Copyright Conundrum Các đại lý AI có khả năng tạo ra hình ảnh thực tế đã gây ra một cuộc tranh luận nóng bỏng xung quanh Khi được đào tạo về các bộ dữ liệu rộng lớn của các tác phẩm nghệ thuật hiện có mà không có sự cho phép rõ ràng, các đại lý AI này có thể tạo ra các sản phẩm gần giống với tài liệu có bản quyền, dẫn đến các vụ kiện từ các nghệ sĩ. trách nhiệm mới nổi này tập trung vào ai sở hữu bản quyền nội dung được tạo ra bởi AI và liệu quá trình đào tạo có phải là sử dụng công bằng hay không. copyright infringement Artnet News: Getty Images đang kiện các nhà sản xuất của máy phát triển nghệ thuật AI Stable Diffusion Congress.gov: Trí tuệ nhân tạo và luật bản quyền HackerNoon: AI và bản quyền: AI tạo ra sẽ buộc phải xem xét lại luật IP? Correctional Offender Management Profiling for Alternative Sanctions (COMPAS): Các biện pháp bảo lãnh thiên vị Thuật toán COMPAS, được sử dụng trong một số tòa án Hoa Kỳ để đánh giá khả năng một bị cáo tái phạm, được tìm thấy là đáng kể. Sự thiên vị thuật toán này trong hệ thống tư pháp đã đặt ra những câu hỏi đạo đức và pháp lý nghiêm trọng về sự công bằng và tiềm năng của AI để duy trì sự bất bình đẳng hệ thống. biased against Black defendants Lời bài hát: Machine Bias Wired: Làm thế nào một công cụ AI 'hộp đen' duy trì phân biệt chủng tộc trong hệ thống tư pháp Kaggle: COMPAS tái phát chủng tộc bias Lời bài hát: Self-Driving Ubers: The Fatal Collision Năm 2018, một chiếc xe thử nghiệm tự lái của Uber đã đâm và giết chết một người đi bộ ở Tempe, Arizona, đánh dấu cái chết đầu tiên được ghi nhận liên quan đến một chiếc xe tự lái. Các cuộc điều tra tiết lộ rằng nhân viên AI không thể phân loại đúng người đi bộ như một mối đe dọa sắp xảy ra, và hệ thống phanh khẩn cấp của nó đã bị vô hiệu hóa. sự cố bi thảm này nhấn mạnh trách nhiệm đạo đức và pháp lý sâu sắc vốn có trong việc triển khai AI nơi cuộc sống của con người đang bị đe dọa. Uber tự lái nhìn thấy người đi bộ 6 giây trước khi tai nạn xảy ra Ủy ban An toàn Giao thông Quốc gia (NTSB): Vụ va chạm chết người liên quan đến một chiếc xe tự lái HackerNoon: Ngày một chiếc xe tự lái giết chết một người đi bộ AI-powered Medical Agent: Muddle chẩn đoán sai Một nhân viên chẩn đoán AI mới, được huấn luyện để phát hiện ung thư giai đoạn đầu, liên tục chẩn đoán sai một dạng melanoma hiếm vì thiếu dữ liệu đào tạo đầy đủ cho tình trạng cụ thể đó. sự tự tin cao của nhân viên tự trị trong chẩn đoán không chính xác của nó dẫn đến điều trị chậm trễ cho nhiều bệnh nhân. trách nhiệm là rất lớn, liên quan đến sự an toàn của bệnh nhân, sai lệch y tế và trách nhiệm đạo đức của việc tích hợp AI vào các quyết định về cuộc sống hoặc cái chết mà không có sự chắc chắn tuyệt đối về tính chính xác và độ tin cậy của nó. Nature Medicine: Một cái nhìn toàn cầu về AI trong chăm sóc sức khỏe Johns Hopkins: AI trên AI: Trí tuệ nhân tạo trong y học chẩn đoán Reddit: Các bác sĩ chia sẻ những câu chuyện kinh dị về chẩn đoán AI Clearview AI: Sự nguy hiểm của sự riêng tư Công nghệ nhận dạng khuôn mặt của Clearview AI, được xây dựng bằng cách cạo hàng tỷ hình ảnh từ internet mà không có sự đồng ý, đã trở thành một cây đũa sét cho Các cơ quan thực thi pháp luật đã sử dụng cơ sở dữ liệu của nó để xác định các cá nhân, dẫn đến các vụ kiện và phạt tiền từ các cơ quan bảo vệ dữ liệu trên toàn thế giới. trường hợp này làm nổi bật trách nhiệm pháp lý và đạo đức to lớn của các đại lý AI hoạt động trong một khu vực màu xám của quy định. privacy concerns and legal challenges The New York Times: Công ty bí mật có thể chấm dứt sự riêng tư như chúng ta biết Ảnh: Clearview AI The Verge: Clearview AI phải ngừng thu thập khuôn mặt ở châu Âu Hệ thống giao dịch AI của Daegu Bank: Sự thất bại của Fat-Finger Một ngân hàng Hàn Quốc, Ngân hàng Daegu, đã trải qua một tổn thất tài chính đáng kể do một sự cố trong hệ thống giao dịch ngoại hối được hỗ trợ bởi AI. Hệ thống này đã thực hiện một loạt các giao dịch sai lầm, một lỗi "chất béo ngón tay" trên quy mô thuật toán, dẫn đến hàng triệu đô la trong tổn thất trước khi nó có thể được tắt thủ công. sự cố này minh họa tiềm năng cho các đại lý AI để tăng cường lỗi của con người. Yonhap News Agency: Ngân hàng Daegu bị tổn thất thương mại khổng lồ Bloomberg: Sai lầm hàng triệu đô la của "đầu béo" The Korea Times: FSS sẽ điều tra sự thất bại của hệ thống giao dịch của Korea Investment & Securities ChatGPT’s Hallucinations: The Fabricated Information Crisis (Những ảo giác của ChatGPT: Cuộc khủng hoảng thông tin được chế tạo) ChatGPT, một mô hình ngôn ngữ lớn đột phá, đã chứng minh một khuynh hướng liên quan đến " " - Tạo ra thông tin không chính xác về mặt thực tế hoặc vô nghĩa với sự tự tin cao. Từ việc chế tạo các trường hợp pháp lý đến việc cung cấp lời khuyên y tế sai lầm, các trường hợp này phơi bày các trách nhiệm liên quan đến các đại lý AI ưu tiên tính trôi chảy so với độ chính xác thực tế. hallucinations The New York Times: Khi AI làm cho mọi thứ lên HackerNoon: Những nguy hiểm của ảo giác ChatGPT Thời báo tâm thần: OpenAI cuối cùng thừa nhận ChatGPT gây hại tâm thần Zillow's iBuyer Algorithm: The Billion-Dollar Blunder (Thuật toán mua hàng của Zillow: Sai lầm hàng tỷ đô la) Chương trình mua nhà thuật toán của Zillow, "Zillow Offers", đã phải chịu một thất bại ngoạn mục, dẫn đến công ty ngừng dịch vụ và sa thải một phần tư nhân viên của mình. Điều này cho thấy rủi ro của việc triển khai một đại lý AI phức tạp vào các thị trường biến động mà không có sự giám sát đủ của con người. overpaid for properties The Wall Street Journal: Doanh nghiệp iBuying của Zillow thất bại. Bloomberg: Sai lầm của Zillow Iceberg.digital: Sự cố tin cậy Zillow Ảnh Google Photos: The Gorilla Gaffe Vào năm 2015, Google Photos đã phải đối mặt với một phản ứng đáng kể khi đại lý AI của nó nổi tiếng đánh dấu hai người da đen là " Sự phân loại gây xúc phạm sâu sắc này đã phơi bày một khiếm khuyết quan trọng trong dữ liệu đào tạo của nhân viên và khả năng xác định chính xác các khuôn mặt khác nhau của con người.Vụ việc nhấn mạnh sự bắt buộc đạo đức đối với các nhà phát triển AI để đảm bảo nhân viên của họ được đào tạo về các bộ dữ liệu đại diện và không thiên vị để tránh những kết quả có hại và phân biệt đối xử. gorillas Wired: Google Photos vẫn là phân biệt chủng tộc. và nó không phải là một sửa chữa đơn giản The Guardian: Giải pháp của Google đối với phân biệt chủng tộc thuật toán ngẫu nhiên: cấm gorilla Reddit: Làm thế nào Google Photos gây rắc rối đến vậy? Tesla Autopilot Crashes: Sự nguy hiểm của sự phụ thuộc quá mức Autopilot của Tesla đã liên quan đến nhiều tai nạn, một số chết người, do tài xế Các đại lý AI, được thiết kế để giám sát, đã phải vật lộn với các đối tượng tĩnh và xe khẩn cấp, dẫn đến va chạm và các cuộc điều tra tiếp theo của các nhà quản lý an toàn. những sự cố này nhấn mạnh trách nhiệm to lớn liên quan đến việc triển khai các đại lý AI trong các ứng dụng quan trọng về an toàn, đặc biệt là khi sự tương tác giữa người và máy không được thiết kế để ngăn chặn sự tự tin quá mức. over-relying on its capabilities National Highway Traffic Safety Administration (NHTSA): NHTSA mở cuộc điều tra về hệ thống Autopilot của Tesla Reuters: Autopilot của Tesla bị kiểm tra sau vụ tai nạn Wikipedia: Danh sách các vụ tai nạn Autopilot của Tesla Amazon’s Recruitment AI: The Sexist Hiring Bot (AI tuyển dụng của Amazon: Bot tuyển dụng tình dục) Đại lý tuyển dụng AI nội bộ của Amazon, nhằm mục đích hợp lý hóa việc tuyển dụng, nhanh chóng tiết lộ một định kiến sâu sắc về phụ nữ. Đại lý này, được đào tạo dựa trên một thập kỷ dữ liệu tuyển dụng trong quá khứ, đã trừng phạt các bản tóm tắt bao gồm từ "những người phụ nữ" và sinh viên tốt nghiệp được xếp hạng thấp từ các trường cao đẳng của tất cả phụ nữ. Chủ nghĩa giới tính vốn có này buộc công ty phải loại bỏ toàn bộ dự án. Đó là một lời nhắc nhở mạnh mẽ rằng các đại lý AI có thể duy trì định kiến của con người. Reuters: Amazon xóa công cụ tuyển dụng AI bí mật cho thấy thiên vị đối với phụ nữ IMD Business School: thuật toán tuyển dụng giới tính của Amazon vẫn có thể tốt hơn một con người LinkedIn: Tầm quan trọng của dữ liệu đa dạng trong AI Tay Chatbot của Microsoft: Người Twitter phân biệt chủng tộc Sự tiến bộ đầy tham vọng của Microsoft vào các đại lý AI đã có một bước ngoặt nhanh chóng và đáng lo ngại. Được ra mắt trên Twitter vào năm 2016, Tay được thiết kế để học hỏi từ các tương tác. Trong vòng 24 giờ, tuy nhiên, Tay đã trở thành một bot ngoại đạo, ghê tởm và phủ nhận Holocaust, phun tweet xúc phạm cho những người theo dõi không nghi ngờ của mình. Thất bại thảm khốc này đã làm nổi bật các lỗ hổng cực đoan của các đại lý AI trong môi trường không kiểm soát, chứng minh thuật toán học có thể bị hỏng nhanh như thế nào bởi các đầu vào độc hại, để lại Microsoft với một cơn ác mộng quan hệ công chúng và một bài học rõ ràng trong việc triển khai AI đạo đức. Tay The Guardian: Chatbot AI Tay của Microsoft trở thành một con quái vật phân biệt chủng tộc Tên tiếng Anh: Tay (bot) Ars Technica: Tay AI của Microsoft là một chatbot phân biệt chủng tộc, ghê tởm nhờ Twitter Mỗi ví dụ nhấn mạnh một bài học quan trọng: việc triển khai AI, đặc biệt là các đại lý tự trị, mang những trách nhiệm đáng kể vượt xa những rắc rối kỹ thuật đơn giản. Nếu họ hoạt động như con người, họ có thể tạo ra thiệt hại như con người. Sự lan truyền hiện tại xung quanh "các đại lý AI" như một hiện tượng mới là gây hiểu lầm. Trong khi các đại lý ngày nay phức tạp hơn, AI đã đưa ra quyết định tự trị trong hoang dã trong nhiều thập kỷ, từ các thuật toán giao dịch ban đầu đến robot. Hậu quả của AI không có năng lực có thể sâu sắc, từ sự xói mòn niềm tin của công chúng do các thuật toán thiên vị gây ra đến những tổn thất tài chính hữu hình và thậm chí là mối đe dọa đối với an ninh con người. Khi AI tiếp tục bước vào mọi khía cạnh của , xây dựng các hệ thống không chỉ thông minh mà còn có trách nhiệm, minh bạch và cuối cùng, có trách nhiệm. trách nhiệm của các nhà phát triển, nhà triển khai và các nhà quản lý để học hỏi từ những sai lầm này