Si teksti me kosto zero, që tingëllon autoritar po thyen përgjegjësinë institucionale How zero-cost, authoritative-sounding text is breaking institutional accountability Më 16 janar, stafi kryesor i policisë së West Midlands në Mbretërinë e Bashkuar dha dorëheqje pasi Raporti u përdor për të justifikuar ndalimin e mbështetësve të Maccabi Tel Aviv nga pjesëmarrja në një ndeshje të Europa League kundër Aston Villa në nëntor 2025. Mes Maccabi Tel Aviv dhe West Ham që nuk ekzistonte. rrëfimin fikse rrëfimin fikse Gjatë marrjes në pyetje, kryebashkiaku pranoi se një pjesë e dokumentit ishte hartuar duke përdorur Vëmendja politike pasoi shpejt: Sekretarja e Brendshme tha se ajo nuk kishte më Në udhëheqjen e tij, dhe komisari i policisë dhe krimit të rajonit njoftoi një dëgjim publik të përgjegjësisë. Çfarë fillimisht dukej si një gabim teknik shpejt u përshkallëzua në një krizë udhëheqëse. Microsoft kopilotë Besimi Microsoft kopilotë Besimi Pjesa më e madhe e debatit publik është përqendruar në paragjykime, gjykim dhe përgjegjësi individuale, por episodi tregon për një problem strukturor që është duke u zhvilluar për disa vite tani. From human diligence to synthetic diligence Nga diligenca njerëzore në diligencë sintetike Për dekada, institucionet moderne mbështeteshin në një supozim të nënkuptuar: nëse ekzistonte një dokument - veçanërisht ai që dukej formal, i arsyetuar, i strukturuar - dikush kishte shpenzuar kohë duke e prodhuar atë. raporte, dosje ligjore, vlerësime të sigurisë dhe informata politike ishin të kushtueshme për të gjeneruar dhe madje edhe puna me cilësi të ulët kërkonte orë vëmendje njerëzore. Por gjenerative AI thyen këtë supozim. Pjesët e cilësisë së draftit tani mund të prodhohen në sekonda, argumentet dhe citimet përfshihen, dhe duken bindëse edhe kur pretendimet themelore janë krejtësisht të fiksuara ose të keqinterpretuara.Problemi në këtë rast nuk është se sistemet e automatizuara ndonjëherë hallucinojnë; njerëzit bëjnë gabime, gjithashtu.Problemi është se institucionet nuk kanë një mënyrë të shkallëzuar për të dalluar midis tekstit të prodhuar nga një person që arsyeton përmes një problemi dhe tekstit të prodhuar nga një model i optimizuar për të imituar atë arsyetim. Ndërsa kostoja e prodhimit të tekstit autoritar fillon të afrohet në zero, institucionet fillojnë të merren me punën sintetike më shpejt se sa mund ta verifikojnë atë. vlerësimet e sigurisë, letrat ligjore, eseet e studentëve, raportet e brendshme dhe dorëzimet e konsulencës të gjitha fillojnë të duken të përfunduara shumë kohë para se dikush të ketë bërë ndonjë nga punët e nënkuptuara nga paraqitja e tyre. Kjo rrjedhshmëri zëvendëson gjykimin njerëzor dhe verifikimi bëhet blloku i ri. Where failures are already visible Ku dështimet janë tashmë të dukshme Çështja e West Midlands nuk është e izoluar dhe dështime të ngjashme tashmë po detyrojnë përshtatje në të gjitha institucionet: gjykatat, universitetet, organet qeveritare, shërbimet profesionale dhe madje edhe gazetari janë kapur të gjitha. Gjyqtarët Gjyqtarët në disa juridiksione kanë sanksionuar avokatët për dorëzimin e dosjeve që përmbajnë ligje gjyqësore të gjeneruara nga AI, të cilat nuk ekzistojnë. Çështja çoi në gjoba pasi avokatët u mbështetën në citime të falsifikuara të prodhuara nga ChatGPT dhe analiza ligjore u vlerësua si "gibberish."Si përgjigje, disa gjyqtarë federalë, si gjyqtari Brantly Starr në Teksas, kanë futur urdhra të qëndrueshme që kërkojnë avokatët të që ata personalisht kanë shqyrtuar dhe verifikuar çdo përmbajtje të ndihmuar nga AI. gjykatat në Angli dhe Uells kanë lëshuar Këto masa nuk janë ndalime në mjetet e AI; ato janë përpjekje për të rivendosur një linjë të qartë të përgjegjësisë njerëzore në dosjen e gjykatës. Mata kundër Avianca Certifikatë Paralajmërimet Mata kundër Avianca Mata kundër Avianca Certifikatë Paralajmërimet universiteteve Institucionet e arsimit të lartë Shumë kanë konkluduar se zbulimi i përdorimit të AI-së në detyrat e marrjes në shtëpi është Një student i tha ABC News se është e vështirë, duke shpjeguar: "Ne po shohim të njëjtën pjesë të legjislacionit, po citojmë të njëjtat raste, po shohim të njëjtat çështje", ndërsa një tjetër dha dorë: "Unë vetëm vendosa të marr dënimin sepse isha thjesht shumë i frikësuar për të diskutuar më tej." fytyrë I pasigurtë fytyrë I pasigurtë Disa departamente kanë rikthyer provimet e shkruara me dorë ose të mbikëqyrura, kanë zgjeruar vlerësimet verbale dhe kanë zhvendosur vlerësimin në mjedise personale. libra të mbyllura, provime të shkruara me dorë. Universiteti i Sidnejit Përdorimi i paautorizuar i inteligjencës artificiale si shkelje e integritetit akademik dhe ka ngritur dizajnin e vlerësimit në përputhje me këtë. Universitetet duhet të largohen nga formatet e vlerësimit ku autorësia nuk mund të përcaktohet në mënyrë të besueshme. rivendosur now treats advised rivendosur Tani trajtohen Këshilla Organet publike Përdorimi i metodave të tilla është i detyrueshëm për përdorimin e pajisjeve elektronike, si dhe për përdorimin e pajisjeve elektronike ( Kërkon që organet publike të dokumentojnë dhe të publikojnë informacion në lidhje me sistemet e automatizuara që ata vendosin. thekson përgjegjësinë, mbikëqyrjen njerëzore dhe transparencën në përdorimin e IA-së në sektorin publik. Këto korniza janë përpjekje të hershme për të siguruar që vendimet zyrtare të mund të shqyrtohen më vonë - jo vetëm për atë që thonë, por për mënyrën se si janë prodhuar. ) ATRS Një playbook Unë veproj ATRS Një playbook Unë veproj Sektori privat Sektori privat po përballet me të njëjtin problem, shpesh me pasoja të drejtpërdrejta financiare. për Departamentin e Punës dhe Marrëdhënieve të Punës, e cila më vonë u gjet për të përmbajtur Kompania pranoi se pjesët e raportit ishin hartuar duke përdorur një zinxhir mjetesh gjenerative të AI-së dhe u kthye një pjesë e tarifës së saj pasi gabimet u ekspozuan. Modeli veproi siç ishte projektuar: gjeneroi tekst të besueshëm. Çfarë dështoi ishte rrjedha e punës. AU$440,000 review prodhuar € 440,000 Rishikimi prodhuar Episodet e ngjashme janë shfaqur në vende të tjera. mediet duke përfshirë CNET dhe MSN kanë tërhequr artikujt e gjeneruara nga AI që përmbajnë ose Air Canada është pas faqes së saj chatbot dha një klient informacion të gabuar në lidhje me kualifikimin e rimbursimit. Lidhur me gjenerimin automatik të tekstit. Gabime faktike byllinj të rremë Përgjegjës Citime të prodhuara Gabime faktike byllinj të rremë Përgjegjës Citime të prodhuara Institucionet supozuan se teksti i prodhuar në mënyrë efikase ishte një sinjal i besueshëm i punës themelore. Why institutions are adding friction Pse institucionet po shtojnë fërkime Përgjigjet që dalin – certifikimi manual, vlerësimi i personit, kërkesat e zbulimit, kufizimet në përdorimin e IA-së të pashpallur – mund të duken si rezistencë ndaj inovacionit. Kur aftësia e verifikimit është e pakët, shtimi i frikës është racional në vend të Luddit. Nëse një organizatë mund të gjenerojë më shumë dokumente se kushdo mund të verifikojë realisht, ajo grumbullon vendime që askush nuk mund të zotërojë me të vërtetë. Me kalimin e kohës, kjo erodon besimin e brendshëm dhe legjitimitetin e jashtëm: kolegët ndalojnë së besuari se raportet pasqyrojnë ekspertizën e vërtetë. Gjykatat, rregullatorët dhe publiku humbin besimin se dosjet zyrtare mbështeten në gjykimin përgjegjës. Episodi i West Midlands ilustron këtë dinamikë qartë. Rënie politike nuk u shkaktua vetëm nga një referencë e gabuar. Ajo u shkaktua nga zbulimi se një dokument që mbart pasoja reale kishte hyrë në një proces zyrtar pa askush të jetë në gjendje të them, me besim, kush - nëse dikush - e kishte verifikuar atë. The structural change coming Ndryshimet strukturore po vijnë AI gjenerative nuk e bën thjesht institucionet më të shpejta.Ajo ndryshon atë që është e pakët: prodhimi tani është i bollshëm, verifikimi nuk është. Dhe ky ndryshim kërkon një rishikim të rrjedhës së punës institucionale. Origjina - si është prodhuar një dokument, kush e ka redaktuar atë, kush e ka kontrolluar atë dhe kush qëndron prapa saj - tani duhet të bëhet e qartë dhe jo e supozuar. Disa kategori të punës do të kenë nevojë për kufij të qartë ku autorësia njerëzore e identifikueshme mbetet e padiskutueshme. Të tjerët mund të pranojnë automatizimin, por vetëm brenda kufijve të rishikimit që përputhen me mbikëqyrjen në dispozicion. Ky nuk është një rregullim i përkohshëm. diligenca sintetike është e lirë dhe bindëse, dhe dështimet si ajo në West Midlands kanë gjasa të vazhdojnë të ndodhin. Çdo ngjarje do të testojë besimin e publikut - në mjetet e AI dhe, më e rëndësishmja, në institucionet dhe mbrojtjet e tyre. Institucionet që do të përshtaten do të jenë ato që do të pranojnë një mënyrë më të ngadaltë, më të përqendruar në verifikim në kontekstin e aksioneve të larta.Ata që nuk do të vazhdojnë të prodhojnë dokumente që duken të përfunduara - deri në momentin që ata janë të detyruar të shpjegojnë se kush në të vërtetë bëri punën. Kredi i imazhit kryesor: AdobeStockḳ132785912 Kredi i imazhit kryesor: AdobeStockḳ132785912