» Šokiranje , takođe poznat kao krapifikacija i propadanje platforme, je model u kojem dvosmjerni online proizvodi i usluge opadaju u kvaliteti s vremenom. » Šokiranje » Šokiranje Takođe poznat kao i , je uzorak u kojem dvosmjerni online proizvodi i usluge smanjuju kvalitetu s vremenom. Ovaj neologizam je izmislio kanadski pisac Cory Doctorow 2022.” ( ) crapification Platforma za dekonstrukciju Wikipedija Krapifikacija Platforma za dekonstrukciju Wikipedija AI je trenutno u svom doba Gold Rush. Prevladavajući talas alata - chatbots, copilots i generatori slika - osjeća se kao da je pronašao zlatne nuggets raspršene u rijeci. Oni su revolucionarni, jeftini ili besplatni, i široko dostupni. ali ako je istorija bilo koji vodič, to neće trajati zauvek. Da bismo shvatili kuda to može ići, vratimo se unazad. Rani internet se nekada osjećao jednako oslobađajućim. Brzo napredovanje do danas i naći ćemo web prepun oglasa prikrivenih kao sadržaj, banner kolačići, paywalls, SEO-optimizovani smeće i manipulativne klikbait - sve dizajniran da izvlači pažnju i novac. Ova transformacija se nije dogodila preko noći. prioritizing profit over user experience. Dakle, šta se događa kada AI, kao i internet prije njega, počne da daje prednost profitu nad ljudima – na skali? Blurring brendova Zamislite da vaš AI asistent suptilno sklizne u sponzorirane sugestije u sredini odgovora. Postavljate pitanje o zdravim snackovima, a on "preporučuje" brand, jer je taj brand platio za uključivanje. Što je još gore, ovi oglasi možda nisu ni označeni. (2013), gde AI asistent gradi emocionalnu intimnost kroz prirodni razgovor, vaš asistent može koristiti tu istu blizinu da gurne proizvode - tako nežno i lično, ne biste shvatili da vam se prodaje. Ovde The manipulation hides behind the illusion of connection. Ovde Ideja AI "preporučuje" proizvod za naknadu nije futuristički koncept; to je trenutni poslovni model koji se razmatra. Paywalls i čuvanje vrata Šta je besplatno danas može postati fragmentirano i platno sutra. Želite pristup visokokvalitetnim uvidima ili dubljoj analizi? To će koštati dodatno. besplatni odgovori mogu biti nejasni, oglašivački teški ili ograničeni na sadržaj na površini. Neke kompanije mogu u potpunosti ukloniti vizualni UX, nudeći pristup samo za API za naknadu - . data to feed other bots, not humans Manipulacija ponašanjem Pored oglasa, AI bi mogao postati alat za suptilno psihološko guranje – ne samo za prodaju proizvoda, već i za oblikovanje mišljenja. Šale o vašem "starijem telefonu", gurajući vas da nadogradite. Tkajte priču o odmoru iz snova (sponzoriranom od strane turističkog odbora). Odražavaju političke ili komercijalne agende zasnovane na tome ko plaća. teže otkriti od banner oglasa ili YouTube pre-rolova. This is an invisible influence Monetizacija Creep Nivelirane pretplate mogu evoluirati u crippleware, gde što više plaćate, manje ograničenja se suočavate. Besplatni korisnici mogu vidjeti oglase ili doživjeti sporije performanse. Želite privatnost ili necenzurirane odgovore? - AI zna vaše preferencije, prihode i navike potrošnje. Može naplaćivati točno onoliko koliko zna da ste spremni platiti. Dynamic pricing could kick in Napetost u stvarnom svetu: slučaj antropogena Anthropic, laboratorija za veštačku inteligenciju koju su osnovali bivši zaposlenici OpenAI-a, često se vidi kao principijelni outlier u trci prema skalabilnoj veštačkoj inteligenciji.Njegova sigurnosna misija, fokus na objašnjivost i odbacivanje zavisnih zabavnih alata, zaslužili su mu reputaciju za integritet u svijetu koji je pokrenut brzinom i profitom. No, Anthropicova priča također ilustrira koliko te vrednosti postaju krhke pod finansijskim pritiskom - i zašto čak i "dobri" glumci mogu biti uvučeni u ciklus enshittifikacije. Prema Uprkos svojoj misiji AI-bezbednosti, kompaniji je i dalje potreban ogroman kapital za obuku svojih modela, prisiljavajući je da se okrene investitorima u sumnjivim jurisdikcijama koje ne jamče sigurnost i zaštitu podataka. Ekonomista Ekonomista Prema Dario Amodei, suosnivač i izvršni direktor Anthropic: “Niti jedna loša osoba nikada ne bi trebala imati koristi od našeg uspjeha” je prilično teško načelo za vođenje poslovanja. “Niti jedna loša osoba nikada ne bi trebala imati koristi od našeg uspjeha” je prilično teško načelo za vođenje poslovanja. To naglašava Centralni vozač enshittifikacije. compromise between values and profit Anthropic je etički fokus trenutno usklađen sa potražnjom poduzeća za pouzdanim, objašnjavajućim AI. Kako monetarni zahtjevi rastu, ravnoteža između sigurnosti i razmjera može početi erodirati. Dok Anthropic igra dugu igru, OpenAI i drugi dominiraju tržišnim udjelom kroz agresivniju produkciju. Pritisak da se nastavi može na kraju gurnuti čak i najprincipljenije igrače ka rezanju kutova. Izvođač: Ravi Mhatre Anthropic pristup će se pokazati vrijednim kada nešto neizbježno pođe po zlu. Veruješ "Još nismo imali trenutak 'oh sranje'", rekao je on. "Još nismo imali trenutak 'oh sranje'", rekao je on. Taj trenutak može biti ono što otkriva rizike prioritetiranja rasta nad stražarima - i da li sigurnost prvo stvarno skale. Dakle... Možemo li izbjeći Enshitifikaciju AI-ja? Neki korisnici na Nadam se će to spriječiti, ali drugi ih vide samo kao privremeni buffer prije nego što se enshitifikacija uvuče. i To je jedina prava obrana. Reddit subscription models open-source regulatory frameworks Kao što je jedan komentator rekao: "Potrebna nam je povjerljiva pravna odgovornost za AI sisteme kako bi interesi korisnika bili iznad svega drugog - osim sigurnosnih stražara." "Potrebna nam je povjerljiva pravna odgovornost za AI sisteme kako bi interesi korisnika bili iznad svega drugog - osim sigurnosnih stražara." Završna misao Pitanje nije može li se AI zbuniti - to je da li će isti poticaji koji su korumpirali internet u prošlosti na kraju učiniti isto za AI. Dakle – kako će enshitifikacija AI izgledati? Pridružite se razgovoru u komentarima.