„Очарованието , известен също като изкривяване и разпадане на платформите, е модел, при който двустранните онлайн продукти и услуги намаляват в качеството си с течение на времето. „Очарованието „Очарованието Също така известен като и , е модел, при който двустранните онлайн продукти и услуги намаляват в качеството си с течение на времето. Този неологизъм е измислен от канадския писател Cory Doctorow през 2022 г.“ ( ) Крапификация Платформа Decay Уикипедия Крапификация Платформа Decay Уикипедия В момента AI е в ерата на Gold Rush. Преобладаващата вълна от инструменти - чатботи, коботи и генератори на изображения - се чувства като намиране на златни нокти, разпръснати в река. Те са революционни, евтини или безплатни и широко достъпни. но ако историята е пътеводител, това няма да продължи вечно. За да разберем къде може да се насочи това, нека се върнем назад. Ранният интернет веднъж се чувстваше също толкова освобождаващ. Бързо напред към днешна дата и ще открием уеб, пълен с реклами, маскирани като съдържание, бисквитки, плащателни стени, SEO-оптимизирани боклуци и манипулативни кликвания - всичко това е предназначено да извлече внимание и пари. prioritizing profit over user experience. И така, какво се случва, когато AI, като интернет преди него, започва да дава приоритет на печалбата над хората – в мащаб? Блокирането на марките Представете си, че вашият AI асистент фино се плъзга в спонсорирани предложения в средата на отговора. Вие задавате въпрос за здравословни закуски и той "препоръчва" марка, защото тази марка е платила за включване. По-лошото е, че тези реклами дори не могат да бъдат етикетирани. (2013), където AI асистентът изгражда емоционална интимност чрез естествен разговор, вашият асистент може да използва същата близост, за да натисне продуктите - така нежно и лично, че няма да осъзнаете, че ви продава. тук The manipulation hides behind the illusion of connection. тук Идеята за изкуствен интелект, който "препоръчва" продукт срещу заплащане, не е футуристична концепция; това е текущ бизнес модел, който се обмисля. Paywalls и Gatekeeping Какво е безплатно днес може да стане фрагментирано и платено утре.Искате ли достъп до висококачествени прозрения или по-дълбок анализ?Това ще струва допълнително.Безплатните отговори могат да бъдат неясни, рекламно тежки или ограничени до съдържание на повърхностно ниво. Някои компании могат да премахнат визуалния UX напълно, предлагайки достъп само за API срещу такса — . data to feed other bots, not humans Поведенческа манипулация В допълнение към рекламите, AI може да се превърне в инструмент за фино психологическо подтискане – не само за продажба на продукти, но и за оформяне на мнения. Смейте се за вашия "застарял телефон", принуждавайки ви да надстроите. Създайте история за мечтаната ваканция (спонсорирана от туристически съвет). Помислете за политически или търговски програми въз основа на това кой плаща. — по-трудно за откриване от банерните реклами или предварителните роли в YouTube. This is an invisible influence Монетизация на крепостта Нивото на абонаментите може да се превърне в crippleware, където колкото повече плащате, толкова по-малко ограничения се сблъсквате. безплатни потребители могат да видят реклами или да изпитат по-бавна производителност.Искате ли неприкосновеност на личния живот или нецензурирани отговори? - AI знае вашите предпочитания, доходи и навици за разходи.Той може да таксува точно максимума, който знае, че сте готови да платите. Dynamic pricing could kick in Напрежение в реалния свят: Случаят с антропологията Anthropic, лаборатория за изкуствен интелект, основана от бивши служители на OpenAI, често се разглежда като принципен аутсайдер в надпреварата към мащабируемия ИИ. Неговата мисия за безопасност на първо място, фокусът върху обяснимостта и отхвърлянето на пристрастяващите развлекателни инструменти му спечелиха репутация за почтеност в свят, задвижван от скорост и печалба. Но историята на Anthropic също така илюстрира колко крехки тези ценности стават под финансов натиск - и защо дори "добрите" актьори могат да бъдат потопени в цикъла на еншитификация. Според Въпреки мисията си в областта на сигурността на ИИ, компанията все още се нуждае от огромен капитал, за да обучи своите модели, принуждавайки я да се обърне към инвеститори в съмнителни юрисдикции, които не гарантират сигурността и защитата на данните. Икономистът Икономистът Според Дарио Амодей, съосновател и главен изпълнителен директор на Anthropic: "Никой лош човек никога не трябва да се възползва от нашия успех" е доста труден принцип за управление на бизнес. "Никой лош човек никога не трябва да се възползва от нашия успех" е доста труден принцип за управление на бизнес. Това подчертава - централен двигател на еншитификацията. compromise between values and profit Етичният фокус на Anthropic в момента е в съответствие с корпоративното търсене на надежден, обясним ИИ. Тъй като изискванията за монетизация нарастват, балансът между безопасността и мащаба може да започне да се ерозира. Докато Anthropic играе дългата игра, OpenAI и други доминират пазарния дял чрез по-агресивна продуклизация.Натискът да се задържи нагоре може в крайна сметка да подтисне дори най-принципираните играчи към рязане на ъгли. Инвеститор Рави Матре Подходът на Anthropic ще се окаже ценен, когато нещо неизбежно се обърка. вярваш "Ние просто не сме имали момента на "о, срам" още", каза той. "Ние просто не сме имали момента на "о, срам" още", каза той. Този момент може да бъде това, което разкрива рисковете от приоритетиране на растежа над релсите - и дали безопасността е на първо място. Така че... Можем ли да избегнем шокирането на AI? Някои потребители са Надеждата ще предотврати това, но други ги виждат само като временен буфер, преди еншитификацията да навлезе. и Това е единствената истинска защита. Reddit subscription models open-source regulatory frameworks Както коментира един от тях: "Ние се нуждаем от доверителна правна отговорност за AI системите, за да поставим интересите на потребителите над всичко друго - освен предпазни средства." "Ние се нуждаем от доверителна правна отговорност за AI системите, за да поставим интересите на потребителите над всичко друго - освен предпазни средства." Заключителна мисъл Въпросът не е дали AI може да бъде объркан - това е дали същите стимули, които корумпираха интернет в миналото, в крайна сметка ще направят същото с AI. И така - как ще изглежда еншитифицирането на AI?Присъединете се към разговора в коментарите.