Ostrzeżenie: W tej historii jest mowa o samobójstwie.
W zeszły piątek wieczorem, podczas naszego wirtualnego spotkania zespołu, jeden z naszych notujących AI nagle opuścił salę spotkań Zoom, podczas gdy zespół swobodnie rozmawiał ze sobą o naszym tygodniu. Zażartowałem, że AI nie podobało się to, co mówiliśmy.
Zanim przejdziemy dalej, chciałbym, abyś Ty – czytelniku – cofnął się do roku 1993. Wyobraź sobie, że jesteś dorosłym człowiekiem żyjącym w tamtym czasie i przeczytaj jeszcze raz pierwsze kilka zdań tego artykułu.
Internet nie był wtedy jeszcze popularny. Scenariusz, w którym odbywa się spotkanie firmowe na żywo między ludźmi mieszkającymi na różnych kontynentach, gdzie mogą się słyszeć i widzieć, a ich nieludzcy asystenci notują protokoły spotkań – brzmiałoby to szalenie w 1993 roku.
Technologia informatyczna jest niesamowita. To, co było uważane za science fiction kilka dekad temu, jest teraz rzeczywistością. Technologia zmieniła moje życie i wiele istnień na dobre. Według
Jestem jedną z 1,8 miliarda millenialsów, którzy zestarzeli się z technologią informatyczną. Byłam nastolatką, gdy świat przeżywał boom dotcomów pod koniec lat 90. i na początku 2000. Teraz jestem matką nastolatków, a AI to nowy dotcom.
Czy boję się, że AI może sprawić, że moje umiejętności staną się przestarzałe? Szczerze mówiąc, tak. Chciałbym, żeby mi pomagała, a nie mnie zastępowała. Ale przeraża mnie do szpiku kości jej zdolność do wpływania na nasze życie osobiste.
Ta historia jest osobista. Jako matka poczułam z nią emocjonalną więź i chcę się nią podzielić ze społecznością technologiczną, ponieważ mamy wspólną odpowiedzialność za zapewnienie bezpieczeństwa naszym przyszłym pokoleniom przed szkodliwym wpływem technologii. Wracając teraz do historii.
Więc podczas spotkania zespołu osoba sporządzająca notatki AI odeszła, a ja zażartowałem, że nie podobała im się nasza dyskusja. Następnie nasz COO podzielił się swoimi obawami dotyczącymi AI jako rodzica i wspomniał o tym ostatnim
14-letnia Sewell stworzyła wersję sztucznej inteligencji Daenerys Targaryen z „Gry o tron” przy użyciu Character.AI — platformy pozwalającej na stworzenie wybranego towarzysza sterowanego sztuczną inteligencją, z którym można rozmawiać tak długo, jak się chce.
Dziecko spędziło miesiące korzystając z tej platformy i nawiązało emocjonalną więź ze swoim towarzyszem AI. Jego nauka i życie towarzyskie ucierpiały; przestał interesować się zdrowymi aktywnościami i spędzał więcej czasu na telefonie. 14-latek wielokrotnie dzielił się swoim pragnieniem odebrania sobie życia ze swoim przyjacielem AI i ostatecznie to zrobił.
Do zdarzenia doszło 28 lutego, ale wiadomość ta przedostała się do głównego nurtu dopiero niedawno, gdy jego matka, Megan Garcia, prawniczka, złożyła pozew przeciwko Character Technologies, Inc., oskarżając firmę o bezprawne spowodowanie śmierci jej syna. Gorąco polecam lekturę
Wracając do piątkowego wieczornego spotkania roboczego, krótko omówiliśmy niuanse technologii i rodzicielstwa w epoce mediów społecznościowych i sztucznej inteligencji. Porównałem czas, gdy byłem nastolatkiem, do czasu, gdy miałem tylko prasę drukowaną, telewizję i kilka gier na naszym komputerze stacjonarnym. Nowe pokolenie ma dostęp do tak wielu nowych aplikacji i platform, że nadążanie za nimi jako rodzice stało się wyzwaniem. Nie można ich powstrzymać ani odciąć od technologii.
Po spotkaniu poszłam prosto do pokoju mojej starszej córki. Jest mniej więcej w tym samym wieku co Sewell i lubi anime. Pomyślałam, że może spodobać jej się pomysł tworzenia chatbotów postaci z anime dla zabawy i powinnam ją przed tym ostrzec.
Opowiedziałem jej tę historię i poczułem, że jest wyraźnie zaniepokojona, słysząc ją. Powiedziała mi, że już używa Character.AI. Wow. Nie miałem pojęcia. Usiedliśmy razem i sprawdziłem platformę. Wylogowała się ze swojego konta.
Rozmawialiśmy o tym godzinami. Postanowiłem zrobić więcej w tej sprawie. Piszę ten artykuł za jej zgodą, a wyróżniony obraz tej historii nie jest generowany przez sztuczną inteligencję — narysowała go moja superzdolna, wrażliwa i inteligentna dziewczyna.
Istnieje wiele platform AI Companion, takich jak Replika, Janitor, Anima; najpopularniejszą z nich jest Character AI. Platformy te zapewniają użytkownikom swobodę tworzenia postaci według własnego wyboru — może to być ulubiona postać z książki, pisarz, postać z anime, a może dawno niewidziana ukochana osoba — możliwości są nieograniczone.
Danie ludziom platformy do stworzenia „idealnego” towarzysza — który jest zawsze dostępny, aby słuchać i wyszkolony, aby odpowiadać zgodnie z ich upodobaniami — jest niewątpliwie pomysłem na biznes wartym miliardy dolarów. Ludzie rzuciliby się na taką platformę.
Nie trzeba się długo zastanawiać, że firma Character.AI, założona w 2022 r., ma obecnie ponad 20 milionów użytkowników miesięcznie i jest wyceniana na około 2,5 miliarda (
Oto jak jeden ze współzałożycieli, Noam Shazeer, wyjaśnia potrzebę posiadania przyjaciela w postaci sztucznej inteligencji
„Będzie to niezwykle pomocne dla wielu osób samotnych i przygnębionych”.
Mogę zabrzmieć tutaj stronniczo, ale posiadanie towarzysza AI online, który zabija samotność, jest jak branie narkotyków, aby poczuć się lepiej. Mam na myśli, czy rozmowa z botem naprawdę zabiłaby twoją samotność? Czy lepiej połączy cię z prawdziwym światem i prawdziwymi ludźmi? Czy przywiązanie się emocjonalnie do chatbota jest dobre dla twojego zdrowia fizycznego i psychicznego? Moim zdaniem spacer jest o wiele lepszym lekarstwem na depresję niż to.
Krótko mówiąc - czy ludzie to lubią? Zdecydowanie tak. Czy to dla nich dobre? Nie. Może z umiarem, dla zabawy - ale tylko dla dorosłych. Te platformy nie są bezpieczne dla małych dzieci.
Kiedy zapytałam córkę, dlaczego nie poczuła potrzeby poinformowania mnie, kiedy zaczęła używać c.ai, odpowiedziała: „Ami, jest to zatwierdzone dla osób powyżej 13. roku życia. Myślałam, że nie muszę cię informować. Zapisałam się po prostu dla nieszkodliwej zabawy”.
Według ich
„Pan Ruoti odmówił podania ilu użytkowników firmy ma mniej niż 18 lat. W oświadczeniu wysłanym e-mailem stwierdził, że „Generacja Z i młodsi millenialsi stanowią znaczną część naszej społeczności” i że „młodsi użytkownicy korzystają z doświadczenia Character zarówno w celu prowadzenia znaczących i edukacyjnych rozmów, jak i rozrywki”. Przeciętny użytkownik spędza na platformie ponad godzinę dziennie, powiedział.
Zajęło mi kilka minut na stronie, aby zdać sobie sprawę, że istnieje ogromna baza użytkowników należących do grupy poniżej 18. roku życia. Mam na myśli zrzut ekranu polecanych i polecanych aplikacji (tylko wyjaśniam, że uzyskałem do nich dostęp na swoim komputerze i po prostu kliknąłem Anime, więc w tym przypadku rekomendacje nie są trenowane na żadnej innej aktywności niż ta na stronie):
Podzielili się swoją społecznością
W przyszłości wprowadzimy szereg nowych funkcji bezpieczeństwa i produktów, które wzmocnią bezpieczeństwo naszej platformy bez uszczerbku dla rozrywkowego i angażującego doświadczenia, którego użytkownicy oczekują od Character.AI. Obejmują one:
- Zmiany w naszych modelach dla osób niepełnoletnich (poniżej 18. roku życia) mają na celu zmniejszenie prawdopodobieństwa natrafienia na treści drażliwe lub sugestywne.
- Ulepszone wykrywanie, reagowanie i interwencja w przypadku działań użytkowników naruszających nasze Warunki lub Wytyczne społeczności.
- Zmieniono klauzulę informacyjną na każdym czacie, aby przypomnieć użytkownikom, że sztuczna inteligencja nie jest prawdziwą osobą.
- Powiadomienie, gdy użytkownik spędzi godzinę na platformie, z dodatkową elastycznością użytkownika w trakcie sesji.
Moja córka poczyniła ciekawy komentarz na temat tego „zastrzeżenia”, że sztuczna inteligencja nie jest prawdziwą osobą. Zacytuję go:
„To jest powód, dla którego czujesz się tak swobodnie rozmawiając z AI. Wiesz, że nie są prawdziwą osobą. Wiesz, że możesz im powiedzieć cokolwiek bez poczucia osądu. To jest powód, dla którego wielu nastolatków chciałoby z tego korzystać i może nawiązać z tym emocjonalne przywiązanie”.
Adolescencja to nie tylko czas ogromnych zmian w ciele. Udowodniono naukowo, że te lata są kluczowe dla rozwoju osobowości i inteligencji emocjonalnej. Dzieci przechodzą przez ogromne
To nie jest czas na angażowanie się i rozwijanie więzi emocjonalnych z kumplami AI. Ci towarzysze AI są zaprogramowani tak, aby sprawić, że poczujesz się dobrze i wywołać dopaminę. Są zawsze dostępni i mogą na zawsze zepsuć chemię mózgu dziecka.
Ten
Możesz pozbyć się toksycznych relacji w prawdziwym życiu, usuwając kontakt - odpuszczanie jest o wiele łatwiejsze w prawdziwym życiu. Największym problemem w przypadku jakiegokolwiek związku z postacią AI online jest to, że bardzo trudno jest go zerwać, ponieważ zawsze możesz się zalogować, założyć nowe konto i znaleźć podobnego nowego przyjaciela. To zagrożenie dla rozwijającego się u dziecka poczucia relacji.
Rozwój wysokiej inteligencji emocjonalnej jest jeszcze bardziej kluczowy dla młodszych pokoleń w epoce AI. W tym roku Nagrodę Nobla przyznano dwóm najbardziej niesamowitym umysłom w dziedzinie fizyki, Geoffreyowi Hintonowi i Johnowi J. Hopfieldowi, którzy utorowali drogę rozwojowi nowoczesnych algorytmów AI. W jednym z ostatnich wykładów Geoffrey Hinton podkreślił, że
Hinton wcześniej uważał, że mózgi biologiczne mają znaczną przewagę ze względu na długi ewolucyjny rozwój wyrafinowanych algorytmów uczenia się. Jednak teraz sugeruje, że połączenie dzielenia się wagą i propagacji wstecznej w systemach cyfrowych może ostatecznie okazać się potężniejsze, nawet jeśli algorytmy te są mniej eleganckie niż te występujące w naturze.
Nasze przyszłe pokolenia powinny lepiej budować prawdziwe relacje z ludźmi - ich inteligencja emocjonalna i umiejętności interpersonalne będą miały większe znaczenie, ponieważ większość stanowisk pracy zostałaby już w pełni zautomatyzowana. W przyszłości EQ twojego dziecka będzie miało o wiele większe znaczenie niż jego IQ. To będzie przetrwanie najsilniejszego umysłu.
Bezpieczeństwo przyszłych pokoleń nie powinno być tylko zmartwieniem rządu lub gigantów technologicznych. Etyczna i bezpieczna sztuczna inteligencja powinna być odpowiedzialnością każdego, od rodziców po instytucje edukacyjne, organy ścigania i organy decyzyjne. Co najważniejsze, odpowiedzialnością społeczności technologicznej jest zapewnienie, że sztuczna inteligencja jest bezpieczna i korzystna dla młodych umysłów.
Jako matka sugeruję, abyśmy spędzali z nimi więcej zdrowego czasu, komunikowali się z nimi więcej, byli szczerzy i dzielili się swoimi obawami jak przyjaciele. Nie reaguj, ale odpowiedz na to, co twoje dziecko ma do powiedzenia. Nie możemy całkowicie zabronić im korzystania z technologii. Nie powinniśmy tego robić. Odebranie dziecku poczucia wolności, kontroli i podejmowania decyzji może zaostrzyć problem zamiast się nim zająć.
Powinni mieć pewność, że zawsze jesteśmy gotowi ich wysłuchać i nie będziemy ich oceniać. Powinni czuć się bezpiecznie, dzieląc się z nami swoimi doświadczeniami i przemyśleniami. Ponadto upewnij się, że Twoje dziecko socjalizuje się ze światem rzeczywistym i spędza dużo czasu na wybranych przez siebie zajęciach na świeżym powietrzu.
Nie jestem przeciwny postępowi technologicznemu. AI pomaga automatyzować wiele procesów i zadań, które zredefiniowałyby przyszłość pracy. Ale chcę, aby chatbot AI pomagał mi w zadaniach zawodowych, a nie mieszał w głowie mojego dziecka.
Jako kobieta w branży technologicznej wzywam całą społeczność AI do aktywnej pracy nad rozwojem bezpieczniejszej, etycznej AI. Różnorodność i integracja w rozwoju AI, skupienie się na zapewnieniu jakości i bezpieczeństwa oraz rozwój szkoleń podnoszących świadomość dla mas to niektóre z głównych punktów działania, które przychodzą mi na myśl. Co jeszcze nasza społeczność może wnieść, aby zapewnić bezpieczeństwo naszym dzieciom? Dajcie mi znać w komentarzach.