paint-brush
„Dla wydawców niezwykle wydajne funkcje AI są dostępne po jednym wywołaniu API” – twierdzi założyciel i dyrektor generalny HackerNoonprzez@techopedia
3,097 odczyty
3,097 odczyty

„Dla wydawców niezwykle wydajne funkcje AI są dostępne po jednym wywołaniu API” – twierdzi założyciel i dyrektor generalny HackerNoon

przez Techopedia7m2024/09/09
Read on Terminal Reader

Za długo; Czytać

Dyrektor generalny HackerNoon David Smooke mówi o roli AI w redakcji. Mówi, że niedopuszczalne jest prezentowanie treści jako stworzonych przez człowieka, skoro zostały stworzone przez AI. Deep fake'i generują miliardy wyświetleń w mediach społecznościowych, ale są łatwiejsze do stworzenia niż kiedykolwiek.
featured image - „Dla wydawców niezwykle wydajne funkcje AI są dostępne po jednym wywołaniu API” – twierdzi założyciel i dyrektor generalny HackerNoon
Techopedia HackerNoon profile picture
0-item
1-item

Najnowsze zdjęcie założyciela i dyrektora generalnego HackerNoon, Davida Smooke'a .


Tim Keary z Techopedia : Zaufanie do dziennikarstwa jest na najniższym poziomie w historii , a sztuczna inteligencja grozi dalszą destabilizacją. Obecnie wydawcy wiadomości wszystkich rozmiarów są zmuszeni decydować, jaką rolę odgrywa sztuczna inteligencja w redakcji.


Czy zaakceptują treści i nagłówki generowane przez sztuczną inteligencję? W jakim stopniu korzystanie ze sztucznej inteligencji musi zostać ujawnione czytelnikom? I czy wiadomości generowane przez sztuczną inteligencję odciągną ruch od dziennikarstwa pisanego przez ludzi?


Serwis Techopedia skontaktował się z Davidem Smooke’em, założycielem i dyrektorem generalnym HackerNoon , wydawnictwa poświęconego technologii, które zatrudnia ponad 45 tys. autorów i czyta 4 miliony osób miesięcznie, aby dowiedzieć się, w jaki sposób jego organizacja eksperymentuje ze sztuczną inteligencją, a także poznać jego zdanie na temat tego, w jaki sposób dziennikarze i wydawcy wiadomości powinni podchodzić do tematu sztucznej inteligencji.


W sesji pytań i odpowiedzi pokrótce omówiono, w jaki sposób HackerNoon eksperymentuje ze sztuczną inteligencją w swoich działaniach, jakie powinny być dopuszczalne granice roli sztucznej inteligencji w redakcji, jakie są przemyślenia Smooke'a na temat pozwu The New York Times przeciwko OpenAI oraz przyszłość dziennikarstwa pisanego przez ludzi.


Smooke, pochodzący z Kolorado, założył HackerNoon w 2013 r., gdy sztuczna inteligencja była jeszcze w zasadzie ograniczona do marzeń Hollywood.


Komentarze i formatowanie zostały nieznacznie zredagowane w celu zachowania zwięzłości.


Tim Keary : Jako dziennikarz i dyrektor generalny organizacji informacyjnej, jaką rolę Twoim zdaniem powinna odgrywać sztuczna inteligencja w redakcji?

David Smooke : Jestem bardziej pisarzem i menedżerem produktu niż dziennikarzem. HackerNoon publikuje wszystkie rodzaje postów na blogach o technologii, takie jak artykuły redakcyjne, samouczki, wywiady, felietony, prace badawcze i trochę dziennikarstwa. Budujemy system zarządzania treścią oparty na społeczności, a jest wiele miejsc, w których sztuczna inteligencja może pomagać pisarzom, czytelnikom i redaktorom, na przykład poprzez burzę mózgów, poprawianie gramatyki lub znajdowanie kolejnej istotnej historii.


W naszym edytorze tekstu mamy niestandardową warstwę ChatGPT do przepisywania, kilka modeli generowania obrazów i wykorzystujemy AI do generowania podsumowań dla natywnej liczby znaków na kanał dystrybucji. Używamy AI, aby uczynić historie bardziej dostępnymi, tworząc więcej wersji historii; na przykład używamy Google AI do tłumaczenia historii na języki obce i generowania wersji audio wpisu na blogu.


Jako odbiorca wiadomości, a w szczególności w kontekście redakcji, chciałbym, aby dziennikarze sprawdzali swoje materiały, korzystając z najbardziej zaawansowanej i trafnej technologii wyszukiwania lub konkretnej metodologii, jakiej wymaga dany materiał, ale nigdy nie ufali w pełni sztucznej inteligencji i zawsze, ale to zawsze weryfikowali.


Jako odbiorca wiadomości, a w szczególności w kontekście redakcji, chciałbym, aby dziennikarze sprawdzali swoje materiały, korzystając z najbardziej zaawansowanej i trafnej technologii wyszukiwania lub konkretnej metodologii, jakiej wymaga dany materiał, ale nigdy nie ufali w pełni sztucznej inteligencji i zawsze, ale to zawsze weryfikowali.

A konkretnie, jaki poziom wykorzystania jest Twoim zdaniem akceptowalny i jaki poziom przejrzystości jest wymagany?

Niedopuszczalne jest, aby treść była prezentowana jako stworzona przez człowieka, gdy została stworzona przez AI. Platformy powinny zrobić, co w ich mocy, aby wskazać, gdzie i w jaki sposób AI przyczyniła się do doświadczenia. Na przykład używamy wskaźniki wiarygodności emoji wskazać czytelnikowi, czy Wspomagane przez sztuczną inteligencję w pisaniu historii. Ludzie w internecie powinni ufać, że autor jest tym, za kogo podaje go strona.

Czy uważasz, że serwisy informacyjne tworzone przez sztuczną inteligencję stanowią zagrożenie dla przyszłości dziennikarstwa pisanego przez ludzi?

Istnieją skutki uboczne masowej produkcji i masowej konsumpcji treści generowanych przez AI. Deep fake'i generują miliardy wyświetleń w mediach społecznościowych. Platformy stają się coraz lepsze w ich wykrywaniu i etykietowaniu, ale są po prostu łatwiejsze niż kiedykolwiek.


Gdy TUAW niedawno ponownie uruchomiony z nową treścią generowaną przez AI i przypisaną prawdziwym ludziom, którzy kiedyś tam pisali - nie zostało to dobrze przyjęte. Autorzy nie chcą takiego błędnego przypisania, a w przypadku wpisów na blogu czytelnicy ufają treści bardziej, jeśli ufają człowiekowi po drugiej stronie ekranu.


Wiele finansowych witryn i narzędzi korzysta z przetwarzania języka naturalnego i automatyzacji, aby podawać nagłówki w ciągu kilku sekund, ponieważ te informacje są ważne dla inwestorów. To kwestia szybkości i wygody w porównaniu z wolniejszym wprowadzaniem danych przez człowieka, ale trwa to o wiele dłużej niż obecny boom generatywnej sztucznej inteligencji.


Wiele finansowych witryn i narzędzi korzysta z przetwarzania języka naturalnego i automatyzacji, aby podawać nagłówki w ciągu kilku sekund, ponieważ te informacje są ważne dla inwestorów. To kwestia szybkości i wygody w porównaniu z wolniejszym wprowadzaniem danych przez człowieka, ale trwa to o wiele dłużej niż obecny boom generatywnej sztucznej inteligencji.

Czy istnieje ryzyko, że treści generowane przez sztuczną inteligencję odciągną uwagę, liczbę kliknięć i pieniądze od treści, w które dziennikarze włożyli czas i wysiłek, nawet jeśli nie da się ich odtworzyć w terenie?

Tak, istnieje ryzyko, że większa uwaga przeniesie się z wydawcy na doświadczenie wyszukiwania. Jeśli wygenerowane przez Google wyniki wyszukiwania AI rozwiążą dziś problem, który strona w czyjejś witrynie rozwiązałaby wczoraj, oznacza to utratę odwiedzających. Pozytywną stroną dla wydawców jest to, że supermocne funkcje AI są oddalone o jedno wywołanie API, co oznacza, że doświadczenie wydawcy w zakresie odkrywania i wyszukiwania może również dłużej zatrzymywać ruch wysokiej jakości.

Co sądzisz o pozwie złożonym przez „New York Times” przeciwko OpenAI i o szerszym trendzie polegającym na tym, że dostawcy sztucznej inteligencji uczą modele na podstawie treści informacyjnych generowanych przez autorów i dziennikarzy?

W przyszłości przewiduję, że rząd, a nawet sektor prywatny, będą panować w podejściu Dzikiego Zachodu, w którym wszystko w Internecie może być wykorzystane jako dane szkoleniowe. w tej sprawie New York Times kontra OpenAI czy będzie to kamień milowy w kwestii tego, jak twórcy treści są wynagradzani przez firmy AI? Mam wątpliwości, ale z pewnością są to dwa wielkie nazwiska. Pojawiło się po tym, jak umowa licencyjna na treści nie powiodła się. Czytając między wierszami, gdyby OpenAI było w stanie wynagrodzić New York Times więcej, sprawa nigdy nie trafiłaby do sądu. Dosłowne powtarzanie cudzych treści jest plagiatem. New York Times o tym wie, OpenAI o tym wie, a nawet twój nauczyciel w szkole podstawowej o tym wie. Spodziewam się, że OpenAI zapłaci New York Times więcej pieniędzy, zanim to się skończy, ale nie sądzę, aby ta sprawa kształtowała przyszłość w kwestii licencjonowania treści internetowych na potrzeby szkoleń AI.

Co sądzisz o narzędziach AI do publikowania wiadomości, takich jak Perplexity AI, które oferują podsumowania wiadomości z cytatami? (Czy uważasz, że mogą być to przydatne narzędzia, czy też obawiasz się, że odciągną czytelników od tradycyjnych serwisów informacyjnych)?

Kuratorstwo to wartość dodana. Czasami, zwłaszcza jeśli podano niezawodne i szczegółowe zasady, sztuczna inteligencja może kuratorować tak skutecznie, jak niektórzy ludzie. Sztuczna inteligencja w 100% zmienia sposób, w jaki szukamy i badamy w Internecie. Nie jestem nawet pewien, czy różnicowanie wyszukiwania Perplexity polega na wykorzystaniu sztucznej inteligencji, ponieważ Perplexity ma niesamowite wybory projektowe. Nie byłem zaskoczony, widząc, że Meta wprowadziła bardzo podobną stronę główną przewijanych tematów podczas uruchamiania czatu Meta AI, a SearchGPT używa podobnego projektu do wyświetlania odpowiednich źródeł. Wyszukiwarka Google nadal dominuje na rynku, ich wykorzystanie generatywnej sztucznej inteligencji w wynikach wyszukiwania pokazuje, że generatywna sztuczna inteligencja będzie częścią przyszłości rynku wyszukiwania w Internecie.

W jaki sposób wydawcy wiadomości mogą wykorzystać sztuczną inteligencję do usprawnienia swoich działań?

Używamy AI w wielu systemach wydawniczych w HackerNoon. Przed publikacją AI rekomenduje nagłówki na podstawie wersji roboczej historii i poprzednich wyników historii HackerNoon. Ludzie nadal piszą nagłówki lepiej w 95% przypadków, ale miło jest, gdy maszyny generują kilka istotnych opcji. Używamy również AI, aby lepiej selekcjonować historie, na przykład gdy musieliśmy kategoryzować 50 tys. tagów technologicznych do 22 kategorie technologiczne , bardziej sensowne było, aby te 50 tys. zadań wykonała sztuczna inteligencja, niż gdyby mieli to robić ludzie.

Czy masz jakieś uwagi na temat wpływu AI na SEO? A konkretnie, czy uważasz, że w przyszłości trudniej będzie klasyfikować treści pisane przez ludzi w porównaniu z treściami tworzonymi przez AI?

Treści AI nie są materiałem źródłowym. Źródła zawsze będą musiały być cytowane i linkowane. Wraz ze wzrostem liczby podsumowań wyników wyszukiwania generowanych przez AI i łączną liczbą interakcji człowieka z AI rosnącą każdego dnia, oczekuje się, że doświadczenia wyszukiwania będą uzupełniane przez asystenta AI.

Co powiedziałbyś pisarzom i dziennikarzom, którzy wchodzą do branży i martwią się o przyszłość całego sektora wydawniczego?

Nie bój się konkurować z robotami. Zapotrzebowanie na autentyczne ludzkie historie jest tak wysokie, jak nigdy dotąd. Podczas gdy sztuczna inteligencja zalewa internet miliardami złych treści, przeciętnych treści, akceptowalnych treści, a nawet niezwykłych treści, świetni opowiadacze historii będą nadal się wybijać. Za każdym razem, gdy pisarz żyje, istnieją bariery wejścia w zdobywaniu czytelników. Przez większość historii ludzkości nie było magazynów ani Internetu. Kto miał do opowiedzenia wartościową historię, znajdował sposób, aby opowiedzieć swoją historię. Jeśli masz historie do napisania, jest więcej sposobów niż kiedykolwiek wcześniej, aby zdobyć czytelników z całego świata.

Czy chciałbyś dodać jeszcze jakieś komentarze?

Zawsze będziemy potrzebować ludzkiej oryginalności… ponieważ jesteśmy ludźmi, pragniemy ludzkich historii.



Opublikowano również jako „ Jaka jest rola AI w redakcji? Pytamy CEO Hackernoon