Reklama 3 tysiące złotych na miesiąc.
Nie masz czasu czytać? Cały panel możesz też obejrzeć lub posłuchać na YouTube:
Paneliści, reprezentujący różne perspektywy i doświadczenia w mediach, przedstawili złożony obraz obecnych wyzwań i prognoz na przyszłość. Panel skoncentrował się na tytułowym pytaniu: czy algorytmy zabiły dziennikarstwo i dodatkowym wątku tj. czy sztuczna inteligencja je pogrzebie?
W rozmowie udział wzięli:
Rafał Madajczak - redaktor naczelny Gazeta.pl
Janusz Schwertner - dyrektor programy Iberion i redaktor naczelny Goniec.pl
Jakub Sawa – ekspert ds. pozyskiwania ruchu, współzałożyciel FratreSEO
Marek Twaróg – redaktor naczelny Polska Press
A moderował ją Michał Mańkowski, dyrektor wydawniczy Wirtualnemedia.pl.
Wybór gości był nieprzypadkowy, bo choć większość z nich to redaktorzy naczelni, tak naprawdę reprezentowali rożne perspektywy: wielkiego portalu ogólnoinformacyjnego (Madajczak), mniejszej grupy wydawniczej bardzo mocno osadzonej na ruchu z big-techów (Schwertner) i grupie wielu portali regionalnych (Twaróg). Całość spinał ekspert ds. SEO i pozyskiwania ruchu w mediach niezależnie od ich skali (Sawa).
Kto kontroluje media?
Rozmowę rozpoczęto od pytania o to, czy osoby prowadzące media mają dziś zbyt małą kontrolę nad tym, jak ich medium wygląda i co się w nim “klika”, skoro tak wiele zależy od ruchu z Google i Facebooka. Rafał Madajczak z Gazeta.pl nie zgodził się z aż tak pesymistycznym tonem, twierdząc, że redakcje wciąż mają pewien wpływ, a "kryzys uwagi jest zawsze". Porównał obecną sytuację do dawnych obaw o to, czy wykrzykujący nagłówki chłopcy na ulicach zabijają dziennikarstwo, czy też nadejście internetu zniszczy prasę papierową.
– Trzeba szukać odbiorcy. Niestety on nie jest coraz częściej tam, gdzie my chcemy, żeby był – mówił.
Marek Twaróg z Polska Press zgodził się, że to "opowieść niekończąca się i wcale nie nowa", przywołując analogię z uzależnieniem od dystrybucji papierowej gazet 30 lat temu.
– Właściwie można by powiedzieć, że 30 lat temu robiąc gazetę też byliśmy uzależnieni od dystrybucji na przykład. Albo od pogody. Pamiętam sytuację, kiedy nagle nam się w jakimś kiosku nie sprzedała gazeta, okazało się, że zamokła cała paczka i musiała zostać – mówił.
I dodał, że jego zdaniem dzisiaj nikt z zarządzających wydawnictwami nie stawiałby pieniędzy na samo duże zespoły SEO. – Bo może się okazać, że za chwilę te zespoły stracą na znaczeniu. W związku z tym wszyscy próbujemy gdzieś ten ruch directowy rozwijać – wyjaśnił.
Mimo zależności od zewnętrznych źródeł, media powinny rozwijać ruch bezpośredni i budować ściślejsze społeczności z użytkownikami. Twaróg uważa, że większe angażowanie czytelnika pozwala drożej sprzedawać reklamy i generować większe zyski. Wskazuje, że media nie wybierają się "do piachu", sugerując optymistyczną perspektywę.
Newsletter WirtualneMedia.pl w Twojej skrzynce mailowej
Moderator zwrócił uwagę na to, że jeśli 70-80% ruchu pochodzi z zewnętrznych źródeł, nad którymi media nie mają kontroli, to rodzi się pytanie o rzeczywistą popularność medium. Stwierdził: „Nie jesteśmy trochę takim pasażerem medialnego autobusu, który nie tylko nie siedzi za kierownicą, ale nawet nie ma go obok kierowcy, tylko gdzieś z tyłu?”
Clickbait clickbaitowi nierówny
Janusz Schwertner z Iberionu potwierdził, że w jego przypadku od algorytmów i big techów zależne jest nawet 99% ruchu, wskazując na Facebooka, Google i YouTube.
Mówił o zagrożeniach, ale też o szansach np. potencjalnie odległe pewne polityczne wydarzenia, jak spotkanie Zuckerberg–Trump, nagle zmieniają optykę dotyczącą tego, jakie treści Facebook promuje, co dla niego okazało się korzystne. Nawiązał tutaj do tego, że na Facebooku zaczęło pojawiać się więcej treści politycznych.
– Jak zaczynałem pracować w Onecie, to jeszcze właściwie o Facebooku nikt nie mówił. Wówczas była strona główna dużego portalu horyzontalnego, więc wchodziłem w ten świat clickbajtów i bardzo dobrze nauczyłem się to robić. Tytuły, które oszukują użytkownika, trzeba tępić i to jest coś złego. Natomiast chwytliwe nagłówki, takie które zaciekawiają użytkownika, to jest coś, na czym się wychowałem. I muszę przyznać, że lubię się w tym odnajdywać i z tego korzystać – mówił Schwertner.
I podał przykład swojego dużego i nagradzanego reportażu “Miłość w czasach zarazy”, który nie przeczytałby się masowo, gdyby właśnie nie ta umiejętność odpowiedniego podkręcenia tytułu, czym muszą się dzisiaj ratować dziennikarze, jeśli chcą ze swoimi tekstami dotrzeć do szerszego grona.
– Jakbym dał tytuł "Miłość w czasach zarazy" na stronie głównej Onetu, to niestety bardzo bym się cieszył, że się tak napracowałem, ale mało osób by ten tekst przeczytało. Trochę gram na zasadach przeciwnika, jest granica, której nie należy przekraczać, ale widzę pozytywny efekt – dodał, zwracając uwagę na to, że dziś dziennikarstwo w internecie to też znajomość psychologii użytkownika.
Algorytmiczne tsunami, którego nie przeżyją wszyscy
Jakub Sawa rozpoczął filozoficznie od stwierdzenia, że "wszyscy umrzemy", co "uwalnia od lęku o przyszłość". Stwierdził, że debata o algorytmach i dziennikarstwie jest dyskusją o "falach", podobnie jak w mediach drukowanych zawsze były "algorytmy" w postaci dyskusji o tytule czy zdjęciu na okładce.
Według Jakuba Sawy, media powinny obawiać się big techów i ich algorytmów. Obecna sytuacja to "bardzo duża fala", którą nazwał "tsunami", ponieważ "nie każdy przeżyje". Uważa, że wiele mediów upadnie z powodów finansowych, gdyż ich głównym modelem finansowym są odsłony, a tanie i proste źródła ruchu, takie jak Google czy Facebook, dominują.
Z jego perspektywy, bardzo niewiele mediów w Polsce ma mniej niż 90% ruchu z Google Discover (który jest "socialową wersją Google). Uważa, że tradycyjne duże strony główne, które utrzymują media w Polsce, są wyjątkiem na świecie i ich posiadanie nie gwarantuje przetrwania w nadchodzącym "tsunami".
Odnosząc się do pytania, czy zwalniać specjalistów SEO, zasugerował, aby zastanowić się nad połączeniem "seowców redakcyjnych" z zespołami social mediowymi. Uważa, że optymalizacja treści nie polega już na poradnikach, ale bardziej na tzw. "clickbaitach".
Jakub Sawa podkreślił, że "clickbait to jest wtedy, jeżeli coś obiecujemy czytelnikowi, a on w środku tego nie znajdzie". Zgodził się, że trudno jednoznacznie wskazać winnego clickbaitów (wydawcy, czytelnicy, platformy), nazywając to pytaniem o "jajko czy kurę". Argumentował, że gdyby clickbait nie generował pieniędzy dla wydawców i nie angażował użytkowników, big techy by go nie promowały
Z kolei Rafał Madajczak stwierdził, że jeśli miałby już ostatecznie wskazać kogoś winnego clickbaitom, to byliby to mimo wszystko wydawcy. Zauważył, że granice akceptowalnej "krzykliwości" w tytułach przesunęły się – to, co 10-15 lat temu było wyśmiewane, dziś stało się konwencją w mediach, w tym u news influencerów czy na YouTube.
Rozróżnia "clickbait" (mechaniczne kliknięcie bez wartościowej treści w środku) od "readbaitu", który definiuje jako przyciągnięcie ludzi i zatrzymanie ich przy czymś wartościowym.
Odsłonowy model dziennikarstwa
Marek Twarog podkreśla, że dzisiaj nie liczy się wyłącznie liczba odsłon, ale ich "jakość i kaloryczność". Podał przykład swojej firmy, która zrezygnowała z "przeklikajkowych galerii" (np. 358 zdjęć), zamiast tego pokazując cztery zdjęcia na jednej odsłonie. Spowodowało to natychmiastowy spadek odsłon o jedną trzecią, ale jednocześnie wzrosły wskaźniki RPM (przychód na tysiąc odsłon), co oznacza, że firma nie straciła pieniędzy, a nawet poprawiła rentowność, ponieważ użytkownicy dłużej przeglądają treści, co zwiększa wyświetlenia reklam.
Rafał Madajczak podzielił się ciekawymi danymi. Według analiz Gazeta.pl, tekst o długości 1500 znaków, który generuje 100 000 odsłon, zarabia tyle samo, co tekst, który użytkownik czyta przez 15 minut i który również generuje 100 000 odsłon. To odkrycie było dla nich szokujące.
Jego zdaniem oznacza to, że z czysto reklamowego punktu widzenia, długie teksty nie mają żadnego znaczenia reklamowego. Mimo to, Rafał Madejczak podkreślił, że Gazeta.pl nie zrezygnuje z długich tekstów, ponieważ pełnią one inne funkcje.
Za rogiem czeka coś trudniejszego: AI
Temat dyskusji o algorytmach zabijających dziennikarstwo jest już nieaktualny, ponieważ prawdziwe zagrożenie stanowi sztuczna inteligencja, która przysporzy wydawcom jeszcze więcej kłopotów niż algorytmy. Jakub Sawa podkreśla, że mechanizmy AI, takie jak Perplexity czy ChatGPT, wyprą z rynku pośredników, czyli wydawców zarabiających na odsłonach. Jeśli użytkownik otrzyma od razu odpowiedź na swoje pytanie w wyszukiwarce AI, nie będzie miał potrzeby odwiedzania źródeł, co pozbawi media ich głównego źródła przychodów.
Według Sawy, oddanie opisywania rzeczywistości automatycznym mechanizmom AI pozbawia ludzi możliwości wyboru. Twierdzi, że niedługo będziemy "czytać i wierzyć w to, co nam poda Google, ChatGPT czy jeszcze jakaś inna firma". Podkreśla, że narracja modeli AI jest "sterowalna" i nie jest trudne do wyobrażenia, że w przyszłości będą one ustawiane tak, aby przedstawiać podmioty czy osoby w określonym, pozytywnym świetle. Kontrastuje to z obecną sytuacją, gdzie Google oferuje wiele wyników wyszukiwania z różnych źródeł, umożliwiając krytyczne myślenie i weryfikację informacji.
Sawa uważa, że przy AI “myślenie krytyczne znika” i zaznacza, że obecne mechanizmy AI "nie są inteligentne". Nazywa je "procesorami treści" (tekstu, zdjęć, filmów), które są “bardzo sprytnymi algorytmami”. Ekspert uważa, że oddanie narracji w ręce AI jest niebezpieczne, ponieważ dzieci "nie będą miały możliwości na przykład poszukania innego zdania".
Możesz też posłuchać podcastu podsumowującego ten temat i artykuł.