TikTok może stanowić zagrożenie dla dzieci i młodzieży – ostrzegli eksperci po samobójstwach trójki nastolatków z Pomorza, którzy wcześniej zgłaszali w aplikacji treści rezygnacyjne. Platforma odpiera zarzuty, podkreślając, że usuwa takie materiały i nie doszło do powstania żadnego trendu.
Samobójstwa trójki nastolatków z woj. pomorskiego ponownie wywołały debatę o wpływie mediów społecznościowych na zdrowie psychiczne dzieci i młodzieży. Nastolatkowie zginęli pod kołami pociągu. Jak wynika z ustaleń medialnych, wcześniej publikowali w serwisie TikTok treści o charakterze rezygnacyjnym. Sprawa zbiegła się z ostrzeżeniem opublikowanym w aplikacji KidsAlert, dotyczącym narastającej liczby niepokojących treści pojawiających się na platformie.
KidsAlert poinformował o wzroście publikacji określanych przez młodych użytkowników jako „moja data”, obejmujących krótkie pożegnania, zapowiedzi odejścia lub symboliczne wskazywanie daty śmierci (PAP informowała o tym w depeszy 10 grudnia br.)
Według autorów alertu zjawisko nasiliło się w październiku i listopadzie, a niektóre materiały osiągały zasięgi przekraczające milion wyświetleń. Organizacja ostrzegła, że algorytm platformy może wzmacniać kontakt nastolatków z podobnymi treściami, jeśli użytkownik natrafi na nie w trudnym momencie psychicznym. Podkreślono, że choć publikacje te nie muszą być bezpośrednią przyczyną tragedii, mogą pośrednio wpływać na psychikę młodych osób.
Do zarzutów odniosło się biuro prasowe TikToka, które w odpowiedzi dla PAP zdecydowanie odrzuciło sugestie o istnieniu niebezpiecznego trendu oraz o odpowiedzialności algorytmu za promowanie treści rezygnacyjnych. Platforma poinformowała, że nie zezwala na treści przedstawiające, zapowiadające lub promujące samobójstwo czy samookaleczenia, a każdy taki materiał jest usuwany niezwłocznie po wykryciu. Jak przekazano, ponad 99 proc. treści naruszających zasady społeczności usuwanych jest proaktywnie, jeszcze zanim zostaną zgłoszone przez użytkowników, a możliwość wyszukiwania określonych fraz jest blokowana.
TikTok zakwestionował również wnioski zawarte w alercie KidsAlert, uznając je za spekulatywne i niepoparte dowodami. W ocenie platformy autorzy alertu nie zwrócili się o dostęp do narzędzi analitycznych udostępnianych niezależnym badaczom ani nie przedstawili metodologii analizy trendów. TikTok wskazał także, że Instytut Monitorowania Mediów nie przygotował raportu, który potwierdzałby związek pomiędzy wzrostem zainteresowania takimi treściami a działaniem algorytmu rekomendacji. Zdaniem platformy opis mechanizmu rekomendacji zawarty w alercie wprowadza w błąd, a doświadczenie nastolatków w aplikacji jest bardziej ograniczone niż w przypadku kont dorosłych użytkowników – zarówno pod względem funkcji, jak i rodzaju wyświetlanych treści.
Platforma poinformowała również, że po otrzymaniu sygnałów zweryfikowała treści oznaczone wskazanymi hasztagami, usuwając wszystkie materiały naruszające zasady, oraz prewencyjnie zmodyfikowała mechanizmy wyszukiwania, aby ograniczyć potencjalny wzrost zainteresowania wynikający z nagłośnienia medialnego. Przy wyszukiwaniu haseł związanych z samobójstwem użytkownicy mają być kierowani do lokalnych linii pomocowych i sprawdzonych źródeł wsparcia.
TikTok odniósł się także do listu otwartego twórców aplikacji KidsAlert, odrzucając zawarte w nim zarzuty o wywieranie presji na instytucje lub próby ukrywania poruszanych kwestii. Platforma podkreśliła, że pozostaje otwarta na współpracę z organizacjami pozarządowymi i przypomniała, iż już rok temu zaproponowała twórcom KidsAlert dołączenie do programu Community Partner Channel, umożliwiającego bezpośredni kontakt z zespołami bezpieczeństwa.
W sprawie rzekomego „trendu” głos zabrało również Centralne Biuro Zwalczania Cyberprzestępczości. W odpowiedzi na pytania PAP rzecznik CBZC kom. Marcin Zagórski podkreślił, że zadaniem Biura nie jest ocenianie, czy dane zjawisko stanowi trend. Jak zaznaczył, CBZC monitoruje sieć 24 godziny na dobę i reaguje na każdy przypadek zagrożenia życia lub zdrowia, zarówno na podstawie własnych ustaleń, jak i informacji przekazywanych przez współpracujące instytucje, m.in. Fundację Dajemy Dzieciom Siłę oraz Biuro Rzecznika Praw Dziecka.
Rzecznik zaprzeczył także doniesieniom medialnym, jakoby funkcjonariusz CBZC miał stwierdzić, że zjawisko „moja data” nie istniało. Wyjaśnił, że w wypowiedzi post. Michała Pietraszko nie pojawiła się ani potwierdzająca, ani negująca ocena istnienia jakiegokolwiek trendu, a odnosiła się ona wyłącznie do ogólnych zagrożeń i działań podejmowanych przez policjantów. CBZC podkreśliło również, że nie prowadzi śledztwa w sprawach dotyczących samobójstw nastolatków z Pomorza i nie zna okoliczności tych zdarzeń.
Z kolei zdaniem prof. Mariusza Jędrzejki, badacza tzw. nowych mediów i ich wpływu na psychikę i bezpieczeństwo dzieci, brak formalnej definicji trendu w mediach społecznościowych nie powinien zwalniać platform z odpowiedzialności. Jak ocenił, wszystkie powtarzające się wzorce publikacji w mediach społecznościowych, zwłaszcza dotyczące zagrożenia życia i zdrowia, powinny być monitorowane i automatycznie wychwytywane przez systemy platform.
Do sprawy odniosło się także Stowarzyszenie Pravda, zajmujące się fact-checkingiem i edukacją medialną. Organizacja potwierdziła istnienie na TikToku treści określanych jako „moja data”, wskazując, że choć nie można mówić o masowym trendzie ani wiązać ich bezpośrednio z tragicznymi zdarzeniami, to ich obecność i sposób dystrybucji uzasadniały ostrzeżenia prewencyjne KidsAlert. Pravda podkreśliła, że sprowadzanie debaty wyłącznie do pytania o istnienie trendu upraszcza problem i odwraca uwagę od realnego wpływu treści na podatnych odbiorców.
Stowarzyszenie zaznaczyło również, że brak dowodów na bezpośredni związek publikacji z konkretnymi tragediami nie podważa faktu istnienia takich materiałów, z których część osiągała wysokie zasięgi. Zdaniem Pravdy algorytmy rekomendacyjne mogą zwiększać ekspozycję na treści o podobnym, emocjonalnie obciążającym charakterze, co stanowi czynnik ryzyka dla młodych użytkowników w kryzysie. Organizacja wskazała także na ograniczony dostęp badaczy do pełnych danych platformy i rolę organizacji społecznych jako elementu systemu wczesnego ostrzegania.
Sprawa wpisuje się w szerszy kontekst międzynarodowy. W Australii w tym miesiącu wszedł w życie zakaz korzystania z platform społecznościowych przez osoby poniżej 16. roku życia, a podobne rozwiązania zapowiada Malezja. Również Parlament Europejski wyraził zaniepokojenie wpływem mediów społecznościowych na zdrowie psychiczne nieletnich, postulując ograniczenia wiekowe lub obowiązkową zgodę rodziców.
Jak podkreśliła medioznawczyni z UMCS dr Ilona Dąbrowska, obowiązujące w Polsce prawo nie zapewnia skutecznej ochrony dzieci przed zagrożeniami w sieci. Jej zdaniem regulacje nie stanowią ograniczenia wolności młodych użytkowników, lecz formę zabezpieczenia przed treściami, z którymi nie są w stanie samodzielnie sobie poradzić. Wskazała, że rosnąca liczba samobójstw wśród młodych osób może być pośrednim skutkiem niekontrolowanego dostępu do treści w internecie.
Według danych Komendy Głównej Policji w 2024 r. samobójstwo popełniło w Polsce 127 dzieci w wieku od 7 do 18 lat. Z kolei badania Fundacji Dbam o Mój Zasięg i Banku Gospodarstwa Krajowego wskazują, że treści związane z samookaleczeniem lub samobójstwem pojawiają się w mediach społecznościowych u 40 proc. uczniów siódmych klas szkół podstawowych i 50 proc. uczniów szkół ponadpodstawowych.
Debata o odpowiedzialności platform cyfrowych toczy się także na poziomie UE i USA. Komisja Europejska niedawno nałożyła pierwszą karę na platformę X za naruszenia Aktu o usługach cyfrowych, jednocześnie zamykając jedno z postępowań wobec TikToka w zakresie przejrzystości reklam. W Stanach Zjednoczonych TikTok podpisał umowę o sprzedaży części swoich aktywów amerykańskim inwestorom, co – według zapowiedzi – ma zwiększyć kontrolę nad algorytmem i bezpieczeństwem danych.
Sprawa treści rezygnacyjnych wśród młodzieży pozostaje otwarta, a eksperci i organizacje społeczne podkreślają potrzebę systemowych rozwiązań oraz większej odpowiedzialności platform za bezpieczeństwo najmłodszych użytkowników internetu.