Według dokumentów z procesu zbiorowego, do którego przyłączyły się setki rodzin, szkoł i stanów USA, firma Meta od lat posiadała wiedzę o poważnych szkodach, jakie jej platformy mogą wyrządzać młodym użytkownikom. Mimo to, jak twierdzą źródła, firma celowo bagatelizowała te ryzyka wobec opinii publicznej i decydentów. Zarzuty opierają się na zeznaniach byłych pracowników oraz wewnętrznej korespondencji i badaniach, do których dotarto w ramach postępowania.
Wiedza o negatywnym wpływie na psychikę
Już kilka lat temu wewnętrzne analizy Meta miały wskazywać na wyraźny związek między intensywnym korzystaniem z Instagrama czy Facebooka a wyższym poziomem lęku i obniżonego nastroju u nastolatków. Przeprowadzono nawet tzw. badanie dezaktywacyjne, które pokazało, że osoby niekorzystające z aplikacji przez tydzień odczuwały mniejsze przygnębienie. Wyników tych nie opublikowano. Co więcej, w oficjalnych odpowiedziach dla Kongresu firma zaprzeczała, by miała taką wiedzę.
Celowe ukrywanie skali problemu
Podobny schemat powtarzał się przy badaniu tzw. użycia problematycznego, które można porównać do uzależnienia. Gdy wewnętrzne badanie wskazało, że pewien poziom trudności w kontrolowaniu korzystania z Facebooka dotyczy większości użytkowników, w publicznym raporcie wspomniano jedynie o niewielkiej grupie osób z najcięższymi objawami. Reszta danych pozostała nieujawniona.
Opóźniane i blokowane funkcje bezpieczeństwa
Jednym z najbardziej szokujących wątków jest świadome, opóźnianie wprowadzenia prostych rozwiązań chroniących młodzież, aby nie zaszkodzić zaangażowaniu użytkowników i wzrostowi aplikacji.
Prywatność kont nastolatków
Już około 2019 roku pracownicy zespołów ds. bezpieczeństwa, prywatności i prawa rekomendowali, by wszystkie konta niepełnoletnich użytkowników domyślnie były prywatne. Miało to zapobiec niechcianym kontaktom od dorosłych obcych. Zespół odpowiedzialny za wzrost platformy oszacował jednak, że taka zmiana zmniejszy liczbę aktywnych nastoletnich użytkowników. W rezultacie wdrożenie tej ochrony opóźniło się o kilka lat, podczas gdy liczba niepokojących interakcji między dorosłymi a dziećmi gwałtownie rosła.
Walka z toksycznymi mechanizmami
Podobny los spotkał inne inicjatywy. Testowano ukrywanie liczby polubień pod postami (tzw. Projekt Daisy), co – według badań firmy – miało redukować negatywne porównania społeczne. Pomysł zarzucono, gdy okazało się, że może wpłynąć na przychody z reklam. Także filtrów dotyczących urody, które mogły nasilać zaburzenia postrzegania ciała, najpierw zakazano, by potem przywrócić je ze względu na potencjalny negatywny wpływ na popularność aplikacji.
Tolerowanie poważnych zagrożeń i treści
Dokumenty wskazują na niepokojąco wysoki próg tolerancji dla niektórych rodzajów szkodliwych działań oraz na brak prostych ścieżek zgłaszania najpoważniejszych wykroczeń.
Polityka wobec treści o nadużyciach
Była dyrektorka ds. bezpieczeństwa zeznała, że była zszokowana, ucząc się wewnętrznych zasad firmy. Według jej relacji, konto użytkownika podejrzanego o działania związane z handlem ludźmi w celach seksualnych musiało otrzymać nawet kilkanaście zgłoszeń, zanim zostało zawieszone. Jednocześnie, platforma nie oferowała użytkownikom bezpośredniej opcji zgłaszania treści dotyczących wykorzystywania seksualnego dzieci, mimo że łatwo było zgłosić spam czy naruszenie praw autorskich.
Algorytmy nie usuwają szkodliwych treści
Nawet zaawansowane narzędzia AI, które z dużą pewnością wykrywały materiały związane z samookaleczeniami, zaburzeniami odżywiania czy nadużyciami seksualnymi wobec dzieci, często nie skutkowały automatycznym usunięciem takiej publikacji. Większość z tych treści pozostawała w sieci, trafiając do młodych odbiorców. Wewnętrzna ankieta z 2021 roku miała wykazać, że co dziesiąty nastolatek w wieku 13-15 lat widział w ciągu tygodnia na Instagramie treści dotyczące samookaleczania.
Celowe pozyskiwanie najmłodszych użytkowników
Mimo że regulamin zakłada, że z platform Meta mogą korzystać osoby od 13. roku życia, firma zdawała sobie sprawę z obecności młodszych dzieci. Co więcej, według pozwu, strategia biznesowa koncentrowała się na przyciągnięciu i utrzymaniu jak największej liczby młodych użytkowników, traktując to jako sprawę kluczową dla przyszłości aplikacji.
Niepokój niektórych pracowników budziła nawet rozmowa o celowaniu w grupy przed 13. roku życia. Jeden z cytowanych w dokumentach wewnętrznych komentarzy porównywał te działania do strategii koncernów tytoniowych, które chciały „uzależnić klientów jak najwcześniej”. Firma wykorzystywała też dane lokalizacyjne do wysyłania powiadomień uczniom w czasie lekcji, zachęcając do sprawdzania telefonów.
Co zmieniono i jak się broni Meta?
W odpowiedzi na zarzuty rzeczniczka Meta podkreśliła, że firma od lat słucha rodziców i wprowadza zmiany chroniące nastolatków. Wskazała na wprowadzone w 2024 roku „Konta dla nastolatków” na Instagramie, które domyślnie są prywatne, ograniczają wrażliwe treści i dają rodzicom narzędzia nadzoru. Firma zaprzecza również, by tolerowała treści związane z handlem ludźmi, zaznaczając, że takie konta są usuwane natychmiast po wykryciu.
Sprawa pokazuje jednak ogromną przepaść między tempem odkrywania zagrożeń przez wewnętrzne zespoły badawcze a tempem wdrażania rzeczywistych środków ochrony. Dla rodziców jest to mocne przypomnienie, że nawet najnowsze ustawienia bezpieczeństwa w aplikacjach są często wynikiem długiej i skomplikowanej wewnętrznej walki, a nie proaktywnej troski. Zachęca to do głębszego zainteresowania się cyfrowym światem dziecka i krytycznego spojrzenia na mechanizmy działania popularnych platform społecznościowych.




