Portale społecznościowe od zawsze stanowiły pole do popisu dla młodych internautów. Niestety, obok pozytywnych treści, zdarzają się również szkodliwe - promujące samookaleczenia, zaburzenia odżywiania czy mowę nienawiści. Dlatego koncern Meta zdecydował się na wprowadzenie nowych zasad mających chronić najmłodszych użytkowników Facebooka i Instagrama. Jak zareagują na to sami zainteresowani? Czy algorytmy faktycznie będą w stanie ochronić dzieci przed niebezpiecznymi treściami? Przekonajmy się.
Wprowadzenie nowych zasad ochrony nieletnich
Koncern Meta, do którego należą popularne portale społecznościowe Facebook i Instagram, zdecydował się na wprowadzenie nowych zasad mających chronić nieletnich użytkowników przed szkodliwymi treściami. Chodzi przede wszystkim o materiały promujące samobójstwa, samookaleczenia oraz zaburzenia odżywiania. Algorytmy serwisów będą automatycznie ukrywać tego typu publikacje zarówno w losowo wyświetlanych postach, jak i w treściach udostępnianych przez obserwowane profile.
Zmiany te mają na celu ograniczenie szkodliwej ekspozycji najmłodszych internautów. Jednak wszystko zależy od tego, czy podadzą oni przy rejestracji prawdziwy wiek. Tymczasem wielu z nich tego nie robi, by uniknąć kontroli i mieć dostęp do treści dedykowanych starszym grupom wiekowym.
Reakcje na wprowadzone restrykcje
Wprowadzenie dodatkowej filtruj treści spotkało się z mieszanymi reakcjami. Z jednej strony niewielu kwestionuje, że tego typu materiały mogą mieć negatywny wpływ na rozwój i zdrowie psychiczne najmłodszych. Jednak z drugiej pojawiają się wątpliwości co do motywów i okoliczności decyzji.
Przeciwko koncernowi Meta toczą się bowiem liczne procesy oskarżające go o celowe uzależnianie dzieci i młodzieży od swoich portali, a przez to doprowadzanie do problemów emocjonalnych i życiowych. Wprowadzone zmiany mogą więc stanowić argument obronny firmy.
Kontrowersyjna historia moderacji treści
Dodatkowo koncern Meta od dawna oskarżany jest o stronniczość i arbitralność w moderowaniu publikowanych treści. Lewica zarzuca mu cenzurowanie opinii propalestyńskich, zaś prawica - ukrywanie niewygodnych informacji i blokowanie głosów przeciwnych poprawności politycznej.
Portal już wielokrotnie stawał przed sądem i komisjami w tej sprawie. Niektóre stany USA uchwaliły nawet specjalne ustawy mające zapobiec nadużyciom Facebooka w tym obszarze. Jednak na razie nie przyniosły one wymiernych rezultatów.
Algorytmy ukrywające szkodliwe treści
Kluczowym elementem nowych wytycznych mających chronić dzieci jest automatyczne ukrywanie określonych treści przez algorytmy Facebooka i Instagrama. Będą one niejako domyślnie stosować najostrzejsze filtry dla kont należących do nieletnich.
Sztuczna inteligencja ma odgrywać kluczową rolę w identyfikowaniu i eliminowaniu szkodliwych materiałów. Jednak jej skuteczność nie zawsze jest stuprocentowa.
Pozostaje kwestią otwartą, na ile mechanizmy te będą w stanie faktycznie chronić młodych ludzi w praktyce. Sztuczna inteligencja ma odgrywać kluczową rolę w identyfikowaniu i eliminowaniu szkodliwych materiałów. Jednak jej skuteczność nie zawsze jest stuprocentowa.
Wyzwania dla algorytmów
Pojawia się ryzyko, że część nieodpowiednich treści i tak prześlizgnie się przez filtry. Z drugiej strony mogą one blokować materiały, które nie powinny podlegać ograniczeniom. Wiele zależy od jakości zaprogramowania i uczenia maszynowego mechanizmów moderacji.
Dodatkowo trudnością może być stale zmieniający się język i kontekst publikacji w mediach społecznościowych. To, co dziś wydaje się nieszkodliwe, jutro może nabrać negatywnego wydźwięku. Algorytmy będą musiały szybko reagować na te zmiany.
Czytaj więcej: 3 powody, dla których ceny kryptowalut spadają, a inwestorzy przenoszą środki na nowe altcoiny
Motywy działań koncernu Meta
Decyzja o wprowadzeniu regulacji chroniących dzieci i młodzież, choć słuszna, budzi pewne kontrowersje. Pojawiają się pytania, dlaczego firma zdecydowała się na ten krok dopiero teraz, po wielu latach funkcjonowania szkodliwych treści w obiegu.
Część komentatorów dopatruje się w tym próby poprawy wizerunku i uniknięcia odpowiedzialności przez Meta. Trwające procesy sądowe zmusiły koncern do działania i szukania argumentów obronnych. Stąd nagła troska o dobro najmłodszych, którzy od lat byli narażeni na traumatyczne treści.
Data | Wydarzenie |
2021 | Uruchomienie śledztwa przeciwko Meta w sprawie wpływu Instagramu na zdrowie nastolatków |
2022 | Pozew zbiorowy przeciwko Meta dotyczący uzależniania nieletnich od mediów społecznościowych |
2023 | Wprowadzenie nowych wytycznych mających chronić dzieci |
Jak pokazuje tabela, kroki prawne wobec firmy zbiegły się w czasie z jej nagłym zainteresowaniem bezpieczeństwem najmłodszych użytkowników portali społecznościowych. Wygląda to na próbę poprawy wizerunku i zabezpieczenia się przed konsekwencjami.
Zmiany prawa wymierzone w Facebooka
Wprowadzone przez koncern Meta regulacje to także forma samoregulacji mająca uprzedzić bardziej restrykcyjne kroki prawne. Facebook od dawna zmaga się z zarzutami o nadużycia w moderowaniu treści i ingerowaniu w wolność słowa.
- Lewica oskarża go o cenzurowanie opinii propalestyńskich i blokowanie postów społeczności LGBT.
- Prawica zarzuca arbitralne banowanie konserwatywnych autorów i ukrywanie niewygodnych dla Demokratów informacji.
Sprawy te trafiały przed sądy i komisje kongresowe. Niektóre stany USA przyjęły ustawy mające ograniczyć wpływ Facebooka na dyskurs publiczny. Jeśli serwis nie uporządkuje polityki moderacji, kolejne kroki legislacyjne są nieuniknione.
Wpływ nowych reguł na zachowania młodych
Otwartym pytaniem pozostaje, jak wprowadzone regulacje przełożą się na zachowania samych zainteresowanych, czyli dzieci i młodzieży korzystającej z mediów społecznościowych. Czy ograniczenie dostępu do potencjalnie szkodliwych treści będzie skuteczne?
Możliwy jest scenariusz, w którym część nastolatków zacznie podawać fałszywy wiek przy rejestracji, by obejść blokady. Inni mogą z premedytacją poszukiwać zbanowanych tematów, które stały się nagle "zakazanym owocem". Jeszcze inni będą publikować szkodliwe treści w zakamuflowany sposób.
Aby osiągnąć zamierzony efekt, oprócz technicznych zabezpieczeń potrzebna jest też edukacja samych użytkowników i promowanie pozytywnych wzorców korzystania z mediów społecznościowych.
Podsumowanie
W artykule omówiono wprowadzenie przez Facebooka i Instagrama nowych zasad mających chronić dzieci i młodzież przed szkodliwymi treściami. Algorytmy serwisów będą automatycznie ukrywać materiały promujące samobójstwa, samookaleczenia czy zaburzenia odżywiania. To dobra zmiana, choć rodzi pytania o motywy i okoliczności decyzji Meta.
Firma od lat oskarżana jest o uzależnianie najmłodszych i stosowanie tendencyjnej moderacji treści. Wprowadzone zmiany mogą być więc próbą poprawy wizerunku w obliczu procesów sądowych. Skuteczność algorytmów w walce ze szkodliwymi treściami także pozostaje niewiadomą.
Kroki Meta to też reakcja na rosnącą krytykę i działania prawne dotyczące cenzury na platformach społecznościowych. Pytanie, czy uchronią dzieci, czy raczej spowodują bunt młodych przeciwko nadmiernemu kontrolowaniu. Zagadnienie to wymaga dalszej analizy.
Podsumowując, warto przyglądać się wdrażaniu nowych standardów ochrony nieletnich w mediach społecznościowych i oceniać ich faktyczną skuteczność oraz konsekwencje.