Roblox cieszy się dziesiątkami milionów codziennych użytkowników w wieku poniżej 16 lat i z tego powodu platforma stanęła w obliczu rosnącej fali kontroli środków bezpieczeństwa dzieci, szczególnie po wprowadzeniu nowych narzędzi weryfikacji wieku w 2025 r., które zostały uznane za nieskuteczne.
Pochodzi to od Rona Kerbsa, dyrektora generalnego Kidas, firmy zajmującej się cyberbezpieczeństwem, która koncentruje się na ochronie młodych graczy, którzy uważają środki bezpieczeństwa za nieskuteczne. W wywiadzie udzielonym portalowi dla Insider Gaming, Kerbs stwierdził:
"Wysiłki Roblox w zakresie weryfikacji nowego wieku to krok we właściwym kierunku, ale nie jest to pełna odpowiedź. Podczas gdy technologie takie jak analiza twarzy i skanowanie tożsamości mogą pomóc w ograniczeniu dostępu do dojrzałych treści, narzędzia te są nadal łatwe do ominięcia i nie rozwiązują najbardziej palących kwestii bezpieczeństwa, z jakimi dzieci mają do czynienia każdego dnia"
W ostatnich miesiącach zaniepokojone osoby i rodzice głośno mówili o praktykach związanych z narażaniem dzieci na niebezpieczeństwo w wieloosobowych grach społecznościowych z funkcjami czatu głosowego i tekstowego, co czyni je rozległą przestrzenią dla drapieżników. Doprowadziło to do tego, że gry takie jak Roblox i GTA Online wdrożyły weryfikację wieku wraz ze wzrostem globalnego popytu.
System weryfikacji wiekuw Roblox został wprowadzony w lipcu 2025 roku i jest częścią funkcji "Trusted Connections", która wykorzystuje technologię szacowania wieku twarzy, weryfikację tożsamości i zweryfikowaną zgodę rodziców, aby określić wiek użytkownika dokładniej niż poprzednie próby. Środki te mają na celu stworzenie muru między dorosłymi a nieletnimi, chyba że zostaną one uznane za treści zweryfikowane w świecie rzeczywistym, umożliwiając nastolatkom w wieku od 13 do 17 lat dostęp do funkcji czatu przy jednoczesnym zachowaniu moderacji standardów społeczności.
Pomimo tych wdrożeń, Kerbs uważa, że środki te są niewystarczające i wskazuje, że "żadna metoda weryfikacji, sztuczna inteligencja lub inna, nie może zagwarantować, że osoba za ekranem jest tym, za kogo się podaje"
Wiele z tego wynika z pracy Kidasa, która ochroniła ponad 400 000 graczy, pokazując, że drapieżniki mogą łatwo ominąć systemy weryfikacji za pomocą fałszywych identyfikatorów lub obrazów generowanych przez sztuczną inteligencję, co było powszechnym problemem na platformach takich jak Discord, gdzie brytyjskie kontrole wieku były obchodzone przy użyciu postaci z Garry's Mod i Death Stranding.
Kerbs podsumował wywiad, stwierdzając:
"Roblox i platformy muszą zainwestować w monitorowanie zachowań w czasie rzeczywistym. Ochrona dzieci nie polega na udowadnianiu, że ma się 13 lat, ale na wykrywaniu, kiedy rozmowa niebezpiecznie zbacza z toru i szybkim wkroczeniu do akcji"