Nội dung độc hại nhan nhản trên TikTok
Hiện nay, TikTok đã có hơn 1 tỉ người dùng, gấp đôi so với Snapchat và Twitter cộng lại, nhiều ngôi sao trên nền tảng này có thể kiếm được lên tới 5 triệu USD/năm.
Theo báo cáo mới nhất của Datareportal, tính tới đầu năm 2023, TikTok đã có khoảng 49,86 triệu người dùng (từ 18 tuổi trở lên) tại Việt Nam, gần xấp xỉ con số 52,65 triệu người dùng Facebook Messenger. Tuy nhiên, giống như nhiều nền tảng xã hội khác, không phải tất cả các nội dung trên TikTok đều an toàn và hữu ích.
Đằng sau sự vui nhộn mà TikTok mang lại, nền tảng này cũng chứa đựng nhiều thông tin, trào lưu nguy hiểm liên quan đến các vấn đề nhạy cảm như tự tử, tình dục, bạo hành động vật, phá hoại vật dụng trong nhà trường, cổ xúy mê tín dị đoan... hoặc những lời khuyên sai lầm về sức khỏe.
Nội dung cổ xúy mê tín dị đoan tràn lan trên TikTok. Ảnh: MINH HOÀNG |
Theo báo cáo minh bạch của công ty, chỉ tính riêng trong quý II năm 2022 TikTok đã xóa khoảng 113 triệu video vi phạm chính sách, tuy nhiên con số này chỉ chiếm khoảng 1% so với tổng số video được đăng tải lên TikTok. Phần lớn đa số các video bị xóa đều liên quan đến các nội dung độc hại với trẻ em, hàng hóa không thuộc diện được quảng cáo, video khỏa thân…
“TikTok hiện tại không làm tốt do để tin xấu lan truyền nhiều, ảnh hưởng đến cách thức, hành vi và tương lai của giới trẻ. Công ty nên có biện pháp lọc nội dung không tốt, ngăn chặn thông tin xấu từ video hoặc livestream. Đồng thời giới hạn thời gian sử dụng cùng các cảnh báo rõ ràng để người dùng nhận biết”, ông Nguyễn Phạm Hoàng Huy, Chủ nhiệm bộ môn Thương mại điện tử Trường FPT Polytechnic chia sẻ.
Các nước kiểm soát nội dung độc hại trên TikTok như thế nào?
Vào tháng 11-2022, Singapore đã thông qua Dự luật An toàn trực tuyến (có sửa đổi) nhằm bảo vệ người tiêu dùng khỏi các nội dung có hại trên Internet. Cơ quan phát triển phương tiện thông tin liên lạc (IMDA) cũng trao quyền cho các nhà cung cấp dịch vụ Internet (ISP) ngăn người dùng truy cập vào các nội dung độc hại trên các nền tảng trực tuyến, đơn cử như TikTok, Facebook, YouTube…
Những nội dung độc hại được định nghĩa là nội dung ủng hộ hoặc hướng dẫn hành vi tự tử, tự gây hại cho bản thân, tình dục, khủng bố, bóc lột, phân biệt chủng tộc, gây bất hòa tôn giáo… ở Singapore.
Theo MIT Technology Review, một thanh thiếu niên trung bình dành 103 phút mỗi ngày để sử dụng TikTok, cao hơn đáng kể so với Snapchat (72 phút) và YouTube (67 phút).
Vào ngày 1-3-2023, TikTok đã giới hạn thời gian sử dụng 60 phút đối với tài khoản người dùng dưới 18 tuổi, tuy nhiên nhà chức trách Trung Quốc đã yêu cầu phiên bản nội địa của TikTok (Douyin) kiểm soát khắt khe hơn.
Để đảm bảo trẻ em không sử dụng tài khoản của cha mẹ để xem hoặc đăng lên Douyin, mọi tài khoản đều phải liên kết với danh tính thực của người dùng, và sử dụng công nghệ nhận dạng khuôn mặt để giám sát việc tạo nội dung phát trực tiếp.
Về mặt nội dung, chế độ dành cho thanh thiếu niên của Douyin cũng cấm hiển thị nhiều loại nội dung, bao gồm các video về trò chơi khăm, mê tín dị đoan hoặc “địa điểm giải trí” - những nơi như câu lạc bộ khiêu vũ hoặc karaoke mà thanh thiếu niên không được phép vào. TikTok cũng bị cáo buộc quảng bá các nội dung về rối loạn ăn uống và tự làm hại bản thân.