Sự cố Cambridge Analytica là minh chứng cho việc có tồn tại hay không “sự minh bạch” của Faceboook
Đây không phải là mối lo ngại riêng của chị Yến, bởi ngay tuần trước, CEO Facebook vừa tiếp tục đề xuất chính sách mới, cho phép những gã khổng lồ công nghệ sử dụng báo cáo dữ liệu để xóa các bài đăng vi phạm. Tuy nhiên các chuyên gia trong ngành không lạc quan về điều này, bởi đây chỉ là động thái nhằm hiện thực hóa việc tự giám sát nội dung trên các nền tảng mạng. Trên thực tế, Facebook vốn duy trì một hệ thống tương tự nhưng không mang lại hiệu quả.
Thứ Năm tuần trước, Mark Zuckerberg nói với Quốc hội: “Sự minh bạch sẽ giúp các công ty công nghệ lớn chịu trách nhiệm về những bài đăng đã bị xóa”. Nếu một hệ thống minh bạch như vậy trở thành tiêu chuẩn, người hưởng lợi đầu tiên sẽ là Facebook. Trước đó, Mark Zuckerberg từng nhiều lần khẳng định, Facebook luôn dẫn đầu về tính minh bạch trên nền tảng.
Các mạng xã hội như Facebook là cái nôi phát tán tin giả
Ông chủ Facebook cũng đã đưa ra nhiều sáng kiến tương tự, kêu gọi các nền tảng mạng xã hội có trách nhiệm hơn đối với nội dung do người dùng đăng tải. Trong những năm qua, các mạng xã hội, trong đó có Facebook, được cho là cái nôi phát tán tin giả và thông tin sai lệch (chẳng hạn như phát ngôn kích động, đe dọa bạo lực…). Chính vì vậy, các công ty công nghệ lớn là người đứng sau những nền tảng này luôn trở thành cái đích chỉ trích của dư luận.
Ảnh hưởng từ các chính sách của cựu Tổng thống Donald Trump, Quốc hội Mỹ vẫn đang tiếp tục thảo luận về nội dung cải cách Điều 230 của Đạo luật Quy chế Truyền thông, nhằm giải phóng các mạng xã hội khỏi trách nhiệm đối với nội dung do người dùng sáng tạo. Ngược lại, dư luận vẫn tiếp tục lên án các gã công nghệ lớn và những ông trùm truyền thông mạng xã hội, bởi tình trạng thông tin sai lệch vẫn chưa có biện pháp hạn chế triệt để.
Những người của phe phản đối liên kết cuộc bạo loạn tại Điện Capital hồi đầu năm với trách nhiệm của các mạng xã hội như Facebook, Twitter. Ngoài ra, các tin giả liên quan đến Covid-19 cũng vẫn tiếp tục được phát tán rộng khắp, gây hoang mang cho người dùng. Chính vì vậy, dư luận cho rằng đã lên lúc cần áp đặt những biện pháp mạnh đối với các nền tảng truyền thông xã hội để chấm dứt tình trạng này.
Tuy nhiên, phiên điều trần vào cuối tuần trước với nhóm Big Tech đã không cho phép Quốc hội Mỹ đạt được kế hoạch lập pháp về việc này, do đó tạo cơ hội cho Facebook tiếp tục phát huy sức ảnh hưởng. Nói về việc cải cách Điều 230 của Đạo luật Quy chế Truyền thông vừa được đề xuất, Jenny Lee, đối tác của hãng luật Arendt Fox, đại diện cho quyền lợi của các công ty công nghệ lớn đưa ra bình luận: “Các công ty công nghệ ít nhất cũng đã chừa lại chỗ trống để tiếp tục đàm phán”.
Có điều, nhiều nhà phân tích lại đổ dồn sự chú ý vào báo cáo tự kiểm của Facebook và cho rằng nó không minh bạch như những gì nền tảng này tuyên bố. Theo Facebook, hơn 97% nội dung bị đánh giá là ngôn từ kích động đã được hệ thống phát hiện trong tháng 2/2021 trước khi người dùng báo cáo. Quý 4 năm ngoái, mạng xã hội này cũng đã nhắm mục tiêu được 49% nội dung bạo lực. Sau khi triển khai các phương án như gắn cờ báo cáo, tỷ lệ bài viết tiêu cực này chỉ còn 26%.
Vấn đề là phương thức thống kê những số liệu này do AI của Facebook ghi lại, và thực tế đây không phải tổng lượng nội dung có hại. Ngoài ra, Facebook cũng không công bố thông tin về số lượng người đã tiếp cận những thông tin này trước khi chúng bị xóa hay khi nào chúng bị xóa. “Đây là báo cáo gây thất vọng”, một chuyên gia nhận định. Người này cho rằng việc Facebook không tiết lộ khoảng thời gian các thông tin độc hại bị xóa (trong vài phút hay vài ngày) là không minh bạch.
Facebook có thực sự minh bạch?
Trọng tâm của báo cáo này là trí tuệ nhân tạo, có nghĩa là Facebook đang tìm cách né trách nhiệm đối với việc giám sát các nội dung bị gắn cờ từ người dùng, cũng như không muốn công khai tỷ lệ kiểm duyệt và xóa bỏ những nội dung này.
Hiện tại, các nền tảng mạng xã hội, bao gồm Facebook, đang lệ thuộc vào hệ thống đánh giá nội dung của máy học, hệ thống này còn có nhiều sai sót nghiêm trọng trong quá trình ứng dụng thực tế. “Các hệ thống đánh giá tự động này ngày càng dễ qua mặt, thậm chí có thể xóa nhầm các nội dung không vi phạm hoặc bỏ qua cả những nội dung đã được người dùng gắn cờ báo cáo”.
Đầu năm nay, Ủy ban giám sát đã chỉ ra những sai sót trên hệ thống AI của Facebook. Ủy ban này là nhóm độc lập do Facebook thành lập để đánh giá về những nội dung gây tranh cãi trong nội bộ. Họ yêu cầu phải thông báo cho người dùng về các bài viết bị xóa bởi AI, đồng thời phải xem xét theo cách thủ công những kháng nghị của người dùng. Tuy nhiên, Facebook đã không chấp thuận những yêu cầu này.
Facebook có hơn 3 tỷ người dùng và chỉ có khoảng 15.000 nhân viên đánh giá nội dung. Trong thời kỳ dịch Covid-19 bùng phát, đa số nhân viên làm việc từ xa và vì lý do pháp lý, họ không thể theo dõi những nội dung nhạy cảm đã được báo cáo tại nhà. Sự thiếu hụt nguồn nhân lực và những khiếm khuyết của AI đã mang đến những thách thức đặc biệt cho hoạt động đánh giá nội dung của Facebook.
Báo cáo minh bạch nội dung này của Facebook không có dữ liệu về ngôn ngữ hoặc vị trí địa lý của các bài đăng bị xóa. Nó cũng không đề cập bất cứ điều gì về thông tin sai lệch - và đây là một lĩnh vực quan trọng khác mà các nhà lập pháp quan tâm. Chính vì vậy, nhiều người đã đưa ra nhận xét: “Báo cáo minh bạch này của Facebook hầu như không có sự minh bạch”.
Thực tế, không chỉ với riêng bản báo cáo kiểm điểm nói trên, Facebook vẫn luôn mập mờ về tính minh bạch trong việc giám sát nội dung, giám sát người dùng và cả giám sát những chiến dịch quảng cáo của các doanh nghiệp. Trong khi đó, những nội dung kích động thù địch, tin giả và thông tin sai lệch là thứ cần phải xử lý thì Facebook luôn chần chừ không rõ vì lý do gì. “Tôi không tin vào sự minh bạch của Facebook, đó vốn chỉ là một trò khôi hài”, chị Yến khẳng định.
Điệp Lưu
Facebook nói gì về tình trạng quảng cáo lô đề tràn lan?
Đại diện Facebook thừa nhận hệ thống kiểm duyệt nội dung quảng cáo của họ đã bị người dùng vượt mặt bằng một số thủ thuật.
" alt=""/>Luật của Facebook