Tin mới nhất

Facebook phản pháo vụ cáo buộc họ dung túng các ‘tút’ thù hận

Facebook phản pháo vụ cáo buộc họ dung túng các ‘tút’ thù hận - Ảnh 1.

Facebook công bố dữ liệu chứng minh mức độ giảm bớt các nội dung thù địch trên nền tảng của họ thời gian qua như thế nào – Ảnh: FACEBOOK

Theo chuyên trang công nghệ Zdnet ngày 18-10, ông Guy Rosen khẳng định những cáo buộc nói công nghệ AI dùng để ngăn chặn thông tin thù địch trên nền tảng Facebook có ít tác dụng là “không đúng”.

Theo phó chủ tịch quản lý sản phẩm, cũng là người chịu trách nhiệm về tính liêm chính của mạng xã hội Facebook, trong ba quý gần nhất, mức độ phổ biến của các nội dung thù địch trên nền tảng của Facebook giảm gần 50%.

“Chúng tôi không muốn thấy thù hận trên nền tảng của mình, người dùng cũng như các nhà quảng cáo của chúng tôi cũng không muốn điều đó, và chúng tôi đã minh bạch trong việc loại bỏ chúng”, ông Rosen viết trên blog công ty.

“Những tài liệu này đã chứng minh công việc đảm bảo tính liêm chính của chúng tôi là một hành trình trong nhiều năm. Mặc dù chúng tôi sẽ không bao giờ hoàn hảo, nhưng đội ngũ chúng tôi vẫn liên tục nỗ lực để phát triển các hệ thống của mình, phát hiện vấn đề và tìm kiếm giải pháp”, ông Rosen viết tiếp.

Có thể thấy động thái phản ứng của ông Rosen là nhằm đáp trả lại một bài báo đăng trên tờ Wall Street Journal gần đây. Trong đó, căn cứ các tài liệu nội bộ bị rò rỉ của Facebook, Wall Street Journal cho rằng công nghệ AI của Facebook đã không mấy thành công trong việc ngăn chặn các nội dung kích động chia rẽ, thù địch và hình ảnh bạo lực.

Cụ thể hơn, bài báo của Wall Street Journal cho biết một nhóm các nhân viên của Facebook trong tháng 3 năm nay ước tính hệ thống AI của họ chỉ loại bỏ được từ 3 – 5% nội dung thù địch trên nền tảng, và 0,6% trong tổng số nội dung vi phạm các chính sách của công ty về cấm nội dung bạo lực và kích động.

Ông Rosen khẳng định “việc chỉ xoáy vào chuyện loại bỏ nội dung của chúng tôi là cách tiếp cận sai khi nhìn về cuộc chiến chống nội dung thù địch của Facebook”.

“Vì việc dùng công nghệ để loại bỏ các nội dung đó chỉ là một cách chúng tôi đối phó với chúng. Chúng tôi cần biết chắc rằng một nội dung nào đó là thù địch trước khi chúng tôi loại bỏ chúng”, ông tiếp.

Tiếp đó ông dẫn số liệu nói rằng nếu ban đầu hệ thống AI của Facebook chỉ loại bỏ được 23,6% nội dung vi phạm và phần lớn còn lại là do con người xử lý, nhưng nay tỉ lệ đó đã lên tới hơn 97%.

Công nghệ

Trả lời

Email của bạn sẽ không được hiển thị công khai. Các trường bắt buộc được đánh dấu *

Gọi tư vấn (026)9999.1998