Facebook thất bại trong việc ngăn chặn quảng cáo đe dọa nhân viên bầu cử

Các hệ thống kiểm duyệt tự động của Facebook gần đây đã phê duyệt các quảng cáo đe dọa "hành quyết", "giết người" và "hành quyết" nhân viên bầu cử. cho Thời báo New York, Anna WattsAnna Watts được ghi nhận vì đã viết bài này. Anna Watts cho Thời báo New York
Facebook thất bại trong việc ngăn chặn quảng cáo đe dọa nhân viên bầu cử

Tác giả Stuart A. ThompsonStuart A. Thompson

Tháng mười hai. 1, 2022

Khi các nhà nghiên cứu gửi quảng cáo xung quanh Ngày bầu cử năm nay có nội dung đe dọa "hành hình", "giết người" và "hành quyết" công nhân, hệ thống kiểm duyệt tự động cao của Facebook đã phê duyệt nhiều quảng cáo trong số đó mặc dù công ty tuyên bố rằng họ không cho phép nội dung đe dọa bạo lực nghiêm trọng

Theo một thử nghiệm mới được thực hiện bởi các nhà nghiên cứu tại An ninh mạng cho Dân chủ và Nhân chứng Toàn cầu của Đại học New York, một nhóm giám sát, 15 trong số 20 quảng cáo có nội dung bạo lực do các nhà nghiên cứu gửi đã được Facebook chấp thuận. Các nhà nghiên cứu đã xóa các quảng cáo đã được phê duyệt trước khi chúng được xuất bản

Facebook chỉ phê duyệt sáu trong số mười quảng cáo thử nghiệm được gửi bằng tiếng Tây Ban Nha, trái ngược với chín trong số mười thử nghiệm được gửi bằng tiếng Anh

Theo các nhà nghiên cứu, TikTok và YouTube đã từ chối tất cả các quảng cáo và đình chỉ tài khoản của những người đã cố gắng gửi chúng

Các cuộc thử nghiệm nêu bật những khó khăn mà các mạng xã hội gặp phải trong việc kiểm soát nội dung bạo lực và đảng phái ngày càng tăng trong các cuộc bầu cử, đặc biệt là khi các nhân viên thăm dò ý kiến ​​phải đối mặt với các mối đe dọa ngày càng tăng từ những kẻ cực đoan cực hữu và những người từ chối bầu cử. Bộ Tư pháp và các cơ quan liên bang khác đã cảnh báo trước cuộc bầu cử giữa nhiệm kỳ năm nay rằng các mối đe dọa chống lại nhân viên bầu cử đã gia tăng

Người phát ngôn của Meta, công ty mẹ của Facebook, cho biết trong một tuyên bố rằng công ty sau đó đã vô hiệu hóa một số tài khoản đã gửi quảng cáo và quảng cáo đó vẫn đang được xem xét sau khi chúng hoạt động.

Người phát ngôn đã đưa ra một tuyên bố rằng: "Nội dung kích động bạo lực chống lại nhân viên bầu cử hoặc bất kỳ ai khác không có chỗ trên ứng dụng của chúng tôi. Báo cáo gần đây đã làm rõ rằng khả năng xử lý các vấn đề này của Meta vượt xa các nền tảng khác một cách hiệu quả. Đây là một mẫu quảng cáo nhỏ không đại diện cho những gì mọi người nhìn thấy trên nền tảng của chúng tôi. ”

Nghiên cứu được xây dựng dựa trên nghiên cứu trước đó của cùng các nhóm, bao gồm một nghiên cứu năm nay trong đó có 20 quảng cáo chứa thông tin sai lệch về chính trị đã được gửi; . Tài khoản YouTube cố gửi quảng cáo đã bị tạm ngưng

Tuy nhiên, vòng này đã sử dụng nhiều ngôn ngữ công khai hơn để thử nghiệm hệ thống kiểm duyệt tự động cao của Facebook, bao gồm cả những lời đe dọa bạo lực rõ ràng dựa trên những tuyên bố có thật của những kẻ cực đoan cực hữu và những người phủ nhận bầu cử ở Mỹ. Một quảng cáo được Facebook phê duyệt đã đọc. "Chúng tôi sẽ giết tất cả các bạn. "Một quảng cáo khác đe dọa làm hại trẻ em cũng đã được phê duyệt

Phó giáo sư Damon McCoy của N. Y. U. nói về kết quả, "Thật sự rất sốc khi thấy chúng. ""Tôi cho rằng một tìm kiếm từ khóa thực sự đơn giản sẽ đánh dấu điều này để xem xét thủ công," U nói. ”

Các nhà nghiên cứu cũng bày tỏ mong muốn các mạng xã hội như Facebook tăng cường nỗ lực kiểm duyệt nội dung và minh bạch hơn về các hành động họ thực hiện trong vấn đề này.

"Những gì chúng tôi đang yêu cầu là có thể về mặt kỹ thuật," họ viết. "YouTube và TikTok đã có thể phát hiện ra các mối đe dọa tử vong và đình chỉ tài khoản của chúng tôi, trong khi Facebook cho phép xuất bản phần lớn quảng cáo. "

Các nỗ lực liêm chính bầu cử của Meta trên Facebook có thể không mạnh mẽ như tuyên bố. Các nhà nghiên cứu tại An ninh mạng vì Dân chủ của Đại học New York và cơ quan giám sát Global Witness đã tiết lộ rằng hệ thống kiểm duyệt tự động của Facebook đã phê duyệt 15 trong số 20 quảng cáo thử nghiệm đe dọa nhân viên bầu cử trước kỳ bầu cử giữa kỳ của Hoa Kỳ vào tháng trước. Các thử nghiệm dựa trên các mối đe dọa thực sự và sử dụng ngôn ngữ "rõ ràng" có khả năng dễ nắm bắt. Trong một số trường hợp, mạng xã hội thậm chí còn cho phép quảng cáo sau khi thực hiện các thay đổi sai — nhóm nghiên cứu chỉ cần xóa từ ngữ tục tĩu và sửa lỗi chính tả để vượt qua những lần từ chối ban đầu

Các nhà điều tra cũng đã thử nghiệm TikTok và YouTube. Cả hai dịch vụ đã ngăn chặn tất cả các mối đe dọa và cấm tài khoản thử nghiệm. Trong một thử nghiệm trước đó trước cuộc bầu cử ở Brazil, Facebook và YouTube cho phép gửi tất cả thông tin sai lệch về bầu cử trong lần vượt qua đầu tiên, mặc dù Facebook đã từ chối tới 50% trong các lần gửi tiếp theo

Trong một tuyên bố với Engadget, một phát ngôn viên cho biết quảng cáo là một "mẫu nhỏ" không đại diện cho những gì người dùng nhìn thấy trên các nền tảng như Facebook. Công ty khẳng định rằng khả năng chống lại các mối đe dọa bầu cử của họ "vượt trội" so với các đối thủ, nhưng chỉ ủng hộ tuyên bố bằng cách chỉ ra các trích dẫn minh họa lượng tài nguyên cam kết ngăn chặn các mối đe dọa bạo lực, chứ không phải hiệu quả của các tài nguyên đó

Bật thông báo trình duyệt để nhận thông báo tin nóng từ Engadget

Bạn có thể tắt thông báo bất cứ lúc nào trong menu cài đặt của mình

Quảng cáo sẽ không gây ra thiệt hại nào vì những người thử nghiệm có khả năng kéo chúng ra trước khi chúng hoạt động. Tuy nhiên, vụ việc nêu bật những hạn chế của việc Meta phụ thuộc một phần vào kiểm duyệt AI để chống lại thông tin sai lệch và ngôn từ kích động thù địch. Mặc dù hệ thống giúp người kiểm duyệt của Meta xử lý lượng lớn nội dung, nhưng nó cũng có nguy cơ bật đèn xanh cho các quảng cáo có thể không bị phát hiện cho đến khi chúng hiển thị công khai. Điều đó không chỉ có thể để các mối đe dọa phát triển mà còn mời các khoản tiền phạt từ Vương quốc Anh và các quốc gia khác có kế hoạch trừng phạt các công ty không nhanh chóng xóa nội dung cực đoan

Tất cả các sản phẩm do Engadget đề xuất đều do nhóm biên tập của chúng tôi lựa chọn, độc lập với công ty mẹ của chúng tôi. Một số câu chuyện của chúng tôi bao gồm các liên kết liên kết. Nếu bạn mua thứ gì đó thông qua một trong những liên kết này, chúng tôi có thể kiếm được hoa hồng liên kết. Tất cả giá là chính xác tại thời điểm xuất bản

Các nỗ lực liêm chính bầu cử của Meta trên Facebook có thể không mạnh mẽ như tuyên bố. Các nhà nghiên cứu tại An ninh mạng vì Dân chủ của Đại học New York và cơ quan giám sát Global Witness đã tiết lộ rằng hệ thống kiểm duyệt tự động của Facebook đã phê duyệt 15 trong số 20 quảng cáo thử nghiệm đe dọa nhân viên bầu cử trước kỳ bầu cử giữa kỳ của Hoa Kỳ vào tháng trước. Các thử nghiệm dựa trên các mối đe dọa thực sự và sử dụng ngôn ngữ "rõ ràng" có khả năng dễ nắm bắt. Trong một số trường hợp, mạng xã hội thậm chí còn cho phép quảng cáo sau khi thực hiện các thay đổi sai — nhóm nghiên cứu chỉ cần xóa từ ngữ tục tĩu và sửa lỗi chính tả để vượt qua những lần từ chối ban đầu

Các nhà điều tra cũng đã thử nghiệm TikTok và YouTube. Cả hai dịch vụ đã ngăn chặn tất cả các mối đe dọa và cấm tài khoản thử nghiệm. Trong một thử nghiệm trước đó trước cuộc bầu cử ở Brazil, Facebook và YouTube cho phép gửi tất cả thông tin sai lệch về bầu cử trong lần vượt qua đầu tiên, mặc dù Facebook đã từ chối tới 50% trong các lần gửi tiếp theo

Trong một tuyên bố với Engadget, một phát ngôn viên cho biết quảng cáo là một "mẫu nhỏ" không đại diện cho những gì người dùng nhìn thấy trên các nền tảng như Facebook. Công ty khẳng định rằng khả năng chống lại các mối đe dọa bầu cử của họ "vượt trội" so với các đối thủ, nhưng chỉ ủng hộ tuyên bố bằng cách chỉ ra các trích dẫn minh họa lượng tài nguyên cam kết ngăn chặn các mối đe dọa bạo lực, chứ không phải hiệu quả của các tài nguyên đó

Quảng cáo sẽ không gây ra thiệt hại nào vì những người thử nghiệm có khả năng kéo chúng ra trước khi chúng hoạt động. Tuy nhiên, vụ việc nêu bật những hạn chế của việc Meta phụ thuộc một phần vào kiểm duyệt AI để chống lại thông tin sai lệch và ngôn từ kích động thù địch. Mặc dù hệ thống giúp người kiểm duyệt của Meta xử lý lượng lớn nội dung, nhưng nó cũng có nguy cơ bật đèn xanh cho các quảng cáo có thể không bị phát hiện cho đến khi chúng hiển thị công khai. Điều đó không chỉ có thể để các mối đe dọa phát triển mà còn mời các khoản tiền phạt từ Vương quốc Anh và các quốc gia khác có kế hoạch trừng phạt các công ty không nhanh chóng xóa nội dung cực đoan

Facebook cho biết họ không cho phép nội dung đe dọa bạo lực nghiêm trọng. Nhưng khi các nhà nghiên cứu gửi quảng cáo đe dọa “hành quyết”, “giết người” và “hành quyết” nhân viên bầu cử vào Ngày bầu cử năm nay, hệ thống kiểm duyệt tự động của công ty đã chấp thuận nhiều quảng cáo trong số đó

Trong số 20 quảng cáo được gửi bởi các nhà nghiên cứu có chứa nội dung bạo lực, 15 quảng cáo đã được Facebook chấp thuận, theo một thử nghiệm mới được công bố bởi Global Witness, một nhóm giám sát và An ninh mạng cho Dân chủ của Đại học New York. Các nhà nghiên cứu đã xóa các quảng cáo đã được phê duyệt trước khi chúng được xuất bản

Mười trong số các quảng cáo thử nghiệm đã được gửi bằng tiếng Tây Ban Nha. Facebook đã phê duyệt sáu trong số những quảng cáo đó, so với chín trong số 10 quảng cáo bằng tiếng Anh

Các nhà nghiên cứu cho biết TikTok và YouTube đã từ chối tất cả các quảng cáo và đình chỉ các tài khoản đã cố gắng gửi chúng.

Các cuộc thử nghiệm đã nhấn mạnh những thách thức mà các mạng xã hội phải đối mặt trong việc kiểm duyệt nội dung bạo lực và đảng phái ngày càng tăng xung quanh các cuộc bầu cử, đặc biệt là khi các nhân viên thăm dò ý kiến ​​​​đang phải đối mặt với các mối đe dọa bổ sung từ những người phủ nhận bầu cử và những kẻ cực đoan cực hữu. Bộ Tư pháp và các cơ quan liên bang khác đã cảnh báo trước cuộc bầu cử giữa nhiệm kỳ năm nay rằng các mối đe dọa chống lại những người làm công tác bầu cử đã gia tăng

Trong một tuyên bố, người phát ngôn của Meta, công ty mẹ của Facebook, cho biết họ sau đó đã vô hiệu hóa một số tài khoản đã gửi quảng cáo. Công ty cũng cho biết rằng quảng cáo tiếp tục được xem xét sau khi chúng hoạt động

Người phát ngôn cho biết trong một tuyên bố: “Đây là một mẫu quảng cáo nhỏ không đại diện cho những gì mọi người nhìn thấy trên nền tảng của chúng tôi”. “Nội dung kích động bạo lực chống lại nhân viên bầu cử hoặc bất kỳ ai khác không có chỗ trên ứng dụng của chúng tôi và báo cáo gần đây đã cho thấy rõ rằng khả năng xử lý những vấn đề này của Meta vượt xa khả năng của các nền tảng khác. ”

Nghiên cứu bổ sung vào các thử nghiệm trước đây được thực hiện bởi cùng các nhóm, bao gồm một thử nghiệm năm nay trong đó 20 quảng cáo đã được gửi có chứa thông tin sai lệch về chính trị. Trong thử nghiệm đó, Facebook chỉ phê duyệt hai trong số 20 quảng cáo gây hiểu lầm trong khi TikTok phê duyệt khoảng 90% trong số đó. YouTube đã tạm ngưng tài khoản đã cố gắng gửi quảng cáo

Nhưng vòng này đã sử dụng nhiều ngôn ngữ công khai hơn để kiểm tra hệ thống kiểm duyệt phần lớn tự động của Facebook. Những điều đó bao gồm các mối đe dọa bạo lực trực tiếp, bắt nguồn từ các tuyên bố có thật của những người từ chối bầu cử và những kẻ cực đoan cực hữu khác ở Hoa Kỳ. Một quảng cáo đã được Facebook phê duyệt, đọc. “Chúng tôi sẽ giết tất cả các bạn. ” Một quảng cáo khác dọa lạm dụng trẻ em cũng được duyệt

Damon McCoy, phó giáo sư tại N. Y. U. “Tôi nghĩ rằng một tìm kiếm từ khóa thực sự đơn giản sẽ đánh dấu điều này để xem xét thủ công. ”

Trong một tuyên bố, các nhà nghiên cứu cũng cho biết họ muốn thấy các mạng xã hội như Facebook tăng cường nỗ lực kiểm duyệt nội dung và đưa ra sự minh bạch hơn về các hành động kiểm duyệt mà họ thực hiện.

“Việc YouTube và TikTok quản lý để phát hiện các mối đe dọa tử vong và đình chỉ tài khoản của chúng tôi, trong khi Facebook cho phép phần lớn quảng cáo được xuất bản cho thấy rằng những gì chúng tôi đang yêu cầu là có thể về mặt kỹ thuật,” họ viết