Hai nhà nghiên cứu tuyên bố hệ thống kiểm duyệt ảnh của Apple có thể bị lợi dụng cho mục đích xấu

SkylerNew

Chuyên viên tin tức
Thành viên BQT
Kể từ khi Apple tuyên bố đang phát triển một công nghệ phát hiện tài liệu lạm dụng tình dục trẻ em (CSAM), đã có vô số tranh cảnh xung quanh hệ thống này. Giờ đây, hai nhà nghiên cứu tại Đại học Princeton cho biết, công cụ mà Apple tạo ra có thể bị lợi dụng bởi họ cũng đã dành ra nhiều năm để phát triển một hệ thống gần tương tự như vậy.

Trợ lý giáo sư Jonathan Mayer và nhà nghiên cứu sau đại học Anunay Kulshresth tiết lộ trong một bài báo trên The Washington Post được xuất bản trong tuần này: “Chúng tôi đã đăng tải một bài viết mô tả cách xây dựng một hệ thống tương tự như của Apple, và chúng tôi kết luận rằng, công nghệ này rất nguy hiểm.”

hd.jpg

Cả hai nhà nghiên cứu này đã hợp tác cùng nhau nhằm xây dựng một hệ thống CSAM tương tự, áp dụng vào những dịch vụ trực tuyến được mã hóa đầu cuối. GIống tư Apple, họ muốn tìm cách hạn chế sự “nảy nở” của CSAM mà vẫn duy trì quyền riêng tư của người dùng. Một phần động lực của họ là khuyến khích nhiều dịch vụ sử dụng bảo mật mã hóa đầu cuối. Các nhà nghiên cứu cho biết: “Chúng tôi lo lắng rằng các dịch vụ trực tuyến không muốn sử dụng mã hóa mà không có các công cụ bổ sung để chống lại CSAM.”

Cả hai đều dành nhiều năm để lên ý tưởng và cũng đã tạo ra một nguyên mẫu có thể hoạt động. Tuy nhiên, họ đã mau nhóng nhận thấy rằng có một “vấn đề ngay trước mắt” đối với công nghệ của họ. “Hệ thống của chúng tôi có thể dễ dàng thay thế mục đích giám sát và kiểm duyệt”, Mayer và Kulshrestha cho hay. “Thiết kế không bị giới hạn trong một danh mục nội dung cụ thể, một dịch vụ có thể hoán đổi đơn giản trong bất kỳ cơ sở dữ liệu đối sánh nội dung nào và người sử dụng dịch vụ đó sẽ không nhận thức được điều này.”

Họ cảnh báo thêm, đó không phải là một điều không thể xảy ra. Hai nhà nghiên cứu chỉ ra các ví dụ như WeChat, vốn bị Phòng thí nghiệm Citizen của Đại học Toronto phát hiện sử dụng các thuật toán đối sánh nội dung để phát hiện các tài liệu chống đối. “Trung Quốc là thị trường lớn thứ 2 của Apple, với hàng trăm triệu thiết bị. Vậy điều gì sẽ ngăn chính phủ Trung Quốc yêu cầu Apple quét các thiết bị đó để tìm những tài liệu ủng hộ dân chủ?” Mayer và Kulshrestha cũng đưa ra một số trường hợp mà Apple chấp nhận các yêu cầu từ Chính phủ Trung Quốc. Chẳng hạn, công ty đã trao quyền kiểm soát đối với dữ liệu khách hàng tại quốc gia này cho họ.

720896_70849780536986_59957743452160

“Chúng tôi đã phát hiện ra những vấn đề khác”, Mayer và Kulshrestha tiếp tục. “Quy trình đối sánh nội dung có thể có kết quả trùng khớp sai lệnh, và những người dùng xấu có thể đánh lừa hệ thống để khiến các người dùng vô tội bị giám sát.” Đó là các lo ngại mà những người ủng hộ quyền riêng tư cũng đã nêu ra về hệ thống của Apple.

Phần lớn, Apple đã cố gắng giảm mức độ của hầu hết các lo ngại mà Mayer và Kulshrestha đưa ra. Phó Chủ tịch cấp cao về kỹ thuật phần mềm Apple, Craig Federighi, gần đây tuyên bố rằng những vấn đề tranh cãi không đáng lo ngại. Ông bác bỏ ý nghĩ hệ thống có thể được sử dụng để quét các tài liệu khác, lưu ý rằng cơ sở dữ liệu hình ảnh đến từ nhiều nhóm an toàn trẻ em khác. Với vấn đề kết quả trung khớp sai lệch, ông cho biết, hệ thống chỉ kích hoạt đánh giá thủ công sau khi ai đó tải 30 hình ảnh lên iCloud.

Mayer và Kulshrestha cho biết, họ đã lên kế hoạch thảo luận về những cạm bẫy của hệ thống này tại một hội nghị học thuật nhưng chưa bao giờ có cơ hội vì Apple đã công bố công nghệ của mình một tuần trước buổi thuyết trình. “Giống như chúng tôi, động lực của Apple là bảo vệ trẻ em. Và hệ thống của họ về mặt kỹ thuật hiệu quả hơn và có khả năng hơn của chúng tôi. Nhưng chúng tôi cảm thấy bối rôi khi thấy rằng Apple có quá ít câu trả lời để giải thích cho những câu hỏi hóc búa mà chúng tôi đưa ra.”

Theo VN review​
 
Bên trên