Apple sẽ kiểm tra iPhone để chặn hình ảnh lạm dụng tình dục trẻ em

CUPERTINO, California (NV) – Apple hôm thứ Năm 5/8 thông báo sẽ bắt đầu thử nghiệm một hệ thống mới để ngăn chặn hình ảnh lạm dụng tình dục trẻ em trên iPhone và iCloud, theo CNN.

Hệ thống “neuralMatch” tự động chuyển đổi hình ảnh được lưu trữ trên điện thoại thành một bộ “băm” – số phức không thể đọc được, công ty giải thích trong cuộc họp báo.

Hệ thống “neuralMatch” của Apple sẽ kiểm tra các hình ảnh trong iPhone trước khi tải lên iCloud. (Hình minh họa: Ảnh AP / Mark Lennihan)

Những con số đó sẽ được so sánh với cơ sở dữ liệu về hình ảnh lạm dụng tình dục trẻ em do Trung tâm Quốc gia về Trẻ em mất tích và Bị bóc lột (NCMEC).

Nếu xác nhận đó là nội dung khiêu dâm trẻ em, Apple sẽ khóa tài khoản của khách hàng và thông báo cho NCMEC.

Thông qua hệ thống này, Apple đang theo sau một số công ty công nghệ lớn khác như Google và Facebook. Tuy nhiên, Apple cũng đang cố gắng đạt được sự cân bằng giữa an toàn và quyền riêng tư, điều mà Apple luôn nhấn mạnh quyền riêng tư là ưu thế sản phẩm của họ.

Trong một tuyên bố trên trang web của Apple, họ cho biết: “Khi thiết kế hệ thống này, Apple đã rất coi trọng quyền riêng tư của khách hàng”.

Apple nhấn mạnh rằng hệ thống chỉ chặn những hình ảnh nằm trong cơ sở dữ liệu về hình ảnh lạm dụng tình dục trẻ em của NCMEC. Điều đó có nghĩa là bố mẹ không cần lo lắng về việc chụp ảnh bé tắm.

Các nhóm bảo vệ trẻ em hoan nghênh hệ thống của Apple, nhưng một số người ủng hộ quyền riêng tư lo ngại hệ thống này sẽ bị lạm dụng, chẳng hạn như chính phủ để theo dõi người dân. (Th. Long) [qd]

————————–
Theo: nguoi-viet.com
[^^1]
[^^2]

Tags:

Leave a Reply

Your email address will not be published. Required fields are marked *