Camera đọc cảm xúc – Bước tiến gây tranh cãi

0
186

Camera đọc cảm xúc – Bước tiến gây tranh cãi

H. Minh

(TBVTSG) – Các nhà hoạt động vì sự riêng tư đang lo rằng công nghệ nhận biết khuôn mặt có thể đưa ra những sự đánh giá sai lầm hoặc sự thiên vị.

Công nghệ nhận biết khuôn mặt ngày càng trở nên tinh vi hơn, với một số công ty tuyên bố công nghệ của họ thậm chí có thể đọc được cảm xúc của con người và giúp phát hiện hành vi đáng ngờ. Câu hỏi đặt ra là bước tiến này có ý nghĩa gì đối với sự riêng tư và quyền tự do dân sự?

Camera giám sát được lắp đặt tại một nhà ga có thể sử dụng công nghệ của WeSee để phát hiện hành vi đáng ngờ.

Đã hiện diện trong doanh nghiệp

Công nghệ nhận biết khuôn mặt đã tồn tại trong nhiều thập kỷ nhưng phát triển nhanh chóng trong thời gian qua nhờ vào những tiến bộ của công nghệ tầm nhìn máy tính (vision computing) và trí tuệ nhân tạo (AI). Theo các chuyên gia, công nghệ này hiện được sử dụng để xác định danh tính người ở các biên giới, mở khóa điện thoại thông minh, phát hiện tội phạm và xác thực giao dịch ngân hàng. Đi xa hơn, một số công ty khoe khả năng đánh giá trạng thái cảm xúc của con người và nếu khả năng “đọc” được cảm xúc của con người trở nên phổ biến thì liệu nó có được phép dùng trong doanh nghiệp, nơi công cộng… hay không? Công nghệ này sẽ được dùng cho ai, cho việc gì?

Kể từ những năm 1970, các nhà tâm lý học nói rằng họ có thể phát hiện những cảm xúc ẩn giấu bằng cách nghiên cứu “những biểu hiện vi mô” trên khuôn mặt của ai đó trong các bức ảnh và nội dung video. Giờ đây, theo một số công ty công nghệ, thuật toán và camera độ nét cao có thể giúp xử lý quá trình này nhanh và chính xác hơn. “Công nghệ này đang được sử dụng cho mục đích thương mại. Một siêu thị có thể sử dụng nó trong các lối đi, không phải để xác định mọi người, nhưng để phân tích người vừa đến về độ tuổi và giới tính cũng như tâm trạng cơ bản của họ. Công nghệ có thể giúp ích cho hoạt động tiếp thị và sắp xếp lại kệ hàng sao cho phù hợp”, ông Oliver Philippou, một chuyên gia về giám sát video tại công ty IHS Markit (Anh), giải thích.

Công ty nghiên cứu thị trường Kantar Millward Brown (Anh) đang sử dụng công nghệ được phát triển bởi công ty Affectiva (Mỹ) để đánh giá cách người tiêu dùng phản ứng các chương trình với quảng cáo trên truyền hình.

Công nghệ này ghi lại khuôn mặt của người xem quảng cáo – với sự cho phép của họ – rồi phân tích nét biểu cảm trên từng khung hình để đánh giá tâm trạng của họ. “Chúng tôi có phỏng vấn người tiêu dùng nhưng nhận được nhiều sắc thái hơn bằng cách nhìn vào biểu cảm trên gương mặt họ. Bạn có thể thấy rõ phần nội dung quảng cáo nào tác động đến người xem và dẫn đến phản ứng cảm xúc gì của họ”, ông Graham Page, Giám đốc điều hành phụ trách đổi mới sáng tạo tại Kantar Millward Brown, nhận định.

Điều gây sự tranh cãi hơn là khi một số công ty khởi nghiệp đang cung cấp ứng dụng nhận biết cảm xúc để phục vụ cho các mục đích an ninh. Chẳng hạn như công ty WeSee (Anh) khẳng định công nghệ AI của họ thực sự có thể phát hiện hành vi đáng ngờ bằng cách đọc các dấu hiệu trên khuôn mặt mà mắt người không thể nhận thấy nếu chưa được đào tạo. Những cảm xúc, như nghi ngờ và tức giận, có thể bị che giấu và trái ngược với ngôn ngữ một người đang sử dụng.

WeSee cho biết họ đã hợp tác với một tổ chức “tên tuổi” trong lĩnh vực thực thi pháp luật để phân tích những người đang bị thẩm vấn. “Ngay cả khi nội dung video có chất lượng không cao, công nghệ của chúng tôi vẫn có khả năng xác định trạng thái hoặc ý đinh của một cá nhân thông qua nét mặt, tư thế, cử chỉ và sự chuyển động của họ. Trong tương lai, camera giám sát được lắp đặt tại một nhà ga có thể sử dụng công nghệ của chúng tôi để phát hiện hành vi đáng ngờ và cảnh báo nhà chức trách về một mối đe dọa khủng bố tiềm ẩn. Điều tương tự có thể được thực hiện với đám đông tại các sự kiện như trận đấu bóng đá hoặc tuần hành chính trị”, Giám đốc điều hành David Fulton của WeSee khẳng định.

Công ty Affectiva cho biết thuật toán của họ có thể phát hiện cảm xúc ẩn giấu đằng sau nét mặt.

Chính xác tới đâu?

Dù vậy, một số chuyên gia như ông Philippou tỏ ra hoài nghi về tính chính xác của công nghệ nhận biết cảm xúc: “Vẫn có sự sai sót đối với chuyện nhận biết khuôn mặt. Các công ty giỏi nhất chỉ mới nhận mình có thể xác định danh tính người có độ chính xác 90% – 92%. Khi có ai đó tìm cách đánh giá cảm xúc, tỷ lệ sai sót sẽ còn lớn hơn nhiều”. Điều này dẫn đến nỗi lo của các nhà hoạt động vì sự riêng tư rằng công nghệ nhận biết khuôn mặt có thể đưa ra những đánh giá sai lầm hoặc làm nảy sinh sự thiên vị. “Dù một số ứng dụng có thể thực sự hữu ích, công nghệ này vẫn gây ra những nỗi lo chưa từng có xuất phát từ giám sát cảm xúc và nhận biết khuôn mặt”, bà Frederike Kaltheuner của tổ chức Privacy International (Anh) bày tỏ.

Chỉ riêng tính năng nhận biết khuôn mặt đã gây ra nhiều sự tranh cãi. Tại một lễ hội âm nhạc ở thành phố Swansea (xứ Wales) hồi tháng 5 vừa qua, nhiều người tham dự không biết rằng khuôn mặt của họ đã được quét như là một phần của chiến dịch giám sát quy mô lớn của cảnh sát. Lực lượng cảnh sát đã triển khai hệ thống Nhận biết Khuôn mặt Tự động (AFR) – sử dụng camera và phần mềm của công ty NEC (Nhật Bản) – để xác định “đối tượng quan tâm”, so sánh khuôn mặt của họ với hình ảnh được tập hợp và lưu trữ trong cơ sở dữ liệu.

Nguy cơ nhầm lẫn tai hại

Công nghệ nhận biết khuôn mặt đã có màn trình diễn đáng quên tại trận chung kết Champions League ở thành phố Cardiff (xứ Wales) vào năm ngoái. Sở Cảnh sát Nam Wales đã sử dụng công nghệ này khi khoảng 170.000 người có mặt tại Cardiff để tham dự sự kiện bóng đá lớn này. Kết quả là trong số 2.470 người có khuôn mặt bị xem là tương đồng với hình ảnh tội phạm tiềm tàng trong cơ sở dữ liệu, 2.297 người sau đó được xác định là không có liên quan gì, chiếm tỷ lệ 92%.

Cảnh sát địa phương sau đó tìm cách trấn an dư luận khi cho biết không ai bị bắt nhầm tại sự kiện nói trên. Theo họ, tỷ lệ chính xác của công nghệ này đã cải thiện kể từ đó đến giờ – tăng lên mức 28%. Cảnh sát Nam Wales đã bắt 450 người trong chín tháng qua, sử dụng phần mềm AFR để quét khuôn mặt và so sánh với 500.000 hình ảnh trong cơ sở dữ liệu. Dù vậy, nhiều nhà hoạt động kêu gọi bỏ hệ thống nói trên vì nguy cơ xảy ra sai sót hoặc bị sử dụng sai mục đích.

H.M

Nhờ AFR, một người đàn ông đang bị truy nã đã bị nhận diện và bắt giữ “trong vòng 10 phút” tại buổi lễ hội nói trên – ông Scott Lloyd, Giám đốc dự án AFR của lực lượng cảnh sát vùng Nam Wales cho biết. Tuy nhiên, tổ chức nhân quyền Liberty chỉ ra rằng công nghệ cũng dẫn đến một số kết quả sai tại một số sự kiện đông người khác. Hồi tháng 7 qua, một cư dân ở thành phố Cardiff (xứ Wales) có hành động pháp lý chống lại cảnh sát lực lượng, cáo buộc AFR vi phạm sự riêng tư và thiếu sự giám sát thích hợp.

Phe ủng hộ cũng đưa lý do để cổ súy cho việc sử dụng công nghệ. Ông Patrick Glother, người phụ trách bộ phận kiểm tra sinh trắc học ở Viện Tiêu chuẩn và Công nghệ Quốc gia – một cơ quan liên bang Mỹ đang tiến hành nghiên cứu về nhận biết khuôn mặt – đánh giá công nghệ này ngày càng trở nên đáng tin cậy hơn. Ông cho rằng những sự tiến bộ công nghệ gần đây gắn liền với sự phát triển của “mạng nơ-ron xoắn” – một dạng tiên tiến của công nghệ học máy cho phép cải thiện đáng kể về độ chính xác. “Những thuật toán này cho phép máy tính phân tích hình ảnh ở những tỷ lệ và góc nhìn khác nhau. Chúng ta giờ đây có thể nhận diện khuôn mặt chính xác hơn nhiều ngay cả khi chúng bị che khuất một phần bởi kính mát hoặc khăn choàng cổ. Tỷ lệ sai sót đã giảm mười lần kể từ năm 2014 dù không có thuật toán nào là hoàn hảo”, chuyên gia này giải thích.

Trong khi đó, ông Fulton nhấn mạnh công nghệ của WeSee đơn giản là một công cụ giúp mọi người đánh giá những đoạn video hiện có theo cách thông minh hơn. Ông nói thêm rằng công nghệ này có thể phát hiện cảm xúc trong khuôn mặt một cách hiệu quả như con người với mức độ chính xác khoảng 60% -70%. “Chúng tôi có thể phát hiện hành vi đáng ngờ nhưng không có ý định ngăn chuyện xấu xảy ra. Nhưng tôi nghĩ rằng đây là hướng đi sắp tới của công nghệ và chúng tôi đang thử nghiệm khả năng này”, ông cho biết thêm.

Điều này nghe có vẻ chúng ta đang tiến gần hơn với những gì xảy ra trong bộ khoa học viễn tưởng Minority Report, nơi tội phạm tiềm ẩn bị bắt ngay cả trước khi tội ác xảy ra. Một viễn cảnh như thế chắc chắn càng khiến các tổ chức hoạt động vì quyền tự do dân sự thêm lo lắng. “Câu hỏi quan trọng mà chúng tôi luôn đặt ra là: Ai đang xây dựng công nghệ này và vì mục đích gì? Liệu nó đang được sử dụng để giúp ích hoặc xét đoán, đánh giá, kiểm soát chúng ta?”, bà Frederike Kaltheuner của tổ chức Privacy International cho biết.

Theo BBC

Nguồn: thesaigontimes.vn

LEAVE A REPLY

Please enter your comment!
Please enter your name here

Website này sử dụng Akismet để hạn chế spam. Tìm hiểu bình luận của bạn được duyệt như thế nào.