Tranh cãi về khả năng đọc biểu cảm của trí tuệ nhân tạo
Thứ 4, 31 Tháng 7 2019 16:48

Nhiều công ty công nghệ bán các thuật toán hứa hẹn rằng các thuật toán này có thể đọc biểu cảm của con người dựa trên khuôn mặt.

Khi trí tuệ nhân tạo (AI) được sử dụng ngày càng nhiều để đưa ra nhiều quyết định về cuộc sống của con người, các kỹ sư đã tìm cách để AI thông minh hơn về mặt cảm xúc. Điều đó có nghĩa là làm cho AI có khả năng thực hiện tự động các nhiệm vụ liên quan cảm xúc mà với con người đó là điều rất tự nhiên. Nổi bật nhất là làm cho AI biết người đối diện đang cảm thấy như thế nào dựa trên khuôn mặt của người đó.

Để làm được điều này, các công ty công nghệ như Microsoft, IBM và Amazon đều bán thuật toán nhận biết cảm xúc có khả năng hiểu cảm giác của con người dựa trên phân tích khuôn mặt. Ví dụ, nếu ai đó đang nhíu lông mày và mím môi, thuật toán sẽ cho rằng họ đang tức giận. Nếu mắt mở to, lông mày dựng lên, mồm há ra, người đó đang sợ…

Cảm xúc của con người được thể hiện tinh vi và phức tạp hơn nhiều.

Khách hàng có thể dùng công nghệ này theo nhiều cách ví dụ như phát triển một hệ thống giám sát tự động nhằm phát hiện những mối đe dọa hoặc xây dựng một phần mềm phỏng vấn ứng viên xin việc để loại bỏ những người không thú vị, buồn tẻ.

Tuy nhiên, một vấn đề gây tranh cãi là liệu chúng ta có thể dễ dàng đoán cảm xúc con người chỉ dựa trên biểu cảm khuôn mặt hay không. Một nghiên cứu đánh giá cho thấy không có cơ sở khoa học vững chắc cho các thuật toán đọc biểu cảm.

Bà Lisa Feldman Barrett, giáo sư tâm lý tại Đại học Northeastern (Mỹ) và là một trong 5 tác giả nghiên cứu, nói: "Các công ty có thể nói bất kỳ điều gì họ muốn nhưng dữ liệu là rõ ràng. AI có thể phát hiện nét mặt cau có nhưng phát hiện sự giận dữ lại là chuyện khác".

Đánh giá do Hiệp hội Khoa học Tâm lý thực hiện với sự tham gia có 5 nhà khoa học nổi tiếng trong lĩnh vực để theo dõi bằng chứng. Mỗi người đánh giá đại diện cho một trường phái lý thuyết khác nhau trong thế giới khoa học cảm xúc. Bà Barrett nói: "Lúc đầu chúng tôi không chắc có thể thống nhất về dữ liệu nhưng chúng tôi đã thống nhất được".

Họ cần tới hai năm để kiểm tra dữ liệu, trong đó rà soát hơn 1.000 nghiên cứu khác nhau. Kết quả nghiên cứu của nhóm rất chi tiết. Tóm tắt kết luận cơ bản là cảm xúc được thể hiện theo vô vàn cách khác nhau, khiến khó mà diễn giải một người cảm thấy như thế nào nếu chỉ dựa vào một số cử động khuôn mặt đơn giản.

Bà Barrett giải thích: "Dữ liệu cho thấy con người trung bình chỉ quắc mắt trong chưa đầy 30% thời gian họ giận dữ. Vì thế quắc mắt không phải là thể hiện của giận dữ mà chỉ là một biểu hiện của giận dữ cùng với nhiều biểu hiện nữa. Điều đó có nghĩa là trong hơn 70% thời gian giận dữ, người ta không quắc mắt. Và điều quan trọng là con người thường quắc mắt khi họ không giận dữ".

Do đó, các công ty sử dụng AI để đánh giá cảm xúc con người theo cách này đang lừa dối người tiêu dùng. Người tiêu dùng chắc hẳn không muốn những hệ thống AI chỉ chính xác 30% này được sử dụng ở những nơi như tòa án, nơi phỏng vấn xin việc, chẩn đoán bệnh tật hay sân bay…

Tất nhiên, sử dụng một số biểu hiện khuôn mặt điển hình, phổ biến để đoán cảm xúc vẫn đúng và giao tiếp qua biểu hiện nét mặt vẫn đóng một vai trò quan trọng trong xã hội. Tuy nhiên, khi tiếp xúc riêng với một người, ta sẽ có rất nhiều thông tin về bối cảnh cảm xúc chứ không chỉ là phân tích nét mặt đơn thuần.

Các nhà khoa học công nhận rằng có rất nhiều quan điểm trong lĩnh vực nghiên cứu cảm xúc, nhưng bác bỏ rằng cảm xúc thể hiện qua nét mặt là "dấu vân tay" đáng tin cậy. Theo đó, những nghiên cứu chỉ ra mối tương quan mạnh mẽ giữa một số biểu hiện nét mặt và cảm xúc thường có lỗ hổng về mặt phương pháp. Ví dụ, hệ thống AI thường sử dụng diễn viên thể hiện những gương mặt biểu cảm quá đà để nhận biết một loại cảm xúc nào đó. Khi các chủ thể thử nghiệm được yêu cầu thể hiện một loại cảm xúc, họ thường được đề nghị chọn một trong số ít ỏi các loại cảm xúc.

Trong khi đó, con người có vô vàn cảm xúc được thể hiện khác nhau và phức tạp hơn nhiều. Bà Barrett nói: "Đôi khi con người hét lên vì giận dữ, đôi khi họ khóc vì giận, đôi khi họ lại cười, cũng có lúc họ lại ngồi im lặng và lên kế hoạch hủy diệt kẻ thù".

Tuy nhiên, các công ty bán công cụ phân tích cảm xúc lại hiếm khi thừa nhận những sự tinh tế, phức tạp trong cảm xúc. Trong phần tiếp thị thuật toán của Microsoft, công ty này nói rằng tiến bộ trong ngành AI giúp phần mềm của mình "nhận biết 8 trạng thái cảm xúc cơ bản dựa trên các biểu hiện khuôn mặt phổ biến phản ánh những cảm xúc này". Những gì mà Microsoft tuyên bố chính là những gì mà các nhà khoa học tham gia nghiên cứu đã bác bỏ.

Tất nhiên, đây không phải là lần đầu các nhà khoa học chỉ trích những tuyên bố này. Bà Barrett và những nhà khoa học khác đã cảnh báo nhiều năm qua rằng mô hình nhận biết cảm xúc hiện nay quá đơn giản. Đáp lại, các công ty bán những công cụ này thường nói rằng phân tích của họ dựa trên nhiều dấu hiệu hơn là chỉ nét mặt. Cái khó là làm thế nào để biết những dấu hiệu này cân bằng như thế nào.

Một trong những công ty hàng đầu trong thị trường nhận biết cảm xúc trị giá 20 tỷ USD là Affectiva. Công ty này cho biết đang thử nghiệm thu thập thêm các thước đo. Năm ngoái, Affectiva đã ra mắt công cụ đo cảm xúc của các lái xe bằng cách kết hợp phân tích khuôn mặt và lời nói. Các nhà nghiên cứu khác đang xem xét các thước đo khác như phân tích dáng đi hay theo dõi ánh mắt.

Phản ứng về nghiên cứu của các nhà khoa học, Tổng giám đốc điều hành kiêm đồng sáng lập Affective, ông Rana el Kaliouby nói rằng nghiên cứu này phù hợp với quan điểm của công ty là mối quan hệ giữa biểu hiện và cảm xúc rất phức tạp, nhiều sắc thái và không thể có vật mẫu.

Bà Barrett tin rằng chúng ta có thể đo cảm xúc chính xác hơn trong tương lai bằng những thước đo tinh vi hơn. Tuy nhiên, các công ty hiện nay vẫn không ngừng phổ biến công nghệ AI nhận diện cảm xúc cho dù độ chính xác không cao.

Nếu công cụ nhận diện cảm xúc ngày càng trở nên phổ biến, có một mối nguy hiểm là chúng ta sẽ chấp nhận nó và thay đổi hành vi để phù hợp với công cụ. Chúng ta có thể thể hiện những biểu hiện nét mặt thái quá vì chúng ta biết máy móc sẽ diễn giải các nét mặt này.

Điều quan trọng nhất mà nghiên cứu này đưa ra là chúng ta cần nghĩ về cảm xúc một cách phức tạp hơn. Biểu hiện cảm xúc rất khác nhau, phức tạp và tùy tình huống mà máy móc tích hợp AI hiện nay khó mà đoán hết được.

Theo báo CAND

Phản hồi
Thêm mới
Tên bạn:
Email:
 
Tiêu đề: