Phụ nữ mới

AI trước bài toán bình đẳng giới: Công nghệ không thể trung lập nếu dữ liệu còn thiên lệch

AI đang thâm nhập sâu vào đời sống, nhưng cũng đặt ra thách thức mới với bình đẳng giới. Theo các chuyên gia, nếu thiếu kiểm soát dữ liệu và trách nhiệm xã hội, AI có thể vô tình củng cố định kiến thay vì thúc đẩy công bằng.
Dùng AI sai cách có thể vô tình củng cố định kiến thay vì thúc đẩy công bằng. Ảnh: CIO Africa
Dùng AI sai cách có thể vô tình củng cố định kiến thay vì thúc đẩy công bằng. Ảnh: CIO Africa

Trí tuệ nhân tạo đang hiện diện ngày càng sâu trong đời sống, từ công việc, học tập đến giải trí. Với nhiều người, AI đã trở thành một “trợ lý quen thuộc”, hỗ trợ nhanh chóng và tiện lợi. Tuy nhiên, phía sau sự tiện ích ấy là một thách thức ít được nhìn thấy rõ nguy cơ công nghệ này đang âm thầm tái tạo và củng cố những định kiến giới vốn đã tồn tại trong xã hội.

Vấn đề bắt nguồn từ chính dữ liệu mà AI học hỏi. Khi các hệ thống được huấn luyện trên những kho dữ liệu phản chiếu một xã hội còn nhiều thiên lệch, AI khó có thể giữ được vai trò trung lập. Thay vào đó, công nghệ có thể trở thành công cụ hợp thức hóa định kiến, tạo ra hoặc khuếch đại các nội dung mang tính khinh miệt, thù ghét và hạ thấp phụ nữ.

Một nghiên cứu của UNESCO cho thấy, trong nhiều mô hình ngôn ngữ lớn, hình ảnh phụ nữ thường bị gắn với vai trò chăm sóc, nội trợ hoặc các công việc “hậu trường”. Ngược lại, nam giới lại xuất hiện nhiều hơn trong các vị trí quyền lực, ngành nghề kỹ thuật hay lãnh đạo. Sự chênh lệch này không chỉ tồn tại trong văn bản mà còn thể hiện rõ ở các ứng dụng tạo ảnh bằng AI như Stable Diffusion hay Midjourney.

Nghiên cứu công bố tháng 3-2025 cho thấy, khi người dùng yêu cầu AI tạo hình ảnh về bác sĩ, kỹ sư hay nhà quản lý, nam giới xuất hiện áp đảo. Trong khi đó, hình ảnh phụ nữ thường bị trẻ hóa quá mức hoặc được mô tả theo những khuôn mẫu quen thuộc như “dịu dàng”, “thu hút”, thay vì phản ánh đa dạng năng lực và vai trò thực tế.

Sự thiên lệch trở nên đặc biệt nguy hiểm khi AI được sử dụng trong các lĩnh vực có tác động trực tiếp đến đời sống con người. Trong tuyển dụng, không ít hệ thống sàng lọc hồ sơ tự động đánh giá thấp ứng viên nữ chỉ vì những khoảng gián đoạn sự nghiệp liên quan đến sinh con hoặc chăm sóc gia đình, bất chấp trình độ và năng lực chuyên môn.

Ở không gian mạng, việc sử dụng AI thiếu kiểm soát còn khiến bạo lực giới trở nên tinh vi hơn. Deepfake là một ví dụ điển hình, khi phần lớn nội dung deepfake lan truyền trực tuyến mang tính khiêu dâm không có sự đồng thuận, với nạn nhân chủ yếu là phụ nữ. Báo cáo của UN Women công bố tháng 11-2025 cho thấy, AI đang bị lợi dụng để mạo danh, tống tiền tình dục và tổ chức các chiến dịch đe dọa cá nhân hóa, gây tổn hại nghiêm trọng về tâm lý và danh dự.

Theo bà Vũ Thị Hạnh, chuyên gia trí tuệ nhân tạo của Trung tâm Dịch vụ dữ liệu và Trí tuệ nhân tạo Viettel (Viettel AI), bạo lực trên cơ sở giới không còn giới hạn trong đời sống trực tiếp mà đang lan rộng nhanh chóng trên môi trường số. “AI có thể trở thành công cụ bị lợi dụng bởi những người gây bạo lực nếu thiếu luật lệ, kỹ năng và sự liên kết cộng đồng để bảo vệ lẫn nhau”, bà Hạnh nhận định.

Để AI trở thành công cụ thu hẹp, thay vì gia tăng khoảng cách giới, cần triển khai đồng thời các giải pháp dựa trên ba trụ cột: nhà phát triển công nghệ, cộng đồng người dùng và hệ sinh thái xã hội.

Với doanh nghiệp công nghệ, việc đánh giá định kỳ mức độ thiên lệch của mô hình AI cần được coi là yêu cầu bắt buộc, cả trước và trong quá trình vận hành. Dữ liệu huấn luyện phải bảo đảm tính đa dạng về giới, độ tuổi, quốc tịch và bối cảnh xã hội. Đồng thời, các nền tảng cần chịu trách nhiệm với nội dung độc hại do hệ thống của mình tạo ra, lan truyền hoặc trục lợi.

Ở phía người dùng, nâng cao năng lực số là yếu tố then chốt. Bà Vũ Thị Hạnh đề xuất bộ nguyên tắc “5 không – 4 có”. Trong đó, “5 không” gồm: không chia sẻ thông tin nhạy cảm; không mặc định nội dung do AI tạo ra là đúng; không sử dụng AI để xâm phạm quyền riêng tư; không nhờ AI soạn thảo tài liệu quan trọng mà không kiểm chứng; không dùng AI để tạo hoặc chỉnh sửa nội dung nhằm bôi nhọ, xúc phạm người khác. “4 có” là: có kiểm chứng thông tin, có bảo vệ tài khoản cá nhân, có trách nhiệm với nội dung mình tạo ra và có chia sẻ kinh nghiệm sử dụng AI an toàn.

Ở cấp độ xã hội, cần sự phối hợp chặt chẽ giữa cơ quan quản lý, doanh nghiệp công nghệ và các tổ chức xã hội để bảo đảm AI được triển khai theo hướng an toàn và thúc đẩy bình đẳng giới. Các chương trình tập huấn về nhận diện deepfake, quản lý danh tính số, ứng xử an toàn và phòng tránh bạo lực trực tuyến cần được mở rộng trong trường học, cộng đồng và môi trường công sở.

Việc Quốc hội Việt Nam thông qua Đạo luật Trí tuệ nhân tạo đầu tiên đã phát đi thông điệp rõ ràng về định hướng phát triển AI có trách nhiệm, minh bạch và lấy con người làm trung tâm.

AI là xu thế không thể đảo ngược. Vấn đề không nằm ở việc kìm hãm công nghệ, mà ở cách xã hội giám sát và sử dụng nó. Khi dữ liệu được kiểm soát, mô hình được đánh giá thường xuyên, người dùng được trang bị đầy đủ kỹ năng số và cộng đồng cùng chung tay chống bạo lực trực tuyến, AI mới thực sự trở thành công cụ thúc đẩy công bằng, thay vì lặp lại những bất bình đẳng đã tồn tại từ lâu.

PV

Hà Nội phát động chiến dịch bình đẳng giới 2025, chú trọng phòng ngừa bạo lực trực tuyến

Hà Nội phát động chiến dịch bình đẳng giới 2025, chú trọng phòng ngừa bạo lực trực tuyến

Vừa qua, tại Hà Nội, UBND Thành phố tổ chức Lễ phát động Tháng hành động vì bình đẳng giới và phòng ngừa, ứng phó với bạo lực trên cơ sở giới năm 2025.