Thông tin Khoa học công nghệ
Xây dựng văn hóa đạo đức AI: Từ khẩu hiệu đến hành động
Thứ ba, 17/06/2025
Trí tuệ nhân tạo (AI) đang cách mạng hóa các ngành công nghiệp bằng cách tự động hóa dịch vụ khách hàng, tối ưu hóa chuỗi cung ứng, cá nhân hóa các chiến dịch tiếp thị... Nhưng đi cùng với sức mạnh lớn là trách nhiệm lớn - và cả những rủi ro.
Theo GS. Thomas Davenport từ Đại học Babson, đồng thời là học giả khách mời tại Sáng kiến Kinh tế số MIT (MIT Initiative on the Digital Economy), các tổ chức ngày nay cần đảm bảo rằng những hệ thống AI mà họ xây dựng hoặc triển khai phải an toàn, bảo mật, không thiên vị và minh bạch.
Trong một hội thảo trực tuyến gần đây do MIT Sloan Management Review tổ chức, Davenport đã nêu bật một số rủi ro đạo đức mà AI có thể mang lại cho doanh nghiệp. Những rủi ro đó bao gồm: thiên lệch thuật toán trong học máy, mức độ minh bạch khác nhau giữa các mô hình, lỗ hổng an ninh mạng, và nguy cơ AI cung cấp nội dung không phù hợp hoặc thiếu nhạy cảm. Các tổ chức cũng phải đối mặt với câu hỏi liệu AI có thực sự mang lại kết quả hữu ích hay không.
Trong một hội thảo trực tuyến gần đây do MIT Sloan Management Review tổ chức, Davenport đã nêu bật một số rủi ro đạo đức mà AI có thể mang lại cho doanh nghiệp. Những rủi ro đó bao gồm: thiên lệch thuật toán trong học máy, mức độ minh bạch khác nhau giữa các mô hình, lỗ hổng an ninh mạng, và nguy cơ AI cung cấp nội dung không phù hợp hoặc thiếu nhạy cảm. Các tổ chức cũng phải đối mặt với câu hỏi liệu AI có thực sự mang lại kết quả hữu ích hay không.
Để giảm thiểu các rủi ro đó, Davenport cho rằng các tổ chức cần tích hợp thực hành đạo đức vào giải pháp AI ngay từ đầu. Họ cũng cần đảm bảo rằng các nhóm và cá nhân đều gắn bó với đạo đức AI như một phần trong công việc hàng ngày.
Dưới đây là một số chiến lược AI có trách nhiệm mà các tổ chức đang áp dụng hiện nay, cũng như cách để doanh nghiệp chuyển từ việc chỉ thảo luận về đạo đức AI sang hành động thực tiễn.
Chiến lược AI tại Scotiabank
Theo Davenport, các doanh nghiệp đang áp dụng nhiều chiến lược khác nhau để tích hợp đạo đức AI vào hoạt động vận hành, bao gồm: bổ nhiệm người đứng đầu mảng đạo đức AI, thực hiện nghiên cứu chuyên đề, thử nghiệm beta, và sử dụng đánh giá từ bên thứ ba để thẩm định các trường hợp sử dụng.
Ví dụ, Scotiabank - một ngân hàng của Canada - đã phát triển chính sách quản lý rủi ro AI và thành lập nhóm đạo đức dữ liệu để thúc đẩy chính sách này, theo Davenport. Các chính sách đó được đưa vào bộ quy tắc ứng xử (code of conduct) mà mọi nhân viên đều phải cam kết tuân thủ hằng năm. Ngoài ra, ngân hàng còn yêu cầu tất cả nhân viên trong các nhóm phân tích dữ liệu, dữ liệu khách hàng hoặc các nhóm liên quan bắt buộc phải tham gia khóa đào tạo về đạo đức dữ liệu. Scotiabank cũng hợp tác với Deloitte để phát triển một trợ lý đạo đức tự động nhằm đánh giá từng trường hợp sử dụng trước khi triển khai. Ngân hàng còn khuyến khích nhân viên tham gia quản lý dữ liệu phi cấu trúc để xác định cách phản hồi hiệu quả nhất cho các câu hỏi từ khách hàng.
“Quy trình dân chủ hóa này không chỉ quan trọng với đạo đức, mà còn giúp tăng hiệu quả hoạt động khi triển khai các hệ thống AI,” Davenport nhận định.
5 giai đoạn xây dựng đạo đức AI
Davenport xác định 5 giai đoạn đóng vai trò then chốt trong việc thúc đẩy sự phát triển, triển khai và sử dụng AI có đạo đức trong các tổ chức. Khi tiến dần qua các giai đoạn này, doanh nghiệp sẽ chuyển từ lời nói sang hành động:
Truyền bá nhận thức (Evangelism): Đại diện doanh nghiệp truyền thông nội bộ và bên ngoài về tầm quan trọng của đạo đức AI.
Xây dựng chính sách (Policies): Doanh nghiệp thảo luận và phê duyệt các chính sách nội bộ để đảm bảo phương pháp tiếp cận AI mang tính đạo đức.
Lưu trữ và minh bạch thông tin (Documentation): Doanh nghiệp ghi lại dữ liệu liên quan đến từng trường hợp sử dụng AI, ví dụ như dùng "thẻ mô hình" (model cards) để mô tả cách mô hình được thiết kế và đánh giá.
Rà soát (Review): Doanh nghiệp thực hiện hoặc bảo trợ việc rà soát có hệ thống từng trường hợp sử dụng để xác định có đáp ứng tiêu chí AI có trách nhiệm hay không.
Hành động (Action): Doanh nghiệp triển khai quy trình trong đó mỗi trường hợp sử dụng AI sẽ được chấp thuận, yêu cầu chỉnh sửa, hoặc từ chối.
Davenport nhấn mạnh rằng việc tích hợp đạo đức vào chiến lược AI cần có một kế hoạch chiến lược rõ ràng. “Chúng ta cần xác định những trường hợp sử dụng nào là hợp lý, sau đó xây dựng mô hình, triển khai, giám sát - và yếu tố đạo đức phải được lồng ghép xuyên suốt cả quá trình đó. Đó chính là cách mà các tổ chức thành công nhất đang làm khi nói đến đạo đức AI”, ông nói.
Theo Vietnamnet.vn (Nguồn: MIT Sloan)
Bài viết cùng chuyên mục
- Ngoại giao khoa học công nghệ: Động lực mới cho tăng trưởng bền vững của Việt Nam
- Cổng sáng kiến KHCN,ĐMST&CĐS: Kết nối ý tưởng sáng tạo với thực tiễn
- Đừng 'đóng gói' trí tuệ học sinh trong các dự án bóng bẩy của người lớn
- Chương trình hành động của Đoàn TNCS Hồ Chí Minh thực hiện Nghị quyết Đại hội lần thứ...
- AI có thể rút ngắn 10 tháng làm việc của kỹ sư Nvidia 'còn một đêm'
- Hỗ trợ 1 tỷ đồng/năm cho mỗi nghiên cứu sinh xuất sắc, “đặt hàng” làm chủ công nghệ...
- Bài toán kinh tế chưa được hiểu đúng về điện rác
- Việt Nam đặt mục tiêu 10 người dân có một người khởi nghiệp
- PGS.TS Vũ Hải Quân giữ chức Bộ trưởng Bộ Khoa học và Công nghệ
- Chiến lược quốc gia về khởi nghiệp sáng tạo
Đăng nhập để gửi bình luận
Bình luận