
Các Chuyên Gia Pháp Lý Đề Xuất Bộ Nhân Sự Cân Nhắc Nhiều Câu Hỏi Trước Khi Thiết Lập Chính Sách Hướng Dẫn Nhân Viên Sử Dụng ChatGPT Của OpenAI Và Các Công Cụ Trí Tuệ Nhân Tạo Tạo Sinh
Công Nghệ Sản Xuất Nội Dung Ngày Càng Phổ Biến Và Các Công Ty Trong Nhiều Ngành Rất Hào Hứng Với Triển Vọng Của Nó Đồng Thời Cũng Tò Mò, Nếu Không Muốn Nói Là Sợ Hãi, Về Thứ Nó Có Thể Dẫn Đến
Theo Một Cuộc Khảo Sát Với 521 Công Nhân Do AmeriSpeak Omnibus Thực Hiện Cho SHRM Vào Đầu Tháng 4, 1/3 Người Lao Động Tại Hoa Kỳ Tin Rằng Công Việc Của Họ Sẽ Phụ Thuộc Nhiều Hơn Vào Tự Động Hóa Nơi Làm Việc Trong Vài Năm Tới. Tuy Nhiên, 91% Cho Biết Nhiệm Vụ Công Việc Hiện Tại Của Họ Không Hề Bị Ảnh Hưởng Bởi AI
Trong Khi Đó, Một Cuộc Thăm Dò Ý Kiến Với 62 Lãnh Đạo Nhân Sự Vào Tháng 2 Do Công Ty Tư Vấn Gartner Thực Hiện Cho Thấy Khoảng Một Nửa Trong Số Họ Đang Xây Dựng Hướng Dẫn Về Việc Sử Dụng ChatGPT Của Nhân Viên, Bloomberg Đưa Tin
John Carrigan, Luật Sư Của Cozen O'Connor Ở Los Angeles, Cho Biết Các Nhà Tuyển Dụng Nên Xem Xét Mức Độ Mà Các Chính Sách Hiện Tại Của Họ Có Thể Giải Quyết Một Số Vấn Đề “Mới” Do AI Nêu Ra
Ông Phát Biểu: “Ví Dụ: Đã Có Báo Cáo Về Nhân Viên Cho Rằng ChatGPT Hỗ Trợ Họ Làm Việc Hiệu Quả Đến Mức Họ Có Thể Đảm Nhận Công Việc Toàn Thời Gian Mà Không Cần Thông Báo Cho Nhân Viên Của Mình”. “Và Mặc Dù Điều Đó Có Vẻ Như Là Một Vấn Đề Mới, Nhưng Nó Có Thể Đã Được Giải Quyết Một Cách Thích Hợp Bằng Chính Sách Làm Thêm Giờ Hoặc Chính Sách Xử Lý Xung Đột Lợi Ích Hiện Có”
Thay Vì Đó, Người Sử Dụng Lao Động Nên Suy Nghĩ Về Những Lĩnh Vực Mà Họ Không Muốn Thấy AI Được Sử Dụng Và Sau Đó Đặt Ra Các Hướng Dẫn Rõ Ràng, Carrigan Phát Biểu.
“Khi Quyết Định Mức Độ Cho Phép Hoặc Hạn Chế Sử Dụng ChatGPT Hoặc Các Công Cụ Tương Tự, Việc Lập Chiến Lược Về Các Loại Nhiệm Vụ Mà AI Có Thể Được Sử Dụng Cũng Như Điểm Mạnh Và Hạn Chế Của Các Công Cụ AI Cho Mục Đích Đó Là Điều Hợp Lý”. Anh Ấy Phát Biểu.
Carrigan Cũng Đề Xuất Nên Chỉ Định Một Số Người Phụ Trách Giám Sát Việc Sử Dụng AI Và Khắc Phục Sự Cố Khi Chúng Có Thể Phát Sinh.
Ông Phát Biểu: “Đây Là Lĩnh Vực Mà Chúng Tôi Mong Đợi Sẽ Thấy Sự Thay Đổi To Lớn Trong Một Thời Gian Khá Ngắn, Cả Về Khả Năng Của Công Nghệ Và Phản Ứng Pháp Lý Đối Với Việc Sử Dụng Công Nghệ”. “Vì Vậy, Người Sử Dụng Lao Động Cần Phải Chuẩn Bị Để Trở Nên Linh Hoạt”
Cân Nhắc Mức Độ Chấp Nhận Rủi Ro Của Bạn
Luật Sư Jenn Betts, Cổ Đông Và Đồng Chủ Tịch Của Nhóm Thực Hành Công Nghệ Tại Ogletree Deakins Ở Pittsburgh, Chia Sẻ Các Công Ty Cần Xác Định Mức Độ Chấp Nhận Rủi Ro Và Viết Ra Các Chính Sách Nêu Rõ Những Kỳ Vọng.
Bà Nói: “Rất Có Thể, Các Công Ty Có Quan Điểm Bảo Thủ Sẽ Không Cảm Thấy Thoải Mái Khi Cho Phép Sử Dụng Rộng Rãi Trí Tuệ Nhân Tạo Tổng Hợp, Trước Những Câu Hỏi Về Công Nghệ, Độ Chính Xác Và Tính Bảo Mật Của Nó”. “Nhiều Tổ Chức Có Những Lo Ngại Nghiêm Trọng Liên Quan Đến Tính Chính Xác Và Bảo Mật Dữ Liệu.”
Betts Chia Sẻ, Ngay Cả Các Tổ Chức Sẵn Sàng Sử Dụng AI Tạo Sinh (Generative AI) Cũng Lo Ngại Về Việc Lưu Giữ Và Bảo Vệ Dữ Liệu Của Chính Họ, Cũng Như Dữ Liệu Của Khách Hàng Của Họ.
Cô Lưu Ý: “Các Nhà Tuyển Dụng Đang Phát Triển Các Chính Sách Trí Tuệ Nhân Tạo Tổng Quát Thường Cấm Tải Lên Hoặc Sử Dụng Bất Kỳ Thông Tin Bí Mật Nào Như Một Phần Trong Nỗ Lực ChatGPT Của Họ”.
Tuy Nhiên, Cấm Công Nghệ Này Có Thể Không Phải Là Bước Đi Đúng Đắn. Công Ty Tư Vấn Gartner Chia Sẻ Trong Câu Hỏi Thường Gặp Trong Tháng Này Rằng Việc Chặn Hoàn Toàn ChatGPT Có Thể Mang Lại Cho Các Tổ Chức “Sự Nhận Thức Sai Về Tính Tuân Thủ” Và Thay Vào Đó Dẫn Đến Việc Nhân Viên Sử Dụng ChatGPT “Trong Bóng Tối”.
Gartner Chia Sẻ: “Một Cách Tiếp Cận Hợp Lý Là Giám Sát Việc Sử Dụng Và Khuyến Khích Đổi Mới, Nhưng Đảm Bảo Công Nghệ Chỉ Được Sử Dụng Để Tăng Cường Công Việc Nội Bộ Và Với Dữ Liệu Đủ Tiêu Chuẩn, Thay Vì Theo Cách Không Được Lọc Với Khách Hàng Và Đối Tác”.
Bảo Vệ Thông Tin Độc Quyền
Gartner Cũng Khuyên Rằng Tất Cả Nhân Viên Sử Dụng ChatGPT Phải Được Hướng Dẫn Cách Xử Lý Thông Tin Họ Đăng Như Thể Họ Đăng Nó Trên Một Trang Web Công Cộng (Ví Dụ: Trang Mạng Xã Hội Hoặc Blog Công Khai).
Công Ty Cho Biết: “Họ Không Nên Đăng Thông Tin Nhận Dạng Cá Nhân, Thông Tin Về Công Ty Hoặc Khách Hàng Mà Công Chúng Thường Không Công Bố”. “Hiện Tại Không Có Sự Đảm Bảo Rõ Ràng Nào Về Quyền Riêng Tư Hoặc Bảo Mật. Thông Tin Được Đăng Có Thể Được Sử Dụng Để Chính AI Tự Đào Tạo Và Hiểu Người Dùng Hơn.”
Theo Gartner, Microsoft, Đối Tác Lâu Dài Với OpenAI, Sẽ Giới Thiệu Các Biện Pháp Đảm Bảo Quyền Riêng Tư Cho Dịch Vụ Azure OpenAI Của Mình, Giống Như Đối Với Các Dịch Vụ Phần Mềm Khác Của Mình.
Kiểm Tra Sự Thật Của ChatGPT Và Trình Độ Hiểu Biết Của Nhân Viên
Janice Agresti, Phó Luật Sư Tại Cozen O'Connor Ở Thành Phố New York, Nói Rằng Khi Quyết Định Nên Thực Hiện Hướng Đi Nào Trong Việc Thiết Lập Chính Sách, Hãy Cân Nhắc Đưa Vào Loại Công Việc Mà Tổ Chức Của Bạn Thực Hiện; Lực Lượng Lao Động Của Bạn Quen Thuộc Với Việc Phát Triển Công Nghệ Như Thế Nào Và Những Hạn Chế Của Chúng; Bao Nhiêu Công Việc Của Họ Được Thúc Đẩy Bởi Kết Quả Đầu Ra; Và Lĩnh Vực Chuyên Môn Của Lực Lượng Lao Động Của Bạn. ChatGPT Vẫn Mắc Rất Nhiều Lỗi Và Người Dùng Cần Có Khả Năng Nhận Ra Chúng.
“Ví Dụ: Nếu Người Dùng Công Nghệ AI Là Một Chuyên Gia Thì Cá Nhân Đó Có Thể Kiểm Tra Thông Tin Đầu Ra Và Sửa Đổi Nó Theo Chuyên Môn Của Họ. Trong Trường Hợp Đó, Cá Nhân Đó Có Nhiều Khả Năng Sử Dụng Kết Quả Mà ChatGPT Đưa Ra Làm Điểm Khởi Đầu Hơn Là Một Sản Phẩm Cuối Cùng, Điều Này Gây Ra Ít Rủi Ro Về Uy Tín, Pháp Lý Và Các Rủi Ro Khác Cho Công Ty”, Agresti Nói.
Cô Tiếp Tục: “Hơn Nữa, Nếu Người Dùng Nhận Thức Được Các Hạn Chế Của ChatGPT Thì Họ Sẽ Thực Hiện Các Bước Để Đảm Bảo Rằng Đầu Ra Được Kiểm Tra Tính Xác Thực, Tính Hợp Pháp, V.V. Một Lần Nữa, Điều Này Sẽ Ít Gây Ra Rủi Ro Về Uy Tín, Pháp Lý Và Các Rủi Ro Khác Cho Một Công Ty.”
Mặt Khác, Agresti Nói Rằng Nếu Người Dùng Không Hoàn Toàn Chắc Chắn Về Cách Thức Hoạt Động Của ChatGPT Hoặc Các Hạn Chế Của Nó Hoặc Nếu Người Dùng Đang Sử Dụng Công Nghệ Này Để Tìm Kiếm Thông Tin Mà Họ Không Quen Thuộc, “Điều Đó Sẽ Làm Tăng Đáng Kể Các Rủi Ro Liên Quan Đến Cách Sử Dụng ChatGPT.”
Các Nhà Tuyển Dụng Cũng Muốn Cảm Thấy Tự Tin Rằng Bất Kỳ Sản Phẩm Công Việc Nào Họ Đưa Ra Có Tên Của Họ Sẽ Không Khiến Họ Gặp Rắc Rối Vì Các Vấn Đề Vi Phạm Bản Quyền Hoặc Đạo Văn.
Những Cân Nhắc Dành Cho Các Công Ty Có Tổ Chức Công Đoàn
Carrigan Cho Biết, Những Doanh Nghiệp Có Tổ Chức Công Đoàn Nên Xem Xét Liệu Bất Kỳ Chính Sách Nào Của Họ Liên Quan Đến ChatGPT Và AI Tạo Sinh (Generative AI) Khác Có Phải Là Đối Tượng Thương Lượng Bắt Buộc Hay Không.
Ngài nói: 'Có nhiều lo ngại đặc biệt về vị trí nhân viên văn phòng rằng một số công cụ AI mới có thể làm giảm nhu cầu cho một số công việc cụ thể và có thể khiến một số nhân viên trở nên lạc hậu. Các tổ chức lao động đều muốn có một vai trò trong các cuộc thảo luận như vậy.'
Agresti cho rằng cuối cùng, trí tuệ nhân tạo sáng tạo chỉ nên được sử dụng để cải thiện hiệu suất của con người thay vì thay thế họ.
Bà nói: 'Nếu được áp dụng, nó cần được sử dụng như một công cụ hỗ trợ công việc của người sử dụng thay vì thay thế cho sự sáng tạo, khả năng đoán trước hoặc chuyên môn của họ.'
CHÍNH SÁCH THAM KHẢO: NGĂN CHẶN VIỆC SỬ DỤNG TRÍ TUỆ NHÂN TẠO SÁNG TẠO
Nhân viên không được phép sử dụng ChatGPT và các dịch vụ trí tuệ nhân tạo sáng tạo khác của bên thứ ba cho công việc. Điều này bao gồm việc sử dụng các dịch vụ như vậy để tạo ra mã nguồn hoặc bất kỳ hình thức liên lạc nào với khách hàng, ngay cả khi sử dụng chúng để tham khảo ban đầu. Cấm sử dụng các dịch vụ để tạo ra thông tin liên lạc nội bộ, chính sách hoặc tài liệu hoặc bất kỳ tài liệu nào khác với mục đích kinh doanh.
Bạn được phép sử dụng các dịch vụ đó để tự nghiên cứu về cách chúng hoạt động, tuân theo các hạn chế được mô tả dưới đây. Từ bây giờ, tất cả các nhóm/phòng ban đều được phép sử dụng giao diện web ChatGPT (không bao gồm bất kỳ API nào) chỉ cho mục đích thử nghiệm, miễn là không sử dụng thông tin bí mật hoặc độc quyền của công ty hoặc bên thứ ba, thông tin cá nhân hoặc thông tin bí mật, dữ liệu của khách hàng hoặc bên thứ ba làm đầu vào (prompt). Để sử dụng bất kỳ dịch vụ sáng tạo nào khác của bên thứ ba, bạn phải có sự chấp thuận để sử dụng dịch vụ theo quy trình phê duyệt của bên thứ ba.
Nếu bạn làm việc trên các mô hình ngôn ngữ lớn (LLM) như một phần của công việc của mình, hãy tránh kiểm tra bất kỳ dịch vụ trí tuệ nhân tạo sáng tạo (Generative AI) nào của bên thứ ba để xem cách dịch vụ đó xử lý một số loại đầu vào/yêu cầu cụ thể hoặc hành vi của nó khác biệt với các LLM khác như thế nào.
Và vui lòng không cung cấp bất kỳ phản hồi nào cho bất kỳ nhà cung cấp dịch vụ bên thứ ba nào mà không có sự cho phép cụ thể từ pháp lý của công ty.
Paul Bergeron là một tác giả tự do đến từ Herndon, Virginia, Hoa Kỳ.
Nguồn: Thiết lập Chính sách Sử dụng ChatGPT trong Doanh nghiệp của Bạn (vietdemy.vn)
