Để doanh nghiệp tự vệ trong thời đại AI tạo sinh

07:52' - 04/08/2024
BNEWS Với câu hỏi "Trí tuệ nhân tạo (AI) có thể gây ra rủi ro gì đối với doanh nghiệp?", chúng ta cần nhận thức được rằng có nhiều loại AI khác nhau trên thị trường.

Ông Naveen Joshi, người sáng lập và là Giám đốc điều hành (CEO) của công ty phát triển các giải pháp kỹ thuật số và công nghệ Allerin, đã mô tả bốn loại hình AI chính: phản ứng, trí nhớ hạn chế, lý thuyết về tâm trí và tự nhận thức.

 

Tại thời điểm này, chỉ có hai loại AI phản ứng và trí nhớ hạn chế tồn tại. Deep Blue của IBM là một ví dụ về AI phản ứng - nó không có bộ nhớ và phải được lập trình để làm mọi việc. Các trợ lý ảo Alexa của Amazon và Siri của Apple là những ví dụ về AI có bộ nhớ hạn chế, cũng là những điển hình khi mọi người nghĩ đến các ứng dụng AI.

Tuy nhiên, với sự phát triển vũ bão của công nghệ, khi nhắc đến AI, người dùng thường không nghĩ chúng là AI có bộ nhớ hạn chế. Họ liên tưởng đến một công cụ sử dụng công nghệ máy học (machine learning), phân tích dự đoán hoặc mô hình ngôn ngữ lớn (LLM) với giao diện tổng hợp nội dung được đào tạo trước - chẳng hạn như ChatGPT của OpenAI, Copilot của Microsoft hoặc Gemini của Google.

Khi đã định hình được loại hình AI chủ chốt có thể tác động tới hoạt động của doanh nghiệp, các nhà lãnh đạo cần xác định những rủi ro chính, cách các tội phạm lợi dụng chúng và cách nhà lãnh đạo có thể bảo vệ doanh nghiệp của mình.

Bốn rủi ro hàng đầu

Đầu tiên là khả năng AI bị lợi dụng trong Social Engineering - một loạt hình tấn công phi kỹ thuật, tập trung thao túng hành vi của con người thay vì khai thác các lỗ hổng trong hệ thống bảo mật thiết bị. Các công cụ như ChatGPT có thể viết email lừa đảo cực kỳ thuyết phục từ những yêu cầu đơn giản. Một số công cụ khác có thể tạo các cuộc gọi điện thoại hoặc video lừa đảo giống như do người thật thực hiện.  

Tiếp theo là độ chính xác khó đảm bảo. Các công cụ AI có thể đưa ra kết quả đúng, sai hoặc không rõ ràng. Vấn đề là chúng đưa ra những câu trả lời sai một cách hết sức thuyết phục. Với tư cách là người sử dụng công cụ này, các doanh nghiệp phải biết câu trả lời là đúng, sai hay phần lớn là đúng hay sai. Điều đó có nghĩa là người dùng cần biết câu trả lời đúng trước khi đặt câu hỏi.

Rủi ro thứ ba là vấn đề bảo mật dữ liệu. Đã có rất nhiều ví dụ về việc nhân viên tải dữ liệu nhạy cảm hoặc bí mật của doanh nghiệp lên các công cụ AI mở như ChatGPT. Những dữ liệu này sau đó được tích hợp vào kho đào tạo của công cụ đó, đe dọa tính bảo mật của những thông tin nhạy cảm. Người dùng cần biết dữ liệu của mình ở đâu và đảm bảo dữ liệu đó không xuất hiện trong AI.

Cuối cùng là "ngộ độc" dữ liệu. Vì các công cụ AI tạo sinh như ChatGPT và Gemini yêu cầu có bộ dữ liệu lớn, các nhà phát triển thường đào tạo chúng trên hàng tỷ trang web. Gần đây, Google đã hợp tác với nền tảng xã hội Reddit để đưa nội dung từ Reddit vào kết quả tìm kiếm của Google dễ dàng hơn. Đây có thể là một điều tốt và có thể là một điều xấu. Thật tốt khi tất cả nội dung do con người tạo ra giờ đây có thể được tìm kiếm nhanh chóng. Nhưng điều tệ hơn là các bài đăng ngớ ngẩn, châm biếm và thông tin sai lệch trên Reddit cũng tăng độ tiếp cận người dùng hơn.

Cách thức giảm thiểu những mối nguy hại

Dù những rủi ro từ AI đang gia tăng, nhưng các chuyên gia bảo mật công nghệ am hiểu về AI cũng đã nghiên cứu và đưa ra cách giải quyết những rủi ro mà các doanh nghiệp đang gặp phải.

Đối với tấn công dạng Social Engineering, các công ty an ninh mạng trong hơn một thập kỷ qua đã tích hợp công nghệ máy học và phân tích dự đoán để ngăn chặn các email lừa đảo. Nhưng đừng chỉ dựa vào các công cụ bảo mật để ngăn chặn các cuộc tấn công lừa đảo qua mạng. Hiện có rất nhiều công cụ miễn phí có thể giúp xác định xem một email có được viết bởi AI tạo sinh hay không. Thậm chí, người dùng có thể dán email vào ChatGPT và hỏi xem nó có viết chính email đó không.

Về vấn đề độ chính xác, có nhiều công cụ đang được phát triển để giám sát nội dung do AI tạo sinh. Nhưng công cụ tốt nhất là sự giám sát của con người. Các công ty và doanh nghiệp đều có nguy cơ thua lỗ nặng nếu loại bỏ sự giám sát của con người khỏi chu trình của AI tạo sinh. Họ cũng cần phải thận trọng khi đánh giá độ chính xác từ mô hình AI được chọn lựa.

Trong khi đó, để giảm thiểu rủi ro nhân viên tải dữ liệu của doanh nghiệp lên hệ thống AI, cần có sự kết hợp giữa chính sách quản trị với các công cụ ngăn ngừa mất dữ liệu. Nhân viên cần biết những gì họ được phép tải lên ChatGPT và các công cụ AI tạo sinh khác, vì vậy việc truyền đạt chính sách AI của doanh nghiệp doanh nghiệp tới tất cả nhân viên là vô cùng quan trọng.

Để ngăn ngừa "ngộ độc" dữ liệu, hãy triển khai hoạt động “vệ sinh” dữ liệu, giám sát thường xuyên và đảm bảo xử lý dữ liệu an toàn. Những biện pháp này đều cần được triển khai bất cứ khi nào doanh nghiệp doanh nghiệp đưa một ứng dụng lên môi trường Internet.

Nếu một doanh nghiệp muốn áp dụng AI tạo sinh, hãy bắt đầu với các bước đơn giản nêu trên. Từ đó, họ sẽ có vị thế thuận lợi để kiểm soát và hưởng lợi từ AI thay vì đối mặt với nhiều rủi ro.

Tin liên quan


Tin cùng chuyên mục