Những rủi ro khi tác nhân AI bước vào kỷ nguyên sản xuất hàng loạt

05:30' - 19/07/2024
BNEWS Với sự hỗ trợ của trí tuệ nhân tạo, tội phạm công nghệ cao giờ đây đang ngày càng phát triển và gây ra những tổn thất tài chính vô cùng lớn.

Theo Tân Hoa xã, thực tế cho thấy không nên đánh giá thấp về rủi ro do tác nhân công nghệ cao gây ra.

*Tác nhân AI bước vào kỷ nguyên sản xuất hàng loạt

Tác nhân trí tuệ nhân tạo (AI) là một khái niệm trong lĩnh vực trí tuệ nhân tạo. Đó là một thực thể thông minh có thể tự nhận thức môi trường, đưa ra quyết sách và thực hiện các hành động. Nó có thể là một chương trình, một hệ thống hoặc một robot.

Cốt lõi của tác nhân AI là các thuật toán trí tuệ nhân tạo, bao gồm các công nghệ như học máy, học sâu, học tăng cường, mạng lưới thần kinh... Thông qua các thuật toán này, các tác nhân AI có thể học hỏi từ lượng lớn dữ liệu và cải thiện các tính năng của chính mình, liên tục tối ưu hóa các quyết sách và hành vi. Tác nhân AI cũng có thể thực hiện các điều chỉnh linh hoạt theo những thay đổi của môi trường để thích ứng với các kịch bản và nhiệm vụ khác nhau.

Sự xuất hiện của các mô hình ngôn ngữ lớn (LLM), do GPT đại diện, đánh dấu sự gia nhập của các tác nhân AI vào kỷ nguyên sản xuất hàng loạt. Trước đây, các tác nhân AI phải dựa vào nhân viên khoa học máy tính chuyên nghiệp để trải qua nhiều vòng phát triển và thử nghiệm. Giờ đây, các mô hình ngôn ngữ lớn có thể được sử dụng để nhanh chóng chuyển đổi các mục tiêu cụ thể thành mã chương trình và tạo ra nhiều tác nhân AI khác nhau. 

Các mô hình lớn đa phương thức với khả năng tạo và hiểu văn bản, hình ảnh, video… cũng tạo điều kiện thuận lợi cho sự phát triển của các tác nhân AI, cho phép chúng sử dụng thị giác máy tính để “nhìn rõ” thế giới ba chiều ảo hoặc thực.

* Những rủi ro cần cảnh giác

Các tác nhân AI có thể đưa ra quyết sách một cách độc lập và cũng có thể gây ảnh hưởng đến thế giới vật chất bằng cách tương tác với môi trường. Một khi mất kiểm soát, chúng sẽ gây ra mối đe dọa lớn cho xã hội loài người. Giáo sư Jonathan Chitrain, tại Trường Luật Harvard (Mỹ), cho rằng việc phổ biến hóa ứng dụng AI không chỉ có thể nói chuyện với con người mà còn có thể hành động trong thế giới thực là “một bước vượt qua hàng rào giữa con người và máy móc, giữa kỹ thuật số và analog, bit và nguyên tử”, và cần được nêu cao tính cảnh giác.

Logic hoạt động của một tác nhân AI có thể dẫn đến những sai lệch có hại trong việc đạt được các mục tiêu cụ thể. Giáo sư Jonathan Chitrain cho rằng, trong một số trường hợp, tác nhân AI có thể chỉ nắm bắt được nghĩa đen mà không hiểu ý nghĩa thực chất của mục tiêu, dẫn đến hành vi bất thường khi đáp ứng các khuyến khích hoặc tối ưu hóa các mục tiêu nào đó. 

Các tác nhân AI cũng có thể chỉ đạo hành động của con người trong thế giới thực. Các chuyên gia Đại học California tại Berkeley và Đại học Montreal Canada mới đây đã đăng một bài viết với tựa đề “Quản lý các tác nhân trí tuệ nhân tạo cao cấp” trên tạp chí “Science” của Mỹ, cho rằng việc hạn chế ảnh hưởng của một tác nhân mạnh mẽ lên môi trường của nó là vô cùng khó khăn. 

Vì hiện tại không có cơ chế thoát khỏi tác nhân AI hiệu quả, nên một số tác nhân AI có thể không tắt được sau khi được tạo ra. Những tác nhân AI không thể ngừng hoạt động này, sau này có thể hoạt động trong một môi trường hoàn toàn khác so với khi chúng được tạo ra ban đầu, làm những việc hoàn toàn khác so với mục đích ban đầu của chúng. Các tác nhân AI cũng có thể tương tác theo những cách không lường trước được, từ đó gây ra sự cố bất ngờ.

Các tác nhân AI “xảo quyệt” đã thành công vượt qua các biện pháp an ninh hiện có. Các chuyên gia chỉ ra rằng, nếu một tác nhân AI đủ thông minh, nó sẽ có thể nhận ra rằng nó đang được thử nghiệm. Một số tác nhân AI được phát hiện có khả năng nhận biết các thử nghiệm an toàn và dừng các hành vi không phù hợp, điều này có thể dẫn đến lỗi hệ thống thử nghiệm xác định các thuật toán gây nguy hiểm cho con người. 

Theo các chuyên gia, con người cần bắt đầu càng sớm càng tốt từ việc phát triển và sản xuất các tác nhân AI đến việc giám sát liên tục sau khi triển khai ứng dụng, tiêu chuẩn hóa hành vi của các tác nhân AI và cải thiện các tiêu chuẩn Internet hiện có, từ đó ngăn chặn tốt hơn tình trạng mất kiểm soát các tác nhân AI. 

Việc quản lý phân loại phải được thực hiện theo mục đích chức năng, rủi ro tiềm ẩn và giới hạn thời gian sử dụng của tác nhân AI. Nhận biết các tác nhân AI có nguy cơ cao và đặt chúng dưới sự giám sát chặt chẽ và thận trọng hơn. Đồng thời, cũng có thể tham khảo quy định hạt nhân để kiểm soát các nguồn lực cần thiết để tạo ra các tác nhân AI có năng lực nguy hiểm, chẳng hạn như mô hình AI, chip hoặc trung tâm dữ liệu vượt quá ngưỡng tính toán nhất định. 

Ngoài ra, do rủi ro của các tác nhân AI mang tính toàn cầu nên việc thực hiện hợp tác quốc tế liên quan trong giám sát cũng đặc biệt quan trọng.

Tin liên quan


Tin cùng chuyên mục