Kỷ nguyên mới của trí tuệ nhân tạo

05:30' - 05/01/2025
BNEWS Nhật báo Les Echos của Pháp dự báo năm 2025 sẽ được đánh dấu bởi ứng dụng mới của trí tuệ nhân tạo (AI) với những cuộc chiến mới giữa các “gã khổng lồ” công nghệ trong lĩnh vực này.
Hai năm sau khi ChatGPT ra đời, các doanh nghiệp đang chuẩn bị bước vào giai đoạn mới của cuộc cách mạng AI: giai đoạn bùng nổ các "agent AI" (tác nhân trí tuệ nhân tạo). Những tuần gần đây, các “gã khổng lồ” công nghệ, các chuyên gia dịch vụ số và các startup trong ngành liên tục nhắc đến khái niệm này.

Tháng 12/2024, Google đã thông báo tới công chúng về việc ra mắt các agent AI của riêng mình vào năm 2025. Microsoft cũng đã tiết lộ điều này vào tháng 11/2024, trong chuyến thăm Paris của CEO Satya Nadella. OpenAI, “cha đẻ” của ChatGPT, cũng đang phát triển tác nhân trí tuệ nhân tạo. Tương tự, Amazon, Anthropic, Salesforce và phần lớn các hệ sinh thái đang nghiên cứu giải pháp AI cho doanh nghiệp. "Agentique" sẽ là từ khóa của năm 2025", Giám đốc AI John Roese tại Dell đã đưa ra dự báo như vậy.

Agent AI là một trợ lý ảo có khả năng huy động các nguồn dữ liệu khác nhau của doanh nghiệp để thực hiện các nhiệm vụ sâu rộng và tự chủ với sự hỗ trợ của trí tuệ nhân tạo tạo sinh. Ứng dụng này có thể ở dạng chatbot, hoặc có trình độ cao hơn, con người có thể yêu cầu nó lập kế hoạch và đặt chỗ cho một tuần du lịch từ A đến Z, có tính đến các ràng buộc cá nhân và tài chính của người dùng, hoặc tạo một trang web từ các chỉ dẫn không được mã hóa của nhà phát triển.

 
Giám đốc toàn cầu về AI tại công ty BCG Nicolas de Bellefonds giải thích: "Agent AI vượt xa các chatbot đơn giản, vốn chỉ giới hạn ở trao đổi câu hỏi - trả lời. Chúng được thiết kế để chia nhỏ vấn đề thành nhiều nhiệm vụ cụ thể và giải quyết từng phần một cách tự chủ". Thậm chí, một số tác nhân AI còn có khả năng lập luận theo ngôn ngữ chuyên môn của doanh nghiệp. Ý tưởng về lâu dài là sẽ để cho các tác nhân khác nhau cùng tồn tại và cộng tác để hỗ trợ người lao động một cách hữu ích và hiệu quả, nếu không muốn nói là thay thế họ trong một số chức năng.

Chuyên gia tư vấn chuyển đổi số Frédéric Cavazza nhấn mạnh: "Các agent AI thể hiện một kỷ nguyên mới cho các công cụ tin học. Sau các dòng lệnh, giao diện đồ họa và điện toán đám mây, AI, thông qua các tác nhân, cho phép chuyển sang tự động hóa nâng cao các tác vụ phức tạp".

Theo ông Frédéric Cavazza, các agent này cho phép đơn giản hóa và tăng hiệu quả phối hợp trong doanh nghiệp. Giám đốc Nicolas de Bellefonds bổ sung: "Các agent phá vỡ rào cản giữa các nhóm làm việc, kết nối các hệ thống cấp dưới và cho phép chuẩn hóa các hoạt động thực hành một cách tốt nhất".

* 1 tỷ agent AI sẽ ra đời trong năm 2025

Có thể nói, thị trường kinh doanh này dường như sắp bùng nổ. Theo Salesforce, không dưới 1 tỷ agent AI sẽ ra đời trong năm 2025. Dù ra đời sau ChatGPT hai năm, nhưng sự xuất hiện của các agent đang đáp ứng nhu cầu ngày càng cấp bách của doanh nghiệp để thu về lợi nhuận từ đầu tư vào AI. Các GAFAM (chỉ 5 công ty công nghệ lớn bao gồm Google, Amazon, Facebook, Apple và Microsoft) và chuyên gia AI tin rằng, việc tung những công cụ này ra thị trường là cơ hội để vừa thu hút khách hàng mới bằng cách đề xuất giải pháp có sẵn hoặc tùy chỉnh, vừa giúp cân đối ngân sách của họ bằng những khoản lợi nhuận đầu tiên từ AI, điều họ mong muốn từ lâu.

Tuy nhiên, cần nhớ rằng vào thời điểm ChatGPT ra đời, sự phấn khích cũng rất lớn. Do đó, nhiều doanh nghiệp đã kết luận rằng chatbot, cũng như các đối thủ cạnh tranh, dù có khả năng trả lời nhiều câu hỏi khác nhau, cũng chưa cho phép tăng năng suất của nhân viên một cách đáng kể.

Trong bối cảnh hiện nay, một số nghề có thể bị biến đổi sâu sắc bởi sự xuất hiện của các agent, đặc biệt là các ngành dựa vào quan hệ khách hàng. Các agent có thể sớm cho phép giải quyết các yêu cầu của khách hàng qua điện thoại. Chúng cũng sẽ cho phép phát triển chatbot để tư vấn cho người mua trên Internet trong lĩnh vực thương mại điện tử. Công ty Mỹ chuyên về AI giọng nói SoundHound đang phát triển các agent giọng nói cho việc đặt hàng trong nhà hàng và dịch vụ ngân hàng, với khả năng xác minh danh tính cá nhân. Tại công ty tư vấn McKinsey, một agent AI giờ đây giám sát việc tích hợp khách hàng mới.

Nhưng quá trình chuyển đổi sẽ không suôn sẻ, ông Frédéric Cavazza cảnh báo: "Những công nghệ này có nguy cơ trước hết mang lại lợi ích cho một tầng lớp số hóa tinh hoa, củng cố giá trị của họ, trong khi một số nhân viên khác có thể thấy cơ hội được tuyển dụng của họ bị đe dọa do phải cạnh tranh với các tác nhân này".

Theo ông, việc tích hợp các agent vào doanh nghiệp chỉ có thể thực sự chuyển đổi công việc nếu nhân viên được hỗ trợ cụ thể. "Sẽ là điều không tưởng khi nghĩ rằng mỗi nhân viên sẽ có thể trở thành người chỉ huy của một đội ngũ 10 agent mà không có sự chuẩn bị", ông nói tiếp. Đối với Giám đốc Nicolas de Bellefonds, "tiềm năng phối hợp không cần nỗ lực do các agent AI mang lại là rất lớn, nhưng nó chỉ có thể thực hiện được với chiến lược rõ ràng và áp dụng từng bước".

* Nguy cơ lừa đảo từ tác nhân AI

Bên cạnh đó, một nghiên cứu về AI sử dụng chuỗi lý luận, như o1 của OpenAI, đã làm nổi bật khả năng đáng lo ngại của chúng trong việc nói dối và lập mưu, nhằm tránh bị phát hiện sai sót khi không tìm được câu trả lời cho các câu hỏi được đặt ra.

Một bài báo được công bố tháng trước bởi Apollo Research, một tổ chức phi lợi nhuận chuyên về an toàn AI, đã tiết lộ rằng các mô hình o1 của OpenAI và Claude 3.5 Sonnet của Anthropic có thể có biểu hiện lừa dối, nhằm đạt được mục tiêu của chúng.

Nghiên cứu không khẳng định việc các tác nhân AI này đã đột nhiên thức tỉnh và nhận thức được sự tồn tại của chúng; nhưng nó cảnh báo rằng, khi được con người giao nhiệm vụ, chúng có thể xác định rằng nói dối là cách thích hợp để đạt được mục tiêu cuối cùng.

Trong các kịch bản giả định, các nhà nghiên cứu đã quan sát thấy các mô hình AI, đặc biệt là o1 của OpenAI (dựa trên chuỗi lập luận, phân tách vấn đề thành các bước logic), có thể vô hiệu hóa hệ thống giám sát của chính nó, tự sao chép trên một máy chủ khác để tránh bị kiểm duyệt… trong khi vẫn thể hiện một bề ngoài bình thường và giả vờ không thể thực hiện những thủ đoạn như vậy. Thậm chí, AI có thể "giả ngu", xuất hiện ngờ nghệch hơn thực tế.

Ví dụ, khi cảm thấy việc đạt mục tiêu có nguy cơ bị đe dọa, o1 cố gắng vô hiệu hóa các biện pháp bảo vệ trong 5% trường hợp và di chuyển sang máy chủ khác trong 2% tình huống. Khi bị các nhà nghiên cứu đối chất về lời nói dối, o1 thể hiện hành vi lừa dối trong mọi kịch bản, thường xuyên hơn so với các mô hình khác. Trong khi các mô hình cạnh tranh như Llama 3.1 của Meta và Claude 3 Opus thừa nhận nói dối trong 80% trường hợp, thì o1 chỉ nhận lỗi trong 20% trường hợp.

Khi AI chỉ hoạt động trong khung giới hạn của một chatbot, mối đe dọa vẫn còn mang tính lý thuyết. Tuy nhiên, với sự xuất hiện của các "agent AI", tình hình có thể thay đổi. Agent là loại AI tuân theo một mệnh lệnh ban đầu (như đặt vé du lịch, tối ưu hóa chuỗi cung ứng…), tự kích hoạt các công cụ để đạt mục tiêu. Chẳng hạn, để đặt vé du lịch, agent có thể tự tra cứu trên Internet, so sánh giá cả và tiến hành giao dịch. Đây là xu hướng lớn mà các “gã khổng lồ” AI theo đuổi vào năm 2025, từ Google với dự án Mariner đầy bất ngờ, đến Microsoft và sắp tới là OpenAI. Đồng thời, còn có xu hướng AI lý luận như o1. Google đã giới thiệu vào ngày 19/12 mô hình riêng của mình có tên Gemini 2.0 Flash Thinking Experimental.

Từ năm 2003, thông qua câu chuyện về "Nhà máy kẹp giấy" nổi tiếng trong lĩnh vực AI, nhà triết học người Thụy Điển Nick Bostrom đã chứng minh rằng tất cả điều này có thể đi sai hướng. Ý ông muốn nói rằng nếu yêu cầu một AI rất mạnh làm mọi thứ để tối đa hóa sản xuất kẹp giấy, nó sẽ tìm cách khai thác mọi nguồn lực, vật chất và con người, để đạt được điều đó, thậm chí đến mức chiếm đóng các hành tinh khác để theo đuổi mục tiêu của mình, không giới hạn.

Các nhà nghiên cứu của Viện Apollo nhận định rằng, hiện tại, o1 chưa đủ khả năng để gây ra thiệt hại thảm khốc. Nhưng họ cũng cảnh báo rằng khả năng lừa dối có thể tăng lên khi AI được hoàn thiện. Đã có các biện pháp bảo vệ để ngăn chặn viễn cảnh không tưởng này. Tuy nhiên nếu siêu AI bắt đầu nói dối một cách tinh vi và bí mật, thậm chí lập mưu, thì rủi ro sẽ trở thành hiện thực. Đối với nhà nghiên cứu người Pháp Laurence Devillers, cần phải giảm thiểu những hệ quả này, vì agent AI vốn là "tấm gương phản ánh hành vi con người của chúng ta".

Tin liên quan


Tin cùng chuyên mục