Châu Âu bước vào thời đại mới của trí tuệ nhân tạo

06:30' - 22/03/2024
BNEWS Dự thảo AI Act do Nghị viện châu Âu phê chuẩn ngày 13/3 sẽ đi vào lịch sử như là cơ sở pháp lý đầu tiên cho việc phát triển và thương mại sản phẩm sử dụng công nghệ trí tuệ nhân tạo.

Nghị viện châu Âu (EP) đã thông qua Đạo luật Trí tuệ Nhân tạo (AI Act), tạo ra một quy định đột phá đầu tiên trên thế giới nhằm điều chỉnh việc sử dụng trí tuệ nhân tạo như ChatGPT, được phân loại là "có nguy cơ cao". Cuộc chiến "ủng hộ sáng tạo" chống lại "ủng hộ quy định" đã nghiêng về lợi ích của nhóm thứ hai. Nhưng Ủy ban châu Âu (EC) hứa hẹn sẽ phát triển tốt hơn.

Dự thảo AI Act vừa vượt qua một bước tiến lịch sử hôm 13/3 tại Strasbourg. Các nghị sỹ châu Âu đã phê chuẩn với tỷ lệ đồng thuận rất cao cho văn bản sẽ đi vào lịch sử như là cơ sở pháp lý cho việc phát triển và thương mại sản phẩm sử dụng công nghệ trí tuệ nhân tạo. Phiên bản cuối cùng dự kiến sẽ được 27 quốc gia thành viên Liên minh châu Âu (EU) thông qua trong tháng Tư để có hiệu lực từ năm 2025.

Một lần nữa, châu Âu lại đi tiên phong khi áp đặt quy định lớn thứ tư trong quá trình chuyển đổi kỹ thuật số, sau Quy định chung về bảo vệ dữ liệu (GDPR), Đạo luật Dịch vụ Kỹ thuật số và Đạo luật Thị trường Kỹ thuật số. Do đó, các công ty sẽ phải thích nghi với môi trường pháp lý mới.

Uy tín của EC lại đặt ở việc tạo ra một "Hiệu ứng Brussels", một sự rung chuyển tích cực trên toàn bộ ngành công nghiệp, kể cả bên ngoài biên giới châu Âu. Đây sẽ là giá trị của sự tin tưởng vào công nghệ, thứ thường khiến người ta sợ hãi cũng như mê hoặc. Đồng thời cũng là niềm tin vào sự đổi mới. Và theo nghiên cứu của hãng McKinsey, doanh thu của một ngành có thể giúp kinh tế toàn cầu tăng thêm 4.400 tỷ USD.

Ít nhất, đó là quan điểm được EC và Chính phủ Bỉ, quốc gia hiện đang giữ chức Chủ tịch Hội đồng EU, nỗ lực hết sức để thúc đẩy việc điều chỉnh, trước các quốc gia có thái độ cảnh giác hơn, như Pháp và Đức. Mục đích là để bảo vệ những "viên ngọc địa phương" của họ như Mistral AI và Aleph Alpha, được xem là những “tân binh” tiềm năng của châu Âu về trí tuệ nhân tạo.

Để có thể hình dung về tốc độ thay đổi công nghệ, hai công ty khởi nghiệp này thậm chí còn chưa ra đời khi phiên bản đầu tiên của Đạo luật AI được trình bày, vào ngày 21/4/2021. Trong ba năm, đạo luật đã phải tích hợp cấp tốc “cơn sóng thần” trí tuệ tổng hợp được thể hiện bằng ChatGPT, có khả năng tạo ra văn bản bằng ngôn ngữ tự nhiên, mã lập trình, hình ảnh, video, âm nhạc, dựa trên yêu cầu do người dùng đưa ra.

Sau gần ba năm đàm phán căng thẳng, được Mỹ theo dõi sát sao, thì AI Act đã trở thành một văn bản mà ngay cả các nhà lãnh đạo như Sam Altman (đồng sáng lập Open AI), Sundar Pichai (Google) hoặc Elon Musk cũng cho rằng là cần thiết.

Văn bản bắt đầu từ đầu, tức là một định nghĩa về trí tuệ nhân tạo, công nghệ đã xuất hiện từ những năm 1950. Do đó, trí tuệ nhân tạo là "hệ thống dựa trên máy tính, với mục tiêu rõ ràng hoặc không rõ ràng, suy luận từ các dữ liệu đầu vào mà nó nhận được, cách tạo ra kết quả như dự đoán, nội dung, gợi ý hoặc quyết định có thể ảnh hưởng đến môi trường thực hoặc ảo".

 
Để hiểu mức độ phức tạp của các vấn đề (địa chính trị, công nghiệp, đạo đức, pháp lý, xã hội...), EC đã chọn phương pháp điều chỉnh việc sử dụng trí tuệ nhân tạo hơn là các công cụ. Điều này được thể hiện thông qua việc tiếp cận dựa trên rủi ro, có nghĩa là việc điều chỉnh trí tuệ nhân tạo dựa trên nhận định về rủi ro của việc sử dụng nó, được đánh giá từ "thấp" đến "không chấp nhận được", thông qua các cấp độ từ "hạn chế" đến "cao". Do đó, EC phân biệt rõ ràng giữa việc sử dụng một bộ lọc chống thư rác cho hộp thư điện tử và một trợ lý trò chuyện hoặc hệ thống đánh giá tín dụng cho một ngân hàng.

Không đánh giá hành vi cá nhân và xã hội

Về cơ bản, điều này xác định những gì đang và sẽ luôn bị cấm chính thức ở châu Âu. Những hành vi khác cũng bị cấm, bao gồm các kỹ thuật thao túng hệ thống nhận thức (ví dụ như deepfake) và do đó là hành vi cá nhân, thu thập ngẫu nhiên dữ liệu nhận dạng và giám sát video, hệ thống nhận dạng cảm xúc ở nơi làm việc và môi trường giáo dục, với các hệ thống khai thác các lỗ hổng có thể xảy ra do tuổi tác hoặc tình trạng khuyết tật về thể chất hoặc tinh thần của một nhóm người. Hoặc thậm chí xử lý sinh trắc học để loại bỏ dữ liệu cá nhân nhạy cảm như khuynh hướng tình dục hoặc tín ngưỡng tôn giáo cũng bị cấm. Một số ứng dụng trị an dự đoán nhắm mục tiêu vào các cá nhân, cũng bị loại trừ.

Tiếp theo là những mục đích sử dụng được phân loại là “rủi ro cao”. Dự luật nhắm vào các hệ thống có “tác động bất lợi đáng kể đến sức khỏe, sự an toàn và các quyền cơ bản của công dân”. Điều này bao gồm “máy móc y tế” (ví dụ: phẫu thuật có sự hỗ trợ của robot), giáo dục (điểm thi), nguồn nhân lực (sắp xếp sơ yếu lý lịch), giao thông vận tải (ô tô tự hành), công lý, dịch vụ (chẳng hạn như việc cấp các khoản vay ngân hàng) ...

Tháng Hai năm ngoái, EP đã khiến EC ngạc nhiên khi phân loại các robot đàm thoại, chẳng hạn như ChatGPT hoặc Gemini (Google), vào phần “các hệ thống có rủi ro thao túng cụ thể”. Ngoài ra, phải cảnh báo rằng nội dung được tạo ra “bằng cách tự động”. Video siêu giả (deepfake) thuộc loại này. Tuy nhiên, các mô hình do Mistral và Aleph Alpha phát triển không thuộc hạng mục này. Không giống như ChatGPT (được gọi là hệ thống “đóng”, được cung cấp sẵn), những mô hình này được gọi là "mở", cho phép người dùng tự do tạo môi trường riêng dựa trên dữ liệu của họ.

Lựa chọn của EU để bảo vệ AI dựa trên “nguồn mở” rõ ràng sẽ mang lại lợi ích cho các công ty từ “Lục địa Già”. Trung tâm quan sát các tập đoàn đa quốc gia không ngần ngại chỉ trích việc lobby mạnh mẽ của hai start-up này, được các chính phủ của họ hỗ trợ. Các phương tiện truyền thông trực tuyến nhấn mạnh: “Họ đã có thể tìm ra lý lẽ để thuyết phục chính phủ các nước lớn ở châu Âu giảm bớt tham vọng của Đạo luật AI”.

Các nhà cung cấp hệ thống được phân loại là "rủi ro cao" sẽ phải cung cấp tài liệu kỹ thuật cho các cơ quan có thẩm quyền, tương tự như các nghĩa vụ tuân thủ hiện hành trong các lĩnh vực khác (như cầu thang máy hoặc sản phẩm an ninh mạng). Nghĩa vụ minh bạch này là chưa từng có. Nói rõ hơn, những người chơi trong lĩnh vực AI “rủi ro” sẽ phải mở nắp thuật toán của họ. Các công ty cũng sẽ phải cung cấp bản tóm tắt dữ liệu đã được sử dụng để “huấn luyện” các mô hình AI tổng quát. Như vậy, tác giả biết liệu nội dung của họ có bị khai thác hay không và nếu cần, có thể yêu cầu bồi thường.

Tuy nhiên, Pháp đã thành công trong việc tích hợp điều khoản "bí mật thương mại" để làm giảm bớt áp lực của tính minh bạch này. Đối với một số người chơi trên thị trường, chẳng hạn như Mistral, việc công bố nội dung của cơ sở dữ liệu của họ sẽ gây tổn hại đến tính cạnh tranh. Mặc dù được một số người coi là "bị hạn chế", sự đổi mới vẫn không bị cấm.

Các thử nghiệm phải được thực hiện trong khuôn khổ của "khu vực chơi" theo quy định. Đạo luật cũng khuyến nghị các thử nghiệm thực tế, nhưng các nhà cung cấp sẽ cần sự cho phép của các cơ quan quốc gia trước. Điều này là một rào cản chống lại những “phù thủy tập sự”.

Đạo luật AI cũng bao gồm các nghĩa vụ tự đánh giá và giảm thiểu các rủi ro hệ thống, thông báo về các sự cố nghiêm trọng, tiến hành đánh giá thử nghiệm cũng như triển khai các giải pháp bảo mật mạng hiệu quả. Vì thế, không có chuyện đùa với lửa. Các hệ thống "rủi ro hạn chế", sẽ chỉ cần tuân thủ nghĩa vụ minh bạch, ví dụ như về cách hoạt động của thuật toán, mà không cần phải xin phép trước. Tất cả các thiết bị kết nối hàng ngày (đồng hồ, thiết bị điện gia dụng, bộ điều chỉnh nhiệt thông minh...) đều bị ảnh hưởng.

Và để giám sát mọi thứ, Văn phòng Trí tuệ Nhân tạo châu Âu vừa được thành lập hồi tháng Hai. Đây sẽ là trung tâm chuyên môn trên toàn EU về AI. Nhiệm vụ là tạo ra các công cụ, phương pháp và tiêu chí để đánh giá khả năng của các mô hình trí tuệ nhân tạo dùng chung như ChatGPT hoặc Gemini.

Cần lưu ý rằng Đạo luật AI liên quan đến những người thiết kế, cung cấp hoặc sử dụng sản phẩm hoặc dịch vụ được trí tuệ nhân tạo hỗ trợ. Điều này áp dụng cho các doanh nghiệp, nhưng cũng bao gồm cả lĩnh vực công và lực lượng thực thi pháp luật.

Tin liên quan


Tin cùng chuyên mục