Theo Paul Scharre, trí tuệ nhân tạo (AI) đang mang lại những lợi ích to lớn cho xã hội. Nhưng, như nhiều người đã chỉ ra, nó cũng có thể mang đến những nỗi kinh hoàng mới chưa từng có.
Việc quản lý AI sẽ đòi hỏi phải chia sẻ rộng rãi những lợi ích của nó trong khi vẫn giữ AI mạnh nhất tránh xa khỏi tay những kẻ xấu.
Là một công nghệ đa năng, các công cụ tương tự giúp thúc đẩy khám phá khoa học cũng có thể được sử dụng để phát triển vũ khí mạng, hóa học hoặc sinh học. Việc quản lý AI sẽ đòi hỏi phải chia sẻ rộng rãi những lợi ích của nó trong khi vẫn giữ AI mạnh nhất tránh xa khỏi tay những kẻ xấu. Tin tốt là đã có một khuôn mẫu về cách thực hiện điều đó.
Vào thế kỷ 20, các quốc gia đã xây dựng các thể chế quốc tế nhằm cho phép phổ biến năng lượng hạt nhân hòa bình nhưng làm chậm quá trình phổ biến vũ khí hạt nhân bằng cách kiểm soát quyền tiếp cận các nguyên liệu thô - cụ thể là urani và plutonium cấp vũ khí.
Rủi ro đã được quản lý thông qua các thể chế quốc tế, chẳng hạn như Hiệp ước không phổ biến vũ khí hạt nhân và Cơ quan năng lượng nguyên tử quốc tế.
Hiện có 32 quốc gia vận hành các nhà máy điện hạt nhân, cung cấp tổng cộng 10% điện năng của thế giới và chỉ có 9 quốc gia sở hữu vũ khí hạt nhân.
Ngày nay, các quốc gia có thể làm điều tương tự đối với AI. Họ có thể quản lý AI từ đầu bằng cách kiểm soát quyền truy cập vào các chip chuyên dụng cao cần thiết để đào tạo các mô hình AI tiên tiến nhất thế giới. Các nhà lãnh đạo doanh nghiệp và thậm chí cả Tổng thư ký Liên hợp quốc António Guterres đã kêu gọi một khuôn khổ quản trị quốc tế cho AI tương tự như khuôn khổ quản trị công nghệ hạt nhân.
Các hệ thống AI tiên tiến nhất được đào tạo trên hàng chục nghìn chip máy tính chuyên dụng cao. Những con chip này được lưu trữ trong các trung tâm dữ liệu khổng lồ, nơi chúng xử lý dữ liệu trong nhiều tháng để đào tạo các mô hình AI có năng lực nhất. Những con chip tiên tiến này rất khó sản xuất, chuỗi cung ứng được kiểm soát chặt chẽ và cần số lượng lớn để đào tạo các mô hình AI.
Chính phủ có thể thiết lập một chế độ quản lý mà chỉ những nhà cung cấp điện toán được ủy quyền mới có thể mua số lượng lớn chip tiên tiến trong các trung tâm dữ liệu của họ và chỉ những công ty AI được cấp phép, đáng tin cậy mới có thể tiếp cận sức mạnh tính toán cần thiết để đào tạo các mô hình AI có khả năng nhất và nguy hiểm nhất.
Điều này có vẻ như là một nhiệm vụ khó khăn. Nhưng chỉ cần một số ít quốc gia để đưa chế độ quản lý này vào hoạt động. Các chip máy tính chuyên dụng được sử dụng để đào tạo các mô hình AI tiên tiến nhất chỉ được sản xuất tại Đài Loan. Chúng phụ thuộc vào công nghệ quan trọng từ ba quốc gia - Nhật Bản, Hà Lan và Hoa Kỳ. Trong một số trường hợp, một công ty duy nhất nắm giữ độc quyền các yếu tố chính của chuỗi cung ứng sản xuất chip. Công ty ASML của Hà Lan là nhà sản xuất máy quang khắc cực tím duy nhất trên thế giới được sử dụng để sản xuất các chip tiên tiến nhất.
Các chính phủ đã thực hiện các bước để quản lý các con chip công nghệ cao này. Hoa Kỳ, Nhật Bản và Hà Lan đã áp dụng biện pháp kiểm soát xuất khẩu đối với thiết bị sản xuất chip, hạn chế việc bán chúng cho Trung Quốc.
Và chính phủ Hoa Kỳ đã cấm bán những con chip tiên tiến nhất - được sản xuất bằng công nghệ của Hoa Kỳ - cho Trung Quốc. Chính phủ Hoa Kỳ cũng đã đề xuất các yêu cầu đối với các nhà cung cấp điện toán đám mây để biết khách hàng nước ngoài của họ là ai và báo cáo khi một khách hàng nước ngoài đang đào tạo một mô hình AI lớn có thể được sử dụng cho các cuộc tấn công mạng.
Và chính phủ Hoa Kỳ đã bắt đầu tranh luận - nhưng vẫn chưa đưa ra - các hạn chế đối với các mô hình AI được đào tạo mạnh nhất và mức độ rộng rãi mà chúng có thể được chia sẻ. Mặc dù một số hạn chế này liên quan đến cạnh tranh địa chính trị với Trung Quốc, nhưng các công cụ tương tự có thể được sử dụng để quản lý chip nhằm ngăn chặn các quốc gia đối địch, khủng bố hoặc tội phạm sử dụng các hệ thống AI mạnh nhất.
Hoa Kỳ có thể hợp tác với các quốc gia khác để xây dựng trên nền tảng này nhằm đưa ra một cấu trúc quản lý phần cứng máy tính trong toàn bộ vòng đời của một mô hình AI: thiết bị sản xuất chip, chip, trung tâm dữ liệu, đào tạo mô hình AI và các mô hình được đào tạo là kết quả của chu kỳ sản xuất này.
Nhật Bản, Hà Lan và Hoa Kỳ có thể giúp dẫn đầu việc tạo ra một khuôn khổ quản lý toàn cầu cho phép những con chip chuyên dụng này chỉ được bán cho các quốc gia đã thiết lập các chế độ quản lý để quản lý phần cứng máy tính. Điều này sẽ bao gồm theo dõi chip và ghi chép về chúng, biết ai đang sử dụng chúng và đảm bảo rằng việc đào tạo và triển khai AI là an toàn và bảo mật.
Nhưng việc quản lý phần cứng máy tính toàn cầu có thể làm được nhiều hơn là chỉ đơn giản là giữ AI tránh xa khỏi tay những kẻ xấu - nó có thể trao quyền cho những người đổi mới trên toàn thế giới bằng cách thu hẹp khoảng cách giữa những người có và không có máy tính. Vì các yêu cầu về máy tính để đào tạo các mô hình AI tiên tiến nhất rất khắt khe,
Vì yêu cầu tính toán để đào tạo các mô hình AI tiên tiến nhất quá lớn nên ngành công nghiệp này đang hướng tới độc quyền. Sự tập trung quyền lực như vậy không tốt cho xã hội hoặc doanh nghiệp.
Một số công ty AI đã bắt đầu công khai phát hành các mô hình của họ. Điều này rất tốt cho sự đổi mới khoa học và giúp cân bằng sân chơi với Big Tech. Nhưng một khi mô hình AI trở thành mã nguồn mở, bất kỳ ai cũng có thể sửa đổi nó. Các rào cản có thể nhanh chóng bị xóa bỏ.
May mắn thay, chính phủ Hoa Kỳ đã bắt đầu thử nghiệm các nguồn tài nguyên điện toán đám mây quốc gia như một lợi ích công cộng cho các học giả, doanh nghiệp nhỏ và các công ty khởi nghiệp. Các mô hình AI mạnh mẽ có thể được truy cập thông qua đám mây quốc gia, cho phép các nhà nghiên cứu và công ty đáng tin cậy sử dụng chúng mà không cần phát hành các mô hình trên internet cho mọi người, nơi chúng có thể bị lạm dụng.
Các quốc gia thậm chí có thể cùng nhau xây dựng một nguồn lực quốc tế để hợp tác khoa học toàn cầu về AI. Ngày nay, 23 quốc gia tham gia CERN, phòng thí nghiệm vật lý quốc tế vận hành máy gia tốc hạt tiên tiến nhất thế giới. Các quốc gia nên làm như vậy đối với AI, tạo ra một nguồn tài nguyên điện toán toàn cầu để các nhà khoa học hợp tác về an toàn AI, trao quyền cho các nhà khoa học trên toàn thế giới.
Tiềm năng của AI là rất lớn. Nhưng để mở khóa những lợi ích của AI, xã hội cũng sẽ phải quản lý rủi ro của nó. Bằng cách kiểm soát các đầu vào vật lý cho AI, các quốc gia có thể quản lý AI một cách an toàn và xây dựng nền tảng cho một tương lai an toàn và thịnh vượng. Điều này dễ hơn nhiều người nghĩ.
(Theo Time.com)
Anh Mai