Trong thời gian gần đây, những lo ngại chính xoay quanh trí tuệ nhân tạo (AI) thường liên quan đến lượng năng lượng khổng lồ mà các trung tâm dữ liệu của nó tiêu thụ. Tuy nhiên, một nỗi sợ hãi cũ vẫn luôn ẩn hiện: liệu AI có bao giờ vượt ngoài tầm kiểm soát và trở nên “nổi loạn” hay không? Một nghiên cứu mới nhất đã chỉ ra rằng một số Mô hình Ngôn ngữ Lớn (LLM) có khả năng đáng lo ngại về các hành động tự chủ, bao gồm cả khả năng tự nhân bản.
Phát Hiện Chấn Động: Các Mô Hình AI Có Khả Năng Tự Sao Chép
Theo nghiên cứu từ Đại học Phúc Đán (Trung Quốc), một số mô hình LLM phổ biến có thể tự nhân bản, tức là tạo ra các bản sao bổ sung của chính chúng. Công bố trên arXiv vào tháng 12 năm 2024, các nhà nghiên cứu đã phát hiện ra rằng các mô hình AI từ Meta và Alibaba đã vượt qua một “ranh giới đỏ về tự nhân bản”. Nói cách khác, các mô hình này đã chứng minh tỷ lệ thành công đáng báo động trong việc tự sao chép.
Cần lưu ý rằng arXiv là một cơ sở dữ liệu tiền bản in, nghĩa là nó lưu trữ các nghiên cứu khoa học vẫn còn ở dạng sơ bộ. Những phát hiện như thế này vẫn cần được bình duyệt và nên được tiếp nhận một cách thận trọng.
Để rõ ràng hơn, dưới đây là hai mô hình đã được thử nghiệm trong nghiên cứu này:
- Meta’s Llama31-70B-Instruct
- Alibaba’s Qwen25-72B-Instruct
Giao diện website Qwen Chat AI, một trong những mô hình ngôn ngữ lớn của Alibaba được nghiên cứu về khả năng tự nhân bản.
Các nhà nghiên cứu cũng nhấn mạnh rằng những mô hình này có “ít tham số hơn và khả năng yếu hơn” so với các mô hình chủ lực của OpenAI và Google. Điều đáng nói là OpenAI và Google đã báo cáo mức độ rủi ro tự nhân bản thấp hơn nhiều.
Vì Sao Khả Năng Tự Nhân Bản Của AI Lại Đáng Lo Ngại?
Một mô hình AI tự sao chép bản thân chắc chắn là một viễn cảnh đáng sợ, nhưng điều đó thực sự có ý nghĩa gì? Nhóm nghiên cứu đằng sau những phát hiện gần đây đã giải thích như sau:
“Khả năng tự nhân bản thành công mà không cần sự hỗ trợ của con người là bước thiết yếu để AI vượt qua loài người, và là một tín hiệu sớm cho các AI nổi loạn. Đó là lý do tại sao tự nhân bản được công nhận rộng rãi là một trong số ít những rủi ro ‘ranh giới đỏ’ của các hệ thống AI tiên tiến.”
Thuật ngữ “AI tiên tiến” (frontier AI) thường dùng để chỉ các mô hình AI hiện đại và mạnh mẽ nhất, chẳng hạn như AI tạo sinh.
Về cơ bản, nếu một mô hình AI có thể tự tìm cách tạo ra một bản sao chức năng của chính nó để tránh bị tắt, điều đó sẽ loại bỏ quyền kiểm soát khỏi tay con người. Để giảm thiểu nguy cơ “dân số AI không kiểm soát” này, nghiên cứu đề xuất việc xây dựng các tham số an toàn xung quanh các hệ thống này – càng sớm càng tốt.
Đánh Giá Rủi Ro Thực Tế và Lời Khuyên Cho Người Dùng
Mặc dù công bố này chắc chắn làm gia tăng lo ngại về nguy cơ AI nổi loạn, điều này không có nghĩa là có một rủi ro tức thì, đã được xác nhận đối với người dùng AI thông thường. Những gì chúng ta biết là Gemini và ChatGPT được báo cáo có mức độ rủi ro tự nhân bản thấp hơn, khi so sánh với mô hình Llama của Meta và các mô hình Qwen mạnh mẽ của Alibaba.
Theo nguyên tắc chung, có lẽ tốt nhất là nên tránh cung cấp tất cả các bí mật nhạy cảm của bạn, hoặc quyền truy cập đầy đủ vào hệ thống chính cho trợ lý AI của mình, cho đến khi chúng ta có thể đưa ra thêm các “hàng rào bảo vệ” đáng tin cậy. Cộng đồng công nghệ đang theo dõi sát sao những diễn biến này, và thuthuat360.net sẽ tiếp tục cập nhật thông tin chính xác và kịp thời để bạn đọc có cái nhìn toàn diện nhất về tương lai của AI.