Khi thế giới ngày càng làm quen với các trợ lý AI, chúng ta đang khám phá nhiều khả năng thú vị mà chúng mang lại, cả về mặt tích cực lẫn tiêu cực. Một ví dụ điển hình thuộc nhóm tiêu cực là một cuộc tấn công lý thuyết có thể buộc ChatGPT thực hiện tấn công từ chối dịch vụ phân tán (DDoS) vào một trang web được chọn, mặc dù đây chưa phải là mối đe dọa “thực tế” tại thời điểm hiện tại.
ChatGPT Vô Hạn Kết Nối Hyperlink Trong Một Yêu Cầu Duy Nhất
Biểu tượng chatbot AI trên màn hình điện thoại thông minh, minh họa khả năng kết nối của ChatGPT và lỗ hổng tiềm ẩn cho tấn công DDoS
Theo báo cáo từ Silicon Angle, nhà nghiên cứu Benjamin Flesch đã phát hiện ra rằng ChatGPT không có giới hạn về số lượng liên kết mà nó truy cập khi tạo phản hồi. Không chỉ vậy, dịch vụ này còn không kiểm tra xem các URL mà nó đang truy cập có phải là bản sao của những trang web đã được kiểm tra trước đó hay không. Kết quả là một cuộc tấn công lý thuyết, nơi một kẻ xấu có thể khiến ChatGPT kết nối với cùng một trang web hàng nghìn lần trong mỗi truy vấn.
Lỗ hổng này có thể bị khai thác để làm quá tải bất kỳ trang web nào mà người dùng độc hại muốn nhắm mục tiêu. Bằng cách chèn hàng nghìn siêu liên kết vào một yêu cầu duy nhất, kẻ tấn công có thể khiến máy chủ OpenAI tạo ra một lượng lớn yêu cầu HTTP đến trang web nạn nhân. Các kết nối đồng thời này có thể gây căng thẳng hoặc thậm chí vô hiệu hóa cơ sở hạ tầng của trang web mục tiêu, thực hiện một cuộc tấn công DDoS hiệu quả.
Benjamin Flesch tin rằng lỗi này xuất hiện do “thực hành lập trình kém” và nếu OpenAI thêm một số hạn chế về cách ChatGPT thu thập dữ liệu trên internet, nó sẽ không có khả năng thực hiện một cuộc tấn công DDoS “ngẫu nhiên” vào các máy chủ.
Elad Schulman, người sáng lập và CEO của công ty bảo mật AI tạo sinh Lasso Security Inc., đồng tình với kết luận của Benjamin Flesch và bổ sung thêm một khả năng khai thác khác cho các cuộc tấn công này. Elad tin rằng nếu một hacker quản lý xâm nhập tài khoản OpenAI của ai đó, họ có thể “dễ dàng tiêu hết ngân sách hàng tháng của một chatbot dựa trên mô hình ngôn ngữ lớn chỉ trong một ngày,” gây ra thiệt hại tài chính đáng kể nếu không có biện pháp bảo vệ chống lại những hành vi như vậy.
Kết Luận
Hy vọng rằng, khi công nghệ trí tuệ nhân tạo tiếp tục phát triển, các công ty sẽ bổ sung thêm nhiều hạn chế để ngăn chặn kẻ xấu lạm dụng dịch vụ của họ. Hiện nay, đã có rất nhiều cách mà tin tặc sử dụng AI tạo sinh trong các cuộc tấn công của mình, và đã có sự gia tăng đáng báo động trong các cuộc gọi lừa đảo video AI khi công nghệ này cải thiện chất lượng. Thuthuat360.net sẽ tiếp tục cập nhật những thông tin mới nhất về an ninh mạng và các tiến bộ của AI để giúp bạn luôn được bảo vệ. Hãy theo dõi các bài viết chuyên sâu của chúng tôi để nắm bắt các xu hướng công nghệ hàng đầu!