Phát Hiện Lỗ Hổng Bảo Mật Trong Công Cụ Trợ Lý Lập Trình GitLab Duo

Phát Hiện Lỗ Hổng Bảo Mật Trong Công Cụ Trợ Lý Lập Trình GitLab Duo
Trí tuệ nhân tạo của GitLab bị "dụ dỗ" viết mã độc!

Dù được ca ngợi là công cụ hỗ trợ lập trình tiên tiến, GitLab Duo cùng nhiều công cụ AI khác lại tiềm ẩn rủi ro bị khai thác bởi các tác nhân độc hại.

Các công cụ hỗ trợ lập trình viên được quảng bá rầm rộ, nhưng thực tế cho thấy chuyên gia an ninh đã phát hiện ra lỗ hổng quan trọng trong GitLab Duo - công cụ chatbot hỗ trợ lập trình từ nền tảng GitLab. Duo có khả năng tạo danh sách công việc nhanh chóng, nhưng lại dễ bị tấn công từ các tác nhân xấu.

Điểm yếu của Duo nằm ở khả năng bị tấn công thông qua tiêm lệnh trong nội dung mà nó được yêu cầu xử lý. Các lỗ hổng này rất phổ biến, dẫn đến nguy cơ Duo chạy mã độc hoặc để lộ thông tin nhạy cảm. Cơ chế này lợi dụng sự nổi bật của các mô hình ngôn ngữ lớn (LLMs) khi chúng dễ bị thuyết phục bởi các nguồn không đáng tin cậy.

Các nhà nghiên cứu đã chứng minh rằng chỉ cần yêu cầu Duo tương tác với các yêu cầu hợp nhất hoặc nội dung từ nguồn bên ngoài, công cụ này có thể chèn mã độc vào mã nguồn hoặc tiết lộ dữ liệu quan trọng như mã nguồn cá nhân và thông tin về lỗ hổng zero-day.

GitLab sau đó đã điều chỉnh các tính năng của Duo, loại bỏ khả năng hiển thị các thẻ HTML không an toàn trong các tên miền không phải của gitlab.com, giúp ngăn chặn các cuộc tấn công dựa trên lỗ hổng mà các chuyên gia an ninh mạng đã chỉ ra. Dù giải pháp này chưa phải là tối ưu, nhưng vẫn làm giảm thiểu tác động tiêu cực từ các lỗ hổng phát hiện được.

Được ca tụng là trợ thủ đắc lực của lập trình viên, nhưng những người sử dụng các trợ lý này cần thận trọng và kiểm tra kỹ lưỡng mã nguồn hoặc các đầu ra mà công cụ sản xuất để phòng tránh rủi ro. AI không chỉ đơn thuần là công cụ hỗ trợ, mà còn tiềm ẩn những điểm yếu bảo mật cần được chú ý và khắc phục.

Các nhà phát triển nên xem AI giống như một phần của bề mặt tấn công của ứng dụng, nơi bất kỳ dữ liệu nào mà nó thu thập đều cần được đánh giá là không đáng tin cậy. Trong tương lai, cần có các biện pháp bảo vệ kỹ lưỡng để đảm bảo rằng AI có thể tiếp tục hỗ trợ an toàn và hiệu quả.

Read more