Anthropic và Hợp Tác Đáng Ngờ Với Ngành Quốc Phòng của Mỹ
Claude AI, do Anthropic phát triển, sẽ được tích hợp trong nền tảng của Palantir và Amazon Web Services, ẩn chứa những mối lo ngại về an toàn và đạo đức trong sự hợp tác với các cơ quan quốc phòng Mỹ.
Anthropic đã công bố một hợp tác đầy tranh cãi với Palantir và Amazon Web Services để đưa các mô hình Claude AI của mình đến với các cơ quan tình báo và quốc phòng Mỹ. Claude, dòng mô hình ngôn ngữ AI tương tự như nền tảng ChatGPT, sẽ vận hành trên nền tảng của Palantir và được lưu trữ bởi AWS nhằm phân tích dữ liệu. Tuy nhiên, giao dịch này đã khiến nhiều người nghi ngờ về sự tương phản với mục tiêu "an toàn AI" mà Anthropic luôn tuyên bố.
Hợp tác này cho phép Claude hoạt động trong môi trường với chứng nhận an toàn quốc phòng tại mức độ 6 (IL6) của Palantir, nơi xử lý dữ liệu quan trọng cho an ninh quốc gia ở mức độ tối mật. Diễn biến này theo sau xu hướng các công ty AI tìm kiếm hợp đồng quốc phòng, ví dụ như Meta đã cung cấp mô hình Llama cho đối tác quốc phòng và OpenAI củng cố mối quan hệ với Bộ Quốc phòng.
Trong thông cáo báo chí, các công ty nêu rõ ba nhiệm vụ chính cho Claude trong bối cảnh quốc phòng và tình báo: thực hiện các tác vụ với dữ liệu phức tạp tại tốc độ cao, xác định mẫu và xu hướng trong dữ liệu đó, và tối ưu hóa quy trình duyệt và chuẩn bị tài liệu.
Dù thông báo hợp tác cho thấy tiềm năng to lớn của Claude trong phân tích tình báo, cần lưu ý rằng các quan chức vẫn giữ quyền quyết định trong các quy trình này. Đặc biệt, một công ty bảo hiểm Mỹ đã sử dụng 78 tác tử AI từ nền tảng của Palantir và Claude để giảm thời gian xử lý yêu cầu chấp nhận bảo hiểm từ hai tuần xuống còn ba giờ.
Sự hợp tác mới này xây dựng dựa trên việc Anthropic trước đó đã tích hợp Claude vào AWS GovCloud, một dịch vụ điện toán đám mây cho chính phủ. Anthropic, hiện đang mở rộng hoạt động tại châu Âu, đã tìm kiếm nguồn vốn với mức định giá tới 40 tỷ USD, trong khi công ty đã thu hút được 7,6 tỷ USD, với Amazon là nhà đầu tư chính.
Tuy nghiên cứu và chính sách của Anthropic nhắm đến một cách tiếp cận có đạo đức và tập trung vào an toàn trong phát triển AI, sự hợp tác với Palantir gây lo ngại về mâu thuẫn với hình ảnh "người tốt" mà công ty đã xây dựng. Đơn cử, dự án Maven của Palantir trong nhận diện mục tiêu quân sự đã gây ra những chỉ trích từ giới công nghệ đối với các ứng dụng quân sự của công nghệ AI.
Anthropic cũng có quy định rõ ràng về các hạn chế dành cho sử dụng chính phủ trong điều khoản dịch vụ của mình và những quy định này bao gồm cho phép hoạt động phân tích tình báo nước ngoài nhưng cấm các hoạt động như phát triển vũ khí, kiểm duyệt và giám sát trong nước. Dù Claude có thể sẽ không được sử dụng để nhắm vào con người hay là một phần của hệ thống vũ khí, vẫn còn nhiều vấn đề khác như khả năng Claude tạo ra thông tin sai lệch mà khó phát hiện, khiến cho hiệu quả của Claude trong xử lý dữ liệu bí mật của chính phủ đang bị đặt dấu hỏi.
Nhà báo Victor Tangermann nhận định rằng hợp tác này có thể là một tiền lệ đáng lo ngại, thể hiện mối quan hệ ngày càng tăng của ngành công nghiệp AI với tổ hợp công nghiệp quân sự Mỹ. Đây là xu thế đáng báo động, đặc biệt khi các khuyết điểm của công nghệ có thể ảnh hưởng đến sự an toàn của con người.