Các quan chức Anh cảnh báo các tổ chức cần thận trọng về việc tích hợp các chatbot sử dụng công nghệ Trí tuệ nhân tạo (AI) vào hoạt động kinh doanh của họ. Các nghiên cứu ngày càng chỉ ra rằng họ có thể bị lừa thực hiện các nhiệm vụ có hại.
Trong bài xuất bản hôm 30/8, Trung tâm An ninh Mạng Quốc gia Anh (NCSC) cho biết, các chuyên gia vẫn chưa nắm bắt được các vấn đề bảo mật tiềm ẩn gắn liền với các thuật toán có thể tạo ra các tương tác giống con người - được gọi là các mô hình ngôn ngữ lớn (LLM).
Hiện nhiều công ty đã sử dụng công cụ hỗ trợ tích hợp AI dưới dạng chatbot. Một số người hình dung những công cụ đó sẽ thay thế không chỉ các tìm kiếm trên Internet, mà còn cả những hoạt động khác như chăm sóc khách hàng và gọi điện chào mua hàng.
NCSC cho biết, điều đó có thể mang tới rủi ro, đặc biệt nếu các mô hình như vậy được đưa vào những hoạt động khác mà tổ chức xử lý. Các học giả và nhà nghiên cứu đã nhiều lần tìm ra cách làm biến chất các chatbot bằng cách đưa cho chúng những lệnh lừa đảo, hoặc đánh lừa chúng phá vỡ chính các rào chắn bảo vệ tích hợp sẵn của mình.
Ví dụ được đưa ra là một chatbot hỗ trợ AI do một ngân hàng triển khai có thể bị lừa thực hiện giao dịch trái phép, nếu tin tặc thiết lập cấu trúc truy vấn đúng cách.
Trong bài đăng trên blog chính thức, NCSC cảnh báo các tổ chức đang xây dựng dịch vụ có sử dụng LLM cần phải cẩn thận ở mức độ tương tự như khi họ đang sử dụng sản phẩm đang trong quá trình thử nghiệm.
Theo NCSC, các tổ chức không nên để sản phẩm tích hợp AI đó tham gia thực hiện các giao dịch thay mặt khách hàng. Cơ quan này đồng thời hy vọng các tổ chức, doanh nghiệp không hoàn toàn tin tưởng vào sản phẩm đó và thái độ thận trọng tương tự cũng nên được áp dụng với các LLM.
Giới chức trách trên toàn thế giới đang vật lộn với sự phát triển mạnh mẽ của LLM, chẳng hạn như ChatGPT của OpenAI. Nhiều doanh nghiệp đang kết hợp ứng dụng trên vào một loạt dịch vụ, bao gồm bán hàng và chăm sóc khách hàng của mình. Tuy nhiên, phía Mỹ và Canada cho biết, họ đã ghi nhận việc giới tin tặc chấp nhận và nắm bắt công nghệ này.
Tags