Tuesday, November 26, 2024

Chuyên gia cảnh báo rủi ro phía sau trào lưu sử dụng các công cụ AI

Thử nghiệm các công cụ AI đem đến sự thích thú cho nhiều người. Tuy nhiên, có những nguy cơ phía sau mà không phải ai cũng lường hết hậu quả.

Chuyên gia cảnh báo rủi ro phía sau trào lưu sử dụng các công cụ AI

 

Theo các dự báo của Gartner, chi tiêu cho các phần mềm AI có thể đạt 297,9 tỷ USD vào năm 2027. Tốc độ tăng trưởng của thị trường này dự kiến sẽ tăng nhanh từ mức 17,8% trong 5 năm tới, đạt đỉnh 20,4% vào năm 2027. Đáng chú ý, tổng mức đầu tư thông qua việc chi tiêu cho các phần mềm AI tạo sinh được dự đoán sẽ tăng từ 8% trong năm 2023 lên đến 35% vào năm 2027. 

Theo ông Hoàng Quang Huy, Giám đốc Palo Alto Networks Việt Nam, “ngày càng có nhiều tổ chức đối mặt với những rủi ro lớn hơn từ sự gia tăng nhanh chóng của các mối đe dọa trên không gian mạng. Các dịch vụ thiết yếu như y tế và tài chính đang phải hứng chịu những cuộc tấn công lừa đảo và mã độc nghiêm trọng. Chúng tôi quan sát thấy sự xuất hiện trở lại của “deep fake” và những hình ảnh có sự can thiệp của trí tuệ nhân tạo, hiện được chia sẻ tràn lan trên các trang mạng xã hội”.

Chuyên gia cảnh báo rủi ro phía sau trào lưu sử dụng các công cụ AI

Ông Hoàng Quang Huy, Giám đốc Palo Alto Networks Việt Nam (ảnh: NVCC)

Ông Quang Huy cũng cho biết, hiện nay, việc phổ biến ứng dụng AI đem đến những rủi ro mới khi ngày càng nhiều tin tặc khai thác công nghệ mới để đánh cắp dữ liệu hoặc xâm phạm các hệ thống mạng. Chúng sử dụng các chiến lược tấn công được hỗ trợ bởi AI để đánh cắp hồ sơ mạng xã hội, đánh lừa những người dùng khác, gây thiệt hại đáng kể cho các cá nhân và doanh nghiệp.

Các công cụ AI hiện cũng được chào bán đầy rẫy trên các trang web đen với chi phí rẻ, vô hình trung cũng tiếp tay cho kẻ xấu, giúp chúng tiến hành các cuộc tấn công ở quy mô lớn hơn và tốc độ nhanh hơn. Với sự trợ giúp của AI, các vụ tấn công trở nên phức tạp và có mục tiêu cụ thể hơn, đồng thời cũng khó phát giác hơn.

Những kẻ lừa đảo sử dụng kỹ thuật tạo nội dung deep fake để tạo danh tính giả, mô phỏng khuôn mặt, giọng nói và phong cách viết của nạn nhân dựa trên thông tin được thu thập từ tài khoản mạng xã hội của họ. Việc ứng dụng AI tạo sinh tràn lan góp phần làm nảy nở ngày càng nhiều nội dung deep fake, gia tăng vấn nạn đánh cắp danh tính, ảnh hưởng không nhỏ tới nhiều ngành dịch vụ trọng yếu.

Trong một nghiên cứu gần đây, nhóm nghiên cứu bảo mật Unit 42 của Palo Alto Networks ghi nhận tần suất phát hiện các đường dẫn URL độc hại liên quan đến ChatGPT lên tới 118 lần/ngày. Nhiều tên miền chứa mã độc nhằm mục đích đánh cắp thông tin cá nhân cũng được khởi tạo trong làn sóng đăng ký ồ ạt các miền liên quan đến OpenAI và ChatGPT.

Chuyên gia cảnh báo rủi ro phía sau trào lưu sử dụng các công cụ AI

Hình minh họa (ảnh: Freepik)

Ông Hoàng Quang Huy, Giám đốc Palo Alto Networks Việt Nam nhận định, các giải pháp an ninh mạng được hỗ trợ bởi AI là không thể thiếu trong việc chống lại các mối đe dọa ngày càng gia tăng trong thế giới số. Thay vì phòng vệ bị động, AI đem đến một hướng tiếp cận linh hoạt và chủ động, mang lại vô số lợi ích cho doanh nghiệp. Bằng cách khai thác các tính năng của AI và học máy (ML) tốt nhất, các tổ chức có thể linh hoạt ứng phó với các thách thức mới một cách hiệu quả.

Precision AI của Palo Alto Networks được xây dựng dựa trên các phương pháp tiếp cận AI/ML truyền thống nhưng được tùy chỉnh cho lĩnh vực bảo mật, được kỳ vọng sẽ là yếu tố thay đổi cuộc chơi và tạo ra một mô hình mới về bảo mật, trong đó người phòng thủ đi trước kẻ tấn công. Giải pháp đổi mới độc quyền này kết hợp Machine Learning (ML), Deep Learning (DL) và AI tạo sinh để mang đến khả năng bảo vệ theo thời gian thực, giúp doanh nghiệp đi trước các đối thủ và bảo mật mạng lưới cũng như cơ sở hạ tầng của họ hiệu quả hơn.

 

 

 

PHIM ĐẶC SẮC
spot_img
spot_img
spot_img
spot_img
TIN MỚI NHẬN
TIN LIÊN QUAN
- Quảng Cáo -spot_img