Thứ 6, 22/11/2024, 11:35[GMT+7]

AI đang trở thành vũ khí tấn công mạng

Thứ 4, 06/12/2023 | 16:24:23
3,333 lượt xem
Ngoài những thủ đoạn truyền thống, hacker đã ứng dụng AI vào quá trình tấn công mạng, khiến các lớp bảo mật dễ bị vượt qua hơn.

Biểu tượng AI đặt trên bo mạch chủ máy tính. Ảnh: Reuters

Dự báo về các mối đe dọa an ninh mạng năm 2024, nhóm nghiên cứu bảo mật FortiGuard Labs (Mỹ) cho biết AI tạo sinh đang có xu hướng bị kẻ xấu "vũ khí hóa" để tấn công mạng. Công nghệ này đang được áp dụng ở nhiều giai đoạn, từ việc đánh bại thuật toán bảo mật đến tạo ra video deepfake nhằm bắt chước hành vi, giọng nói đánh lừa người dùng. Thời gian tới, hacker sẽ còn lợi dụng AI theo những cách mới, khiến các hệ thống bảo mật không thể theo kịp.

Một trong những xu hướng đáng lo ngại đầu tiên là dùng trí tuệ nhân tạo để làm giả hồ sơ cá nhân. Cụ thể, sau khi lấy dữ liệu từ nền tảng mạng xã hội, trang web công khai, hacker sẽ sử dụng AI kết hợp thông tin và tạo hồ sơ giả với độ chân thực cao, tăng khả năng thành công trong quá trình lừa đảo. Theo FortiGuard Labs, các đơn vị bảo mật sẽ gặp thách thức lớn khi phải nhận biết và xử lý hàng loạt "người ảo" trên không gian mạng.

Việc bảo mật mật khẩu cũng trở nên khó khăn hơn khi có sự can thiệp của AI. Hiện các phương pháp phá mật khẩu đều xoay quanh quá trình dự đoán và thử nhiều chuỗi ký tự khác nhau. Bằng công cụ máy học, AI có thể phân tích các mật khẩu con người thường xuyên sử dụng, tìm ra đặc điểm chung và xác định mẫu thử với độ chính xác cao, giúp giảm đáng kể thời gian dò mã.

AI cũng có khả năng vượt qua biện pháp chống dò mật khẩu, bao gồm hình thức chặn truy cập khi nhập sai nhiều lần trong thời gian ngắn. Nhờ nhận diện được quy luật của hệ thống bảo mật, trí tuệ nhân tạo có thể điều tiết tốc độ dò nhằm tránh bị phát hiện. Thậm chí, một số mô hình AI còn được huấn luyện để tự xử lý captcha - công cụ giúp phân biệt robot và người dùng khi đăng nhập.

Cũng theo chuyên gia FortiGuard Labs, mô hình AI còn bị tin tặc lợi dụng qua hình thức "đầu độc trí tuệ nhân tạo" (AI poisoning attacks). Cụ thể, ngay từ giai đoạn huấn luyện, hacker sẽ tìm cách xâm nhập hệ thống và làm hỏng nguồn dữ liệu, khiến AI phát triển một cách sai lệch hoặc có hành vi không mong muốn, gây thiệt hại nghiêm trọng cho đơn vị sở hữu. Những AI lỗi này chứa đựng nhiều rủi ro khi được ứng dụng vào đời sống, đặc biệt trong lĩnh vực như xe tự lái, y tế hay an ninh.

Ở chiều ngược lại, chuyên gia cho rằng AI cũng có thể được ứng dụng để chống lại các cuộc tấn công mạng. Trong một báo cáo hồi tháng 6, nhóm nghiên cứu tại Fortinet đã điều khiển thành công AutoGPT, một AI hoạt động dựa trên mô hình GPT-4, thực hiện các bước tăng cường bảo mật cho hệ thống mạng. Trí tuệ nhân tạo này nhận nhiệm vụ từ con người, tự chia nhiệm vụ thành từng công đoạn, sau đó khởi động các "tác nhân AI" để phân tích và đưa ra quyết định. Thậm chí, nó tự động tìm và tải xuống công cụ bảo mật cần thiết trong quá trình đóng vai nhân viên an ninh mạng.

"Dù mới ở mức sơ khai, AutoGPT cho thấy triển vọng AI giúp bảo mật hệ thống máy tính với khả năng tự tinh chỉnh quy trình, tìm cách giải quyết vấn đề mà không cần gợi ý từ con người", báo cáo của FortiGuard Labs nêu.

Để chống lại việc tin tặc ứng dụng AI vào tấn công mạng, các hệ thống bảo mật cần tăng cường giám sát liên tục, kiểm soát truy cập, bảo vệ dữ liệu đào tạo AI, kiểm soát ứng dụng, phân tích hành vi, kiểm tra và xác thực người dùng. Đồng thời, các tổ chức cũng cần thu hẹp khoảng cách về kỹ năng an ninh mạng, tăng cường chia sẻ thông tin, kinh nghiệm xử lý sự cố bảo mật, từ đó làm suy yếu mạng lưới tội phạm mạng.

Theo vnexpress.net