Đánh lừa trí tuệ nhân tạo

Thứ Hai, 06 Tháng Năm 20193:00 SA(Xem: 3360)
Đánh lừa trí tuệ nhân tạo

Sau khi háo hức với tiềm năng dường như vô tận của trí tuệ thông minh nhân tạo (AI), các nhà nghiên cứu như bị một cú sốc nặng khi phát hiện rất dễ đánh lừa loại trí tuệ này.

Các vụ tấn công AI chỉ cần làm sao đưa cho nó những hình ảnh nó đã học để “dẫn dắt” nó có những phản ứng bất ngờ.
Các vụ tấn công AI chỉ cần làm sao đưa cho nó những hình ảnh nó đã học để “dẫn dắt” nó có những phản ứng bất ngờ.

Keen Security Lab, một tổ chức nghiên cứu bảo mật của Tencent, cho biết họ có thể dễ dàng “sai khiến” một chiếc xe Tesla Model S đang chạy ở chế độ tự động, bảo nó chuyển làn, đâm thẳng vào dòng xe đang ào ào chạy xuống theo chiều ngược lại.

Mà việc “sai khiến” này cũng không phải là chuyện đột nhập theo kiểu tin tặc gì to lớn; họ chỉ cần dán ba mảnh vẽ hình phân làn trên đường, giả làm một làn đường mới. Hệ thống điều khiển tự động của chiếc Tesla sẽ phát hiện các dấu hiệu chuyển làn nên ra lệnh cho xe chạy theo hướng đó!

Cũng may đây chỉ là thử nghiệm có kiểm soát do các chuyên gia bảo mật kiểm tra độ an toàn của hệ thống máy tính trên xe, xem thử có thể bị tin tặc đột nhập không. Thế nhưng cuộc thí nghiệm này cho thấy các hệ thống có sử dụng AI, từ lái xe tự động đến chẩn đoán từ xa bằng máy tính, kể cả các hệ thống trong quân sự đều có những lỗ hổng dễ bị kẻ xấu lợi dụng, tấn công.

Các hệ thống AI tiến hóa nhờ công nghệ “học máy” (machine learning), đưa cho máy thật nhiều ví dụ để tự nó nhận biết mọi trường hợp có thể xảy ra trong đời thật. Các vụ tấn công AI chỉ cần làm sao đưa cho nó những hình ảnh nó đã học để “dẫn dắt” nó có những phản ứng bất ngờ.

Chẳng hạn, các nhà nghiên cứu thử dán chồng lên biển STOP hình ảnh khác để xe tự lái tưởng là nó đọc thấy biển giới hạn tốc độ 60 ki lô mét/giờ. Thế là thay vì dừng lại, quan sát trước khi chạy tiếp, xe sẽ bon bon chạy với tốc độ cao bất kể các mối nguy hiểm có thể hiện diện. Tờ Verge giới thiệu một video trong đó máy nhận ra trái chuối nhưng chỉ cần dán một hình ảnh đặc trưng bên cạnh trái chuối, máy sẽ bảo đó là chiếc máy nướng bánh mì.

Theo tờ Vox, giáo sư tin học Đại học UC Berkeley, Dawn Song nói cộng đồng nghiên cứu AI hiện đang rất lo lắng về rủi ro bị tấn công kiểu này. Mặc dù trong đời thật, chưa hề có cuộc tấn công đánh lừa AI nào được ghi nhận, bà Song nói chắc chắn trong tương lai bọn xấu sẽ tận dụng kỹ thuật này vì nó rẻ tiền và dễ làm. Vì thế dân nghiên cứu AI hiện đang vắt óc nghĩ ra mọi kịch bản tấn công đánh lừa để dạy trước cho máy biết mà đề phòng.

Một dự án như thế có sự phối hợp với Google tìm hiểu khe hở của tính năng trả lời tự động mỗi khi nhận được e-mail mới. AI do Google áp dụng để đưa ra vài ba gợi ý trả lời nhanh rất thông minh, tuy nhiên nó cũng có thể “nhanh nhẩu đoảng” trả lời mà có kèm thông tin nhạy cảm lưu trong bộ nhớ của máy như địa chỉ nhà riêng, số thẻ tín dụng, ngày sinh tháng đẻ. Nhờ dự án nghĩ ra mọi kịch bản rò rỉ thông tin nên tính năng trả lời tự động của Google không mắc sai lầm, trích xuất thông tin nhạy cảm khi trả lời thư giúp cho chủ.

Một ví dụ khác cho thấy hệ thống AI trong y khoa cũng có thể bị đánh lừa; nhà nghiên cứu giả làm bệnh nhân muốn trục lợi bảo hiểm y tế chỉ cần chỉnh một số hình ảnh để thay đổi chẩn đoán, chẳng hạn, một nốt ruồi lành tính thành ác tính để lừa tiền bên bảo hiểm.

Nghiên cứu này do Đại học Harvard và MIT công bố trên tờ Science vào tháng trước.

Đáng lo ngại nhất là trường hợp đánh lừa hệ thống AI dùng trong quân sự. Cứ tưởng tượng quân đội đang sử dụng một hệ thống AI để xác định mục tiêu đánh phá. Kẻ địch bằng cách nào đó chỉnh hình ảnh một bệnh viện thành một mục tiêu quân sự; giả thử bên quân đội bị lừa mà bắn phá mục tiêu này, thảm họa sẽ xảy ra. Tương tự, không ai muốn hệ thống máy bay không người lái (drone) theo sát một chiếc xe mà hóa ra đó là xe chở học sinh chứ không phải xe chở bọn khủng bố.

Cũng nhằm phát hiện sớm các lỗ hổng, hãng Tesla treo giải cho bất kỳ ai đột nhập vào được hệ thống máy tính của xe Tesla sẽ được tặng ngay một chiếc Tesla Model 3. Nhờ vậy Keen Security Lab đã từng phát hiện một lỗi mà bọn tin tặc có thể dùng để thắng xe đang chạy lại từ xa.

Một lần khác, nơi này cũng cho người biểu diễn mở cửa xe từ xa dù không có chìa khóa, mở thùng xe, gập kính lại khi xe đang chạy.

Vụ “sai khiến” chiếc Tesla chuyển sai làn nói ở đầu bài cũng nằm trong nỗ lực đoạt giải của Keen Security Lab. Có lẽ các nơi ứng dụng AI vào sản phẩm hay dịch vụ của mình đều phải treo giải cao để phòng ngừa tin tặc ra tay trong tương lai như Tesla chăng.

Gửi ý kiến của bạn
Tên của bạn
Email của bạn