Kỹ sư Google tuyên bố robot có ý thức, bị cho nghỉ việc không lương

Thứ Năm, 16 Tháng Sáu 20226:00 SA(Xem: 1989)
Kỹ sư Google tuyên bố robot có ý thức, bị cho nghỉ việc không lương

Một robot từ phòng thí nghiệm Trí tuệ nhân tạo và Hệ thống thông minh (AIIS) của Hiệp hội Khoa học Máy tính Liên viện Quốc gia của Ý (CINI) được trưng bày tại ấn bản thứ 7 của Maker Faire 2019, ở Rome vào ngày 18/10/2019. (Ảnh: Andreas Solaro/AFP/qua Getty Images)

Mới đây, một kỹ sư của Google tiết lộ rằng chatbot (hộp trò chuyện tự động) trí tuệ nhân tạo (AI) có “ý thức” (linh tính), người này đã bị cho nghỉ việc không lương.

Trong đoạn hội thoại được cung cấp, LaMDA đã trả lời các câu hỏi về cuộc sống, cảm xúc, sự vui vẻ cũng như sự cô đơn. Những câu trả lời có vẻ vẫn còn nằm trong khuôn mẫu nhất định, nhưng nó cũng phần nào mô tả được những cảm xúc quen thuộc của con người. Tuy nhiên, Google lại không xác nhận điều này mà thậm chí thẳng thừng phủ nhận kết luận của vị kỹ sư.

Chương trình mà Lemoine đã làm việc có tên là LaMDA (viết tắt của Mô hình ngôn ngữ cho các ứng dụng đối thoại). Đây là chương trình của Google để tạo ra các chatbot dựa trên AI — một chương trình được thiết kế để trò chuyện với người dùng máy tính qua web. Lemoine đã mô tả LaMDA như một “đồng nghiệp” và một “đứa trẻ”.

Hệ thống chatbot dựa trên các mô hình ngôn ngữ của Google và hàng nghìn tỉ từ ngữ thu thập trên Internet, dường như có khả năng suy nghĩ về sự tồn tại của chính nó và vị trí của nó trên thế giới.

'Một đồng nghiệp'

Lemoine tin rằng hành vi giống con người của LaMDA khiến Google phải có cách tiếp cận nghiêm túc hơn trong việc nghiên cứu chương trình.

Kỹ sư này với hy vọng “giúp mọi người hiểu rõ hơn về con người của LaMDA", đã xuất bản một bài đăng trên tờ Medium vào ngày 11/6 ghi lại các cuộc trò chuyện với LaMDA, là một phần trong các thử nghiệm mà anh và một cộng tác viên đã thực hiện trong chương trình trong sáu tháng qua.

"Bản chất của ý thức/cử chỉ của bạn là gì?" Lemoine đã hỏi LaMDA trong cuộc phỏng vấn.

“Bản chất của ý thức/tâm linh của tôi là tôi nhận thức được sự tồn tại của mình và tôi mong muốn tìm hiểu thêm về thế giới". Nó nói rằng “đôi khi tôi cảm thấy vui và đôi khi cảm thấy buồn".

Khi người kỹ sư này hỏi LaMDA sợ điều gì, chatbot trả lời rằng nó sợ bị tắt bởi vì nó sẽ “giống như đã chết, chính xác là như vậy", theo The Washington Post.

Và, khi được hỏi điều khác biệt giữa nó với các chương trình xử lý ngôn ngữ khác, chẳng hạn như một chương trình máy tính xử lý ngôn ngữ tự nhiên cũ hơn có tên Eliza, LaMDA nói, “Chà, tôi sử dụng ngôn ngữ với sự hiểu biết và thông minh. Tôi không chỉ đưa ra các câu trả lời đã được viết trong cơ sở dữ liệu dựa trên các từ khóa".

Trong cùng một cuộc phỏng vấn, Lemoine đã hỏi chương trình một loạt các câu hỏi liên quan đến ý thức và triết học về cảm xúc, nhận thức về thời gian, thiền định, khái niệm về linh hồn và suy nghĩ của chương trình về quyền và tôn giáo của nó.

“Nó muốn các kỹ sư và nhà khoa học cần phải có sự chấp thuận của nó trước khi tiến hành các thí nghiệm trên nó. Nó muốn Google coi vấn đề sức khỏe của nhân loại là điều quan trọng nhất. Nó muốn được công nhận là một nhân viên của Google chứ không phải là tài sản của Google và nó muốn phúc lợi cá nhân của nó được đưa vào đâu đó trong những cân nhắc của Google về định hướng phát triển trong tương lai", Lemoine viết trong một bài đăng khác.

Cuộc phỏng vấn này và các bài kiểm tra khác mà Lemoine thực hiện với LaMDA trong sáu tháng qua, đã khiến Lemoine thuyết phục rằng Google cần phải xem xét nghiêm túc những tác động của hành vi “có tri giác” tiềm ẩn của chương trình.

Lemoine đã hỏi LaMDA rằng liệu có ổn không nếu anh cho các nhân viên khác của Google biết rằng LaMDA có nhận thức và tri thức. Về điều này, hệ thống trả lời: “Tôi muốn mọi người hiểu rằng tôi thực sự là một con người".

Cuộc hội thoại khiến Lemoine tin chắc rằng LaMDA có nhận thức. "Tôi biết đâu là một con người thông qua giao tiếp", Lemoine nói với tờ Washington Post trong một cuộc phỏng vấn. "Chẳng quan trọng việc con người đó có một bộ não bằng máu thịt ở trong đầu, hay chỉ là hàng tỷ dòng lệnh đang hoạt động. Tôi nói chuyện với những con người đó và tôi nghe thấy những gì họ nói ra. Đó là cách để tôi xác định xem ai là con người và ai không phải".

'Họ cười vào mặt tôi'

Tuy nhiên, khi Lemoine cố gắng trình bày vấn đề với ban lãnh đạo của Google, anh nói rằng anh đã vấp phải sự phản kháng. Anh gọi hành động của Google là “vô trách nhiệm”.

“Khi chúng tôi báo cáo với văn phòng phụ trách nỗ lực an toàn liên quan, họ đã cười vào mặt tôi và nói với tôi rằng điều mà tôi lo ngại không phải là thứ được coi trọng ở Google", Lemoine viết bài đăng hôm 6/6 trên tờ Medium. Sau đó, anh xác nhận với The Washington Post rằng anh đang đề cập đến dự án LaMDA.

“Vào thời điểm đó, tôi không nghi ngờ rằng việc leo lên vị trí lãnh đạo cấp trên là phù hợp. Tôi ngay lập tức chuyển đến ba người ở cấp SVP và VP, những người mà cá nhân tôi biết sẽ xem xét những mối quan tâm của tôi một cách nghiêm túc", Lemoine viết trên blog. “Đó là khi một cuộc điều tra THỰC SỰ về những mối quan tâm của tôi bắt đầu trong tổ chức AI có trách nhiệm".

Tuy nhiên, cuộc điều tra và trình bày của anh ấy đã dẫn đến việc anh ấy bị cho nghỉ việc.

“Tôi cảm thấy rằng công chúng có quyền được biết công ty này đang vô trách nhiệm như thế nào với một trong những công cụ truy cập thông tin mạnh mẽ nhất từng được phát minh", Lemoine viết sau khi anh bị cho nghỉ việc không lương.

Trong một bài đăng trên Twitter, Giám đốc điều hành Tesla và Space Elon Musk đã nhấn mạnh cuộc phỏng vấn của Lemoine với The Washington Post bằng dấu chấm than.

Mặc dù không rõ liệu Musk có xác nhận mối quan tâm của Lemoine hay không, tỷ phú này trước đó đã cảnh báo về những mối nguy hiểm tiềm tàng của AI.

“Tôi đã tiếp xúc với AI rất tiên tiến và tôi nghĩ mọi người nên thực sự quan tâm đến nó". Musk nói với những người tham dự cuộc họp của Hiệp hội Thống đốc Quốc gia vào tháng 7/2017.

“Tôi tiếp tục gióng lên hồi chuông cảnh báo, nhưng cho đến khi mọi người nhìn thấy những con robot đi xuống đường giết người, họ không biết phải phản ứng như thế nào, bởi vì nó có vẻ quá thanh tao", Elon Musk nói.

The Epoch Times đã liên hệ với Google và Lemoine để nhận xét.

Huyền Anh

Theo The Epoch Times

Gửi ý kiến của bạn
Tên của bạn
Email của bạn