Facebook đã không hoảng sợ và tắt AI tạo ra ngôn ngữ như tin đồn

Tác giả: bizlive

saosaosaosaosao
Ứng dụng 03/08/2017 03:33

Không, Facebook đã không hoảng sợ và tắt chương trình AI tự động sáng tạo ra ngôn ngữ riêng của mình.

 

1689010
 

Trong những ngày gần đây, một câu chuyện đã lan truyền trên các phương tiện truyền thông nói rằng một hệ thống AI do Facebook phát triển đã tự động sáng tạo ra ngôn ngữ riêng khiến đội ngũ kỹ sư hoảng sợ và phải tắt chúng. Người ta cũng lo lắng về cái gọi là "thời đại Skynet" giống như phim khoa học giả tưởng khi trí thông minh nhân tạo thống trị trên thế giới.

Một trang web viết: "Các kỹ sư Facebook hoảng hốt, kéo phích cắm sau khi chương trình AI phát triển ngôn ngữ riêng của nó". Một người khác cho hay: "Facebook đã tắt chức năng AI sau khi nó tự phát minh ra ngôn ngữ đáng sợ của mình". Một người khác tự hỏi: "Liệu con người chúng ta có tạo ra Frankenstein không?". Một tờ báo nhỏ của Anh trích dẫn lời một giáo sư về robot nói rằng vụ việc cho thấy "những nguy cơ từ trí thông minh nhân tạo" và "có thể gây tử vong" nếu công nghệ tương tự được tích hợp cho robot.

Các tài liệu tham khảo về cuộc cách mạng robot sắp tới, AI độc hại và sự hủy diệt con người đã xuất hiện, một số ít trong đó tỏ ra rất nghiêm túc. Đoạn chat vô nghĩa giữa 2 AI của Facebook đã liên tục được các nguồn tin trích dẫn như là một minh chứng cho sự nguy hiểm của trí thông minh nhân tạo.

Theo Gizmodo, thực tế có vẻ kỳ quặc hơn. Một vài tuần trước, FastCo Design đã báo cáo về nỗ lực của Facebook để phát triển một "mạng lưới xã hội" nhằm mục đích phát triển phần mềm đàm thoại.

Hai chương trình đã được thiết kế và được giải thích chi tiết trên website của Bộ phận nghiên cứu trí tuệ nhân tạo Facebook hồi tháng 6 nhằm mục đích cho thấy các chương trình AI này có thể đối thoại cho những mục đích khác nhau và để đưa ra quyết định cuối cùng.

Ngoài thảo luận với nhau để phân chia các mảng công việc, các chương trình chưa bao giờ làm cái gì bất hợp pháp. Mục đích của Facebook là tạo ra một chatbot có thể học hỏi từ sự giao tiếp của con người, từ đó thương lượng các thỏa thuận với người dùng cuối. Trong khi đó, người dùng sẽ không nhận ra là họ đang nói chuyện với một robot. Chương trình gọi là FAIR và nó đã đạt được những thành công nhất định:

"Hoạt động đàm thoại của FAIR sử dụng các bài tập củng cố và triển khai hộp thoại, phù hợp với cách thương thuyết của con người. FAIR không chỉ có thể nói tiếng Anh mà còn suy nghĩ thông minh về những gì cần nói".

Theo FastCo, các nhà lập trình nhận ra rằng họ đã mắc lỗi khi không khuyến khích chatbot giao tiếp theo các quy tắc có thể hiểu được của con người bằng tiếng Anh. Trong nỗ lực học hỏi lẫn nhau, các chương trình đã bắt đầu tán gẫu qua lại trong một đoạn tốc ký – và mọi người đã suy diễn rằng các AI đã trở nên đáng sợ.

Nhà nghiên cứu Dhruv Batra của FAIR cho biết: "Các AI sẽ thoát khỏi ngôn ngữ dễ hiểu và sáng tạo ra từ mã (codeword) cho chính chúng. Chẳng hạn như khi tôi nói từ "the" 5 lần, bạn sẽ hiểu rằng tôi muốn gõ 5 bản sao của từ này. Điều này không khác gì cách cộng đồng người tạo ra các ký tự tốc ký".

Facebook thực sự đã đóng cuộc trò chuyện, nhưng không phải vì họ đã hoảng hốt. Nhà nghiên cứu FAIR Mike Lewis nói với FastCo rằng họ chỉ đơn giản quyết định rằng "sự quan tâm của chúng tôi là có những chương trình có thể nói chuyện với mọi người".

Có lí do để nói rằng việc các máy thông minh có thể phát triển ngôn ngữ của riêng chúng là không tốt nhưng đây là một hiện tượng tương đối bình thường phát sinh khi bạn dùng hai máy học và để chúng học hỏi lẫn nhau. Cần lưu ý rằng khi đoạn tốc ký của chatbot được giải thích, người ta có thể hiểu được kết quả của cuộc hội thoại và mọi thứ không đáng sợ như chúng ta tưởng trước đây.

Như FastCo lưu ý, có thể máy học cho phép các thiết bị hoặc hệ thống thông minh giao tiếp với nhau hiệu quả hơn. Nhưng lợi ích cũng đi kèm một số vấn đề - hãy tưởng tượng bạn sẽ gặp khó khăn như thế nào khi gỡ lỗi một hệ thống như vậy khi nó hoạt động sai – nó không giống như việc chúng ta tưởng tượng ra viễn cảnh AI vượt ra khỏi tầm kiểm soát của con người.

Trong trường hợp này, điều duy nhất các chatbot có thể làm là tìm ra một cách hiệu quả hơn để thương lượng với nhau.

Công nghệ máy học có thể sử dụng tốt cho những việc như chẩn đoán y học tiến tiến hay phần mềm giúp cảnh sát dự đoán khả năng xảy ra các cuộc biểu tình. Tất cả chúng đều là những cách để biên soạn và phân tích số lượng lớn dữ liệu và cho đến nay những rủi ro chủ yếu liên quan đến cách con người chọn phân phối, sử dụng sức mạnh đó.

Hy vọng rằng con người cũng đủ thông minh để không để thí nghiệm các chương trình máy học cho một thứ gì đó nguy hiểm, giống như một đội quân với vũ khí laser hay một lò phản ứng hạt nhân. Nhưng nếu ai đó làm và thảm hoạ xảy ra, nó sẽ là kết quả của sự cẩu thả và ngu ngốc của con người chứ không phải bởi vì máy học là xấu.

Ý kiến của bạn

Bình luận