Thứ Ba, 16 tháng 5, 2023

Chuyên Gia Kêu Gọi Dập Tắt Hoàn Toàn AI

 

 Một chuyên gia hàng đầu trong lĩnh vực AI (artificial intelligence – trí tuệ nhân tạo) cho biết, xét theo các điều kiện hiện tại hoặc có thể trong “tương lai gần”, nhân loại chưa sẵn sàng cho một AI mạnh mẽ, đồng thời cho biết thêm rằng bức thư ngỏ gần đây kêu gọi một lệnh dừng phát triển trí tuệ nhân tạo tiên tiến trong sáu tháng là đang “chưa nói hết mức độ trầm trọng của tình hình hiện tại”.

Ông Eliezer Yudkowsky, một nhà lý luận về quyết định và nhà nghiên cứu AI hàng đầu cho biết trong một bài bình luận trên tạp chí Time hôm 29/03, nói rằng, “Vấn đề mấu chốt không phải là trí thông minh ‘có tính cạnh tranh với con người’ (như bức thư ngỏ đó đã đề cập); mà là điều gì xảy ra sau khi AI đạt được trí thông minh hơn cả nhân loại. Nhiều nhà nghiên cứu lão làng về những vấn đề này, bao gồm cả bản thân tôi, dự đoán rằng kết quả có khả năng cao nhất của việc xây dựng một AI thông minh siêu phàm, dưới dạng thức hầu như khác xa với tình huống hiện tại, là mọi người trên Trái đất sẽ bị diệt vong. Ðó là điều hiển nhiên sẽ xảy ra”.

Ông nói thêm, “Về nguyên tắc, không phải là quý vị không thể sống sót khi tạo ra thứ gì đó thông minh hơn mình nhiều; mà là điều này sẽ đòi hỏi sự chính xác và sự chuẩn bị kỹ lưỡng cũng như những hiểu biết sâu sắc về khoa học mới, và có lẽ không cần các hệ thống AI bao gồm các dãy phân số cự đại khó hiểu”.

Sau sự phát triển bùng nổ và mức độ phổ biến gần đây của ChatGPT, một số nhà lãnh đạo doanh nghiệp và nhà nghiên cứu, hiện đã lên tổng cộng 1,843 người, bao gồm cả ông Elon Musk và ông Steve Wozniak, đã ký một lá thư kêu gọi “tất cả các phòng thí nghiệm AI ngay lập tức tạm dừng việc đào tạo các hệ thống AI mạnh mẽ hơn GPT-4 trong ít nhất 6 tháng”. GPT-4, được công bố hồi tháng Ba, là phiên bản mới nhất của ChatGPT, một chatbot của OpenAI.

Ông Yudkowsky dự đoán rằng nếu không có sự chuẩn bị cẩn thận, thì AI sẽ có những nhu cầu rất khác so với con người, cũng như một khi AI tự nhận thức được thì sẽ “không quan tâm đến chúng ta” cũng như bất cứ sinh mệnh có khả năng nhận thức nào khác. Ông Yudkowsky “Loại quan tâm dành cho con người, về nguyên tắc có thể được đưa vào một AI nhưng chúng tôi chưa sẵn sàng và hiện chưa biết làm thế nào”.

Nếu không biết cách cảm nhận cuộc sống giống như con người, thì AI sẽ đơn giản là xem toàn bộ nhân loại và các sinh vật là “được tạo thành từ các nguyên tử mà nó có thể sử dụng cho mục đích khác”. Và nhân loại hầu như không thể làm gì để ngăn chặn cỗ máy này.

Ông Yudkowsky đã so sánh tình huống này với “một đứa trẻ 10 tuổi đang cố gắng chơi cờ vua với Stockfish 15”. Chưa có người chơi cờ nào có thể đánh bại Stockfish, vốn được xem là một kỳ tích bất khả thi. Ông Yudkowsky đã yêu cầu các độc giả hình dung về kỹ nghệ AI khi không còn bị trói buộc trong các giới hạn của internet. Ông nói, “Hãy hình dung về một nền văn minh hoàn toàn xa lạ, vốn suy nghĩ với tốc độ gấp hàng triệu lần con người, ban đầu chỉ giới hạn trong các máy điện toán — trong một thế giới của những sinh vật, mà xét từ góc độ của AI, là rất ngu ngốc và rất chậm chạp”. AI sẽ mở rộng tầm ảnh hưởng của nó ra bên ngoài vùng ngoại vi của các mạng vật lý và có thể “xây dựng các dạng sống nhân tạo” bằng cách sử dụng các phòng thí nghiệm nơi protein được sản xuất từ các chuỗi DNA.

Ông cảnh báo, kết quả cuối cùng của việc xây dựng một AI toàn năng, theo các điều kiện hiện tại, sẽ là sự hủy diệt của “mọi thành viên loài người và toàn bộ sự sống sinh học trên Trái Ðất”.

Ông Yudkowsky đổ lỗi cho OpenAI và DeepMind — hai trong số các phòng thí nghiệm nghiên cứu AI hàng đầu thế giới — vì đã không có bất cứ sự chuẩn bị hoặc giao thức cần thiết nào liên quan đến vấn đề này. OpenAI thậm chí còn dự trù để chính AI thực hiện việc điều chỉnh để phù hợp với các giá trị của con người. OpenAI cho biết: “AI sẽ làm việc cùng với con người để bảo đảm rằng những thế hệ tiếp theo của chúng sẽ phù hợp hơn với con người”.

Ông nói thêm rằng con người không thể giám sát hoặc phát giác một cách toàn diện các hệ thống AI tự nhận thức. Những bộ óc digital có ý thức biết đòi hỏi “nhân quyền” có thể tiến triển đến một mức con người không thể sở hữu hoặc kiểm soát hệ thống này nữa.

“Nếu quý vị không chắc liệu mình có đang tạo ra một AI tự nhận thức hay không, thì điều này đáng báo động không chỉ vì những hậu quả về mặt đạo đức của phần ‘tự nhận thức,’ mà còn bởi vì sự không chắc chắn có nghĩa là quý vị không biết mình đang làm gì, thì điều đó thật nguy hiểm và quý vị nên dừng lại”.

Không giống như các thí nghiệm khoa học khác và sự phát triển dần dần của kiến thức và khả năng, con người không thể làm được điều này với trí thông minh siêu phàm bởi vì nếu trí thông minh này là sai trong lần thử đầu tiên, thì sẽ không có cơ hội thứ hai “vì quý vị đã đã bị tiêu diệt”.

Ông Yudkowsky cho biết nhiều nhà nghiên cứu nhận thức được rằng “chúng ta đang lao đầu vào một thảm họa” nhưng lại không lên tiếng về điều đó. Ông báo động “…Tất cả chúng ta đều sẽ sống hoặc bị tiêu diệt cùng một lúc, trong tình huống này, không phải là một chính sách mà là một điều đương nhiên”.

Ông Yudkowsky kết luận bằng cách nói rằng, “Chúng ta chưa sẵn sàng. Chúng ta đang không đi đúng hướng để sẵn sàng. Nếu chúng ta tiếp tục điều này, thì tất cả mọi người sẽ bị tận diệt, kể cả những trẻ em vốn không hề lựa chọn điều này, không làm điều gì sai. Hãy dập tắt AI”.

(https://vanhoimoi.org/?p=16562)
(From: LVB <levanbay@gmail.com>, vnch, Mon, Apr 3, 2023 at 3:46 AM)

1 nhận xét: