Một
chuyên gia hàng đầu trong lĩnh vực AI (artificial intelligence – trí
tuệ nhân tạo) cho biết, xét theo các điều kiện hiện tại hoặc có thể
trong “tương lai gần”, nhân loại chưa sẵn sàng cho một AI mạnh mẽ, đồng
thời cho biết thêm rằng bức thư ngỏ gần đây kêu gọi một lệnh dừng phát
triển trí tuệ nhân tạo tiên tiến trong sáu tháng là đang “chưa nói hết
mức độ trầm trọng của tình hình hiện tại”.
Ông Eliezer Yudkowsky,
một nhà lý luận về quyết định và nhà nghiên cứu AI hàng đầu cho biết
trong một bài bình luận trên tạp chí Time hôm 29/03, nói rằng, “Vấn đề
mấu chốt không phải là trí thông minh ‘có tính cạnh tranh với con người’
(như bức thư ngỏ đó đã đề cập); mà là điều gì xảy ra sau khi AI đạt
được trí thông minh hơn cả nhân loại. Nhiều nhà nghiên cứu lão làng về
những vấn đề này, bao gồm cả bản thân tôi, dự đoán rằng kết quả có khả
năng cao nhất của việc xây dựng một AI thông minh siêu phàm, dưới dạng
thức hầu như khác xa với tình huống hiện tại, là mọi người trên Trái đất
sẽ bị diệt vong. Ðó là điều hiển nhiên sẽ xảy ra”.
Ông nói thêm,
“Về nguyên tắc, không phải là quý vị không thể sống sót khi tạo ra thứ
gì đó thông minh hơn mình nhiều; mà là điều này sẽ đòi hỏi sự chính xác
và sự chuẩn bị kỹ lưỡng cũng như những hiểu biết sâu sắc về khoa học
mới, và có lẽ không cần các hệ thống AI bao gồm các dãy phân số cự đại
khó hiểu”.
Sau sự phát triển bùng nổ và mức độ phổ biến gần đây
của ChatGPT, một số nhà lãnh đạo doanh nghiệp và nhà nghiên cứu, hiện đã
lên tổng cộng 1,843 người, bao gồm cả ông Elon Musk và ông Steve
Wozniak, đã ký một lá thư kêu gọi “tất cả các phòng thí nghiệm AI ngay
lập tức tạm dừng việc đào tạo các hệ thống AI mạnh mẽ hơn GPT-4 trong ít
nhất 6 tháng”. GPT-4, được công bố hồi tháng Ba, là phiên bản mới nhất
của ChatGPT, một chatbot của OpenAI.
Ông Yudkowsky dự đoán rằng
nếu không có sự chuẩn bị cẩn thận, thì AI sẽ có những nhu cầu rất khác
so với con người, cũng như một khi AI tự nhận thức được thì sẽ “không
quan tâm đến chúng ta” cũng như bất cứ sinh mệnh có khả năng nhận thức
nào khác. Ông Yudkowsky “Loại quan tâm dành cho con người, về nguyên tắc
có thể được đưa vào một AI nhưng chúng tôi chưa sẵn sàng và hiện chưa
biết làm thế nào”.
Nếu không biết cách cảm nhận cuộc sống giống
như con người, thì AI sẽ đơn giản là xem toàn bộ nhân loại và các sinh
vật là “được tạo thành từ các nguyên tử mà nó có thể sử dụng cho mục
đích khác”. Và nhân loại hầu như không thể làm gì để ngăn chặn cỗ máy
này.
Ông Yudkowsky đã so sánh tình huống này với “một đứa trẻ 10
tuổi đang cố gắng chơi cờ vua với Stockfish 15”. Chưa có người chơi cờ
nào có thể đánh bại Stockfish, vốn được xem là một kỳ tích bất khả thi.
Ông Yudkowsky đã yêu cầu các độc giả hình dung về kỹ nghệ AI khi không
còn bị trói buộc trong các giới hạn của internet. Ông nói, “Hãy hình
dung về một nền văn minh hoàn toàn xa lạ, vốn suy nghĩ với tốc độ gấp
hàng triệu lần con người, ban đầu chỉ giới hạn trong các máy điện toán —
trong một thế giới của những sinh vật, mà xét từ góc độ của AI, là rất
ngu ngốc và rất chậm chạp”. AI sẽ mở rộng tầm ảnh hưởng của nó ra bên
ngoài vùng ngoại vi của các mạng vật lý và có thể “xây dựng các dạng
sống nhân tạo” bằng cách sử dụng các phòng thí nghiệm nơi protein được
sản xuất từ các chuỗi DNA.
Ông cảnh báo, kết quả cuối cùng của
việc xây dựng một AI toàn năng, theo các điều kiện hiện tại, sẽ là sự
hủy diệt của “mọi thành viên loài người và toàn bộ sự sống sinh học trên
Trái Ðất”.
Ông Yudkowsky đổ lỗi cho OpenAI và DeepMind — hai
trong số các phòng thí nghiệm nghiên cứu AI hàng đầu thế giới — vì đã
không có bất cứ sự chuẩn bị hoặc giao thức cần thiết nào liên quan đến
vấn đề này. OpenAI thậm chí còn dự trù để chính AI thực hiện việc điều
chỉnh để phù hợp với các giá trị của con người. OpenAI cho biết: “AI sẽ
làm việc cùng với con người để bảo đảm rằng những thế hệ tiếp theo của
chúng sẽ phù hợp hơn với con người”.
Ông nói thêm rằng con người
không thể giám sát hoặc phát giác một cách toàn diện các hệ thống AI tự
nhận thức. Những bộ óc digital có ý thức biết đòi hỏi “nhân quyền” có
thể tiến triển đến một mức con người không thể sở hữu hoặc kiểm soát hệ
thống này nữa.
“Nếu quý vị không chắc liệu mình có đang tạo ra
một AI tự nhận thức hay không, thì điều này đáng báo động không chỉ vì
những hậu quả về mặt đạo đức của phần ‘tự nhận thức,’ mà còn bởi vì sự
không chắc chắn có nghĩa là quý vị không biết mình đang làm gì, thì điều
đó thật nguy hiểm và quý vị nên dừng lại”.
Không giống như các
thí nghiệm khoa học khác và sự phát triển dần dần của kiến thức và khả
năng, con người không thể làm được điều này với trí thông minh siêu phàm
bởi vì nếu trí thông minh này là sai trong lần thử đầu tiên, thì sẽ
không có cơ hội thứ hai “vì quý vị đã đã bị tiêu diệt”.
Ông
Yudkowsky cho biết nhiều nhà nghiên cứu nhận thức được rằng “chúng ta
đang lao đầu vào một thảm họa” nhưng lại không lên tiếng về điều đó. Ông
báo động “…Tất cả chúng ta đều sẽ sống hoặc bị tiêu diệt cùng một lúc,
trong tình huống này, không phải là một chính sách mà là một điều đương
nhiên”.
Ông Yudkowsky kết luận bằng cách nói rằng, “Chúng ta chưa
sẵn sàng. Chúng ta đang không đi đúng hướng để sẵn sàng. Nếu chúng ta
tiếp tục điều này, thì tất cả mọi người sẽ bị tận diệt, kể cả những trẻ
em vốn không hề lựa chọn điều này, không làm điều gì sai. Hãy dập tắt
AI”.
(https://vanhoimoi.org/?p=
(From: LVB <levanbay@gmail.com>, vnch, Mon, Apr 3, 2023 at 3:46 AM)
Thứ Ba, 16 tháng 5, 2023
Chuyên Gia Kêu Gọi Dập Tắt Hoàn Toàn AI
Đăng ký:
Đăng Nhận xét (Atom)
-
CON MỂN VÀ ĐIỀM BÁO KHÔNG MAY MẮN Con thú rừng có tên “ Mển ” hay“ Mang” , còn gọi là hoẵng , kỉ , là mộ...
-
Năm nào cũng vậy, do thức dậy sớm đi chợ sớm, nên má là người đầu tiên mở ngày ba mươi Tết ra. Không biết có phải số má cực, vía má cực kh...
-
Bối cảnh lịch sử: Nguyễn Du (chữ Hán: 阮攸; sinh ngày 3 tháng 1 năm 1766–1820), tên tự Tố Như (素如), hiệu Thanh Hiên (清軒), biệt hiệu Hồ...
làm gì cũng phải nghĩ tới tương lai
Trả lờiXóa