coincuatui-banner

Cựu nhân viên Openai Anthropic kêu gọi quyền được cảnh báo về rủi ro của Trí tuệ nhân tạo (AI)

Cựu nhân viên OpenAI, Anthropic kêu gọi 'quyền được cảnh báo' về rủi ro của Trí tuệ nhân tạo (AI)

Cựu nhân viên OpenAI, Anthropic và DeepMind kêu gọi các công ty AI mở rộng bảo vệ người tố giác để công khai giải quyết các rủi ro liên quan đến Trí tuệ nhân tạo đang ngày càng phát triển trong bối cảnh lo ngại về "làm giảm ưu tiên" an toàn.

Cựu nhân viên Openai Anthropic kêu gọi quyền được cảnh báo về rủi ro của Trí tuệ nhân tạo (AI)

Vào ngày 4 tháng 6, 13 cựu và nhân viên hiện tại của OpenAI (ChatGPT), Anthropic (Claude) và DeepMind (Google), cùng với "Cố vấn của AI" Yoshua Bengio và Geoffrey Hinton và nhà khoa học AI nổi tiếng Stuart Russell đã khởi đầu đề xuất "Quyền được cảnh báo AI".

Tuyên bố nhằm mục đích thiết lập cam kết từ các công ty AI hàng đầu để cho phép nhân viên nêu ra mối lo ngại liên quan đến rủi ro của AI nội bộ và với công chúng.

William Saunders, một cựu nhân viên OpenAI và ủng hộ của phong trào, nhận xét rằng, khi đối mặt với các công nghệ mới có tiềm năng nguy hiểm, cần phải có cách thức để chia sẻ thông tin về rủi ro với các chuyên gia độc lập, chính phủ và công chúng.

“Hiện nay, những người có kiến thức nhất về cách các hệ thống AI hàng đầu hoạt động và các rủi ro liên quan đến triển khai của chúng không được hoàn toàn tự do để nói vì nguy cơ bị trả thù và các thỏa thuận bảo mật quá rộng rãi.”

Nguyên tắc "Quyền được cảnh báo"

Đề xuất có bốn đề xuất chính đối với các nhà phát triển AI, đầu tiên là loại bỏ sự phỉ báng không đúng về rủi ro để các công ty sẽ không im lặng nhân viên bằng các thỏa thuận ngăn chúng không thể nêu ra mối lo ngại về rủi ro của AI hoặc trừng phạt họ khi làm như vậy.

Họ cũng nhắm mục tiêu thiết lập các kênh báo cáo ẩn danh cho cá nhân để nêu lên mối lo ngại về rủi ro của AI, từ đó nuôi dưỡng một môi trường thích hợp cho sự phê bình mở cửa xung quanh các rủi ro đó.

Cuối cùng, đề xuất yêu cầu bảo vệ người tố giác, trong đó các công ty sẽ không trả thù đối với nhân viên tiết lộ thông tin để tiết lộ các rủi ro nghiêm trọng của AI.

Saunders nói rằng các nguyên tắc được đề xuất là một cách "chu đáo" để tương tác với các công ty AI để đạt được AI an toàn và có ích cần thiết.

Lo ngại về an toàn AI ngày càng lớn

Đề xuất đến trong bối cảnh lo ngại gia tăng về "làm giảm ưu tiên" của các phòng thí nghiệm AI về an toàn của các mô hình mới nhất của họ, đặc biệt là trước Trí tuệ tổng quát nhân tạo (AGI), mà cố gắng tạo ra phần mềm với trí tuệ giống con người và khả năng tự giáo dục.

Cựu nhân viên OpenAI Daniel Kokotajlo nói rằng anh đã quyết định rời khỏi công ty vì anh "mất hy vọng rằng họ sẽ hành động một cách chịu trách nhiệm," đặc biệt là với việc tạo ra AGI.

"Họ và những người khác đã bao gồm vào “hãy nhanh chóng và phá vỡ mọi thứ” và đó là điều ngược lại so với những gì cần thiết cho công nghệ mạnh mẽ như vậy và mà mình chưa hiểu hết."

Vào ngày 28 tháng 5, Helen Toner, một cựu thành viên hội đồng của OpenAI, nói trong một chương trình podcast AI của Ted rằng Sam Altman, CEO của OpenAI, đã được cho là đã bị sa thải khỏi công ty vì được cho là đã che giấu thông tin từ hội đồng quản trị.

Tạp chí: ‘Sic AIs on each other’ để ngăn chặn việc tiên tri "apocalypse AI": David Brin, tác giả khoa học viễn tưởng

Nguồn: Cointelegraph

Xem thêm