coincuatui-banner

Người sáng lập Ex-OpenAI Chief Scientist Ilya Sutskever ra mắt SSI để tập trung vào An toàn Trí tuệ nhân tạo

Người sáng lập Ex-OpenAI Chief Scientist Ilya Sutskever ra mắt SSI để tập trung vào An toàn Trí tuệ nhân tạo

Công ty mới sẽ phát triển An toàn và Khả năng trí tuệ nhân tạo đồng thời.

Người sáng lập Ex-OpenAI Chief Scientist Ilya Sutskever ra mắt SSI để tập trung vào An toàn Trí tuệ nhân tạo

Người sáng lập và cựu giám đốc khoa học của OpenAI, Ilya Sutskever, cùng với cựu kỹ sư OpenAI Daniel Levy đã hợp tác với Daniel Gross, một nhà đầu tư và đối tác trước đây của trình tăng cường khởi nghiệp Y Combinator, để tạo ra Safe Superintelligence, Inc. (SSI). Mục tiêu và sản phẩm mới của công ty rõ ràng từ tên của nó.

SSI là một công ty Hoa Kỳ có văn phòng tại Palo Alto và Tel Aviv. Công ty sẽ tiến bộ trí tuệ nhân tạo (AI) bằng cách phát triển an toàn và khả năng đồng thời, ba người sáng lập cho biết trong một thông báo trực tuyến vào ngày 19 tháng 6. Họ thêm:

“Sự tập trung độc nhất của chúng tôi có nghĩa là không có sự phân tâm bởi quản lý hoặc chu kỳ sản phẩm, và mô hình kinh doanh của chúng tôi đảm bảo an toàn, bảo mật và tiến bộ hoàn toàn được cô lập khỏi áp lực thương mại ngắn hạn.”

Sustkever và Gross đã lo lắng về an toàn trí tuệ nhân tạo trước đó

Sutskever rời OpenAI vào ngày 14 tháng 5. Anh ấy đã liên quan đến việc sa thải Giám đốc điều hành Sam Altman và đóng một vai trò mơ hồ tại công ty sau khi từ chối khỏi hội đồng sau khi Altman trở lại. Daniel Levy là một trong những nhà nghiên cứu đã trong những nhà nghiên cứu đã rời OpenAI vài ngày sau Sutskever.

Liên quan: OpenAI làm cho ChatGPT ‘ít chatty hơn,’ làm mờ biên giữa nhà văn AI

Sutskever và Jan Leike là những người đứng đầu của đội Superalignment của OpenAI tạo ra vào tháng 7 năm 2023 để xem xét cách “điều khiển và điều khiển hệ thống trí tuệ nhân tạo thông minh hơn chúng ta nhiều.” Các hệ thống như vậy được gọi là trí tuệ nhân tạo tổng quát (AGI). OpenAI đã phân bổ 20% công suất máy tính của mình cho đội Superalignment vào thời điểm tạo ra đội đó.

Leike cũng rời OpenAI vào tháng 5 và hiện là trưởng nhóm tại startup AI được hỗ trợ bởi Amazon Anthropic. OpenAI đã bảo vệ các biện pháp liên quan đến an toàn trong một bài đăng dài X của Tổng giám đốc công ty Greg Brockman nhưng tan rã đội Superalignment sau khi các nhà nghiên cứu rời bỏ vào tháng 5.

Các nhân vật công nghệ hàng đầu khác cũng lo lắng

Các nhà nghiên cứu cũng lo lắng về hướng phát triển của trí tuệ nhân tạo trong tương lai. Người sáng lập Ethereum Vitalik Butertin đã gọi AGI là “rủi ro” giữa sự biến động của nhân sự tại OpenAI. Tuy nhiên, ông cũng thêm rằng “các mô hình như vậy cũng thấp hơn đáng kể về rủi ro tận diện so với cả tham vọng tập đoàn và quân đội.”

Nguồn: Ilya Sutskever

CEO Tesla Elon Musk, người từng ủng hộ OpenAI, và người sáng lập Apple Steve Wozniak là trong số hơn 2.600 nhà lãnh đạo và nhà nghiên cứu công nghệ khác đã kêu gọi việc tạm ngưng huấn luyện hệ thống trí tuệ nhân tạo trong vòng sáu tháng trong khi con người suy nghĩ về “rủi ro sâu sắc” mà chúng đại diện.

Thông báo của SSI cho biết công ty đang tuyển dụng kỹ sư và nhà nghiên cứu.

Tạp chí: Làm thế nào để có những dự đoán tiền điện tử tốt hơn từ ChatGPT, Ghim AI Nhân văn bị đánh giá cao

Nguồn: Cointelegraph

Xem thêm