coincuatui-banner

Học viện An toàn UK Ai mở chi nhánh mới tại Mỹ

Viện An toàn AI của Anh mở rộng sang Mỹ với vị trí mới tại Mỹ

Anh mở rộng Viện An toàn AI của mình đến San Francisco, với mục tiêu tận dụng tài năng công nghệ kỹ thuật số ở vùng vịnh và củng cố các đối tác an toàn AI toàn cầu.

Viện An toàn AI của Anh mở rộng sang Mỹ với vị trí mới tại Mỹ

Vào ngày 20 tháng 5, bà Michelle Donelan, Bộ trưởng Công nghệ của Anh, đã thông báo rằng viện sẽ mở văn phòng nước ngoài đầu tiên tại San Francisco vào mùa hè.

Thông báo cho biết lựa chọn chiến lược của việc mở văn phòng tại San Francisco sẽ giúp Anh "tận dụng được sự giàu có của tài năng công nghệ kỹ thuật số tại Vịnh," cũng như tương tác với một trong những trung tâm nghiên cứu trí tuệ nhân tạo lớn nhất thế giới nằm giữa London và San Francisco.

Ngoài ra, nó nói rằng bước di chuyển này sẽ giúp nó "củng cố" mối quan hệ với những người chơi chính tại Mỹ để đẩy mạnh an toàn AI toàn cầu "vì lợi ích công cộng."

Hiện, chi nhánh London của Viện An toàn AI đã có một đội ngũ 30 người đang trên quỹ đạo để mở rộng và thu thập thêm chuyên môn, đặc biệt là trong việc đánh giá rủi ro cho các mô hình AI ranh giới.

Donelan nói rằng sự mở rộng đại diện cho sự lãnh đạo và tầm nhìn của Anh về an toàn AI trong hành động: 

"Đó là một khoảnh khắc quan trọng trong khả năng của Anh để nghiên cứu cả rủi ro và tiềm năng của AI từ góc nhìn toàn cầu, củng cố đối tác của chúng tôi với Hoa Kỳ và mở đường cho các quốc gia khác có thể tiếp cận với chuyên môn của chúng tôi khi chúng tiếp tục dẫn đầu thế giới về an toàn AI."

Có liên quan: Microsoft đối mặt với mức phạt hàng tỷ đô la tại Liên minh châu Âu về Bing AI

Sự kiện tự hào với sự tham gia của các nhà lãnh đạo từ khắp nơi trên thế giới, bao gồm cả từ Mỹ và Trung Quốc, với những giọng nói hàng đầu trong lĩnh vực AI, bao gồm chủ tịch Microsoft Brad Smith, CEO OpenAI Sam Altman, CEO Google DeepMind Demis Hassabis và Elon Musk.

Trong thông báo mới nhất này, Anh cũng cho biết rằng họ đang công bố một số kết quả mới nhất của viện từ các cuộc kiểm tra an toàn mà nó tiến hành trên năm mô hình AI tiên tiến có sẵn công khai.

Nó đã ẩn danh các mô hình và nói rằng kết quả cung cấp một "tấm hình” về khả năng của các mô hình thay vì đánh giá chúng là "an toàn" hoặc "nguy hiểm".

Một phần của kết quả bao gồm rằng một số mô hình có thể hoàn thành thách thức về bảo mật mạng, trong khi những mô hình khác gặp khó khăn với các thách thức phức tạp hơn. Một số mô hình được xác định là có kiến thức về hóa học và sinh học cấp độ tiến sĩ.

Nó kết luận rằng tất cả các mô hình đã được kiểm tra đều "rất dễ bị xâm nhập" bởi những đồng phạm cơ bản và các mô hình đã được kiểm tra không thể hoàn thành các nhiệm vụ "phức tạp, tốn thời gian" mà không cần giám sát của con người.

Ian Hogearth, chủ tịch của viện, nói rằng những đánh giá này sẽ giúp đóng góp vào đánh giá kinh nghiệm về khả năng của mô hình.

“An toàn AI vẫn là một lĩnh vực rất trẻ và đang nổi. Những kết quả này chỉ đại diện cho một phần nhỏ của phương pháp đánh giá mà AISI đang phát triển.”

Nguồn: Cointelegraph

Xem thêm