OpenAI đang thành lập một nhóm chuyên trách để quản lí rủi ro của trí tuệ nhân tạo siêu thông minh, theo Engadget.
Siêu trí tuệ là một mô hình AI giả định thông minh hơn cả con người, đồng thời vượt trội ở nhiều lĩnh vực chuyên môn thay vì chỉ tập trung vào một lĩnh vực như một số mô hình thế hệ trước.
OpenAI tin rằng một mô hình như vậy có thể xuất hiện trước cuối thập kỷ này.
“Siêu trí tuệ sẽ là công nghệ có sức ảnh hưởng lớn nhất mà loài người từng phát minh ra và có thể giúp chúng ta giải quyết nhiều vấn đề quan trọng nhất của thế giới. Nhưng sức mạnh to lớn của siêu trí tuệ cũng có thể rất nguy hiểm, và có thể dẫn đến việc tước quyền của loài người hoặc thậm chí là sự tuyệt chủng”, OpenAI cho biết.
Nhóm mới của OpenAI sẽ được đồng lãnh đạo bởi trưởng bộ phận khoa học Ilya Sutskever và Jan Leike, trưởng phòng liên kết của phòng thí nghiệm nghiên cứu của công ty. Ngoài ra, OpenAI cho biết họ sẽ dành 20% sức mạnh tính toán hiện tại cho sáng kiến này.
Về mặt lý thuyết, một hệ thống như vậy sẽ hỗ trợ OpenAI trong việc đảm bảo siêu trí tuệ an toàn để sử dụng và phù hợp với các giá trị của con người.
OpenAI cho biết: “Mặc dù đây là một mục tiêu cực kỳ tham vọng và chúng tôi không đảm bảo sẽ thành công, nhưng chúng tôi lạc quan rằng nỗ lực tập trung, phối hợp có thể giải quyết vấn đề này”.
Thông báo hôm 5.7 được đưa ra khi các chính phủ trên khắp thế giới đang xem xét cách điều chỉnh và ra quy định cho ngành công nghiệp AI non trẻ. Tại Mỹ, Sam Altman, Giám đốc điều hành của OpenAI, đã gặp ít nhất 100 nhà lập pháp liên bang trong những tháng gần đây.
Một cách công khai, ông Altman đã nói rằng quy định về AI là “cần thiết” và OpenAI “háo hức” làm việc với các nhà hoạch định chính sách.