Theo kế hoạch mới, OpenAI, công ty trí tuệ nhân tạo (AI) hàng đầu hiện tại với sự hỗ trợ từ Microsoft, sẽ triển khai các công nghệ AI tiên tiến nhất của mình chỉ khi chúng được đánh giá là an toàn trong các lĩnh vực như an ninh mạng và đối mặt với các rủi ro tiềm ẩn từ nguy cơ hạt nhân.
Điều này thể hiện cam kết của OpenAI đối với việc đảm bảo rằng sự tiến bộ của công nghệ AI không gây hậu quả tiêu cực cho xã hội.
Ngoài ra, OpenAI đang thành lập một nhóm cố vấn chuyên nghiệp để xem xét các báo cáo về an toàn và chuyển chúng đến các giám đốc điều hành và hội đồng quản trị của công ty.
Trong quy trình ra quyết định, trong khi các giám đốc điều hành có trách nhiệm đưa ra các quyết định, hội đồng quản trị sẽ có quyền đảo ngược những quyết định đó nếu cần thiết.
Trong suốt một năm kể từ khi Chat GPT được giới thiệu, nguy cơ tiềm ẩn của AI đã trở thành vấn đề quan trọng đáng được lưu tâm.
Dù công nghệ AI mang lại những khả năng sáng tạo vượt bậc, nó cũng mang theo những lo ngại lớn về an toàn, nhất là khả năng truyền bá thông tin sai lệch và thao túng người dùng.
Vào tháng 4, một nhóm lãnh đạo và chuyên gia AI đã đưa ra một tuyên bố yêu cầu tạm dừng phát triển các hệ thống AI mạnh mẽ hơn GPT-4 của OpenAI trong vòng 6 tháng, với lý do rủi ro tiềm ẩn cho xã hội.
Cảnh báo về tác động tiêu cực của AI cũng được thể hiện trong cuộc thăm dò của Reuters/Ipsos, khi hơn 2/3 người Mỹ lo ngại về ảnh hưởng tiêu cực có thể xuất phát từ AI và 61% tin rằng nó có thể đe dọa nền văn minh.