Chính phủ Nhật Bản cho biết sẽ thành lập Viện An toàn trí tuệ nhân tạo (AI) để sử dụng an toàn và giảm thiểu các rủi ro khi sử dụng công nghệ trí tuệ nhân tạo.
Nhật Bản sẽ ban hành hướng dẫn sử dụng trí tuệ nhân tạo (AI) với 10 nguyên tắc cơ bản về sử dụng công nghệ mới này.
Trong tháng 1/2024, Nhật Bản dự kiến sẽ thành lập Viện An toàn trí tuệ nhân tạo (AI). Viện này sẽ bao gồm các chuyên gia có kinh nghiệm trong lĩnh vực trí tuệ nhân tạo, chịu trách nhiệm thiết lập các tiêu chuẩn đánh giá an toàn và xác minh nguy cơ công nghệ này bị lợi dụng để tạo ra các nội dung giả mạo, lan truyền thông tin sai lệch hoặc gây ra các nguy cơ về an ninh như khả năng sử dụng AI để nghiên cứu chế tạo vũ khí sinh học, hóa học hoặc các loại vũ khí khác.
Nhật Bản cũng đang soạn thảo hướng dẫn sử dụng AI với 10 nguyên tắc cơ bản, trong đó kêu gọi các công ty tôn trọng quyền con người, thực hiện những biện pháp chống lại thông tin sai lệch và tuyệt đối không tham gia phát triển, cung cấp và sử dụng các dịch vụ AI nhằm thao túng việc ra quyết định và cảm xúc của con người. Ngoài ra, hướng dẫn này còn có các nguyên tắc khác như bảo vệ quyền riêng tư, đảm bảo sự công bằng, an ninh và minh bạch.
Hướng dẫn sử dụng AI của Nhật Bản được dựa trên hướng dẫn về tiến trình AI Hiroshima được đưa ra tại Hội nghị G7 vào tháng 5/2023. Bản hướng dẫn này dự kiến sẽ chính thức được thông qua vào tháng 3/2024 và áp dụng cho các nhà phát triển, nhà cung cấp dịch vụ AI và cả người sử dụng.
Trước đó, Nhật Bản, Anh và Mỹ cũng đã thành lập các cơ quan để đánh giá về rủi ro và khả năng bảo mật của các sản phẩm công nghệ AI mới.
Nguồn: vtv.vn