28/10/2023 09:23 GMT+7 | Tin tức 24h
Sự phát triển mạnh mẽ của trí tuệ nhân tạo (AI) hứa hẹn về bước tiến dài trong công nghệ phục vụ con người. Tuy nhiên, ngày càng có nhiều quan ngại về những ảnh hưởng mà loại công nghệ này có thể gây ra đối với xã hội.
Thực tế đó đòi hỏi giới hoạch định chính sách trên thế giới cần nỗ lực thiết lập quy định quản lý AI - công nghệ có "tiềm năng tạo thay đổi đột phá" nhưng cũng đặt ra nhiều rủi ro tiềm tàng.
Những thách thức đến từ AI
AI phát triển như vũ bão cũng mang lại nhiều quan ngại về những ảnh hưởng mà loại công nghệ này, đặc biệt là những AI tiên tiến, có thể gây ra đối với đời sống xã hội.
Tổng thư ký Liên hợp quốc (LHQ) Antonio Guterres ngày 26/10/2023 nhấn mạnh, năm qua đã chứng kiến bước tiến vượt bậc về khả năng của AI và việc sử dụng công nghệ này thông qua chatbot, nhân bản giọng nói, ứng dụng video... Trong thời điểm đầy thách thức hiện nay, AI có thể tạo ra những tiến bộ vượt bậc cho nhân loại, ví dụ như trong các lĩnh vực y tế công, giáo dục, ứng phó với biến đổi khí hậu... Tuy nhiên, tất cả điều này phụ thuộc vào việc khai thác AI một cách có trách nhiệm. Ông Guterres cảnh báo những tác hại tiềm tàng của AI về thông tin sai lệch; tư tưởng phân biệt đối xử; xâm phạm quyền riêng tư; gian lận và nhiều hành vi phạm quyền con người khác. Tổng thư ký LHQ lưu ý rằng AI "có thể làm suy yếu niềm tin vào các thể chế cũng như sự gắn kết xã hội và đe dọa chính nền dân chủ".
Giới chuyên môn đã cảnh báo về những rủi ro tiềm ẩn do AI gây ra, bao gồm quấy rối, kích động thù hận và lạm dụng trực tuyến cũng như đe dọa sự an toàn của trẻ em, quyền riêng tư và nguy cơ thao túng thông tin.
Nằm trong số những AI tiên tiến nhất hiện nay, AI tạo sinh là một loại AI tạo ra văn bản, hình ảnh, âm thanh, video, mã lập trình và các nội dung khác, đáp ứng các nội dung yêu cầu đầu vào. Kể từ khi các mô hình AI tạo sinh của OpenAI ra mắt, các nhân vật hàng đầu về AI đã cảnh báo về các rủi ro liên quan đến AI, thậm chí kêu gọi tạm dừng phát triển các hệ thống AI mạnh trong 6 tháng. Tuy nhiên, một số công ty đã phản đối đề xuất này, do họ sẽ đối mặt với chi phí thực hiện cao và rủi ro pháp lý.
Trong khi đó, các hãng truyền thông lớn hiện đứng trước thách thức đến từ cái gọi là AI tổng quát - tạo ra nội dung mới dựa trên dữ liệu trong quá khứ - mà tập đoàn Google và các công ty AI đang thử nghiệm. AI tổng quát là loại trí tuệ nhân tạo được lập trình để tự động tạo ra nội dung mới như văn bản, hình ảnh, âm thanh và video. Với công nghệ này, người dùng có thể không bao giờ phải đọc tin tức trong đời, vì trí tuệ nhân tạo có thể xử lý tất cả thông tin trên web và đưa ra bản tóm tắt theo yêu cầu. AI tổng quát gây lo ngại cho các các hãng truyền thông khi họ phải cố gắng xác định vị trí của mình trong một thế giới, nơi AI có thể thống trị cách người dùng tìm kiếm và trả tiền cho thông tin.
Trong bối cảnh công nghệ AI phát triển như vũ bão mang theo cả 2 mặt tích cực và tiêu cực, Hội nghị cấp cao đầu tiên về an toàn AI (trí tuệ nhân tạo) do Anh đăng cai tổ chức diễn ra trong 2 ngày 1 và 2/11/2023 tại Bletchley Park, phía Nam vùng England với sự tham gia của khoảng 100 khách mời, trong đó có Phó Tổng thống Mỹ Kamala Harris và Giám đốc điều hành Google Demis Hassabis, cùng các học giả, nhà tiên phong trong lĩnh vực AI… Trọng tâm của hội nghị là thảo luận về nguy cơ tội phạm và các phần tử khủng bố có thể lợi dụng công nghệ tiên tiến này để chế tạo vũ khí hủy diệt hàng loạt. Hội nghị nhằm mục đích khởi động các cuộc đối thoại quốc tế về quy định AI. Theo Chính phủ Anh, chương trình nghị sự của hội nghị có các cuộc thảo luận về những tiến bộ khó lường của công nghệ và cũng như khả năng AI vượt khỏi tầm kiểm soát của con người.
Hướng giải quyết là gì?
Ngày 26/10/2023, Tổng thư ký LHQ Guterres đã thành lập ban cố vấn phụ trách khuyến nghị trong lĩnh vực AI, gồm khoảng 40 chuyên gia trong các lĩnh vực công nghệ, luật pháp và bảo vệ dữ liệu cá nhân. Ông kêu gọi ban cố vấn về AI "chạy đua với thời gian" để kịp thời đưa ra các khuyến nghị về cách thức quản lý việc sử dụng AI vào cuối năm 2023, cũng như xác định những rủi ro và cơ hội từ công nghệ này.
Trong khi đó, Nhóm Các nước công nghiệp phát triển (G7) - gồm Anh, Mỹ, Đức, Nhật Bản, Pháp, Canada và Italy - hồi giữa tháng 10/2023 đã nhất trí về dự thảo các nguyên tắc hướng dẫn cho những nhà phát triển các dạng AI tiên tiến, hy vọng giảm thiểu các rủi ro liên quan như quấy rối, thông tin sai lệch và những lo ngại về quyền riêng tư. G7 sẽ tán thành các nguyên tắc trên trước khi các bộ trưởng liên quan sẽ đàm phán và đạt được thỏa thuận chính thức vào cuối năm 2023. G7 cũng hướng đến việc biên soạn một bộ quy tắc ứng xử quốc tế cho các nhà phát triển công cụ AI cũng như các hướng dẫn dành cho nhà cung cấp và người sử dụng dịch vụ AI để ngăn chặn các công nghệ liên quan bị sử dụng phục vụ các hành vi tội phạm.
Theo ý kiến của các nhà nghiên cứu hàng đầu về AI, các nước không nên tập trung quá cụ thể vào các mối đe dọa hiện hữu của AI mà cần hướng tới giải quyết các vấn đề cấp bách hiện tại. Các công ty AI và chính phủ nên dành ít nhất 1/3 ngân sách cho nghiên cứu và phát triển AI để đảm bảo an toàn và sử dụng các hệ thống đúng mục đích. Chính phủ các nước cũng nên buộc các công ty phải chịu trách nhiệm pháp lý cho những tổn hại có thể ngăn ngừa và lường trước từ các hệ thống AI của họ.
Giới chuyên môn nhận định các mô hình AI tiên tiến nhất hiện nay quá mạnh và có sức ảnh hưởng rất lớn, đòi hỏi phải có sự giám sát trong quá trình phát triển. Do đó, chính phủ và các doanh nghiệp cần nhanh chóng đầu tư vào an toàn trong AI bởi lĩnh vực này đang phát triển nhanh hơn nhiều so với các biện pháp phòng ngừa hiện nay.
Thực tế cho thấy các mô hình AI thường thiếu tính minh bạch khi rất ít thông tin về cách thức thiết lập hoạt động của mô hình. Không tập đoàn công nghệ AI nào cung cấp thông tin về số lượng người dùng phụ thuộc vào mô hình AI mà họ chế tạo. Ngoài ra, phần lớn công ty AI không tiết lộ số lượng tài liệu có bản quyền được sử dụng trong việc thiết lập và vận hành mô hình AI. Vì vậy mà các công ty AI cần đạt được chỉ số minh bạch cao hơn nữa, đáp ứng các tiêu chí ở mức từ 80-100%. Chỉ số minh bạch là thước đo để các nhà hoạch định chính sách có thể đưa ra chính sách hiệu quả trong nỗ lực quản lý công nghệ AI. Theo đó, chỉ số minh bạch càng thấp thì sẽ càng khó có thể hoạch định chính sách và ngược lại. Người sử dụng khó có thể nắm bắt được những hạn chế của công nghệ này để có thể tin dùng.
Vấn đề minh bạch là ưu tiên hàng đầu trong quá trình hoạch định chính sách quản lý công nghệ AI ở các nước EU cũng như ở G7 cùng nhiều nước khác. Hiện không có quy định chung nào tập trung vào an toàn trong lĩnh vực AI, trong khi các dự luật đầu tiên mà Liên minh châu Âu (EU) xem xét chưa thể trở thành luật do các nhà lập pháp chưa đạt được nhất trí trong một số vấn đề. EU đang có tham vọng dẫn đầu nỗ lực quản lý AI và hy vọng vào cuối năm 2023 sẽ đưa ra bộ luật đầu tiên trên thế giới về quản lý AI.
Đăng nhập
Họ và tên
Mật khẩu
Xác nhận mật khẩu
Mã xác nhận
Tải lại captchaĐăng ký
Xin chào, !
Bạn đã đăng nhập với email:
Đăng xuất