Giáo sư Học viện Khoa học Australia chia sẻ về cách ứng xử với AI

03/12/2025 11:20 GMT+7 | HighTech

AI đang phát triển nhanh hơn khả năng xây dựng khung pháp lý của thế giới. Những phân tích sắc sảo của các chuyên gia AI cho thấy nguy cơ tiềm ẩn từ AI có thể vượt khỏi dự đoán của chính người tạo ra nó, trong khi yêu cầu về minh bạch, công bằng dữ liệu, giám sát con người và niềm tin xã hội đang trở thành các điểm nghẽn toàn cầu. 

Trong khuôn khổ Tuần lễ Khoa học - Công nghệ VinFuture 2025, Giáo sư ngành Trí tuệ nhân tạo Toby Walsh, Đại học New South Wales, Australia, Hội viên Hội Khoa học Australia, Viện sĩ của Hiệp hội Máy tính Hoa Kỳ đã trao đổi với báo chí về việc sử dụng AI có trách nhiệm cũng như cách ứng xử với AI trong bối cảnh hiện nay. Giáo sư Toby Walsh đã dành 40 năm nghiên cứu về trí tuệ nhân tạo. Trong 30 năm đầu, ông chỉ quan tâm đến việc làm sao để phát triển AI ngày càng mạnh hơn. Khoảng 10 năm gần đây, ông ngày càng quan tâm và lên tiếng về việc phát triển AI một cách có trách nhiệm.

Giáo sư Học viện Khoa học Australia chia sẻ về cách ứng xử với AI - Ảnh 1.

Giáo sư Toby Walsh, Đại học New South Wales (Australia). Ảnh: TTXVN phát

* Theo Giáo sư, sử dụng AI có trách nhiệm nên là việc được thực hiện tự nguyện hay bắt buộc? Chúng ta nên ứng xử như thế nào với AI?

- Tôi tin chắc rằng việc sử dụng AI có trách nhiệm nên là bắt buộc. Hiện nay có nhiều động cơ lệch lạc, với số tiền khổng lồ được tạo ra nhờ AI. Cách duy nhất để đảm bảo hành vi đúng đắn là áp dụng các quy định nghiêm ngặt, để lợi ích cộng đồng luôn được cân bằng với lợi ích thương mại.

Với các doanh nghiệp, chúng ta cần tăng cường minh bạch. Điều quan trọng là phải hiểu năng lực và giới hạn của các hệ thống AI. Chúng ta cũng nên "bỏ phiếu bằng cách hành động", tức là lựa chọn sử dụng những dịch vụ có trách nhiệm.

Tôi thực sự tin rằng cách doanh nghiệp sử dụng AI có trách nhiệm sẽ trở thành yếu tố phân biệt trên thị trường, mang lại lợi thế thương mại cho chính họ. Nếu một công ty tôn trọng dữ liệu khách hàng, điều đó sẽ mang lại lợi ích và thu hút khách hàng. Các doanh nghiệp sẽ nhận ra rằng làm đúng không chỉ là vấn đề đạo đức mà còn giúp họ thành công hơn. Tôi xem đây là cách để phân biệt giữa các doanh nghiệp. Những doanh nghiệp có trách nhiệm là những nơi mà chúng ta có thể yên tâm hợp tác.

* Khi AI mắc lỗi, ai sẽ chịu trách nhiệm? Đặc biệt là với các tác nhân AI, liệu chúng ta có khả năng sửa cơ chế hoạt động của chúng hay không?

- Vấn đề cốt lõi khi AI mắc sai lầm là chúng ta không thể bắt AI chịu trách nhiệm. AI không phải là con người và đây là lỗ hổng trong mọi hệ thống pháp luật trên thế giới. Chỉ con người mới bị chịu trách nhiệm cho các quyết định và hành động của mình.

Bỗng nhiên, chúng ta có một "tác nhân" mới là AI. Nếu chúng ta cho phép, tác nhân này có thể ra quyết định và thực hiện hành động trong thế giới của chúng ta. Điều này đặt ra một thách thức: Chúng ta sẽ bắt ai chịu trách nhiệm? Câu trả lời là phải bắt các công ty triển khai và vận hành hệ thống AI chịu trách nhiệm về hậu quả mà những "cỗ máy" này gây ra.

Giáo sư Học viện Khoa học Australia chia sẻ về cách ứng xử với AI - Ảnh 2.

Giáo sư Toby Walsh - Đại học New South Wales chia sẻ tại Tọa đàm "AI vì nhân loại: Đạo đức và an toàn AI trong kỷ nguyên mới" trong khuôn khổ Tuần lễ Khoa học - Công nghệ VinFuture 2025. Ảnh: Vietnam+

*Việt Nam là một trong số ít những quốc gia đang xem xét ban hành Luật trí tuệ nhân tạo. Giáo sư đánh giá như thế nào về việc này? Theo đánh giá của Giáo sư, đâu là những thách thức đối với vấn đề đạo đức và an ninh an toàn trong việc phát triển AI đối với những quốc gia đang phát triển như Việt Nam? Giáo sư có khuyến nghị gì cụ thể khi Việt Nam đặt ra mục tiêu đạt tốp đầu khu vực và thế giới về nghiên cứu và làm chủ AI?

- Tôi rất vui khi Việt Nam là một trong số quốc gia tiên phong sẽ có Luật chuyên biệt về Trí tuệ nhân tạo. Điều này quan trọng bởi mỗi quốc gia đều có giá trị và văn hóa riêng và cần luật pháp để bảo vệ những giá trị đó.

Giá trị và văn hóa của Việt Nam khác với Australia, khác với Trung Quốc và khác với Hoa Kỳ. Chúng ta không thể trông chờ các công ty công nghệ từ Trung Quốc hay Hoa Kỳ sẽ tự động bảo vệ văn hóa, ngôn ngữ Việt Nam. Những điều đó phải do chính Việt Nam chủ động bảo vệ.

Tôi lưu ý rằng trong quá khứ, nhiều quốc gia đang phát triển đã trải qua giai đoạn bị đô hộ về mặt vật lý. Nếu không cẩn thận, chúng ta có thể sẽ trải qua giai đoạn "đô hộ số". Khi đó, dữ liệu của các bạn sẽ bị khai thác, trở thành nguồn lực rẻ tiền. Điều này có nguy cơ xảy ra nếu các quốc gia đang phát triển phát triển ngành AI theo cách chỉ khai thác dữ liệu mà không kiểm soát cũng như bảo vệ quyền lợi của mình.

Vậy làm sao để khắc phục được tình trạng này? Rất đơn giản: Hãy đầu tư vào con người; nâng cao kỹ năng cho mọi người, đảm bảo họ có hiểu biết về AI; hỗ trợ các doanh nhân, doanh nghiệp AI, hỗ trợ các trường đại học; hãy tham gia một cách chủ động. Thay vì chờ đợi các quốc gia khác chuyển giao công nghệ hay định hướng cho chúng ta, chúng ta phải chủ động và làm chủ công nghệ. Bên cạnh đó, chúng ta cần vận động mạnh mẽ các nền tảng mạng xã hội để họ tạo ra môi trường an toàn cho người dùng tại Việt Nam.

* AI đang phát triển bùng nổ. Vậy phải làm gì để AI không gây tác hại đến con người, đặc biệt là giới trẻ, thưa Giáo sư?

- Tôi nghĩ rằng, chúng ta chưa rút ra nhiều bài học từ mạng xã hội. Nhiều quốc gia giờ đây mới bắt đầu nhận ra rằng mạng xã hội mang lại lợi ích lớn nhưng cũng có nhiều tác hại, đặc biệt ảnh hưởng tới sức khỏe tinh thần, mức độ lo âu và nhận thức sai lệch về ngoại hình của giới trẻ, nhất là các bạn nữ.

Nhiều quốc gia đã bắt đầu triển khai các biện pháp để giải quyết vấn đề này. Ở Australia, từ ngày 10/12, quy định về độ tuổi sử dụng mạng xã hội sẽ có hiệu lực. Tôi cho rằng, chúng ta cũng cần những biện pháp tương tự cho AI. Chúng ta đang xây dựng những công cụ có thể mang lại tác động tích cực nhưng cũng có thể gây tác hại tương tự và chúng ta cần bảo vệ trí tuệ và tâm hồn các em khỏi những tác động tiêu cực này.

Bên cạnh đó, tôi hy vọng các quốc gia cũng sẽ ban hành các quy định quản lý nghiêm ngặt mạng xã hội, từ đó tạo ra một môi trường thật sự an toàn cho mọi người khi sử dụng AI.

* Trân trọng cảm ơn Giáo sư.

Thu Phương/ TTXVN

Cùng chuyên mục
Xem theo ngày
Đọc thêm