Ngày 22/7 vừa qua, tại một sự kiện do Cục Dự trữ Liên bang Mỹ (FED) tổ chức bàn về tác động kinh tế và xã hội của trí tuệ nhân tạo (AI), CEO của OpenAI – Sam Altman, đã lên tiếng cảnh báo về những rủi ro tiềm ẩn mà thế giới có thể đối mặt do sự phát triển nhanh chóng của công nghệ AI. Cụ thể, ông Altman lo ngại về khả năng AI có thể giả mạo giọng nói và hình ảnh với độ chính xác cao, thậm chí có thể vượt qua nhiều hình thức xác thực hiện tại.
Hiện nay, vẫn có nhiều tổ chức tài chính chấp nhận sử dụng giọng nói như một phương thức xác minh để thực hiện các giao dịch quan trọng, như chuyển tiền. Theo ông Altman, điều này là “thực sự nguy hiểm” vì AI đã có khả năng đánh bại gần như toàn bộ các phương thức xác thực hiện tại, ngoại trừ mật khẩu. Việc này làm dấy lên lo ngại về việc bảo mật và an toàn trong các giao dịch tài chính cũng như các hoạt động trực tuyến khác.
Không chỉ dừng lại ở đó, ông Altman còn bày tỏ sự quan tâm đến viễn cảnh siêu AI có thể bị các thế lực thù địch lạm dụng. Khi phần lớn thế giới chưa đủ khả năng phòng thủ trước công nghệ này, nguy cơ một kẻ xấu tạo ra siêu AI để tấn công lưới điện hoặc chế tạo vũ khí sinh học là điều không thể loại trừ. Điều này đặt ra một thách thức lớn cho toàn cầu trong việc kiểm soát và đảm bảo sự phát triển của AI được sử dụng một cách có trách nhiệm.
Ông Altman cũng nhấn mạnh rằng thế giới chưa sẵn sàng để đối mặt với những công nghệ mới như video và cuộc gọi AI giả mạo, vốn có thể không thể phân biệt được với người thật. Đây là một lỗ hổng lớn mà các quốc gia và tổ chức cần phải nhanh chóng giải quyết để tránh những hậu quả không thể đoán trước.
Song song với việc cảnh báo về những rủi ro, ông Altman cũng lên tiếng về nhu cầu tìm kiếm giải pháp để kiểm soát AI. Một trong những sáng kiến được ông ủng hộ là The Orb – một thiết bị giúp xác minh người dùng là con người thật trong môi trường kỹ thuật số. Ông hi vọng dự án này sẽ trở thành một nền tảng “chứng thực nhân dạng” quan trọng trong một thế giới mà AI có thể dễ dàng giả mạo mọi thứ.
Về phần mình, OpenAI khẳng định không phát triển các công cụ tạo video hay giọng nói giả mạo. Tuy nhiên, ông Altman nhận định rằng các công nghệ này đang tiến bộ rất nhanh, không chỉ tại Mỹ mà còn trên toàn thế giới. Sự phát triển chóng mặt này đang đặt ra những thách thức mới trong việc quản lý và kiểm soát AI.
Trước những cảnh báo của ông Altman, không khó để tìm thấy những ví dụ về việc sử dụng deepfake – công nghệ tạo ra hình ảnh và giọng nói giả mạo – đã gây ra nhiều sự cố và chấn động dư luận. Mới đây, các chuyên gia tại Việt Nam cũng đã lên tiếng về trào lưu sử dụng deepfake để tạo nội dung nhằm thu hút sự chú ý trên mạng xã hội.
Luật sư Đăng Ngọc Duệ, Giám đốc Công ty Luật TNHH Phụng Sự Công Lý, cũng đã đưa ra nhận định rằng việc xử lý các trường hợp liên quan đến deepfake sẽ tùy thuộc vào nội dung của hình ảnh, video được dàn dựng và mục đích của người sản xuất/phát tán. Điều này cho thấy sự cần thiết của một khung pháp lý rõ ràng và cụ thể để xử lý những vấn đề mới phát sinh từ sự phát triển của công nghệ AI.
Tổng quan, những cảnh báo của CEO OpenAI, Sam Altman, đã nhấn mạnh tầm quan trọng của việc quản lý và kiểm soát sự phát triển của AI. Với sự tiến bộ không ngừng của công nghệ, việc tìm kiếm các giải pháp để đảm bảo AI được phát triển và sử dụng một cách có trách nhiệm, an toàn đang trở thành một nhiệm vụ cấp thiết trên toàn cầu.