Ngày 18-7, Hội đồng Bảo an Liên hợp quốc (HĐBA LHQ) lần đầu tiên họp bàn về các nguy cơ từ việc phát triển và ứng dụng công nghệ trí tuệ nhân tạo (AI). Động thái diễn ra trong bối cảnh thế giới chứng kiến sự bùng nổ ngày một choáng ngợp công nghệ AI, đặc biệt từ khi ứng dụng ChatGPT ra mắt cuối năm ngoái. Nhiều nước đang tìm cách quản lý các loại hình AI có thể tương tác (chatbot) như vậy, đảm bảo công nghệ này không gây nguy hiểm cho nhân loại, theo hãng tin Reuters.
Hội đồng Bảo an Liên hợp quốc lần đầu họp bàn về quản lý rủi ro AI tại trụ sở Liên hợp quốc ở New York (Mỹ) ngày 18-7. Ảnh: SKY NEWS |
AI, con dao hai lưỡi
Tại cuộc họp HĐBA, các nước ghi nhận các lợi ích to lớn của AI nhưng không loại trừ rủi ro. Tổng Thư ký LHQ Antonio Guterres nêu ý kiến rằng việc ứng dụng AI “dù trong lĩnh vực quân sự lẫn phi quân sự đều tiềm ẩn những tác hại không thể lường trước được đối với hòa bình và an ninh thế giới”.
Đại diện nước chủ tịch luân phiên HĐBA tháng 7, Ngoại trưởng Anh James Cleverly cho rằng công nghệ AI sẽ “thay đổi gần như mọi khía cạnh trong cuộc sống hằng ngày”, có thể hỗ trợ giải quyết các vấn đề lớn như biến đổi khí hậu hay phát triển kinh tế. Tuy nhiên, ông Cleverly cũng cảnh báo “cần nhanh chóng có hệ thống quản lý AI phù hợp vì tính chất công nghệ này là không bị giới hạn bởi bất kỳ quốc gia nào”. Nếu mất kiểm soát thì AI sẽ trở thành công cụ lan truyền tin giả, tin sai lệch, có thể bị lợi dụng để phá vỡ ổn định toàn cầu.
Cần có chế tài quốc tế để một công ty công nghệ có trụ sở tại một quốc gia này không thể phá hủy một quốc gia khác mà không bị xử lý.
Phó Đại sứ Mỹ tại LHQ Jeffrey DeLaurentis nêu quan điểm rằng AI có tiềm năng và “phải là công cụ để nâng cao chất lượng cuộc sống con người và giúp chúng ta đạt được những nguyện vọng cao cả của mình - bao gồm cả ước muốn một thế giới an toàn và hòa bình hơn”.
Ông DeLaurentis cho rằng các quốc gia cần hợp tác cùng nhau trong các nỗ lực quản lý AI và các công nghệ mới nổi khác, nhằm giải quyết các vấn đề về quyền con người, những nguy cơ đe dọa hòa bình và an ninh. Đại diện phía Mỹ đặc biệt nhấn mạnh không quốc gia nào được phép sử dụng AI nhằm phục vụ ý đồ chính trị. Mỹ mong muốn được hợp tác với tất cả các bên liên quan đảm bảo việc phát triển và sử dụng có trách nhiệm các hệ thống AI đáng tin cậy phục vụ lợi ích chung toàn cầu.
Trong khi đó, Đại sứ Trung Quốc (TQ) Trương Quân mô tả AI là “con dao hai lưỡi”, “công nghệ này tốt hay xấu, thiện hay ác, phụ thuộc vào cách con người sử dụng”. Đại diện TQ đề nghị các nước “cùng nhau điều chỉnh việc sử dụng AI để ngăn khả năng công nghệ này trở nên mất kiểm soát”.
Điều quan trọng là không bỏ sót yếu tố con người trong công nghệ AI. Các hệ thống này không hoàn toàn hoạt động độc lập và cần phải có sự giám sát của con người, do vậy những người thiết kế ra AI cũng cần phải chịu trách nhiệm.
GS REBECCA WILLETT, Giám đốc Viện Khoa học dữ liệu thuộc ĐH Chicago (Mỹ)
Cơ chế kiểm soát toàn cầu
Với các lo ngại trên, Tổng Thư ký LHQ Guterres cho biết ông đồng ý với nhiều thành viên HĐBA rằng cần phải gấp rút thiết lập quy định quản lý chung cho AI.
Theo ông Guterres, “để hỗ trợ nỗ lực giám sát và điều chỉnh AI, LHQ có thể lập một cơ quan mới dựa trên mô hình các cơ quan đã có như Cơ quan Năng lượng nguyên tử quốc tế (IAEA), Tổ chức Hàng không dân dụng quốc tế (IACO) hay Ủy ban Liên chính phủ về biến đổi khí hậu (IPCC)”.
Đại sứ Trương Quân khẳng định Bắc Kinh ủng hộ vai trò trung tâm của LHQ trong việc xây dựng các nguyên tắc sử dụng AI, nhằm ngăn chặn nguy cơ công nghệ này trở thành “con ngựa bất kham”.
Chuyện lập cơ quan quản lý rủi ro AI mà ông Guterres nêu ra tại cuộc họp HĐBA ngày 18-7 cũng là ý tưởng của nhiều chuyên gia.
Trả lời tờ The New York Times trong một cuộc phỏng vấn về quản lý AI, Giám đốc Viện Khoa học dữ liệu thuộc ĐH Chicago (Mỹ) - GS Rebecca Willett cho rằng “thực sự cần phải có những chế tài quốc tế để một công ty công nghệ có trụ sở tại một quốc gia này không thể phá hủy một quốc gia khác mà không bị xử lý gì”. Quy định pháp lý mới có thể làm cho mọi thứ tốt hơn và an toàn hơn, theo bà Willett.
Điều trần trước Thượng viện Mỹ gần đây, Giám đốc điều hành Công ty OpenAI (Mỹ) Sam Altman cho rằng sự can thiệp của các cơ quan quản lý là rất quan trọng để giảm thiểu rủi ro của các hệ thống AI ngày càng trở nên mạnh mẽ và nguy hiểm hơn. Ông Altman đề xuất lập một cơ quan của Mỹ hoặc của LHQ chịu trách nhiệm cấp phép cho các hệ thống AI mới và có quyền “thu hồi giấy phép đó và đảm bảo các công nghệ AI mới ra đời tuân thủ các tiêu chuẩn an toàn”.•
Thách thức với nỗ lực quản lý AI
Không giống các hệ thống công nghệ truyền thống, các nhà thiết kế AI không thể quyết định 100% hệ thống AI sẽ hoạt động như thế nào. Đây là thách thức lớn nhất cho mọi nỗ lực quản lý AI hiện nay, theo Giám đốc Trung tâm Trí tuệ nhân tạo có trách nhiệm xã hội thuộc ĐH bang Pennsylvania (Mỹ) - GS S. Shyam Sundar.
“Khi một chiếc ô tô truyền thống được vận chuyển ra khỏi nhà máy, các kỹ sư biết chính xác nó sẽ hoạt động như thế nào. Nhưng với ô tô tự lái bằng AI, các kỹ sư không bao giờ có thể chắc chắn nó sẽ hoạt động và phản ứng như thế nào trong những tình huống mới” - ông Sundar nêu ví dụ.
Gần đây, hàng ngàn người khắp thế giới đã rất ngạc nhiên trước những gì mà các ứng dụng AI như GPT-4 và DALL-E 2 có thể tạo ra dưới dạng văn bản và hình ảnh. Tuy nhiên, các kỹ sư thiết kế ra hai ứng dụng này không kiểm soát được các kết quả mà hai ứng dụng này tự tạo ra theo yêu cầu của người dùng. Và mọi chuyện càng phức tạp hơn khi công nghệ AI ngày càng tinh vi và các hoạt động tương tác với người dùng diễn ra thường xuyên hơn.
“Điều này có nghĩa những quy định mới về AI cần phải được thiết kế mới và thường xuyên được đánh giá lại để đảm bảo tính hiệu quả. Không thể áp dụng rập khuôn cách quản lý các công nghệ khác cho AI bởi làm như thế vừa không thể kiểm soát được, vừa hạn chế tiến bộ công nghệ” - ông Sundar giải thích.
Các bên thiết kế AI cũng cần phải cực kỳ sáng tạo trong việc hình dung ra những cách mà hệ thống AI có thể hành xử và cố gắng lường trước những vi phạm tiềm ẩn của sản phẩm đối với các tiêu chuẩn đạo đức và trách nhiệm xã hội.