Hàn Quốc đang tăng cường các biện pháp bảo vệ trước những rủi ro tiềm ẩn từ sự phát triển của trí tuệ nhân tạo (AI), trong khi OpenAI đối mặt với làn sóng chỉ trích và các vụ kiện liên quan đến vấn đề bản quyền.
Văn phòng An ninh quốc gia của tổng thống Hàn Quốc vừa công bố việc thành lập một nhóm tư vấn đặc biệt, tập trung vào việc điều phối và xây dựng các biện pháp ứng phó với những mối đe dọa an ninh do trí tuệ nhân tạo (AI) gây ra. Quyết định này cho thấy sự quan tâm ngày càng tăng của chính phủ Hàn Quốc đối với những thách thức và cơ hội mà AI mang lại.
Cuộc họp đầu tiên của nhóm tập trung vào các vấn đề an ninh phát sinh từ sự phát triển nhanh chóng của AI, đặc biệt là AI tạo sinh (generative AI). Các chuyên gia bày tỏ lo ngại về nguy cơ lạm dụng hoặc mất kiểm soát công nghệ này, có thể dẫn đến những hậu quả nghiêm trọng.
Ông Wang Yun Jong, một lãnh đạo cấp cao của Văn phòng An ninh quốc gia, nhấn mạnh sự cần thiết của các biện pháp “ứng phó chủ động ở cấp quốc gia” để đảm bảo an ninh trong bối cảnh công nghệ AI phát triển mạnh mẽ.
Việc thành lập nhóm tư vấn an ninh AI phản ánh một xu hướng toàn cầu. Các chính phủ trên thế giới ngày càng nhận thức rõ hơn về tác động sâu rộng của AI, không chỉ về mặt công nghệ mà còn liên quan đến an ninh quốc gia, quyền sở hữu trí tuệ và các vấn đề đạo đức.
Nhóm tư vấn an ninh AI của Hàn Quốc có nhiệm vụ chính là:
Hàn Quốc là một trong những quốc gia đi đầu trong việc phát triển và ứng dụng AI. Chính phủ Hàn Quốc đã đặt AI là một trong những ưu tiên hàng đầu và đang đầu tư mạnh mẽ vào nghiên cứu và phát triển AI.
Tuy nhiên, sự phát triển nhanh chóng của AI cũng đặt ra những thách thức lớn về an ninh. Chính phủ Hàn Quốc đang nỗ lực để đảm bảo rằng AI được phát triển và sử dụng một cách an toàn và có trách nhiệm.
Trong khi Hàn Quốc tìm cách kiểm soát an ninh AI, OpenAI, công ty đứng sau ChatGPT, đang phải đối mặt với một làn sóng các vụ kiện liên quan đến vấn đề bản quyền. Các nguyên đơn bao gồm tờ báo New York Times, các nghệ sĩ, nhạc sĩ và nhà xuất bản, tất cả đều cáo buộc OpenAI sử dụng trái phép tài liệu có bản quyền để đào tạo các mô hình AI của mình.
New York Times cáo buộc OpenAI đã sao chép “hàng triệu” bài báo của mình mà không được phép, gây thiệt hại đáng kể cho hoạt động kinh doanh của tờ báo. Các nghệ sĩ và nhạc sĩ cũng đưa ra các cáo buộc tương tự, cho rằng OpenAI đã sử dụng các tác phẩm của họ để đào tạo AI mà không trả tiền bản quyền.
OpenAI đang cố gắng bảo vệ mình bằng cách viện dẫn nguyên tắc “sử dụng hợp lý” (fair use), một điều khoản trong Luật Bản quyền Hoa Kỳ cho phép sử dụng một phần tác phẩm có bản quyền mà không cần xin phép trong một số trường hợp nhất định, chẳng hạn như phê bình, bình luận, báo cáo tin tức, giảng dạy, học bổng và nghiên cứu.
Tuy nhiên, việc liệu nguyên tắc “sử dụng hợp lý” có áp dụng cho việc sử dụng tài liệu có bản quyền để đào tạo AI hay không vẫn là một vấn đề gây tranh cãi. Các chuyên gia pháp lý chia rẽ về vấn đề này, và tòa án sẽ phải đưa ra phán quyết cuối cùng.
Ngoài việc bảo vệ mình tại tòa án, OpenAI cũng đang vận động hành lang Chính phủ Mỹ để hợp pháp hóa việc sử dụng nội dung có bản quyền theo nguyên tắc “sử dụng hợp lý”. Công ty này cho rằng việc hạn chế sử dụng tài liệu có bản quyền để đào tạo AI sẽ cản trở sự phát triển của công nghệ này và gây bất lợi cho nền kinh tế Mỹ.
Các vụ kiện chống lại OpenAI có thể có tác động lớn đến tương lai của bản quyền trong kỷ nguyên AI. Nếu tòa án phán quyết rằng việc sử dụng tài liệu có bản quyền để đào tạo AI là vi phạm bản quyền, thì các công ty AI có thể phải trả tiền bản quyền cho chủ sở hữu bản quyền, điều này có thể làm tăng chi phí phát triển AI và hạn chế sự đổi mới.
Ngược lại, nếu tòa án phán quyết rằng việc sử dụng tài liệu có bản quyền để đào tạo AI là “sử dụng hợp lý”, thì các công ty AI sẽ có thể tiếp tục sử dụng tài liệu có bản quyền mà không cần xin phép, điều này có thể thúc đẩy sự phát triển của AI nhưng cũng có thể gây thiệt hại cho chủ sở hữu bản quyền.
Trước những diễn biến phức tạp trên toàn cầu về an ninh AI và vấn đề bản quyền, Việt Nam cần chủ động chuẩn bị để tận dụng tối đa cơ hội và giảm thiểu rủi ro.
Việt Nam cần khẩn trương xây dựng và hoàn thiện hành lang pháp lý về AI, bao gồm các quy định về an ninh AI, quyền sở hữu trí tuệ và bảo vệ dữ liệu cá nhân. Các quy định này cần phải phù hợp với các tiêu chuẩn quốc tế, đồng thời phản ánh các đặc điểm riêng của Việt Nam.
Việt Nam cần đầu tư mạnh mẽ vào đào tạo nguồn nhân lực AI chất lượng cao, bao gồm các chuyên gia về an ninh AI, luật sư về bản quyền AI và các nhà khoa học dữ liệu.
Việt Nam cần tăng cường hợp tác quốc tế với các quốc gia và tổ chức quốc tế hàng đầu về AI để chia sẻ kinh nghiệm và học hỏi các thông lệ tốt nhất.
Việt Nam cần nâng cao nhận thức của công chúng về các vấn đề liên quan đến AI, bao gồm cả những lợi ích và rủi ro tiềm ẩn.
Việt Nam cần tạo điều kiện thuận lợi cho các doanh nghiệp AI phát triển, bao gồm cả việc cung cấp các khoản vay ưu đãi, giảm thuế và hỗ trợ các hoạt động nghiên cứu và phát triển.
Trong bối cảnh AI ngày càng phát triển mạnh mẽ, việc đảm bảo an ninh và giải quyết các vấn đề bản quyền là vô cùng quan trọng để thúc đẩy sự phát triển bền vững và có trách nhiệm của công nghệ này, đồng thời bảo vệ quyền lợi của tất cả các bên liên quan.