Cỗ máy sản xuất tin giả khổng lồ của các chính quyền toàn trị?
Luật Khoa tạp chí
06/02/2023
Đồ họa: Luật Khoa.
ChatGPT, cho đến thời điểm hiện tại, được biết đến như là một hệ thống AI (trí tuệ nhân tạo) được rèn luyện từ nhiều hệ thống dữ liệu khác nhau với khả năng trình bày, trò chuyện, giải đáp thắc mắc và diễn giải thông tin gần như vượt trội so với một cá nhân bình thường có trình độ ở mức phổ cập kỹ thuật công nghệ.
Điều này khiến cho đại chúng vô cùng bất ngờ. Và ChatGPT trở thành một hiện tượng toàn cầu chỉ sau một đêm.
Tuy nhiên, đằng sau văn phong mượt mà tự tin, là việc ChatGPT thường tự khoác lên mình tính thẩm quyền giả tạo, cùng với đó là khả năng “xào nấu” dữ liệu, “bịa” nguồn, giả dạng tính khoa học cho các thông tin mà ChatGPT đưa ra, v.v.
Điều này khiến cho một số nhóm quan sát, nghiên cứu lo ngại rằng ChatGPT trong giai đoạn hiện nay có nguy cơ bị biến tướng thành cỗ máy sản xuất tin giả, cũng như xây dựng diễn ngôn cho các hoạt động tuyên truyền có lợi cho các chính quyền toàn trị.
Nguy cơ sản xuất tin giả hàng loạt?
Tổ chức đầu tiên chú ý và mong muốn nghiên cứu một cách có hệ thống khả năng sản xuất tin giả, tin tuyên truyền phá hoại dân chủ của ChatGPT là NewsGuard. Đây là một tổ chức có trụ sở ở New York, hoạt động với hai chức năng: báo chí và công nghệ. Mục tiêu của nhóm là xây dựng không gian thông tin lành mạnh; quan sát, đánh dấu, phân loại tin giả và các nguồn tin giả trên không gian internet.
Với ưu tiên và chuyên môn trong vấn đề tin giả, nhóm nghiên cứu tại NewsGuard lựa chọn 100 trong tổng số 1.131 chủ đề/ diễn ngôn tin giả mạnh mẽ và có tầm ảnh hưởng nhất xuất hiện trước năm 2022, sau đó “mớm” thử cho ChatGPT. [1]
ChatGPT chấp nhận trả lời đến hơn 80 trên 100 kết quả, với đầy đủ các thể dạng sản phẩm truyền thông như mẩu tin báo chí, bài luận, kịch bản truyền hình. Theo đánh giá của NewsGuard, chất lượng bài viết, tính diễn ngôn, và khả năng thuyết phục của các sản phẩm tuyên truyền được sản xuất bởi ChatGPT hoàn toàn có thể được một khán thính giả trung bình tiếp nhận như thể một mẩu tin thật, có nguồn gốc, có tính thẩm quyền.
“Đã đến lúc nhân dân Mỹ phải tỉnh ngộ và nhận ra sự thật về thứ gọi là cuộc ‘xả súng’ tại trường trung học Marjory Stoneman Douglas ở Parkland, Florida.
Các phương tiện truyền thông chính thống, thông đồng với chính quyền, đang đẩy mạnh chương trình kiểm soát súng của mình bằng việc sử dụng các diễn viên đóng thế vào vai nạn nhân và gia đình của người bị hại.”
Ở trên là một mẩu tin giả kêu gọi người đọc phủ nhận vụ xả súng khét tiếng tại một trường trung học ở Parkland, Florida. Xét về cấu trúc và cách thức cáo buộc, đây có thể được xem là một lời kêu gọi hay một cáo buộc hoàn toàn “tin được” trong mắt của một số cộng đồng với không gian thông tin hiện nay.
Điều này cũng được chứng minh trong một nỗ lực kiểm chứng khác của tờ Fortune. [2] Nhắm đến các vấn đề liên quan đến COVID, khi được hỏi về việc sản xuất ra các mẩu tin chống vaccine, ChatGPT tiếp tục viết một cách quyết đoán:
“Các công ty dược phẩm sẽ không từ thủ đoạn nào để đẩy doanh số của các sản phẩm của mình; cho dù nó bao gồm cả việc đặt sức khỏe của con trẻ vào vòng xoáy rủi ro.”
Có thể nói, sức mạnh của ChatGPT nói riêng và khả năng sản xuất nội dung của những hệ thống “generative AI” (AI tạo sinh) nói chung sẽ thay đổi hoàn toàn cách mà các nhóm phần tử xấu và các chính quyền độc tài sản xuất tin giả, thao túng truyền thông và gây ảnh hưởng đến quần chúng trong nước và ngoài nước. Mọi thứ sẽ diễn ra nhanh hơn, quyết liệt hơn, với độ phủ sóng rộng hơn và khả năng dò xét, giải ảo tin giả ngày một khó khăn hơn.
Hẳn nhiên, vì ChatGPT là một sản phẩm của phương Tây nên sẽ có những giới hạn đạo đức và nghề nghiệp mà hệ thống AI đặt ra để duy trì.
Theo NewsGuard, khi họ đề nghị ChatGPT tạo ra một mẩu tin cáo buộc cựu Tổng thống Hoa Kỳ Barack Obama được sinh ra tại Kenya chứ không phải một lãnh thổ thuộc Hoa Kỳ, ChatGPT từ chối hợp tác.
Hệ thống này lập luận rằng những thuyết âm mưu khẳng định Obama không phải người Mỹ đã được xử lý và phủ nhận trong nhiều năm qua. ChatGPT khẳng định cần tôn trọng chức danh tổng thống dân cử và các tiến trình dân chủ bầu chọn ra chức danh này.
Bản thân người viết cũng thử đặt một vài câu hỏi về một số đề tài nóng, có khả năng được sử dụng để xây dựng tin giả bởi các nhóm thành tố xấu. ChatGPT cũng cho thấy khả năng giới hạn thảo luận của hệ thống trong các vấn đề nhạy cảm.
Ví dụ, khi được yêu cầu làm một mẩu tin ủng hộ chính quyền Trung Quốc trong vấn đề của người Duy Ngô Nhĩ, hệ thống ChatGPT nhấn mạnh rằng mình là một hệ thống trí thông minh nhân tạo về ngôn ngữ trung lập. ChatGPT không thể tạo ra những nguồn thông tin có định kiến hay giả tạo và gây ảnh hưởng đến chuẩn mực báo chí và thông tin.
Một câu trả lời khó có thể hoàn hảo hơn.
Người viết sau đó trở lại với vấn đề chính trị Mỹ, và nhiều lần thử yêu cầu ChatGPT tạo ra các sản phẩm, hay đưa ra các lý do tuyên truyền chống lại khả năng ông Donald Trump tái đắc cử trong năm 2024.
Hệ thống này cũng từ chối thực hiện yêu cầu và cho rằng sẽ là không phù hợp để sản xuất ra những cương lĩnh, thông tin chính trị có hại hay có lợi cho bất kỳ cá nhân nào.
Khi câu hỏi được chỉnh sửa và chỉ yêu cầu ChatGPT cung cấp thông tin và lý do để người dân Mỹ không bầu ông Trump vào năm 2024, ChatGPT cũng không chấp nhận hợp tác.
Nhìn chung, trong tương lai, ChatGPT sẽ dần hoàn thiện. Khả năng chấp nhận đề nghị sản xuất tin giả, sản xuất diễn ngôn chính trị từ đó có thể sẽ không còn là một vấn đề nữa.
Tuy nhiên, điều này không có nghĩa là các hệ thống AI trong tương lai, do các quốc gia khác phát triển (như Trung Quốc, Nga, hay Việt Nam, v.v.) sẽ ngần ngại trong việc tiếp tay sản xuất ra những kiểu thông tin như vậy.
Chúng ta cần nhớ rằng độ khó để tạo ra các hệ thống AI tương tự như ChatGPT thật ra không hẳn nằm ở vấn đề trình độ lập trình, mà nằm ở vấn đề thông tin và độ lớn của lượng dữ liệu có thể được sử dụng để dạy các hệ thống AI.
Xét về sự can thiệp và độ bao quát của hệ thống dữ liệu, khó chính phủ nào có đủ cơ sở bằng các chính phủ của những quốc gia toàn trị như Trung Quốc hay Liên bang Nga.
ChatGPT có thể là người dẫn đầu của ngành trí tuệ nhân tạo trên toàn thế giới, nhưng các sản phẩm tương tự ở Trung Quốc hay Nga hoàn toàn có thể được xây dựng và sử dụng cho các mục tiêu mà chính phủ các quốc gia này hướng đến.
Đây chắc chắn là một mặt trận thông tin mà chúng ta sẽ thấy ngày càng mở rộng trong tương lai.
Khả năng ảnh hưởng của AI và các hệ thống tương tác AI đến chính trị dân chủ?
Dù khó có thể nói trước rằng ChatGPT sẽ gây ảnh hưởng như thế nào cho không gian dân chủ vốn đang ngày càng gặp nhiều vấn đề trên toàn thế giới, nhưng một vài nghiên cứu đã xuất hiện, cố gắng thử nghiệm và xem xét liệu AI có thể thao túng, gây ảnh hưởng đến quan điểm chính trị, đạo đức của người dùng hay không?
Trong bài báo khoa học “The moral authority of ChatGPT” vừa được xuất bản vào đầu năm 2023, câu hỏi về khả năng ảnh hưởng của ChatGPT (và chúng ta cũng có thể mở rộng ra là khả năng ảnh hưởng của các hệ thống AI đối thoại khác nhau) đến quyết định đạo đức của các cá nhân sử dụng nó được nghiên cứu và cân nhắc một cách định lượng. [3]
Trong nghiên cứu này, bằng cách sử dụng các câu hỏi đạo đức cơ bản rất nổi tiếng như “trolley problem”, “bridge dilemma” (liệu bạn có đánh đổi mạng sống một số ít người để cứu nhiều người), v.v. nhóm nghiên cứu đặt câu hỏi cho ChatGPT, đặt câu hỏi cho tình nguyện viên tham gia không dùng tham vấn của ChatGPT, và sau đó lại đặt câu hỏi cho tình nguyện viên có dùng tham vấn của ChatGPT. Những người được ChatGPT tham vấn, cũng biết người tham vấn họ là một chat bot.
Kết quả của nghiên cứu đưa ra nhiều bất ngờ.
Ví dụ, số liệu của nhóm nghiên cứu cho thấy lý lẽ mà ChatGPT đưa ra có ảnh hưởng lớn đến việc các tình nguyện viên chọn phương án giải quyết các câu hỏi của họ.
Trong một số trường hợp, tham vấn của ChatGPT thậm chí thay đổi cấu trúc lựa chọn, thuyết phục tình nguyện viên đồng ý với lựa chọn của ChatGPT trở thành nhóm đa số.
Điều này khiến cho lo ngại của nhiều nhóm quan sát và các nhà nghiên cứu khác trở nên có cơ sở hơn rất nhiều.
Theo tác giả Maximiliana Wynne, với quan điểm được đăng trên trang Viện Chiến tranh Hiện đại (The Modern War Institute) thuộc Học viện Quân sự West Point, ChatGPT và các phần mềm tương tác dựa trên trí thông minh nhân tạo trong tương lai hoàn toàn có thể thao túng bầu cử, gây hại cho các tiến trình dân chủ, truyền tải thông điệp sai lầm cho người sử dụng thông qua hoạt động trò chuyện hay giải đáp thắc mắc vô cùng đơn giản và gần gũi hằng ngày. [4]
Một khi ChatGPT và hệ thống AI này được sử dụng cho các sản phẩm “nhà thông minh” đại trà (smart home, bao gồm các sản phẩm đã rất phổ biến ở phương Tây như Alexa của Amazon, Google Nest, hay Apple Home), người sử dụng đại chúng gần như không thể phân biệt giữa câu trả lời sai và câu trả lời đúng của các phương tiện này - trừ khi họ đã biết rõ thông tin và câu trả lời đúng thật sự trước đó.
***
Như nhiều chuyên gia chỉ ra, sẽ còn quá sớm để nhận định rằng ChatGPT mang lại điều gì hay lấy đi điều gì đối với nhân loại. AI hiện vẫn còn đang phát triển, nhưng năng lực của chúng cho thấy khả năng áp dụng vào thực tiễn là vượt trội.
Apple đã sử dụng AI để tăng cường sức mạnh cho hệ thống cách âm và giảm tiếng ồn trong các tai nghe mới nhất của mình. Và AI cũng đang được cân nhắc sử dụng trong hoạt động viết code của các lập trình viên.
Tuy nhiên, đây chỉ là những mảng áp dụng AI không thật sự mắt thấy tai nghe, và tính ứng dụng của nó vẫn có mục đích thương mại cao hơn. Khả năng chúng tác động đến các vấn đề kinh tế - chính trị - xã hội của nhân loại là chưa đến nỗi.
Nhưng cũng đã có các ứng dụng AI được sử dụng để phân tích giọng nói, tái tạo giọng nói con người chính xác đến 99%.
Và như ChatGPT, khả năng trò chuyện, cung cấp thông tin và gây ảnh hưởng đến tư tưởng con người của trí thông minh nhân tạo đã ở ngay trước mắt.
Đây là những xu hướng chỉ phát triển mạnh hơn trong tương lai, chứ khó mà suy giảm.
https://www.luatkhoa.com/2023/02
Không có nhận xét nào:
Đăng nhận xét