Thông Luận

Cơ quan ngôn luận của Tập Hợp Dân Chủ Đa Nguyên

Geoffrey Hinton tin rằng AI đã có những trải nghiệm giống như con người.

ai1

Geoffrey Hinton, giáo sư danh dự tại Đại học Toronto, nói chuyện với tờ Nikkei tại nhà ông gần khuôn viên trường đại học ở Toronto. (Ảnh của Katsuyoshi Tanaka)

Trí tuệ nhân tạo (Artificial Intelligence - AI) đang phát triển với tốc độ đáng kinh ngạc. Thế giới sẽ thay đổi thế nào khi chúng ta bước vào thời đại mà trí tuệ con người bị vượt trội trên mọi lĩnh vực ? Các phóng viên của Nikkei đã phỏng vấn giáo sư hưu trí Geoffrey Hinton của Đại học Toronto, người được mệnh danh là "Bố già của nghiên cứu AI", tại nhà riêng của ông ở Canada để thảo luận về tương lai của AI và nhân loại.

Dưới đây là bản biên tập nội dung cuộc phỏng vấn của Nikkei với Hinton.

Nikkei : Tại sao ông lại rời Google, dù ông chịu trách nhiệm phát triển AI ?

Geoffrey Hinton : Tôi đã nói chuyện với sếp của mình tại Google về việc nghỉ hưu bởi tôi đã 75 tuổi rồi, và về cả nỗi lo về mối đe dọa sống còn từ AI. Tôi cũng muốn được tự do nói chuyện công khai về điều đó.

Ông ấy bảo tôi "Tại sao ông không ở lại Google và giải quyết mối đe dọa sống còn đó ?" Nhưng tôi muốn nghỉ hưu. Nếu anh làm việc cho một công ty, ngay cả khi công ty không trực tiếp chỉ thị anh phải nói gì, anh cũng không thực sự được tự do nói về điều anh tin. Anh phải suy nghĩ đến lợi ích của công ty.

Nikkei : Tại sao ông nghĩ AI có thể trở thành mối đe dọa đối với nhân loại ?

Geoffrey Hinton : Anh có thể chỉ định một mục tiêu mà anh cho là tốt, nhưng AI có thể thực hiện mục tiêu đó theo cách không tốt lắm. Một ví dụ đơn giản là, giả sử anh có một AI siêu thông minh và anh nói với nó rằng mục tiêu của anh là ngăn chặn biến đổi khí hậu. Tôi đoán điều đầu tiên nó nhận ra sẽ là việc anh cần loại bỏ con người. Thế nên, hãy cẩn thận khi xác định mục tiêu.

Giả sử có sự cạnh tranh giữa các AI khác nhau. Một AI trở nên thông minh hơn bằng cách xem xét nhiều dữ liệu hơn, và để làm được điều đó, nó cần rất nhiều trung tâm dữ liệu, rất nhiều tài nguyên. Vì vậy, trong cuộc cạnh tranh, hai AI cạnh tranh với nhau để giành tài nguyên, ai nhận được nhiều tài nguyên hơn sẽ làm tốt hơn. Đó sẽ là một loại quá trình tiến hóa, trong đó AI cạnh tranh với nhau, còn con người chúng ta sẽ bị bỏ lại thật xa.

Nhiều người nói rằng "Sao không tạo ra một công tắc lớn và cứ thế tắt nó đi ?" Chà, nếu AI thông minh hơn chúng ta, và chừng nào chúng còn có thể nói chuyện với chúng ta, thì chúng sẽ có thể thuyết phục người chịu trách nhiệm quản lý công tắc rằng việc tắt công tắc là một ý tưởng rất tồi.

Nikkei : Sinh viên của ông, người đồng sáng lập OpenAI Ilya Sutskever, đã cố gắng nhưng thất bại trong việc loại bỏ CEO OpenAI Sam Altman vào tháng 11/2023. Nguyên nhân là do mối đe dọa mà AI gây ra cho nhân loại.

Geoffrey Hinton : Cậu ấy rất quan tâm đến vấn đề an toàn. OpenAI là một trường hợp mà trong đó mọi thứ đều được sắp xếp để ưu tiên tính an toàn. Sứ mệnh của công ty kiểm soát phần hoạt động vì lợi nhuận của OpenAI cũng là sự an toàn. Nhưng ngay cả thế, lợi nhuận vẫn xếp cao hơn an toàn.

Hồi năm 2012, dường như những bộ óc kỹ thuật số này vẫn chưa tốt bằng con người. Chúng có thể đạt được khả năng nhận dạng vật thể và hình ảnh gần bằng con người, nhưng vào thời điểm đó, chúng tôi không nghĩ chúng có thể xử lý ngôn ngữ và hiểu những thứ phức tạp. Ilya đã thay đổi suy nghĩ trước tôi. Và hóa ra cậu ấy đã đúng.

Nikkei : Liên Hiệp Quốc đã quyết tâm hành động khẩn cấp liên quan đến quy định về chuyển hướng quân sự của AI tiên tiến.

Geoffrey Hinton : Sẽ có những vũ khí nguy hiểm, tự động, và gây chết người. Tôi khá chắc điều ấy sẽ xảy ra một lúc nào đó trong 10 năm tới. Lúc đó, người ta có thể kiểm soát chúng, giống như vũ khí hóa học. Chúng vẫn được sử dụng, nhưng không phổ biến như trong Thế chiến I. Nghĩa là hiệp định quốc tế về vũ khí hóa học đã có phát huy tác dụng. Hy vọng chúng ta có thể đạt được điều tương tự khi sử dụng robot tác chiến bằng AI. Nhưng tôi không nghĩ điều đó sẽ xảy ra cho đến khi chúng được đưa vào sử dụng.

Có một số điểm chung, mà tất cả các quốc gia đều có thể đồng ý, đó là chúng ta không muốn AI lên thống trị. Tất cả các quốc gia có thể chia sẻ nghiên cứu và thống nhất về các chính sách được thiết kế để ngăn chặn AI thống trị. Trong giai đoạn đỉnh điểm của Chiến tranh Lạnh, Nga và Mỹ đã chia sẻ những thông tin nhất định để ngăn chặn chiến tranh hạt nhân, bởi vì chiến tranh hạt nhân rõ ràng là có hại cho cả hai bên. Họ muốn ngăn chặn nó và họ đã thành công trong việc ngăn chặn nó.

Nikkei : Các AI tương tác, chẳng hạn như ChatGPT do OpenAI phát triển, có hiểu được ngôn ngữ con người hay không ?

Geoffrey Hinton : Tôi nghĩ chúng thực sự hiểu được. Tôi đã tạo ra mô hình ngôn ngữ đầu tiên với mạng thần kinh nhân tạo vào năm 1985. Nó được thiết kế như một mô hình về cách bộ não con người hiểu. Hầu hết những người nói rằng AI không hiểu đều không có một lý thuyết rõ ràng về cách con người chúng ta hiểu.

Nikkei : Ông từng cho rằng AI có thể hành động như thể nó hiểu ngôn ngữ, nhưng thực tế nó không hiểu.

Geoffrey Hinton : Tôi luôn lấy việc liệu AI có thể hiểu được một câu nói đùa hay không làm tiêu chí để đánh giá liệu nó có thực sự hiểu được mọi thứ hay không. Chatbot mà Google đã tạo ra vào năm 2022, PaLM, có thể hiểu tại sao một câu nói đùa lại buồn cười. Tôi đã yêu cầu nó giải thích một số câu đùa khác nhau và nó có thể giải thích tất cả.

Hinton đã xây dựng nền tảng học sâu và công nghệ cốt lõi cho trí tuệ nhân tạo. (Ảnh của Katsuyoshi Tanaka)

Nikkei : Ông có nghĩ rằng hiểu biết của chúng ta về loài người cũng đã thay đổi thông qua nghiên cứu về AI không ?

Geoffrey Hinton : Tôi nghĩ quá trình xây dựng các mạng thần kinh nhân tạo đã giúp chúng ta khám phá ra nhiều điều về cách thức hoạt động của bộ não. Chẳng hạn, một số triết gia và nhà ngôn ngữ học cho rằng ngôn ngữ là thứ [máy móc] không thể học được, mà đòi hỏi phải tiến hóa, phải thuộc về bản năng. Nhưng điều đó hóa ra là hoàn toàn không đúng.

Suốt 50 năm, tôi đã phát triển nhiều mạng thần kinh nhân tạo, cố gắng làm cho chúng giống bộ não hơn. Và tôi luôn tin rằng nếu chúng càng giống bộ não con người thì càng tốt, vì bộ não hoạt động tốt hơn nhiều so với mạng thần kinh. Nhưng đầu năm 2023, tôi đã đột ngột thay đổi suy nghĩ của mình.

Con người có thể cố gắng chia sẻ kiến thức nhưng chúng ta làm việc đó rất chậm. Trong tính toán kỹ thuật số, anh đưa mọi thứ về số 1 và số 0, theo đó kiến thức trở thành bất tử. Nó không phụ thuộc vào bất kỳ phần cứng cụ thể nào.

Các mô hình ngôn ngữ lớn có tất cả lượng kiến thức đó, lượng kiến thức nhiều gấp hàng nghìn lần so với những gì con người chúng ta có, với số lượng kết nối ít hơn khoảng 100 lần, điều này cho thấy AI có thuật toán học tập hiệu quả hơn.

Nikkei : Liệu AI có thể tự nhận thức hoặc có ý thức không ?

Geoffrey Hinton : Tôi nghĩ các chatbot đa phương thức đã bắt đầu có những trải nghiệm mang tính chủ quan.

Tôi cho rằng suy nghĩ của hầu hết mọi người về mô hình não bộ đều sai. Để tôi cho anh một ví dụ : Giả sử tôi uống quá nhiều rượu, và sáng hôm sau thức dậy nhìn thấy những chú voi hồng nhỏ xíu. Tôi sẽ nghĩ điều đó có nghĩa là hệ thống nhận thức của tôi không hoạt động bình thường.

Bây giờ, giả sử tôi có một chatbot đa phương thức và nó có camera và một cánh tay, nên nó có thể chỉ trỏ, hiểu ngôn ngữ, và đã được huấn luyện. Tôi đặt một lăng kính phía trước camera của chatbot để làm cong các tia sáng, rồi đặt một vật thể ở phía trước nó. Nhưng chatbot không biết về lăng kính. Lúc này tôi nói : "Hãy chỉ vào vật thể", rồi lại nói, "Không, đó không phải là vật thể. Vật thể ở ngay trước mặt bạn. Tôi đã đặt một lăng kính trước camera của bạn".

Chatbot sẽ đáp lại, "Ồ, tôi có thấy vật thể đó thực sự ở ngay trước mặt tôi. Nhưng tôi có trải nghiệm chủ quan rằng nó ở đằng kia". Giờ đây, nếu một chatbot nói điều đó thì tôi nghĩ nó sẽ sử dụng từ "trải nghiệm chủ quan" theo cùng một cách chính xác như con người.

Nikkei : Giáo sư Yann LeCun của Đại học New York ở Mỹ, người đồng đoạt Giải Turing với ông, lại phủ nhận khả năng tri thức hoặc tri giác trong AI.

Geoffrey Hinton : Chúng tôi vẫn là bạn bè, nhưng về điểm này chúng tôi hoàn toàn không đồng ý với nhau. Hầu hết mọi người nghĩ rằng AI không có trải nghiệm chủ quan. Con người chúng ta có một điều đặc biệt, đó là ý thức, trải nghiệm chủ quan, hoặc khả năng tri giác, còn AI thì không có thứ đó. Tôi nghĩ quan điểm đó thật sai lầm.

Kosuke Shimizu Kazuyuki Okudaira thực hiện

Nguyên tác : ‘Godfather of AI’ speaks on threat of tech surpassing humanityNikkei Asia, 31/03/2024

Nguyễn Thị Kim Phụng biên dịch

Nguồn : Nghiên cứu quốc tế, 03/04/2024

Published in Diễn đàn

Trong những năm gần đây, sự bùng nổ của Trí tuệ nhân tạo (AI) ngày càng được công chúng quan tâm, ngày càng phổ biến trong mọi lĩnh vực, kể cả nông nghiệp. Các cải tiến từ loại công nghệ này đã mang lại nhiều lợi ích cho nghề nông, tạo ra hy vọng về một nền nông nghiệp tự động hóa thời 4.0.

tritue1

Mô hình bản đồ của Agrisight, sử dụng AI nhằm dự đoán và tối ưu hóa việc thu hoạch và phân phối nông sản, được trưng bày tại Hội chợ quốc tế Nông nghiệp Pháp, ngày 27/02/2024, Paris, Pháp © Chi Phuong

Từ những 1950, 1960, các cải tiến về cơ khí, hóa học đã tạo ra một cuộc cách mạng nông nghiệp. Việc áp dụng thuốc trừ sâu, phân bón, giống cây năng suất cao…, cùng nhiều biện pháp khác cũng đã làm thay đổi đáng kể diện mạo nền nông nghiệp. Tuy nhiên, cùng lúc đó, nông nghiệp cũng bị cáo buộc là một trong những thủ phạm gây ra hiện tượng nóng lên toàn cầu, chịu trách nhiệm cho một phần ba lượng khí phát thải nhà kính (CO2 và metan). Thêm vào đó là tình trạng lạm phát, an ninh lương thực bị đe dọa ( ước tính 2 tỷ người trên thế giới không được tiếp cận thực phẩm đầy đủ). Chưa kể đến phong trào phản đối của giới nông dân Châu Âu từ nhiều tuần qua, bày tỏ bất bình vì điều kiện sinh kế không được bảo đảm.

Trong bối cảnh này, nhà nghiên cứu Asaf Tzachor, thuộc đại học Cambridge của Anh Quốc, cho rằng "mọi con mắt đang đổ dồn vào Trí tuệ nhân tạo". Với những tính năng đã chứng tỏ được trong những năm qua, loại công nghệ này có thể "mở ra một cuộc cách mạng nông nghiệp mới".

Tại Hội chợ Quốc tế Nông Nghiệp Paris lần thứ 60 (24/02-03/03/2024), lần đầu tiên một cuộc thi Hackathon (hack và marathon), cuộc thi phát triển phần mềm, được tổ chức, nhằm giải quyết các vấn đề trong nông nghiệp qua lập trình trong vòng 48 giờ. Và đây cũng là lần đầu tiên Trí tuệ nhân tạo tạo sinh (AI generative, loại trí tuệ có thể tạo ra các dữ liệu mới nhờ những dữ liệu có sẵn) "lấn sân" vào Hội chợ Nông nghiệp.

Với sự hỗ trợ của Mistral AI, công ty chuyên về trí tuệ nhân tạo của Pháp, 8 đội gồm gần 120 người đã tham gia thi đấu, tạo ra loại công cụ giải quyết các vấn đề mà những nông dân có mặt tại sự kiện nêu ra. Họ là những lập trình viên từ các tập đoàn lớn như Crédit Agricole, Groupama, hay từ các công ty công nghệ khởi nghiệp như Ombréa, Rizoa, Chouette Vision. Đội của Rizoa đã tạo ra một chatbot (robot trò chuyện) hỗ trợ nông dân đàm phán giá nông sản.

Trả lời RFI Tiếng Việt, cô Maguélone Parré-Haroche, đại diện của Rizoa, cho biết : "Chúng tôi bắt đầu từ những yêu cầu của nông dân, phàn nàn về những khó khăn trong việc bán các mặt hàng của họ với giá hợp lý, vào thời điểm thích hợp. Chúng tôi cũng biết rằng các bên mua hàng luôn có những thông tin hữu ích cho họ để mua với giá tốt. Do vậy, cần phải có không gian để trao đổi các dữ liệu. Đó là những thông tin khách quan, những dữ liệu thô và không thể tranh cãi, giúp nông dân có thể đàm phán giá với những chỉ số hữu ích". Còn đội của Groupama đã tạo ra Agri AI, một công cụ tính toán rủi ro khí hậu và biết tiên liệu một kế hoạch trồng trọt có khả thi hay không.

Có mặt tại Hội chợ vừa qua, OsFarm , một nền tảng tập hợp các công nghệ mới trong nông nghiệp, giới thiệu bảng điều khiển AgOpenGPS, giúp nông dân điều khiển máy kéo tự động trên nông trại. Mehdi Jaber, nhà sáng lập của Osfarm cho biết có những dữ liệu mà bảng điều khiển thu được và chưa từng được sử dụng. "Cuộc thi Hackaton này đã đưa ra nhiều ý tưởng thú vị về Trí tuệ nhân tạo và chúng tôi có thể tích hợp vào công cụ này, và cũng có thể ứng dụng vào nhiều loại máy móc khác".

Sự bùng nổ của các dự án về Trí tuệ nhân tạo trong những năm gần đây, ví dụ như ChatGPT, robot hội thoại, không chỉ giải đáp các câu hỏi trong nhiều lĩnh vực, mà còn có khả năng tạo ra văn bản hay hình ảnh, đã thúc đẩy ban tổ chức quan tâm nhiều hơn đến công nghệ này.

Đại diện ban tổ chức sự kiện, David Joulin, cho biết cuộc thi này giúp làm sáng tỏ hơn những lợi ích mà các công nghệ tiên tiến, đặc biệt là khả năng của Trí tuệ nhân tạo tạo sinh trong nông nghiệp. Ông David Joulin giải thích : "Hiện nay Trí tuệ nhân tạo đã được sử dụng khá nhiều trong nông nghiệp, ví dụ như trong việc chụp ảnh, phát hiện các loại sâu bệnh, hay phát hiện cỏ dại, tuy nhiên AI tạo sinh vẫn còn mới mẻ trong nông nghiệp. Kết quả của cuộc thi lập trình này đầy hứa hẹn cho tương lai nông nghiệp, bởi vì có những công việc cần 2 giờ làm việc có thể được giải quyết trong vòng vài giây. Chẳng hạn, một công cụ tự động đề xuất luân canh sản xuất, xác định được thu nhập và các rủi ro liên quan. Đó là điều mà tất cả nông dân đều đang yêu cầu. Có đội cũng đã tạo ra công cụ giúp tổng hợp các văn bản pháp lý liên quan đến các câu hỏi, chẳng hạn như nên áp dụng quy định nào cho thửa đất này hay lô đất khác". 

Tính năng đa dạng của AI

David Joulin cũng là đồng sáng lập viên của La Ferme Digitale , một hiệp hội quy tụ nhiều start-up về công nghệ ứng dụng trong nông nghiệp. Ban đầu chỉ gồm 5 công ty khởi nghiệp, hiệp hội nay đã hội tụ hơn 150 doanh nghiệp, tuyển dụng 5000 nhân viên, đưa những loại công nghệ mới đến 200 000 nông dân Pháp.

Được thành lập vào năm 2021, HyperPlan  là một trong những doanh nghiệp thuộc hiệp hội này. Phần mềm mà công ty cung cấp sử dụng những dữ liệu vệ tinh, dữ liệu về thời tiết, với sự hỗ trợ của AI, giúp phân tích, thiết lập báo cáo về những cây trồng nào đang và có thể phát triển ở đâu và khi nào, số lượng và chất lượng ra sao. Ruben Sabah, đồng sáng lập viên của Hyperplan, giải thích : "Chúng tôi sử dụng các thuật toán từ AI để phân tích các hình ảnh từ vệ tinh, ví dụ như xác định ranh giới các thửa đất, nhận diện loại cây trồng trên thửa đất đó trong tất xả các mùa, theo dõi chúng và đưa ra ước tính về sản lượng. Phần mềm này chủ yếu được sử dụng bởi các hợp tác xã nông nghiệp, hoặc các nhà công nghiệp thực phẩm. Họ có thể sử dụng để phân khúc theo vùng hoạt động của doanh nghiệp, giám sát tiềm năng sản xuất của vùng đó. Chúng tôi cũng có thể theo dõi hiệu suất thương mại hay tỷ lệ thị phần".

Ông David Joulin tin rằng các công nghệ tưởng chừng phức tạp nhưng lại rất dễ sử dụng sẽ có thể được nông dân nhanh chóng áp dụng trong nông trường, nhằm cải thiện điều kiện lao động cũng như phát triển nông nghiệp bền vững. Tại Pháp, trong vòng 5 năm, từ 2018 đến 2023, số máy móc phục vụ trong nông nghiệp đã tăng gấp 6 lần . Hiện 18 000 loại máy móc được sử dụng trong ngành chăn nuôi, và ba phần tư trong số đó là để vắt sữa bò tự động.

Hơn nữa, các khả năng của Trí tuệ nhân tạo trong nông nghiệp ngày càng đa dạng, đặc biệt là trong dự báo thời tiết, cung cấp dữ liệu về trạng thái đất, ngăn ngừa nguy cơ xuất hiện bệnh. Ngoài ra còn có những công cụ giúp giám sát cây trồng theo thời gian thực, điều chỉnh nhu cầu tưới tiêu, tính toán lượng phân bón hợp lý, theo dõi sức khoẻ của gia súc, quản lý trang trại… Không chỉ tại Pháp hay Châu Âu, mà tại Mỹ mà ngành nông nghiệp cũng thu hút sự chú ý của giới công nghệ, với khoảng 200 start-up về AI hoạt động trong lĩnh vực này.

Những rủi ro khó lường của AI

Thế nhưng, nhà nghiên cứu Asaf Tzachor , thuộc Trung tâm Nghiên cứu Rủi ro Hiện sinh, thuộc đại học Cambridge của Anh Quốc, cho rằng "cần phải thận trọng khi triển khai loại công nghệ này nhanh chóng và trên diện rộng". Nhà nghiên cứu nêu ra những rủi ro có thể làm tê liệt hệ thống cung ứng lương thực toàn cầu, đặc biệt là tấn công tin tặc. Ví dụ, xói mòn đất gây thiệt hại hơn 40 tỷ đô la ở Hoa Kỳ mỗi năm, do vậy nhiều công cụ được tạo ra để giám sát các lớp đất và bề mặt đất, giúp các trang trại ngăn ngừa thiệt hại. Tuy nhiên, các thiết bị này lại phụ thuộc vào mạng máy tính được kết nối với nhau, và như vậy rất dễ có thể bị phá hoại, bị tin tặc tấn công.

Ngoài ra còn có những rủi ro về lỗi kỹ thuật, lập trình, hoặc độ tin cậy của dữ liệu. Ví dụ, các hệ thống cảm biến không dây, được lắp đặt tại các trang trại, được thiết kế để nhận biết tình trạng của đất trồng, và đưa ra biện pháp cụ thể. Có thể các hệ thống này sẽ ưu tiên cho việc tăng năng suất hơn là bảo vệ sinh thái, như là sử dụng quá nhiều thuốc trừ cỏ, thuốc trừ sâu…, gây hại cho môi trường đất và nước.

Chi Phương

Nguồn : RFI, 06/03/2024

Published in Văn hóa

Vit Nam có ngun nhân lc di dào, gii Toán, ham hc hi và nếu có s đu tư và chuyn giao công ngh ca Nvidia, Vit Nam có th tr thành trung tâm trí tu nhân to ln trong khu vc và trên thế gii, mt chuyên gia trong ngành nói vi VOA.

nvidia1

Ông Jensen Huang là ch tch kiêm tng giám đc Tp đoàn Nvidia

Nvidia là tp đoàn sn xut chip ln nht thế gii có tr s M vi giá tr vn hóa gn 1.200 t đô la. Hãng này sn xut ra nhng con chip đóng vai trò then cht trong vic phát trin trí tu nhân to. Lãnh đo tp đoàn này, ông Jensen Huang, mi đây đã có chuyến công tác Vit Nam và đã tiếp xúc Th tướng Phm Minh Chính hôm 10/12. Ti đây, ông Huang nói rng ông mun đưa Vit Nam tr thành mt c đim toàn cu ca hãng, trang mng VnExpress tường thut.

Còn trong bui ta đàm v cơ hi cho Vit Nam trong ngành công nghip bán dn và trí tu nhân to Hà Ni hôm 11/12, ông Huang được trang mng này dn li cho biết Nvidia s hp tác vi các đi tác trong nước đ phát trin h tng trí tu nhân to, tc AI.

"Người Vit Nam rt gii toán, có năng lc phn mm tt và đang có v trí tt đ phát trin bán dn, trí tu nhân to. Nvidia xác đnh Vit Nam là th trường quan trng nên đã đu tư 250 triu đô la", ông Huang được dn li nói.

Ông cho biết c đim ca Nvidia Vit Nam s thu hút nhân tài khp thế gii và góp phn xây dng h sinh thái bán dn và trí tu nhân to ti Vit Nam.

V phn mình, Th tướng Chính đã đ ngh Nvidia h tr Vit Nam xây dng, thc hin chiến lược bán dn quc gia và s lp t công tác thúc đy các tha thun hp tác gia hai bên do ông đng đu.

Nvidia đang là đi tác ca nhiu doanh nghip công ngh ln ca Vit Nam như Viettel, FPT, Vingroup vi doanh thu mi năm khong 500 triu đô la, theo trang mng VnEconomy.

‘Ít cơ hi cho bán dn

Khi được VOA hi v nhng tha thun hp tác vi Nvidia, ông Đ Cao Bo, đng sáng lp, cu phó Tng giám đc và gi là thành viên Hi đng qun tr FPT, nói đó là bí mt kinh doanh ca FPT nên không th tiết l.

Ông Bo bày t hy vng vào tim năng hp tác vi Nvidia trong lĩnh vc trí tu nhân to, đng thi cho rng trong lĩnh vc bán dn, cơ hi hp tác không nhiu.

Theo li gii thích ca ông thì mc dù vn hóa ca Nvidia vượt tri các hãng bán dn khác nhưng doanh thu chưa bng mt na TSMC ca Đài Loan hay Samsung ca Hàn Quc.

"Nvidia không trc tiếp sn xut ra chip mà 100% là đi thuê các công ty Đài Loan, Hàn Quc làm cho h", ông Bo nói vi VOA. "Chưa k công ngh chip ca Nvidia là cao hơn".

"Kh năng công vic Nvidia giao ra nước ngoài có trình đ sn xut thp như Vit Nam là ít hơn hn", ông nói thêm và cho biết nếu có tham gia sn xut chip thì cơ hi hp tác vi các hãng bán dn khác ln hơn Nvidia.

Ông cho rng Vit Nam không th chen chân vào thay thế chui cung ng đã được Nvidia thuê sn xut chip cho h mà ch là tham gia vào công đon thiết kế, kim th hay đóng gói.

"H đã có quy trình vi nhng nhà máy rt ln khp toàn cu, có quy trình, có dây chuyn rt ln ri mà bây gi mình mi chen chân vào thì cơ hi không có", ông nói.

Chưa k đi vi các chip công ngh cao, Nvidia có th không mun chuyn sn xut ra bên ngoài mà ch làm bên trong nước M, cũng theo li cu phó Tng giám đc FPT.

"Nếu bây gi Vit Nam đi vào sn xut gia công (cht bán dn) thì giá tr gia tăng không cao", ông nói thêm.

Hin tp đoàn Intel ca M đang vn hành mt cơ s sn xut th nghim và lp ráp chip ti Thành ph H Chí Minh, còn hãng Amkor có tr s ti Arizona, đang xây dng nhà máy tr giá 1,6 t đô la Bc Ninh, trong khi Synopsis và Marvell Technology đang thành lp các trung tâm thiết kế cht bán dn ti Vit Nam.

Hp tác giúp Vit Nam phát trin kinh tế theo hướng đi mi sáng to và đưa Vit Nam vào chui cung ng cht bán dn toàn cu là mt trong nhng ni dung chính ca quan h Đi tác chiến lược toàn din M-Vit mà Tng thng Joe Biden đã cùng các lãnh đo Vit Nam nâng cp hôm 10/9.

Trung tâm AI

Tuy nhiên, ông Đ Cao Bo cho rng Vit Nam có tim năng hp tác ln vi Nvidia v trí tu nhân to.

"Người Vit có thế mnh là hc hi công ngh mi rt là nhanh. Người Vit có th nhanh chóng hc được và tiếp cn trình đ thế gii và không thua kém các đi th các nước khác", ông ch ra và nói rõ Vit Nam s không theo kp trình đ các nước phát trin mà ch cnh tranh vi các đi th như Malaysia, Philippines hay n Đ, các nước cũng có mc tiêu ging Vit Nam.

Ngoài ra, có truyn thng hc Toán và gii Toán là mt thế mnh ca người Vit trong ngành Trí tu nhân to vn có nn tng là Toán. Ông Bo cho biết người Vit luôn nm trong tp đu các cuc thi Toán quc tế.

Cái mà Vit Nam cn Nvidia, theo ông Bo, là h đt máy ch ln, có tc đ x lý cao, xây dng trung tâm d liu Vit Nam và chuyn giao h thng hc sâu (deep learning) thì Vit Nam có th tr thành trung tâm trí tu nhân to thu hút nhân tài khp nơi trên thế gii.

"Nếu Vit Nam có cơ s h tng trí tu nhân to tt thì có th thu hút ngun lc thế gii đến làm vic".

Khi đó, Vit Nam có th sn xut ra các sn phm trí tu nhân to phc v cho khu vc và thế gii, ông nói thêm.

Ông Bo cho biết máy ch ln có năng lc mnh như vy ch có Nvidia có’ và tn hàng t đô la. "Tin đâu đ đu tư, Nvidia hay Chính ph Vit Nam hay doanh nghip Vit Nam b ra hay c ba bên cùng góp vn là vn đ cn phi bàn", ông nói thêm.

Hơn na, đi vi công ngh ti tân như vy thì có th Vit Nam phi xin phép Chính ph M thì mi được đưa máy ch vào, cũng theo li ông Bo.

Mt ch na mà Nvidia có th giúp đ Vit Nam là đào to ngun nhân lc. Ông Đ Cao Bo cho rng Nvidia có th giúp Vit Nam xây dng chương trình đào to đ tiếp cn các công ngh hin đi nht, cung cp môi trường đ sinh viên có th thc hành, và gi các chuyên gia trí tu nhân to hàng đu sang Vit Nam đ ging dy cho sinh viên.

Ông dn ra mc tiêu ca ông Huang nói là hai bên phi phn đu đ có được 1 triu k sư v trí tu nhân to, không ch Vit Nam mà còn nhân lc đến t các nước khác, đ nhn mnh rng nhu cu nhân lc ca Vit Nam là rt cp thiết.

Khi được hi ti sao ông Jensen Huang li quan tâm đến Vit Nam trong khi các nước khác trong khu vc cũng mun phát trin trí tu nhân to, ông Bo nói mc dù năng lc sn xut ca Vit Nam kém hơn Nht Bn hay Đài Loan rt nhiu nhưng ngun lc Vit Nam nhiu hơn.

Ông ch ra Vit Nam có dân s đông gn 100 triu dân, đa phn là dân s tr, ham hc hi, nhiu gp nhiu ln Malaysia hay Đài Loan trong khi dân s Nht Bn đang suy gim và lão hóa.

"Vit Nam có dân s đông, còn tr li đang rt khát khao làm giàu cho bn thân, cho công ty. H sn sàng làm vic rt chăm ch", ông nói và cho biết nhiu thanh niên Vit Nam sn sàng làm vic 7 ngày mt tun, mi ngày làm vic 12 tiếng.

Khi được hi nhng phát ngôn ca ông Jensen Huang khi Vit Nam v quê hương th hai hay c đim toàn cu ca Nvidia có phi là li l xã giao hay không, ông Bo nói : "Vi mt doanh nhân thành công ln thì người ta không bao gi nói cái gì mà sau này phát hin ra là nói xo".

"Có l đó là mong mun tht s ca ông Jensen nhưng có thành hin thc hay không thì phi cn n lc t c hai phía".

Nguồn : VOA, 16/12/2023

Published in Việt Nam

Các mạng xã hội lớn xóa nội dung "chống Nhà nước" Việt Nam

RFA, 06/10/2023

Các mạng xã hội lớn gồm YouTube, TikTok và Facebook trong khoảng thời gian chỉ một tháng đã xóa gần 800 bài đăng có nội dung bị cơ quan chức năng Việt Nam cho là "chống Nhà nước" hay "không trung thực".

nxh1

YouTube xóa chừng 380 video, Facebook xóa hơn 360 bài đăng ; TikTok xóa hơn 30 đường dẫn từ giữa tháng tám đến giữa tháng 9. Reuters

Mạng báo Thanh Niên loan tin vừa nêu ngày 6/10 dẫn nguồn từ Bộ Thông tin- Truyền thông Việt Nam. Cụ thể, YouTube xóa khoảng 380 video, Facebook xóa hơn 360 bài đăng ; TikTok xóa hơn 30 đường dẫn từ giữa tháng tám đến giữa tháng chín.

Nội dung bị xóa được nói là "không trung thực, tiêu cực… chống lại đảng, nhà nước, tổ chức, cá nhân…, xúc phạm lãnh tụ".

AFP cũng loan tin với nhận định rằng chính phủ do đảng cộng sản duy nhất lãnh đạo tại Việt Nam không dung thứ bất đồng và những hạn chế đối với các mạng xã hội được sử dụng nhằm giới hạn quyền tự do biểu đạt. Toàn bộ truyền thông bị đặt dưới sự kiểm soát của Nhà nước và những tiếng nói chỉ trích trên mạng bị thường xuyên theo dõi.

Vào ngày thứ năm 5/10, Bộ Thông tin- Truyền thông Việt Nam công bố kết luận kiểm tra toàn diện suốt bốn tháng qua đối với TikTok. Theo đó quy trình kiểm duyệt nội dung của mạng xã hội này bị cho là chưa hiệu quả, bỏ qua một số nội dung vi phạm luật phát Việt Nam.

AFP có yêu cầu TikTok, Meta- hãng mẹ của Facebook, và Google- chủ kênh YouTube, bình luận về tin vừa nêu ; nhưng chưa nhận được trả lời.

Hồi năm 2020, tổ chức Ân Xá Quốc tế (Amnesty International) công bố phúc trình với cảnh báo Facebook và Google nhanh chóng trở thành những công cụ "phi nhân quyền" tại Việt Nam. Tổ chức này cáo buộc các hãng lớn này hỗ trợ cơ quan chức năng kiểm duyệt các tiếng nói đối lập ôn hòa và bày tỏ chính kiến tại Việt Nam.

Nguồn : RFA, 06/10/2023

****************************

Tự do internet 2023 : Sức mạnh đàn áp của Trí tuệ nhân tạo

RFA, 04/10/2023

Hôm 4/10/2023, Freedom House, một think tank ở Washington DC, tổ chức ra mắt báo cáo "Tự do Internet 2023 : Sức mạnh đàn áp của Trí tuệ nhân tạo". Việt Nam là một trong những trường hợp được khảo sát với các quan ngại về việc đàn áp trên mạng. 

tudointernet0

Chat GPT bị cấm ở Trung Quốc (ảnh minh họa) - Reuters

Báo cáo khảo sát giai đoạn từ tháng 6/022 đến tháng 5/2023 ở 70 quốc gia, chiếm khoảng 80% lượng người dùng internet toàn cầu. Theo báo cáo này, nhìn chung, tự do internet toàn cầu đã suy giảm năm thứ 13 liên tiếp. Có những trường hợp đàn áp mạnh mẽ như Iran đã đóng cửa dịch vụ internet, chặn WhatsApp và Instagram. Miến Điện thậm chí còn "vượt qua" Trung Quốc trong việc đàn áp tự do trên môi trường internet. Philippines giai đoạn Tổng thống Duterte sắp mãn nhiệm đã sử dụng luật chống khủng bố để chặn các trang tin chỉ trích chính quyền của mình. 

Trả lời câu hỏi của RFA tại sự kiện ra mắt báo cáo 2023, nhà nghiên cứu cấp cao tại Freedom House là Kian Vesteinsson cho biết Freedom House đánh giá Việt Nam chỉ đạt 22 điểm trên thang điểm 100 về quyền tự do Internet. Với điểm số này, Việt Nam bị xếp hạng là "không tự do". 

Năm 2022, Việt Nam cũng ở thứ hạng tương tự : 22/100 điểm.

Kiểm duyệt và tung tin giả bằng AI (Trí tuệ nhân tạo)

"Dư luận viên" không phải là sản phẩm riêng của Việt Nam. Theo báo cáo, trên thế giới có ít nhất 47 chính phủ đã triển khai các "dư luận viên" (commentators) để thao túng các cuộc thảo luận trực tuyến theo hướng có lợi cho chính quyền. Con số này gấp đôi so với một thập kỷ trước. 

Trong bối cảnh đó, Trí tuệ nhân tạo (AI) có nguy cơ làm cho các chiến dịch sản xuất và phát tán thông tin sai lệch lên trực tuyến trở nên mạnh mẽ hơn. Các công cụ dựa trên AI có thể tạo ra văn bản, âm thanh, hình ảnh, video một cách nhanh chóng và dễ dàng. Theo báo cáo, có ít nhất 16 chính phủ trên thế giới đã sử dụng công nghệ mới này để tạo ra các thông tin sai lệch để gieo rắc nghi ngờ, bôi nhọ đối thủ hoặc lèo lái các cuộc tranh luận của công chúng trên mạng. 

Báo cáo chỉ ra rằng các "điểm nóng" do do nội dung được tạo ra bởi AI thường xuất hiện trong những thời điểm chính trị nhạy cảm như bầu cử hoặc các cuộc khủng hoảng. Báo cáo dẫn ra ví dụ hồi tháng 5, 2023, cựu thủ tướng Pakistan là Imran Khan đã chia sẻ một video được tạo ra bởi AI về hình ảnh một phụ nữ dũng cảm đối đầu với cảnh sát. Đó là thời điểm ông Khan và chính quyền đương nhiệm đang leo thang xung đột. Bằng cách phát tán một video do AI tạo ra như vậy, ông ta truyền đi thông điệp rằng "phụ nữ Pakistan ủng hộ tôi". Một trường hợp khác xảy ra ở Nigeria, một đoạn âm thanh do AI tạo ra, ám chỉ một ứng viên tổng thống có kế hoạch gian lận bỏ phiếu. Những sản phẩm như vậy có nguy cơ gây ra thù hận giữa các đảng phái và khắc sâu nghi ngờ của người dân về tính liêm chính của hệ thống bầu cử. Ở Mỹ gần đây cũng đã xuất hiện nhiều sản phẩm truyền thông có tính bôi nhọ đối thủ chính trị được tạo ra bởi AI như vậy. 

AI cũng giúp các chính quyền độc tài nâng cao năng lực kiểm duyệt. Những hệ thống giám sát tinh vi bằng công nghệ cao có thể giúp họ nhanh chóng truy lùng các dấu hiệu bất đồng chính kiến trên mạng xã hội. Họ có thể kết hợp Dữ liệu lớn (Big data) với tính năng quét khuôn mặt để xác định và theo dõi những người biểu tình ủng hộ dân chủ. Các chính quyền cũng đang nỗ lực làm cho các công ty cung cấp ứng dụng phải tuân thủ hoặc tăng cường hệ thống kiểm duyệt của mình. 

Khung pháp lý ở ít nhất 21 quốc gia bắt buộc hoặc khuyến khích các nền tảng kỹ thuật số triển khai học máy để loại bỏ những phát ngôn mà chính quyền không ưa thích về chính trị, xã hội và tôn giáo. Tuy nhiên, AI vẫn chưa thay thế hoàn toàn các phương pháp kiểm soát thông tin xưa cũ. Có đến 41 chính phủ được khảo sát vẫn áp dụng phương pháp cũ là chặn các trang web có nội dung lành mạnh, đúng đắn, cần được bảo vệ theo tiêu chuẩn tự do biểu đạt trong luật nhân quyền quốc tế. 

Ngay cả ở những quốc gia có môi trường xã hội và chính trị dân chủ hơn như Hoa Kỳ và một số nước Châu Âu, các chính phủ đang cân nhắc áp đặt những chế tài đối với quyền truy cập vào một số trang web hoặc nền tảng truyền thông mạng xã hội. Một số đã thực thi điều đó. 

Trường hợp Việt Nam 

Báo cáo nhắc đến việc Việt Nam lo ngại người dân sử dụng Chat GPT để tạo ra những nội dung "xuyên tạc", "bôi nhọ", "chống nhà nước". Bước đi này của Việt Nam cũng tương tự như Trung Quốc cấm các tập đoàn công nghệ nước này như Tencent và Ant Group tích hợp các công cụ của Chat GPT và các công cụ tương tự. Hãng Apple của Mỹ đã xóa hơn 100 ứng dụng tương tự như ChatGPT khỏi cửa hàng ứng dụng Trung Quốc để tuân thủ các quy định của nước này. 

Theo báo cáo, ở những nước độc tài, hệ thống kiểm duyệt sử dụng công nghệ AI có thể "đóng lại những khoảng trống ít ỏi còn lại" của quyền tự do bày tỏ ý kiến trên mạng. Báo cáo cho biết :

"Chính phủ Việt Nam đã áp đặt các biện pháp kiểm soát chặt chẽ trên các nền tảng kỹ thuật số để chế tài những người bất đồng chính kiến, hạn chế việc đưa tin độc lập và các hình thức phát ngôn chính trị - xã hội khác. Ví dụ, các nhà chức trách Việt Nam được cho là đã buộc Meta phải loại bỏ mọi lời chỉ trích đối với các quan chức Đảng cộng sản Việt Nam cụ thể trên nền tảng mạng xã hội Facebook". 

Các chuyên gia cũng nhấn mạnh những quy định mà Việt Nam thông qua vào tháng 8 năm 2022 đã trao quyền cho Bộ Công an chặn các nền tảng mạng xã hội không tuân thủ yêu cầu xóa nội dung "độc hại" trong vòng một ngày, kể từ ngày được thông báo. Họ cho rằng điều đó sẽ đẩy nhanh việc xóa nội dung trên diện rộng với tốc độ rất nhanh. Tốc độ như vậy chỉ có thể đạt được thông qua công nghệ tự động hóa được hỗ trợ bởi AI. Mặt khác, các nhà chức trách Việt Nam đã yêu cầu rõ ràng rằng các doanh nghiệp công nghệ phải sử dụng AI để loại bỏ cái gọi là nội dung "độc hại".

Theo báo cáo, không chỉ ở Việt Nam, ngay cả những chính phủ có năng lực công nghệ kém hơn, các biện pháp như vậy cũng đang ngày càng phổ biến. 

Cần phải sử dụng AI để bảo vệ quyền tự do 

Phát biểu tại sự kiện ra mắt báo cáo, các chuyên gia của Freedom House cho rằng các chính phủ và người dân vừa phải bảo đảm quyền tự do Internet vừa phải chống việc sản xuất tin giả trên môi trường trực tuyến. 

Các chuyên gia cho rằng để bảo vệ quyền tự do Internet, những người ủng hộ dân chủ nên thiết lập các tiêu chuẩn mạnh mẽ dựa trên nhân quyền, tính minh bạch và trách nhiệm giải trình. Các tiêu chuẩn này cần được áp dụng cho cả các chủ thể nhà nước và phi nhà nước tham gia vào phát triển hoặc triển khai các công cụ AI. 

Mặt khác, theo các nhà nghiên cứu, các quốc gia dân chủ cần trao cho các tổ chức xã hội dân sự vai trò dẫn đầu trong việc phát triển, xây dựng chính sách mới và cung cấp cho họ các nguồn lực họ cần để giám sát các hệ thống AI mới. AI có khả năng gây hại đáng kể, nhưng bằng cách đó, các quốc gia dân chủ có thể làm cho AI đóng vai trò bảo vệ các giá trị tự do.

Nguồn : RFA, 04/10/2023

Published in Việt Nam

Báo động về những nguy cơ của trí tuệ nhân tạo đối với nhân loại

Các ứng dụng về trí tuệ nhân tạo đã có từ lâu, nhưng kể từ khi ứng dụng nổi tiếng ChatGPT được tung lên mạng vào tháng 11/2022, công chúng và các doanh nghiệp bắt đầu quan tâm đến cái gọi là trí tuệ nhân tạo tạo sinh (generative), tức là có thể tự tạo ra các nội dung : văn bản, hình ảnh, âm thanh, video, như con người, thậm chí còn nhanh hơn con người rất nhiều.

tritue1

Ứng dụng ChatGPT trên màn hình một điện thoại iPhone tại một cửa hàng ở New York, Hoa Kỳ, ngày 18/05/2023. AP - Richard Drew

Phát triển với tốc độ chóng mặt

Đúng là các ứng dụng trí tuệ nhân tạo hiện nay đang được phát triển với tốc độ chóng mặt, với những khả năng suy nghĩ như con người ngày càng hoàn thiện và như vậy là trong tương lai có thể thay thế con người trong rất nhiều ngành nghề. 

Như ta đã thấy với ChatGPT của công ty OpenAI, ứng dụng này có khả năng viết những bài luận văn rất sâu sắc, độc đáo, biết làm những bài thơ tuyệt tác và có thể dịch mọi thứ tiếng chỉ trong vài giây.

Đây là một tiến bộ khoa học vô cùng to lớn, hỗ trợ cho nhân loại rất nhiều, nhưng cũng đang gây lo ngại ngày càng nhiều. Ngày 30/05/2023, một nhóm bao gồm các nhà doanh nghiệp và các chuyên gia đã ra một tuyên bố trên mạng cảnh báo về nguy cơ "tận diệt" đối với nhân loại do sự bùng nổ nhanh chóng của trí tuệ nhân tạo. Bản tuyên bố được đăng trên trang web của Center for AI Safety (Trung tâm về an toàn trí tuệ nhân tạo), một tổ chức bất vụ lợi, đặt trụ sở tại Hoa Kỳ. 

Tuyên bố của họ nhấn mạnh, việc phòng chống các nguy cơ của trí tuệ nhân tạo phải được xem là một ưu tiên đối với thế giới, ngang tầm với các nguy cơ khác, như các đại dịch hay chiến tranh hạt nhân.

Điều đáng nói là trong số các chuyên gia ký tên vào bản tuyên bố nói trên có cả Sam Atman, người sáng chế ra ứng dụng trí tuệ nhân tạo được sử dụng phổ biến nhất hiện nay Chat GPT. Chính ông Atman khi ra điều trần trước một ủy ban của Quốc hội Mỹ vào giữa tháng 5 đã cho rằng các chính phủ cần phải khẩn cấp can thiệp để "hạn chế các nguy cơ" liên quan đến công nghệ trí tuệ nhân tạo.

Cha đẻ của trí tuệ nhân tạo cũng lo ngại

Cùng ký tên vào tuyên bố còn có Geoffrey Hinton, được xem là một trong những cha đẻ của trí tuệ nhân tạo. Vào tháng đầu tháng 5, Hinton đã rời bỏ chức vụ của ông trong tập đoàn Internet Google sau khi cảnh báo về các nguy cơ của trí tuệ nhân tạo. 

Trên nhật báo The New York Times vào lúc đó, ông Hilton đã cho rằng những tiến bộ trong lĩnh vực trí tuệ nhân tạo đang đặt ra những nguy cơ sâu rộng đối với xã hội và nhân loại. 

Trước đó, vào tháng 3, nhà tỷ phú Elon Musk, một trong những người sáng lập công ty OpenAI, cùng với hàng trăm chuyên gia thế giới đã yêu cầu nên tạm ngưng 6 tháng các nghiên cứu mới về các ứng dụng trí tuệ nhân tạo, vì họ cũng nhận thấy lĩnh vực này chứa đựng nhiều "nguy cơ to lớn đối với nhân loại".

Chỉ cần đưa ra một ví dụ nhỏ : Vào giữa tháng 5 vừa qua, một bức ảnh giả được tạo ra từ một ứng dụng trí tuệ nhân tạo, chụp cảnh một vụ nổ ở Lầu Năm Góc, đã nhanh chóng được được phát tán rộng rãi trên mạng xã hội Twitter, khiến các thị trường chứng khoán bị xáo trộn trong 10 phút, trước khi bộ Quốc Phòng lên tiếng cải chính là Lầu Năm Góc không hề bị tấn công.

 Trí tuệ nhân tạo và "fake news" mùa bầu cử

Bản thân người sáng chế ChatGPT, Sam Altman trong thời gian qua đã liên tục cảnh báo là trí tuệ nhân tạo có thể gây nhiều thiệt hại nghiêm trọng cho thế giới, chẳng hạn như qua việc thao túng các cuộc bầu cử. 

Trước mắt, trí tuệ nhân tạo đang làm xáo trộn chính trường nước Mỹ trước cuộc bầu cử tổng thống vào năm 2024, rất có thể là vẫn giữa hai đối thủ Donald Trump và Joe Biden. 

Chính trí tuệ nhân tạo đã được sử dụng để tạo ra bức ảnh chụp Trump bị cảnh sát bắt giữ giống như thật, gây xôn xao dư luận trong một thời gian. Hay bịa ra một băng ghi âm Trump và Biden chửi nhau tơi tả. Chưa hết : Cũng trên các mạng đã xuất hiện một video nêu bật tương lai "kinh hoàng" của nước Mỹ nếu Biden tái đắc cử. Tác giả không ai khác hơn là trí tuệ nhân tạo.

Các chuyên gia đang rất lo ngại là trong mùa bầu cử sắp tới tại Hoa Kỳ, các tin giả do trí tuệ nhân tạo sản xuất sẽ tràn ngập, vì đây sẽ là cuộc bầu cử đầu tiên mà trí tuệ nhân tạo được sử dụng phổ biến. Cả hai phe Dân Chủ và Cộng Hòa chắc chắn sẽ nhờ đến trí tuệ nhân tạo để, hoặc là thu hút thêm cử tri, hoặc "sản xuất" các truyền đơn, các bài diễn văn, một cách nhanh chóng, rẻ tiền, mà lại không bó buộc về pháp lý.

Nhưng nguy hiểm hơn cả, theo ông Joe Rospars, người sáng lập công ty tư vấn tranh cử Blue State, trả lời hãng tin AFP, với công nghệ trí tuệ nhân tạo, những kẻ xấu có thêm công cụ để gieo rắc hận thù, gây nhiễu thông tin với cả báo chí và công chúng. "Đại dịch" fake news vốn đã gây nhiều tác hại trong chiến dịch tranh cử của Donald Trump sẽ càng trầm trọng hơn trong mùa bầu cử tổng thống Mỹ năm tới. 

Đưa trí tuệ nhân tạo vào khuôn khổ pháp lý

Những hiểm họa mà trí tuệ nhân tạo đặt ra đang buộc các lãnh đạo nhiều nước trên thế giới phải cấp tốc tìm cách đối phó. 

Liên Hiệp Châu Âu hiện đang muốn trở thành định chế đầu tiên trên thế giới đưa ra một khuôn khổ pháp lý để hạn chế những tác hại của trí tuệ nhân tạo. Cách đây hai năm, Ủy Ban Châu Âu đã đề nghị một dự luật theo hướng này.

Trọng tâm của dự luật về trí tuệ nhân tạo là một loạt các quy định chỉ áp dụng đối với các ứng dụng mà chính các công ty cho là "nguy cơ cao" dựa trên các tiêu chuẩn của nhà lập pháp. Đối với Ủy Ban Châu Âu, nói chung đó là toàn bộ những ứng dụng được dùng trong những lĩnh vực nhạy cảm như cơ sở hạ tầng thiết yếu, giáo dục, nhân sự, giữ gìn trật tự hay quản lý nhập cư.

Vấn đề là tiến trình xem xét bởi các nước thành viên và Nghị Viện Châu Âu kéo dài quá lâu. Nếu luật có được thông qua trước cuối năm nay thì cũng phải chờ đến sớm nhất là cuối năm 2025, luật mới có hiệu lực.

Trong cuộc gặp tại Bruxelles hôm 24/05 vừa qua, ủy viên Châu Âu đặc trách công nghệ số Thierry Breton và chủ nhân tập đoàn Google Sundar Pichai đã đã đồng ý với nhau là không thể chờ cho đến khi luật của Liên Âu được ban hành, mà phải bàn ngay việc soạn thảo những quy định mới để đưa trí tuệ nhân tạo vào khuôn khổ. Các cuộc thảo luận sẽ được thực hiện với những công ty tự nguyện trong ngành phát triển ứng dụng trí tuệ nhân tạo.

Trong vấn đề này, Pháp là một trong những quốc gia đi đầu vì đã cùng với Canada tung ra Đối tác Thế giới về Trí tuệ Nhân tạo. Vận hành theo phương thức giống như Nhóm chuyên gia liên chính phủ về biến đổi khí hậu GIEC, đối tác này hiện quy tụ 28 quốc gia, có nhiệm vụ đưa ra những đánh giá khoa học và những khuyến cáo đến các chính phủ. 

Hôm 23/05 vừa qua, tổng thống Emmanuel Macron đã tiếp Sam Atman, người sáng chế ra ChatGPT, tại điện Elysée để thảo luận với ông về những hướng phát triển trí tuệ nhân tạo trong tương lai cũng như về tầm quan trọng của việc đề ra các quy định luật lệ để bảo vệ người sử dụng và bảo vệ nền dân chủ trước những nguy cơ sử dụng trí tuệ nhân tạo một cách sai lạc. 

Nhóm G7 nhập cuộc

Nhưng đây không còn là một vấn đề của riêng Châu Âu mà đã trở thành vấn đề của cả thế giới, mà trước hết là của những nước phát triển nhất. 

Hôm thứ tư tuần này, 31/05/2023, Hoa Kỳ và Liên Hiệp Châu Âu đã mở một cuộc họp cấp cao về vấn đề này tại Lulea, Thụy Điển. Trước đó, bà Margrethe Vestager, ủy viên Châu Âu về cạnh tranh và cũng người đặc trách các vấn đề công nghệ trong Liên Hiệp Châu Âu, đã tuyên bố là Liên Âu và Hoa Kỳ sẵn sàng tăng cường hợp tác về trí tuệ nhân tạo nhằm đề ra các tiêu chuẩn tối thiểu trước khi các luật về lĩnh vực này được ban hành.

Tại cuộc họp thượng đỉnh ở Hiroshima vừa qua, các lãnh đạo nhóm G7 cũng đã thông báo sắp tới đây sẽ thành lập một "nhóm làm việc" về trí tuệ nhân tạo để thảo luận về việc ""sử dụng một cách có trách nhiệm" các công cụ này, cũng như thảo luận về các nguy cơ từ trí tuệ nhân tạo, trong đó có nguy cơ tin giả.

Thanh Phương

Nguồn : RFI, 03/06/2023

Published in Diễn đàn

Liên Hiệp Châu Âu và Hoa Kỳ sẵn sàng tăng cường hợp tác về trí tuệ nhân tạo nhằm quy định các chuẩn mực tối thiểu trước khi thiết lập các luật lệ liên quan đến ngành này. Trong một cuộc họp thông tin vào hôm qua, 23/05/2023, bà Margrethe Vestager, Ủy Viên Châu Âu về cạnh tranh, chuyên trách công nghệ trong EUn đã thông báo như trên.

tritue1

Ảnh minh họa ngày 04/05/2023 : Logo của Google, Microsoft và Alphabet và trí tuệ nhân tạo - AI. Reuters - DADO RUVIC

Trong thời gian qua, Hoa Kỳ và Liên Hiệp Châu Âu đã cố tìm cách tăng cường hợp tác công nghệ và thương mại, trong bối cảnh hai bên không có một thỏa thuận tự do mậu dịch song phương. Trí tuệ nhân tạo hiện là một trong những mảng hợp tác quan trọng, và sẽ là một chủ đề chính tại cuộc họp của Hội đồng Thương Mại và Công Nghệ EU-Hoa Kỳ tại Thụy Điển vào thứ Ba 30/05.

Đối với bà Margrethe Vestager, đồng thời là phó chủ tịch Ủy Ban Châu Âu, trong tình hình hiện nay, vấn đề đặt ra những khuôn khổ luật lệ cho trí tuệ nhân tạo đã trở nên "khẩn cấp".

Từ Bruxelles, Thông tín viên RFI Pierre Benazet giải thích :

"Các chuẩn mực kỹ thuật" được nhóm G7 đề nghị hôm thứ Bảy 20/05 vừa qua để giúp mạng internet tiếp tục được tin tưởng sẽ dẫn đến một thỏa thuận Liên Âu-Hoa Kỳ đầu tiên vào tuần tới nhằm thiết lập các quy tắc giám sát về sinh trắc học hoặc nhận dạng khuôn mặt.

Hoa Kỳ và Liên Hiệp Châu Âu dự trù một hệ thống luật lệ chung và vấn đề này sẽ là trọng tâm cuộc họp của Hội đồng Thương Mại và Công Nghệ Mỹ-EU vào thứ Ba tới đây. Cơ chế này đã trở thành một diễn đàn để Hoa Kỳ và Châu Âu thiết lập các quan hệ hợp tác mũi nhọn, để bù đắp cho sự thiếu vắng một hiệp định thương mại tự do giữa hai bên.

Mỹ và Liên Âu đều khẳng định hai bên có cùng quan điểm trong việc bảo vệ các hoạt động dân chủ trên internet. Hai bên đã ký thỏa thuận hợp tác nghiên cứu trong năm lĩnh vực sử dụng trí tuệ nhân tạo : Dự báo thời tiết và hiện tượng khí hậu khắc nghiệt, quản lý các kế hoạch ứng phó khẩn cấp, cải thiện ngành y tế và y học, tối ưu hóa mạng lưới điện và tối ưu hóa ngành nông nghiệp".

Trọng Nghĩa

Published in Quốc tế

‘B già AI’ ri Google, cnh báo v các him ha công ngh

AP, VOA, 03/05/2023

Nhà nghiên cu tiên phong và được mnh danh là "B già ca AI", Geoffrey Hinton, ngh vic ti Google đ có th t do lên tiếng v mi nguy him ca công ngh mà ông đã giúp to ra.

ai1

Geoffrey Hinton, "B già ca AI", chp nh trước tr s ca Google Mountain View, California, ngày 25/3/2015.

Trong s nghip nhiu chc năm ca mình, công trình tiên phong ca ông Hinton v hc sâu và mng thn kinh đã giúp đt nn móng cho phn ln công ngh AI mà chúng ta thy ngày nay.

Đã có mt lot các gii thiu v AI trong nhng tháng gn đây. Công ty khi nghip OpenAI có tr s ti San Francisco, công ty phát trin ChatGPT được Microsoft hu thun, đã tung ra mô hình trí tu nhân to mi nht ca mình, GPT-4, vào tháng Ba. Nhng công ty công ngh khng l khác đã đu tư vào các công c cnh tranh bao gm c "Bard" ca Google.

Ông Hinton nói vi BBC rng mt s mi nguy him ca chatbot AI là "khá đáng s". "Bây gi nó chưa thông minh hơn chúng ta nhưng s chng bao lâu na đâu".

Trong mt cuc phng vn vi t MIT Technology Review, ông Hinton cũng ch ra "nhng k xu" có th s dng AI theo nhng cách có th gây tác đng bt li cho xã hi chng hn như thao túng bu c hoc xúi gic bo lc.

Ông Hinton, 75 tui, cho biết ông đã ngh vic ti Google đ có th phát biu ci m v nhng ri ro tim n khi không còn làm vic cho công ty công ngh khng l.

"Tôi mun nói v các vn đ an toàn ca AI mà không phi lo lng v s nh hưởng ti hot đng kinh doanh ca Google", ông nói vi MIT Technology Review. "Chng nào tôi còn được Google tr tin, thì tôi không th làm điu đó".

K t khi thông báo v s ra đi ca mình, ông Hinton đã khng đnh rng Google đã "hành đng rt có trách nhim" đi vi AI. Ông nói vi MIT Technology Review rng cũng có "rt nhiu điu hay v Google" mà ông mun nói đến nhưng nhng nhn xét đó s "đáng tin cy hơn nhiu nếu tôi không còn Google na".

Google xác nhn rng ông Hinton đã ngh hưu sau 10 năm giám sát nhóm Nghiên cu ca Google Toronto.

Trng tâm các tranh cãi v AI là liu các mi nguy him là trong tương lai hay hin ti. Mt bên là các tình hung gi đnh v ri ro tn ti do máy tính thay thế trí thông minh ca con người gây ra. Mt khác là nhng lo ngi v công ngh t đng đã được các doanh nghip và chính ph trin khai rng rãi và có th gây ra nhng tác hi trong thế gii thc.

Bà Alondra Nelson, người đng đu Văn phòng Chính sách Khoa hc và Công ngh Tòa Bch c cho đến tháng 2, nói : "Dù tt hay không, nhng gì chatbot đã làm là biến AI tr thành đ tài bàn tán cp quc gia và quc tế không ch bao gm các chuyên gia và nhà phát trin AI".

"AI không còn tru tượng na, và tôi nghĩ chúng ta bt đu bàn v cách chúng ta mun thy mt tương lai dân ch và mt tương lai không bóc lt vi công ngh như thế nào", bà Nelson nói trong mt cuc phng vn vào tháng trước .

Mt s nhà nghiên cu AI t lâu đã bày t lo ngi v chng tc, gii tính và các hình thc thiên v khác trong các h thng AI, bao gm các mô hình ngôn ng da trên văn bn được đào to trên kho ch viết khng l ca con người và có th khuếch đi s phân bit đi x tn ti trong xã hi.

Bà Sarah Myers West, giám đc điu hành ca Vin AI Now phi li nhun, cho biết : "Chúng ta cn lùi li mt bước và thc s suy nghĩ xem nhu cu ca ai đang được đt lên hàng đu và là trung tâm trong cuc tho lun v ri ro". "Nhng tác hi do các h thng AI gây ra ngày nay thc s không được phân b đng đu. Nó đang làm trm trng thêm các mô hình bt bình đng hin có".

Ông Hinton là mt trong ba nhà tiên phong v AI đã giành được Gii thưởng Turing vào năm 2019, mt vinh d được biết đến như là phiên bn gii Nobel ca ngành công ngh. Hai người chiến thng khác, Yoshua Bengio và Yann LeCun, cũng bày t lo ngi v tương lai ca AI.

Ông Bengio, giáo sư ti Đi hc Montreal, đã ký mt bn kiến ngh vào cui tháng 3 kêu gi các công ty công ngh đng ý tm dng 6 tháng trong công cuc phát trin các h thng AI mnh m, trong khi ông LeCun, nhà khoa hc AI hàng đu ti công ty m ca Facebook, Meta, đã đưa ra mt cách tiếp cn lc quan hơn.

(AP)

Nguồn : VOA, 03/05/2023

******************************

‘Cha đỡ đầu’ của AI cảnh báo về mối đe doạ từ chatbot sau khi nghỉ việc ở Google

BBC, 02/05/2023

Geoffrey Hinton, nhà khoa học máy tính được mệnh danh là "cha đỡ đầu của trí tuệ nhân tạo" đã nghỉ việc, cảnh báo về những mối nguy hiểm ngày càng gia tăng từ những phát triển trong lĩnh vực này.

ai2

Trí tuệ nhân tạo - Ảnh minh họa

Tuyên bố từ chức ở Google trong một lá thư gửi cho tờ New York Times, ông Hinton, 75 tuổi cho biết giờ đây ông rất hối hận về công việc của mình.

Trao đổi với BBC, nhà khoa học cho biết một số nguy cơ của chatbot AI "khá đáng sợ".

"Ngay bây giờ, tôi có thể nói chúng không thông minh hơn chúng ta. Nhưng tôi nghĩ là sẽ sớm thôi".

Nghiên cứu tiên phong của Tiến sĩ Hinton về học sâu (deep learning) và mạng lưới nơ-ron đã mở đường cho các hệ thống AI hiện tại như ChatGPT.

Nhưng nhà tâm lý học nhận thức kiêm nhà khoa học máy tính người Canada gốc Anh nói với BBC rằng chatbot có thể sớm vượt qua mức độ thông tin mà bộ não con người nắm giữ.

"Ngay bây giờ, những gì chúng ta đang thấy là những thứ như GPT-4 vượt một người về lượng kiến ​​thc chung và ln át hn h v chng đường dài. V mt lý lun, nó không tt bng, nhưng nó đã thc hin được suy lun đơn gin.

"Và với tốc độ tiến bộ, chúng tôi dự trù mọi thứ sẽ cải thiện khá nhanh. Vì vậy, chúng ta cần phải lo lắng về điều đó".

Trong bài báo trên New York Times, Tiến sĩ Hinton đã đề cập đến "những kẻ xấu", những người sẽ cố gắng sử dụng AI cho "những điều xấu".

Khi được BBC yêu cầu phân giải thêm về điều này, ông đáp : "Đây chỉ là một tình huống xấu nhất, một tình huống ác mộng.

"Quý vị có thể tưởng tượng, ví dụ, một số kẻ xấu như [Tổng thống Nga Vladimir] Putin đã quyết định trao cho robot khả năng tạo ra các mục tiêu con của riêng chúng".

Nhà khoa học cảnh báo rằng điều này cuối cùng có thể "tạo ra các mục tiêu con như 'Tôi cần có thêm quyền lực'".

Ông nói thêm : "Tôi đã đi đến kết luận rằng loại trí thông minh mà chúng ta đang phát triển rất khác với loại trí thông minh mà chúng ta có.

"Chúng ta là những hệ thống sinh học còn đây là những hệ thống kỹ thuật số. Và sự khác biệt lớn là đối với các hệ thống kỹ thuật số, quý vị có nhiều bản sao của cùng một bộ trọng lượng, cùng một mô hình thế giới.

"Và tất cả những bản sao này có thể học mọi thứ một cách riêng biệt nhưng chia sẻ kiến ​​thc vi nhau tc thì. Vì vy, ging như bn có 10.000 người và bt cứ khi nào một người học được điều gì đó, mọi người sẽ tự động hiểu điều đó. Và đó là cách những chatbot này có thể hiểu biết vượt xa hơn bất kỳ con người nào".

Tiến sĩ Hinton cũng cho biết có một số lý do khác để nghỉ việc.

"Một là, tôi đã 75 tuổi. Vì vậy, đã đến lúc về hưu. Điều nữa là, tôi thực sự muốn nói một số điều tốt đẹp về Google. Và sẽ đáng tin hơn nếu tôi không còn làm việc cho Google".

Ông nhấn mạnh rằng ông không muốn chỉ trích Google và gã khổng lồ công nghệ đã "rất có trách nhiệm".

Trong một tuyên bố, nhà khoa học lãnh đạo của Google Jeff Dean cho biết : "Chúng tôi vẫn cam kết thực hiện một cách tiếp cận có trách nhiệm đối với AI. Chúng tôi không ngừng học hỏi để hiểu những rủi ro mới nổi cộm, đồng thời cũng mạnh dạn đổi mới".

Nguồn : BBC, 02/05/2023

*****************************

Bắc Kinh muốn nhồi chủ nghĩa xã hội vào trí tuệ nhân tạo

France24, Anh Vũ, RFI, 02/05/2023

Trung Quốc trở thành nước đầu tiên ban hành các quy định đưa vào khuôn khổ việc phát triển trí tuệ nhân tạo như dạng ChatGPT. Ưu tiên của nước này là làm sao để các tác nhân hội thoại tôn trọng các "giá trị cốt lõi của chủ nghĩa xã hội", một khái niệm vốn dĩ đã khó nắm bắt.

ai3

Ảnh minh họa : Tổng giám đốc nghiên cứu của tập đoàn Bách Độ, Trung Quốc, Robin Li thuyết trình về phát triển trí tuệ nhân tạo Bắc Kinh, ngày 04/07/2018. AP - Ng Han Guan

Trí tuệ nhân tạo (AI) theo kiểu ChatGPT liệu có hòa đồng được vào trong chủ nghĩa xã hội mang màu sắc Trung Quốc ? Câu hỏi này hàm chứa điều mà Bắc Kinh muốn. Hôm 26/04 vừa rồi, nhật báo Mỹ New York Times cho biết, chính quyền Trung Quốc vừa công bố các quy định mới để đưa vào khuôn khổ và tạo điều kiện phát triển công nghệ này với điều kiện phải tôn trọng chủ thuyết của chế độ Cộng sản.

Các biện pháp này, đã được trình lên các cấp cơ quan đảng Cộng Sản Trung Quốc hôm 11/04. Như vậy Trung Quốc là nước đầu tiên áp đặt các quy định cho lĩnh vực theo kiểu ChatGPT, công cụ hội thoại bằng trí tuệ thông minh do công ty OpenAI triển khai, đã gây tiếng vang lớn ngay khi xuất hiện.

Sợ trí tuệ nhân tạo chệch hướng

Bắc Kinh muốn có phản ứng nhanh nhất bởi "cũng giống như ở mọi nước, các lãnh đạo Trung Quốc đã hiểu rằng công nghệ này có thể tác động sâu rộng trong xã hội", Guangyu Qiao-Franco chuyên gia về công nghệ mới xuất hiện tại Trung Quốc thuộc Đại học Radboud (Hà Lan) nhận định.

Với một chế độ vốn rất muốn kiểm soát dân chúng như Bắc Kinh thì không thể có chuyện để các tác nhân thoại tự động được hoàn toàn tự do. Nhất là Bắc Kinh đã biết được phần mềm hội thoại tự động như vậy cho kết quả ra sao. Hồi tháng đầu năm năm 2022, ChatYua, công cụ của Trung Quốc tương tự như ChatGPT đã bị rút khẩn cấp ngay sau khi trả lời rằng nền kinh tế Trung Quốc đang "trong tình trạng tồi tệ" và rằng xung đột tại Ukraine là cuộc "chiến tranh xâm lược của Nga", trong khi mà Trung Quốc vẫn sử dụng lại cách gọi của Nga đó là "chiến dịch quân sự đặc biệt".

Những quy định mới nói trên là nhằm tránh trí tuệ nhân tạo đi chệch hướng. Cụ thể các công ty Trung Quốc triển khai các giải pháp thay thế cho ChatGPT phải bảo đảm là phần mềm của họ không tạo ra các nội dung kỳ thị, không xâm phạm quyền bảo vệ đời tư của người sử dụng internet, không truyền bá các thông tin giả, theo nhật báo South China Morning Post cho biết. Đó đều là những mối quan ngại của tất cả các chính phủ trên thế giới trước những thách thức mà trí tuệ nhân tạo đặt ra.

Nhưng điều 4 trong các quy định mới của Trung Quốc cũng hàm chứa nghĩa vụ phải thiết kế các công cụ trí tuệ nhân tạo biết «tôn trọng các giá trị cốt lõi của chủ nghĩa xã hội ( theo kiểu Trung Quốc)". Liệu đây có phải là một yêu cầu đưa trước tác của Mao Trạch Đông vào hộp thoại tự động (chatbot) ?

Thực ra, theo chuyên gia Guangyu Qiao-Franco, " có một danh sách các khái niệm thuộc các giá trị cốt lõi của chủ nghĩa xã hội". Người ta thấy ở đó các khái niệm như dân chủ, thịnh vượng, bình đẳng, công bằng, yêu nước, ý thức nghĩa vụ hay giá trị lao động. 

Chỉ là làm hài lòng Tập Cận Bình ? 

Thực sự đây là một mớ thập cẩm những những giá trị lớn có thể được phần lớn các nước phương Tây chia sẻ. Nhưng từ đó rất khó để suy ra các quy tắc cần tuân theo về mặt phát triển các phần mềm cho một công cụ trí tuệ nhân tạo tương thích với cái "chủ nghĩa xã hội" đó. "Đúng là những khái niệm khá mơ hồ", Guanyu Qiao-Franco nhận thấy.

Theo chuyên gia về chính sách kinh tế và công nghiệp Trung Quốc Xin Sun, thực tế, "cần phải tạo khái niệm cho những giá trị cốt lõi của chủ nghĩa xã hội, như một khái niệm bao trùm giúp chế độ có được sự linh hoạt nhất định về những điều được phép hay không".

Trước sự phát triển nhanh chóng của một công nghệ như hội thoại trí tuệ nhân tạo, Bắc Kinh không biết bắt đầu kiểm duyệt từ đâu. Các "giá trị cốt lõi của chủ nghĩa xã hội" quá lờ mờ để có thể thích ứng trong mọi tình huống.

Việc dùng đến tham chiếu này khá là ngạc nhiên. Quả thực chính quyền đã ban hành các quy tắc về "quản trị đúng AI" vào năm 2019 và là một phần của "quy tắc đạo đức AI" vào năm 2021. Không có dấu hiệu nào về "giá trị cốt lõi của chủ nghĩa xã hội" trong hai trường hợp này.

Năm 2023, cơ quan quản lý quyết định định đi xa hơn. "Có thể họ lấy cảm hứng từ ông Tập Cận Bình, người hay dẫn ra các giá trị đó. Có thể đó là cách để cho lãnh đạo của họ thấy là họ học theo tấm gương của của ông", bà Guangyu Qiao-Franco nhận định.

Trong giả thuyết đó, AI sẽ tham gia vào ngày càng nhiều mảng của nền kinh tế đang chịu sự trở lại chi phối của ý thức hệ. Đó cũng đã là một trong những ưu tiên của chủ tịch Trung Quốc. Đây cũng là yếu tố không thuận lợi cho các công ty Trung Quốc đang muốn cạnh tranh với ChatGPT. Làm thế nào để tạo ra một công cụ AI "tương thích-xã hội" ? Chuyên gia Xin Sun cho rằng "trước hết phải tạo ra một bộ lọc ở đầu vào và đầu ra của phần mềm».

Chậm chân so với Hoa Kỳ ? 

Sự kiểm duyệt kép này trước tiên sẽ biện minh cho việc sàng lọc thông tin từ cơ sở dữ liệu mà A.I sẽ rút ra để tìm câu trả lời. Sau đó, "có lẽ sẽ cần phải thiết lập một hệ thống xác minh các câu trả lời cuối cùng để đảm bảo rằng chúng không chứa bất kỳ điều gì trái với quy định", Xin Sun giải thích.

Vẫn còn bí ẩn lớn về những công cụ AI này. "Vấn đề là chúng ta hoàn toàn không biết tại sao những chiếc máy này lại chọn câu trả lời này thay vì một câu trả lời khác dựa trên dữ liệu mà chúng tôi cung cấp cho chúng", Joseph Sifakis, giám đốc nghiên cứu của Đại học Grenoble (Pháp) giải thích. Ông là người Pháp duy nhất được trao giải thưởng Turing ( một giải có thể gọi là Nobel về trí tuệ nhân tạo). Nói cách khác, không kỹ sư nào có thể đảm bảo 100% với đảng Cộng Sản Trung Quốc rằng chatbot của họ sẽ duy trì nghiêm ngặt trong khuôn khổ "giá trị cốt lõi của chủ nghĩa xã hội".

Các chủ công ty của Trung Quốc đề nghị phải được biết rõ ràng cái gì họ được làm cái gì không được làm. Khái niệm mập mờ xung quanh các "giá trị cốt lõi của chủ nghĩa xã hội" buộc các công ty phải tiến hành hết sức thận trọng. Điều này khiến cho họ có thể bị chậm chân trong cuộc cạnh tranh, đặc biệt là với các công ty Mỹ.

Như vậy chính quyền Trung Quốc tự đặt mình trước những mâu thuẫn của chính họ. Thực ra, trí tuệ nhân tạo nằm trong danh sách các lĩnh vực ưu tiên phát triển của Bắc Kinh trong cuộc tranh giành vị trí dẫn đầu thế giới. Thậm chí còn là nhiệm vụ trọng tâm bởi chính quyền "coi trí tuệ nhân tạo như là điện, tức là một ngành công nghệ giúp phát triển lĩnh vực ưu tiên khác chẳng hạn như tự động hóa hay công nghệ sinh học..." Chuyên gia Guangyu Qiao-Franco nhấn mạnh.

Vậy là với những quy định mới Bắc Kinh đã tự bắn vào chân mình. Nó có nguy cơ làm chậm cải tiến trong một lĩnh vực quan trọng. Nhưng đồng thời các nước khác cũng sẽ suy tính cách thức tốt nhất để thiết lập quy chế cho lĩnh vực này.

Chính quyền và các nhà chuyên môn của lĩnh vực này còn cần phải thống nhất với nhau thế nào là một tác nhân hội thoại tương thích với chủ nghĩa xã hội theo kiểu Trung Quốc. Đây sẽ là chủ đề của các cuộc tham khảo mà chính phủ dự định tiến hành với các tập đoàn Trung Quốc muốn lấn át ChatGPT. Ngoài Alibaba, Bách Độ (Baibu) hay Tencent, còn có rất đông những tập đoàn mạnh như thế.

(France24.com)

Anh Vũ biên dịch

Published in Quốc tế

Việt Nam sẽ tụt hậu nếu đi theo Trung Quốc kiểm duyệt AI trên mạng ?

Kian Vesteinsson, RFA, 17/03/2023

Trí tuệ nhân tạo (Artificial Intelligence, viết tắt là AI) đang nổi lên như một công nghệ mới có thể thay đổi đời sống con người ở nhiều lĩnh vực chủ chốt. Gần đây, Chat GPT, một sản phẩm AI trên mạng của công ty Open AI, thu hút được sự chú ý của người dùng internet toàn thế giới với những lợi ích mới mẻ mà nó mang lại. 

ai1

Hôm 16/3/2023, Công ty Baidu của Trung Quốc ra mắt Ernie Bot cạnh tranh với Chat GPT. Theo Financial Times, cổ phiếu Baidu giảm vì Ernie Bot gây thất vọng. Reuters

Các cơ quan chức năng ở Việt Nam hiện mới chỉ phản ứng với những trò đùa của người dân bằng cách hỏi Chat GPT những câu hỏi chính trị gây cười để cho ra những câu trả lời gây cười. Trên báo Điện tử Chính phủ, một chuyên gia của Việt Nam cho rằng cần khai thác "mặt tích cực" của AI và cũng đưa ra một giải pháp với hy vọng có thể điều khiển những nội dung do AI tạo ra để hạn chế "mặt trái". 

Trung Quốc từ lâu đã sử dụng công nghệ AI phục vụ cho hệ thống kiểm duyệt khổng lồ của mình. Và theo nhiều chuyên gia quốc tế theo dõi tình hình Trung Quốc, họ đã đi tới giai đoạn thao túng nội dung do AI có thể tạo ra, từ đó dẫn tới nguy cơ bóp méo môi trường internet toàn cầu. Một nước đang phát triển như Việt Nam không dễ có thể "copy" được hệ thống kiểm duyệt gắt gao của Trung Quốc, và nếu Việt Nam cố gắng làm như vậy, điều đó có thể dẫn Việt Nam tới nguy cơ tụt hậu, trở thành ốc đảo giữa một thế giới đang phát triển công nghệ mới AI. RFA trao đổi với ông Kian Vesteinsson, chuyên gia cao cấp tại Freedom House, một think tank ở Washington DC, về vấn đề này. Một trong những vấn đề Kian Vesteinsson chuyên nghiên cứu là mối quan hệ giữa dân chủ và các công nghệ mới.

RFA : Chúng ta đang bước vào thời đại mà Trí tuệ nhân tạo (Artificial Intelligence, viết tắt là AI) ngày càng đi sâu vào đời sống hàng ngày, kinh tế, an ninh, quân sự. Và chúng ta cũng chứng kiến hiện tượng kiểm duyệt bằng công nghệ AI. Người ta lo AI sẽ lấy mất công việc của nhiều nhóm nghề nghiệp. Và ở Trung Quốc có một điều bất ngờ là AI bắt đầu lấy mất nghề của cán bộ kiểm duyệt. Xin ông cung cấp một bức tranh tổng quan về hiện tượng này.

Kian Vesteinsson : Chúng ta biết rằng các công ty trên khắp thế giới sử dụng hệ thống học máy (machine learning) để quản lý nội dung trên nền tảng (platform) của họ. Và đó là một thực tế đơn giản về quy mô hoạt động của Internet ngày nay. Có một số lo ngại lớn về việc áp dụng các nội dung và hệ thống tự động, chẳng hạn như vào việc kiểm duyệt, vì vậy, điều quan trọng là các công ty không dựa vào các hệ thống tự động này để xóa nội dung mà không được con người xem xét trực tiếp một cách cẩn thận. 

Nhưng nói chung, những loại hệ thống tự động này là một phần của mọi nền tảng truyền thông xã hội nhưng những hệ thống này cũng có thể là cái định hướng, để hạn chế sự biểu đạt của người dân trên mạng. Ví dụ kinh điển ở đây là hoạt động kiểm duyệt do AI điều khiển đã trở thành trọng tâm trong quy trình kiểm soát nội dung trực tuyến của Đảng Cộng sản Trung Quốc (Đảng cộng sản Trung Quốc). Và chắc chắn, những hệ thống tự động này là một cách hiệu quả về chi phí để kiểm soát sự biểu đạt của người dân Trung Quốc trên quy mô lớn.

Bây giờ tôi muốn nói thực sự rõ ràng ở đây. Các công ty như Alibaba, Tencent và Baidu là những công ty hàng đầu trong ngành về công nghệ kiểm duyệt và họ đã thực sự đạt đến trình độ tinh chỉnh, tinh vi về cách sử dụng các hệ thống tự động để nhắm mục tiêu và hạn chế có chủ ý nội dung chính trị, nội dung xã hội và các hình thức biểu đạt quan trọng khác.

Và sau đó họ bán những hệ thống tương tự cho các công ty Trung Quốc khác và khách hàng nước ngoài trên khắp thế giới. Họ đang làm điều này một phần vì chính phủ yêu cầu các trang web được lưu trữ tại địa phương, các nền tảng truyền thông xã hội và các công ty công nghệ khác phải chủ động giám sát và xóa một lượng đáng kể nội dung và tài khoản bị hạn chế. Những công ty này có thể phải đối mặt với sự trừng phạt nghiêm khắc nếu họ không tuân thủ. Vì vậy đối với tôi, vấn đề ở đây là, kiểu kiểm duyệt tự động tinh vi này là một sự đáp ứng tuấn thủ chính sách của Đảng cộng sản Trung Quốc đối với việc kiểm soát ở mức độ tuyệt đối Internet Trung Quốc. Và kết quả là, quyền của những người Trung Quốc viết bài trên mạng đã bị khống chế.

RFA : Việt Nam có xu hướng học theo những gì Trung Quốc làm. Nhưng Việt Nam nhỏ và năng lực thấp hơn Trung Quốc ở mức độ đáng kể. Về mặt công nghệ, áp dụng AI vào kiểm duyệt nội dung chính trị trên mạng có phải là việc dễ làm đối với một nước đang phát triển như Việt Nam ?

Kian Vesteinsson : Có một điều tôi sẽ nói ở khía cạnh này, đó là ngay cả khi nói đến môi trường Internet truyền thống, chỉ có những cách kiểm duyệt truyền thống, thì bức tranh về quyền tự do ngôn luận ở Việt Nam đã ảm đạm rồi. 

Các bạn biết đấy, chúng tôi đã thấy trong năm qua, Chính phủ của các bạn đã xóa nội dung trực tuyến với tốc độ ngày càng tăng, kết án các nhà báo và người viết blog với án tù dài hạn. Từ thời điểm hiện tại này, đầu năm 2023, có vẻ như hoạt động kiểm duyệt này sẽ càng trở nên tệ hơn trong năm tới, với các quy định mới, để cụ thể hóa việc thực thi Luật An ninh mạng, có hiệu lực từ tháng 10 năm 2022. Và những quy định này sẽ mang lại cho chính phủ những con đường mới để ngăn chặn và xóa nội dung trực tuyến.

Sau đó, vào tháng 11 năm ngoái, Chính phủ các bạn đã thông báo rằng họ sẽ thắt chặt các yêu cầu đối với các công ty truyền thông xã hội trong việc xóa những bài đăng mà chính phủ cho là sai lệch. Và cũng trong khoảng thời gian đó, Đảng cộng sản Việt Nam đã đưa ra các quy định mới nhằm cấm quảng cáo trực tuyến trên một số trang web. Tôi nói tất cả những điều này bởi vì những diễn biến này cho thấy rằng người Việt Nam sẽ còn phải đối mặt nhiều hơn với sự kiểm duyệt trực tuyến nhằm hạn chế hoạt động báo chí độc lập và những tiếng nói bất đồng chính kiến trong năm tới. 

Điều đó có thể dẫn tới hậu quả là Việt Nam loại bỏ những tiềm năng chuyển đổi to lớn và tích cực mà những công cụ do AI có thể tạo ra.

Còn về năng lực công nghệ của Việt Nam, vâng, tôi nghĩ rằng sẽ rất khó để đánh giá trước mức độ mà Đảng cộng sản Việt Nam có thể sử dụng các công cụ này theo cách giống như Đảng cộng sản Trung Quốc đã làm, và một phần là do nó đòi hỏi năng lực kỹ thuật cần thiết ở mức độ cao.

Các bạn biết rằng sự kiểm soát mà Đảng cộng sản Trung Quốc trên Internet là bao trùm tất cả. Để làm được điều này, họ đã làm được một điều rất khó là tạo ra một mức độ ảnh hưởng khổng lồ, mở rộng tầm kiểm soát của mình tới mọi nơi, từ các công ty công nghệ cơ sở hạ tầng Internet cho đến tận cuộc sống của những người bình thường sử dụng Internet. Nói một cách đơn giản, điều này khó. Thực sự rất khó để tái tạo Vạn lý Tường lửa (the Great Firewall) của Trung Quốc, bởi vì điều này đòi hỏi phải làm việc ở nhiều cấp độ, cấp độ pháp lý, cấp độ chính sách, cấp độ kinh tế và kỹ thuật.

Chúng ta biết rằng Đảng cộng sản Trung Quốc thực sự đang gửi lực lượng đi thuyết phục các chính phủ khác trên thế giới theo đuổi mô hình chủ nghĩa độc tài kỹ thuật số của mình. Nhờ đó, các công ty Trung Quốc đang bán những công cụ giám sát và kiểm duyệt tinh vi cho các khách hàng trên toàn thế giới. Và điều đó có thể cho phép các chính phủ khác tái tạo một số phần trong hệ thống kiểm soát của chính phủ Trung Quốc đối với Internet, thông qua việc mua các công cụ này từ các công ty đó.

RFA : Vậy nếu Việt Nam sử dụng các công cụ kiểm duyệt bằng AI của Trung Quốc thay vì sử dụng công nghệ AI theo tiêu chí Phương Tây, rủi ro cho an ninh quốc gia của nước này là gì ? 

Kian Vesteinsson : Tôi xin để vấn đề đó cho các nhà phân tích về an ninh quốc gia, đó không phải là lĩnh vực chuyên môn của tôi. Vì vậy, tôi nghĩ tốt hơn là tôi không nói về điều đó. Nó thực sự phức tạp. 

RFA : Trung Quốc là một quốc gia có dân số lớn nhất và có lượng người dùng Internet lớn nhất thế giới. Việc Đảng cộng sản Trung Quốc kiểm soát mạng lưới Internet có lượng người dùng lớn nhất thế giới có ảnh hưởng tới nội dung do những công cụ AI, ví dụ như Chat GPT, tạo ra hay không ? Ý tôi muốn nói là phạm vi ảnh hưởng có vượt ra khỏi lãnh thổ Trung Quốc mà lan ra cấp độ toàn cầu hay không.

Kian Vesteinsson : Vâng, đó thực sự là một câu hỏi sâu sắc. Tôi muốn tiếp cận vấn đề như thế này. Những công cụ Học máy này phản ánh dữ liệu mà chúng được đào tạo. Và vì vậy, nếu một công cụ Học máy chủ yếu lấy thông tin từ Internet tiếng Trung Quốc hoặc tiếng Việt, thì kết quả đầu ra của nó sẽ phản ánh những gì mà Đảng cộng sản Trung Quốc và Đảng cộng sản Việt Nam phát tán bao gồm cả những thành kiến của họ, những thông tin họ tuyên truyền. Nó sẽ truyền tải cái bầu không khí tinh thần mà chúng ta thấy trên mạng Internet của Trung Quốc và Việt Nam.

Điều đáng chú ý ở đây là các hệ thống AI này cũng có thể phản ánh sự kiểm duyệt, do sự can thiệp của con người đối với nội dung do máy tạo ra này. Một ví dụ ở đây là các phiên bản đầu tiên của chương trình chuyển đổi văn bản thành hình ảnh ERNIE-ViLG của Baidu đã giới hạn các tham chiếu đến hình ảnh Quảng trường Thiên An Môn, các nhà lãnh đạo Trung Quốc, hạn chế các thuật ngữ như "cách mạng" hoặc "vượt tường lửa". Vì vậy, tôi nghĩ điều này rất có khả năng là cái trạng thái thực tại của mạng Internet này sẽ khuôn định các công cụ sáng tạo bởi AI, vốn là cái dựa trên nền tảng Internet ấy.

Một điểm khác, tôi sẽ trình bày ở đây về chủ đề này, đó là tôi nghĩ có một câu hỏi quan trọng là : điều gì có thể xảy ra với người dùng ? Ai sử dụng các công cụ Học máy này để tạo nội dung mà các nhà lãnh đạo chính trị muốn nắm bắt ? Vì vậy giả sử ai đó ở Việt Nam sử dụng một bài viết được Chatbot tạo ra có nội dung chỉ trích Đảng cộng sản Việt Nam và sau đó đăng ảnh chụp màn hình của sản phẩm đó lên mạng xã hội, người đó có thể phải đối mặt với những hình phạt nào từ các cơ quan có thẩm quyền của Việt Nam ? Và điều gì xảy ra với công ty cung cấp những nền tảng đó ? Vì vậy, đây là một câu hỏi thực sự lớn mà tôi nghĩ rằng chúng ta sẽ chỉ thấy câu trả lời mở ra khi những công cụ này trở nên khả dụng hơn đối với người dân nói chung.

RFA : Đứng trước năng lực của Trung Quốc trong việc bóp méo nội dung do AI tạo ra như vậy, với tư cách là đảng cầm quyền ở Việt Nam, Đảng cộng sản Việt Nam phải đối diện với những vấn đề lớn hơn thế về mặt lợi ích quốc gia mà họ có trách nhiệm phải gánh vác. Tôi lấy ví dụ, Trung Quốc tranh chấp với một số nước ASEAN về chủ quyền lãnh thổ quốc gia ở Biển Đông. Trước khi có AI, họ đã huy động một số lượng lớn các học giả sản xuất tràn ngập các bài báo phát tán quan điểm sai trái của Trung Quốc một cách tinh vi. Họ áp đảo các học giả chân chính về mặt số lượng. Nay họ còn có thêm công cụ AI. Liệu AI sẽ tác động thế nào đến địa chính trị trong vùng ?

Kian Vesteinsson : Vâng đó là một câu hỏi thực sự hay, và thực tế là chúng ta sẽ không biết câu trả lời, do vấn đề còn phụ thuộc vào cách mà các công cụ AI này được thiết kế. Ví dụ, bạn biết rằng Baidu đang phát hành Chatbot Ernie của họ. Tôi nghĩ nó sẽ ra mắt trong tuần này. Các sản phẩm của Baidu và nhiều sản phẩm khác tương đương với nó trong bối cảnh quốc tế không minh bạch, người dùng hệ thống không rõ các mô hình học ngôn ngữ lớn này được đào tạo bằng những dữ liệu nào, và không rõ mức độ can thiệp của con người đối với quá trình đó. 

Vì vậy, trong ví dụ mà bạn đã chia sẻ này, sẽ rất khó để người dùng công cụ của Baidu, sẽ ra mắt vào tuần này, có thể đánh giá mức độ mà sản phẩm đầu ra của nó bị thao túng để phục vụ lợi ích của chính quyền. 

Đó là lý do tại sao điều thực sự quan trọng là các công ty phát triển những công cụ này phải tích hợp các nguyên tắc nhân quyền mạnh mẽ, các tiêu chuẩn cao về tính minh bạch và trách nhiệm giải trình công khai, khi họ phát hành chúng. Điều đó thực sự đã bắt đầu với các công ty lớn ở bên ngoài Trung Quốc để thiết lập tiêu chuẩn cho các công ty khác, không thuộc Trung Quốc. 

RFA : Trung Quốc không chỉ sử dụng AI để kiểm duyệt, bây giờ thì họ có thể kiểm duyệt luôn cả AI, tức là bóp méo những gì mà AI có thể tạo ra theo ý muốn của họ. Ở trình độ này, họ có thể làm biến dạng mạng lưới thông tin toàn cầu hay không ? Điều đó liệu có thể chia thế giới này làm đôi, tức là chia các nhà hoạch định chính sách, các công ty công nghệ và người sử dụng Internet làm hai nhánh, đi theo hai hướng, trên phạm vi toàn cầu hay không ?

Kian Vesteinsson : Vâng, điều này hoàn toàn đúng. Hệ thống kiểm duyệt của Đảng cộng sản Trung Quốc đối với Internet Trung Quốc đã làm biến dạng hoàn toàn mạng internet toàn cầu. Tôi chỉ xin nêu một vài ví dụ về một số chủ đề lớn bị kiểm duyệt nghiêm ngặt mà chúng tôi đã thấy trong năm qua, ý tôi là chỉ vài tháng trước, cuối năm 2022, khi người dân khắp Trung Quốc đã vận động một phong trào biểu tình phản đối không chỉ các chính sách Zero COVID mà còn nhiều chính sách kiểm soát chính trị hà khắc của chính quyền. Điều này đã phát triển mạnh mẽ trên Internet trong một số ngày trước khi hệ thống kiểm duyệt hoạt động, xóa và hạn chế những nội dung đó. Nó diễn ra cùng một cách mà chúng ta thấy trong đại dịch COVID-19 khi chính phủ Trung Quốc kiểm duyệt thực sự gay gắt. 

Lúc đó người dân chỉ trích việc phong tỏa hà khắc hoặc chia sẻ thông tin liên quan đến COVID. Loại biện pháp kiểm duyệt này thực sự đã trở thành một phần xu hướng mà chúng ta thấy trên khắp thế giới : xu hướng các chính phủ đang chia mạng Internet toàn cầu mở thành từng khu vực đàn áp chắp vá.

Nói chung, họ đang làm như vậy để cách ly về mặt kỹ thuật số cộng đồng của chính họ nhằm kiểm duyệt và giám sát người dùng theo những cách sâu hơn. 

Và như vậy, chính phủ Trung Quốc đã thực sự đi "tiên phong." Cách tiếp cận này là xây dựng các đường biên giới kỹ thuật số, bên cạnh các đường biên giới lãnh thổ quốc gia. Điều đó thực sự tồi tệ đối với người dùng Internet và nhân quyền của họ.

Các công cụ học máy phản ánh dữ liệu mà chúng được đào tạo. Do đó, chúng có xu hướng phản ánh những thành kiến được nhúng trong những dữ liệu đó. Các mô hình ngôn ngữ lớn được đào tạo trên internet Trung Quốc, nơi bị Đảng cộng sản Trung Quốc kiểm duyệt gắt gao, có nguy cơ sao chép phiên bản internet bị thao túng đó trong kết quả đầu ra của họ. Điều này có thể ảnh hưởng đến các mô hình được xây dựng bởi các công ty có trụ sở bên ngoài Trung Quốc, không phải tuân theo các chỉ thị kiểm duyệt của Đảng cộng sản Trung Quốc. Điều quan trọng là các công ty xây dựng các mô hình này phải đặt ra tiêu chuẩn cao về tính minh bạch và trách nhiệm giải trình trước công chúng để những người sử dụng chúng biết được những giả định nào có thể được đưa vào quá trình xử lý của hệ thống học máy.

RFA : AI là một công nghệ có thể tạo ra những chuyển đổi to lớn mà những nước đang phát triển như Việt Nam không nên bỏ lỡ. Nhưng hệ thống kiểm duyệt của nước này tác động thế nào đến các công ty công nghệ mới trong lĩnh vực này khi họ muốn xem xét đầu tư vào một môi trường như Việt Nam ? Ở trên ông nói hoạt động kiểm duyệt gắt gao trên diện rộng có thể dẫn tới hậu quả là Việt Nam loại bỏ những tiềm năng chuyển đổi to lớn và tích cực mà những công cụ do AI trên mạng có thể tạo ra. Xin ông giải thích.

Kian Vesteinsson : Vâng, tôi xin đặt vấn đề như thế này. Những công cụ học máy AI này thực sự có khả năng biến đổi mọi lĩnh vực đời sống. Tôi nghĩ chúng sẽ thay đổi cách thức hoạt động của Internet. Và như với tất cả các công nghệ có khả năng tạo ra sự chuyển đổi tương tự, điều đó có khả năng mang lại nhiều lợi ích kinh tế, nhiều tăng trưởng và đổi mới cho những người đang xây dựng các công cụ này, xây dựng các hệ thống mới này và những người biết cách sử dụng chúng.

Tuy nhiên, khi một chính phủ nào đó áp đặt các hệ thống kiểm duyệt ở quy mô lớn thì chính phủ ấy cũng đang cắt giảm thông tin phục vụ cho quá trình sáng tạo đổi mới đó, cắt giảm những lợi ích kinh tế mà ngành công nghiệp mới này có thể tạo ra. 

Khi các công ty công nghệ mới này tìm hiểu nơi họ nên đầu tư, nơi họ nên khai thác thị trường mới và tổ chức những hoạt động mới, một trong những việc họ sẽ phải làm là phân tích hai mặt lợi ích và chi phí. Trong đó, đối với họ, việc tuân thủ các yêu cầu kiểm duyệt và giám sát thực sự là việc khó khăn. Và vì vậy, để trả lời câu hỏi bạn đặt ra, tôi có thể nói rằng việc kiểm duyệt gắt gao trên diện rộng của chính phủ sẽ tạo ra những chi phí rất thực tế cho các công ty đang xem xét đầu tư vào một môi trường nhất định.

RFA : Như vậy nếu một nước đang phát triển như Việt Nam thực hiện một hệ thống kiểm duyệt chặt chẽ đối với sản phẩm do AI tạo ra trên Internet, điều này rốt cục sẽ khiến nước này có thể sẽ không nhận được đầy đủ lợi ích từ công nghệ mới này do không thu hút được đầu tư của các công ty ? Đó có thể là một khả năng không ?

Kian Vesteinsson : Vâng, đó chắc chắn là một khả năng.

RFA : Ở trên ông đã nói về tính minh bạch như là một điều kiện cần thiết để công nghệ AI có thể tạo ra sự chuyển đổi tích cực cho kinh tế xã hội. Xin ông giải thích chi tiết hơn tại sao tính minh bạch lại quan trọng đối với công nghệ mới này và với các quốc gia muốn tham gia vào làn sóng mới này ?

Kian Vesteinsson : Vâng. Khi đề cập đến tính minh bạch, tôi nói về tính minh bạch ở một mức độ rất rộng. Tôi muốn nói về tính minh bạch khi đề cập đến hệ thống kỹ thuật, cách thức vận hành, chính sách, cũng như tính minh bạch trong toàn bộ cách thức hoạt động của các công ty. 

Điều này thực sự quan trọng vì một số lý do khác nhau. Tôi muốn nói rằng nó quan trọng không chỉ đối với các công ty như Open AI đang triển khai các công cụ học máy này, mà còn cả các công ty như Meta và Google trên các nền tảng nền tảng này. Tính minh bạch trao quyền cho người sử dụng hiểu điều gì đang xảy ra trên những nền tảng mà họ đang dành cả cuộc sống cho nó, phải không ? Những công cụ này, bao gồm cả Chat GPT, đang đóng một vai trò phi thường trong cuộc sống của mọi người. Do đó điều thực sự quan trọng là những người đang giao tiếp với hệ thống biết rằng họ có cơ hội, có điều kiện để hiểu được điều gì đang thực sự xảy ra ở mặt sau.

Một lý do khác khiến tính minh bạch thực sự quan trọng là điều này giúp xây dựng những quy định, những chế tài một cách thông minh và có chủ đích. Chúng ta đang ở thời điểm mà các chính phủ trên khắp thế giới đang tìm cách điều chỉnh lĩnh vực công nghệ. Và trong nhiều trường hợp, các chính phủ đang làm điều này với những hiểu biết và thông tin còn hạn hẹp. Và vì vậy, ở những tầng bậc mà chúng ta đã nói đến, tính minh bạch thực sự là chìa khóa để thúc đẩy quá trình hoạch định chính sách một cách thông minh. Như một điểm khởi đầu, các cơ quan quản lý trên khắp thế giới nên tìm kiếm cơ hội để thực thi các yêu cầu minh bạch đối với những công ty này, để từ đó chuẩn bị xa hơn nữa cho những chính sách hẹp và có chủ đích mà chúng ta muốn đạt tới trong tương lai

RFA : Xin cảm ơn nhà nghiên cứu Kian Vesteinsson và Freedom House đã dành cho độc giả của chúng tôi cuộc phỏng vấn này.

RFA, 17/03/2023

*****************************

"ChatGPT" của Trung Quốc không thuyết phục được giới đầu tư

Phan Minh, RFI, 17/03/2023

Tập đoàn Bách Độ (Baidu) của Trung Quốc hôm 16/03/2023 đã "trình làng" robot biết giao tiếp "Ernie Bot", được cho là đối thủ cạnh tranh với ChatGPT. Tuy nhiên, các nhà đầu tư không mấy ấn tượng với khả năng toán học và ngôn ngữ của Ernie Bot, và cổ phiếu của Bách Độ giảm 10% trên thị trường chứng khoán Hồng Kông. 

ai2

Bảng hiệu Bách Độ (Baidu) tại trụ sở chính của tập đoàn tại Bắc Kinh, Trung Quốc, ngày 16/03/2023. Reuters – Tingshu Wang

Từ Bắc Kinh, thông tín viên Stéphane Lagarde cho biết cụ thể :  

Đây không phải là lần đầu tiên Bách Độ ra một sản phẩm về lĩnh vực trí tuệ nhân tạo. Sau robot taxi không người lái, sau những chiếc loa thông minh nhỏ "Tiểu Độ - Xiaodu" có khả năng dự báo thời tiết và trả lời câu hỏi của các hộ gia đình ở những thành phố lớn Trung Quốc, giờ đây là "Ernie Bot", robot biết giao tiếp được cho là sẽ cạnh tranh với ChatGPT. 

Tuy nhiên, Lý Ngạn Hoành (Robin Li), ông chủ của Bách Độ, không thích nói đến ý tưởng về một cuộc chạy đua với Hoa Kỳ. Theo ông Lý, bộ não nhân tạo là ý tưởng của các kỹ sư Bách Độ trong một thời gian dài : "Đây không phải là công cụ phục vụ cuộc đối đầu về công nghệ cao giữa Trung Quốc và Hoa Kỳ, mà là thành quả trong công việc của nhiều thế hệ kỹ sư Bách Độ, những người theo đuổi ước mơ thay đổi thế giới thông qua công nghệ."

Không chạy đua công nghệ, nhưng lần này, Bách Độ dường như đã ra mắt sản phẩm robot của mình quá sớm. 

Hiện tại, chỉ có một phiên bản tiếng Quan Thoại của "Ernie Bot" được trình làng mà không thể hiện được khả năng của mình, điều mà Lý Ngạn Hoành thừa nhận là kém hơn so với robot của Mỹ, và điều này đủ để khiến cổ phiếu của Bách Độ tụt dốc trên sàn giao dịch chứng khoán Hồng Kông. 

Phan Minh

Nguồn : RFI, 17/03/2023

Published in Diễn đàn

ChatGPT và cuộc đại chiến Trí tuệ nhân tạo giữa Microsoft và Google

Chi Phương, RFI, 10/02/2023

Trước sự xuất hiện của ChatGPT, khuấy đảo người dùng mạng trên toàn cầu, các gã khổng lồ công nghệ như Google và Microsoft đã lao vào cuộc đua Trí tuệ nhân tạo, tránh bị tụt lại phía sau.

RFI xin giới thiệu bài phân tích về chủ đề này đăng trên báo Pháp Le Figaro ngày 07/02/2023.

chat1

Hình ảnh minh họa ChatGPT và cuộc đọ sức giữa Google và Microsoft. © canva

Trong tuần vừa qua, một cuộc đọ sức truyền thông đã xảy ra giữa Google và Microsoft.  Chưa đầy 24 giờ, hai trong số những tập đoàn lớn nhất thế giới về công nghệ đã tổ chức họp báo, tiết lộ các tính năng mới về sự phát triển của Trí tuệ nhân tạo (AI). Trên thực tế, hiếm khi mà hai bên có một cuộc đối đầu quyết liệt trong cùng một thị trường. (Lần cuối cùng đó là từ năm 2010, khi hai bên xảy ra tranh cãi liên quan đến việc cung cấp các dịch vụ trên điện thoại Window Phone). Tuy nhiên, thành công toàn cầu của ứng dụng robot hỏi đáp trực tuyến ChatGPT với công nghệ Trí tuệ nhân tạo đa ngôn ngữ, có khả năng tạo ra một văn bản giống như là do con người viết ra, đã châm ngòi cho cuộc cạnh tranh giữa hai tập đoàn. Giám đốc điều hành của Microsoft Satya Nadella đã khẳng định với các nhà phân tích rằng : "Chúng tôi sẽ là những người dẫn đầu trong kỷ nguyên AI mới này". Về phần mình, ông chủ của Google, Sundar Pichai đáp lại "Chúng tôi là những người đi đầu trong việc phát triển Trí tuệ nhân tạo".

Cuộc họp báo đầu tiên diễn ra vào sáng thứ Ba (07/02) ở Seattle, trụ sở của Microsoft. Nếu như các phương tiện truyền thông được mời đến dự vào tuần trước, tập đoàn Hoa Kỳ đã chính thức hoá sự kiện này từ thứ Hai khi đăng một bức ảnh giám đốc điều hành Satya Nadella đứng cạnh cùng với đứa con cưng mới của Thung lũng Silicon : Sam Altman – lãnh đạo của OpenAI. Microsoft đã đầu tư gần 10 tỷ đô la trong vòng 3 năm vào công ty phát minh ra ứng dụng ChatGPT. Ứng dụng này sử dụng những siêu máy tính để cho chạy các chương trình máy học chuyên sâu. Sự liên kết này có thể là tấm vé giúp Microsoft giành thắng lợi trong quá trình phát triển của công nghệ thông tin.

Một ngày sau cuộc họp báo của Microsoft, vào chiều thứ Tư tuần này, đến lượt Google tổ chức họp báo từ Paris và được truyền tải toàn cầu từ Youtube . Trong phần mô tả sự kiện này, Google khẳng định : "Chúng tôi đang định hình lại cách mà mọi người tìm kiếm thông tin, khám phá và tương tác với thông tin, bằng cách khiến cho việc tìm kiếm của mọi người trở nên tự nhiên hơn và trực quan hơn bao giờ hết".

Dường như Google không muốn để Microsoft tận dụng thời cơ. Tối thứ Hai, tập đoàn California đă đăng một thông cáo tiết lộ một số thông tin của cuộc họp báo sắp diễn ra vào thứ Tư. Thông tin chính đó là Google đã phát triển một ứng dụng Bard, đáp trả ChatGPT và cũng như Microsoft Bing, Google cũng sẽ phát triển máy tìm kiếm của mình.

Sắp tới, người dùng Internet có thể đặt những câu hỏi phức tạp cho Google và Bing, (ví dụ như : Tôi có thể nấu món gì cho một đứa bé 18 tháng, chỉ muốn ăn đồ ăn có màu cam ? Những bài tập thể lực nào cho người mới bắt đầu và không cần dụng cụ ở nhà để có thể giảm mỡ bụng ?)... Những câu trả lời sẽ được đưa ra dưới dạng tổng hợp và chi tiết, và có thể bỏ lại đằng sau những chuỗi dài các đường link dẫn vào các trang mạng để đào sâu chủ đề.

Nguy cơ máy tìm kiếm Google bị soán ngôi

Nếu như phải đánh giá mức độ mạnh mẽ của tính năng này, thì đây có thể là cuộc cách mạng đối với cách thức mà người dùng Internet tìm kiếm trên Internet và có thể sắp xếp lại quân bài chủ đạo của thị trường này, vốn đã bị Google thống trị trong hai thập kỷ qua. Về phần mình Microsoft dường như đã sẵn sàng. Vào thứ Sáu, phiên bản Bing mới đã được đưa vào hoạt động, trước khi bị gỡ xuống chỉ sau vài phút.

Microsoft hợp tác với OpenAI, cải thiện máy tìm kiếm Bing nhờ Trí tuệ nhân tạo

Cỗ máy tìm kiếm này không phải là sản phẩm duy nhất sẽ được trang bị những tính năng mới liên quan đến Trí tuệ nhân tạo. Microsoft đã thông báo vào tuần trước về một thay đổi trong nền tảng trao đổi thông tin, họp trực tuyến Teams. Vào cuối mỗi cuộc họp trực tuyến, Teams sẽ tự động cắt video và tạo ra một bản tóm tắt về những quyết định được đưa ra, đồng thời đề xuất mỗi người tham gia vào cuộc họp xem lại những điểm quan trọng của cuộc họp. (Ví dụ như khi nào thì tên của họ được nhắc đến, khi nào thì tài liệu được chia sẻ, khi nào thì phải vắng mặt). Tính năng này có thể giúp tiết kiệm được quỹ thời gian quý báu.

Google cũng đã chuẩn bị sẵn nhiều thông báo về các tính năng mới, ít nhất là khoảng 20 thông báo, theo như thông tin từ New York Times. Ví dụ như việc tạo những sản phẩm hình ảnh hoặc trang trí làm đẹp cho các video trên Youtube, hay là thử quần áo trực tuyến, hỗ trợ lập trình các ứng dụng Android, tự động tạo một video từ nhiều video khác. Phần lớn các kế hoạch này sẽ được công bố vào tháng Năm tới, trong cuộc hội nghị hàng năm của Google I/O. Các tính năng này là câu trả lời đối với cảnh báo đỏ mà giám đốc điều hành của Google, ông Sundar Pichai đã đưa ra, để đối phó với sức mạnh của Chat GPT.

Vào năm 2016, ông Pichai, vốn đã định hướng những đầu tư của Google vào nghiên cứu Trí tuệ nhân tạo, không thể để tập đoàn của mình bị tụt lại phía sau. OpenAI đã phát minh ra ứng dụng Dall-E, một Trí tuệ nhân tạo có khả năng tạo ra các hình ảnh từ một văn bản và Google đã sở hữu Imagen (có tính năng tương tự). Nếu như OpenAi đã tạo ra bản mẫu của ngôn ngữ tự nhiên GPT thì Google cũng đã nghiên cứu từ nhiều năm nay trên ứng dụng LaMDA. Hai ứng dụng này trên thực tế lại dựa trên một sự phát hiện được công bố bởi các nhà nghiên cứu của Google. Hôm thứ Hai vừa qua, ông Pichai nhắc lại rằng "dự án nghiên cứu Transformer của chúng tôi, bài đăng tham chiếu được đăng vào năm 2017 là những nền tảng của nhiều ứng dụng Trí tuệ nhân tạo sử dụng mà mọi người bắt đầu thấy ngày nay".

Sản phẩm Trí tuệ nhân tạo vẫn rủi ro

Google chưa từng mở cửa cho bên thứ ba đối với ứng dụng LamMDA hay Imagen bởi vì những công cụ này vẫn chưa hoàn hảo. Trong một bài đăng vào năm 2021, các kỹ sư của tập đoàn nhấn mạnh rằng các mô hình máy học (machine learning) không suy luận và có thể viết sai và không có khả năng trích nguồn. Vì vậy không đưa những công cụ này vào tay của người dùng là điều khẩn cấp, vì gây rủi ro đối với danh tiếng của Google. Thế nhưng sự đam mê mang tính toàn cầu đối với ChatGPT từ tháng 11 năm ngoái cũng như áp lực từ các cổ đông đã thúc đẩy tập đoàn Google phải xem lại lập trường của mình.

Google muốn lập lại vị trí trung tâm của mình trong giới công nghệ và chỉ ra rằng tập đoàn vẫn an toàn, không bị tụt lại phía sau : người dùng Internet phải thấy được những ứng dụng cụ thể của các Trí tuệ nhân tạo này càng sớm càng tốt. Trong thư điện tử được gửi đi vào thứ Hai, ông Sundar Pichai đã kêu gọi nhân viên của Google thử nghiệm robot đối thoại trực tuyến Bard và đưa ra phản hồi để cải thiện ứng dụng này. Ông Pichai tuyên bố : "Hãy nhìn vào điều này như là một cuộc thi viết lập trình ‘marathon’ – hackathon, trong nội bộ. Các bộ phận đã được tổ chức lại để có thể cho ra mắt nhanh chóng các tính năng táo bạo. Tuy nhiên, Google không muốn mạo hiểm hành động vội vàng : Bard chỉ được cho ra mắt với người dụng mạng khi nào mà ứng dụng này an toàn và đáng tin cậy.

Cuộc đua Trí tuệ nhân tạo không chỉ liên quan đến Google và Microsoft. Nhà nghiên cứu Yann LeCun, giám đốc ngiên cứu Trí tuệ nhân tạo ở Meta (công ty mẹ của Facebook), đã nhấn mạnh rằng "ChatGPT không phải là một phát minh đáng kinh ngạc, mới mẻ, sáng tạo và độc đáo, vượt trên tất cả những ứng dụng khác" và các tập đoàn khác, bao gồm Meta đã sở hữu những công nghệ tương tự. Bằng chứng là tại Trung Quốc, vào thứ Ba, gã khổng lồ của Trung Quốc, với cỗ máy tìm kiếm Baidu đã thông báo hoàn thiện giai đoạn thử nghiệm Ernie Bot, một ứng dụng tương tự như ChatGPT. Ernie Bot dựa trên mô hình máy học Ernie mà Baidu đã làm việc từ 2019. Công cụ này sẽ được áp dụng trong nhiều sản phẩm của tập đoàn trong thời gian sắp tới. Thông báo này đã khiến cổ phiếu của Baidu tăng 15% và mang lại lợi nhuận cho các công ty công nghệ Trung Quốc khác cũng đang nghiên cứu về AI.

Đầu tư vào AI tăng mạnh

Tại phương Tây, Trí tuệ nhân tạo là cụm từ xuất hiện ở mọi nơi. Theo thống kê của Bloomberg, cụm từ này đã được nhắc đến 200 lần tại các cuộc hội nghị phân tích gần đây nhất của 15 doanh nghiệp công nghệ lớn nhất tại Hoa Kỳ. Tức là gấp 3 lần kể từ đầu năm 2022. Giống như là khi cơn sốt về cụm từ metavers – đa vũ trụ hay Web3, dự trù sẽ có vô số thông báo được đưa ra trong năm 2023 này. Các quỹ đầu tư đã được kích hoạt. Từ tháng Giêng, gần 700 triệu đô la đã được đầu tư vào các công ty hoạt động trong lĩnh vực Trí tuệ nhân tạo, trong đó có OpenAI, so với 900 triệu đô la cho cả năm 2022.

Các tập đoàn lớn trang bị vũ khí cho mình bằng việc mua cổ phần trong các công ty khởi nghiệp hứa hẹn. Nếu như Microsoft gần như là kết hôn với OpenAI, thì Google đã đầu tư gần 300 triệu đô la vào công ty Anthropic hồi cuối năm ngoái và sở hữu 10%. Công ty này được thành lập bởi các nhà nghiên cứu từng làm việc ở OpenAI, đã tạo ra một mẫu ngôn ngữ của riêng mình – Claude. Năm gã khổng lồ công nghệ GAFAM - Google, Apple, Facebook (Meta), Amazon và Microsoft cũng sẽ xem xét kỹ các công ty khởi nghiệp, phát minh ra các ứng dụng mới cụ thể cho các Trí tuệ nhân tạo mới. Google cũng như Open AI sẽ cho phép bên thứ ba, sử dụng công nghệ của họ với điều kiện phải trả phí. Các công nghệ mới có thể sẽ sớm xuất hiện.

Chi Phương

Nguồn : RFI, 10/02/2023

****************************

Thế giới độc tài sẽ đối phó AI ra sao ?

Tuấn Khanh, RFA, 08/02/2023

Giữa năm ngoái, tờ Techcrunch đã tiết lộ chuyện trong hệ thống cầm quyền của Trung Quốc cho lưu hành một tập tài liệu, nói về định hình sự phát triển công nghệ của Trung Quốc trong vài năm phải được định hướng rõ là "chủ quyền kỹ thuật số" - ám chỉ khả năng của một quốc gia - trong việc phải biết kiểm soát "vận mệnh kỹ thuật số" của chính mình, bao gồm quyền tự chủ đối với phần mềm và phần cứng quan trọng trong chuỗi cung ứng AI. Các đợt cấm xuất khẩu của Hoa Kỳ đối với Trung Quốc là cơ hội thúc đẩy Bắc Kinh tiếp tục kêu gọi độc lập về công nghệ trong các lĩnh vực từ chất bán dẫn đến nghiên cứu cơ bản về AI.

chat2

Người ta chờ xem đứa con cưng của Bắc Kinh là Baidu sẽ vượt qua ranh giới giữa sự kiểm duyệt hạn chế, để được sự tự do và sáng tạo cho bot của mình như thế nào ?

Khi ChatGPT của OpenAI xuất hiện, cho thấy tiềm năng phá vỡ các rào cản bị kiểm duyệt hoặc bưng bít từ giáo dục, tin tức đến dịch vụ… cho nên Trung Quốc đã ra chỉ thị là muốn phát triển các ChatGPT cây nhà lá vườn của mình, không chỉ để đảm bảo quyền kiểm soát cách dữ liệu truyền qua các công cụ đó, mà còn để tạo ra các sản phẩm AI đặc thù văn hóa và chính trị của chủ nghĩa cộng sản.

Nhờ chuẩn bị trước, dự kiến ​​ra mt vào tháng 3 năm này, robot đàm thoi ca Baidu trước tiên s được tích hp vào công c tìm kiếm ca hãng, theo tin t The Wall Street Journal. Điều đó cho thấy chatbot sẽ chủ yếu tạo ra kết quả bằng tiếng Trung Quốc. Tuy nhiên, mô hình học sâu được đào tạo trên cả nguồn dữ liệu tiếng Trung và tiếng Anh, bao gồm cả thông tin thu thập được bên ngoài Bức tường lửa vĩ đại, cơ sở hạ tầng kiểm duyệt internet phức tạp của đất nước này.

Giống như tất cả mọi kênh thông tin chỉ định cho con người ở Trung Quốc, chatbot của Baidu chắc chắn sẽ phải tuân theo các quy định và quy tắc kiểm duyệt của Bắc Kinh. Hiện điều này đã xuất hiện cụ thể, như ứng dụng chuyển văn bản thành hình ảnh của công ty ERNIE-VilG, đã từ chối câu từ bị coi là "nhạy cảm" về chính trị. Nhưng AI đàm thoại xử lý các yêu cầu phức tạp hơn nhiều so với trình tạo hình ảnh — nên người ta vẫn theo dõi xem đứa con cưng của Bắc Kinh là Baidu sẽ vượt qua ranh giới giữa sự kiểm duyệt hạn chế, để được sự tự do và sáng tạo cho bot của mình như thế nào ?

Ngày 10/1 năm nay, Trung Quốc đã ban hành Quy định áp dụng cho các nhà cung cấp dịch vụ hoạt động tại Trung Quốc về AI. Không có gì đáng ngạc nhiên, đây chỉ là những ràng buộc các giá trị tự do chính trị, hay phi xã hội chủ nghĩa của Bắc Kinh, vốn sẵn sàng hạn chế trước, và giám sát bằng công an hầu hết các hình thức dịch vụ internet tiêu dùng, chẳng hạn như trò chơi, phương tiện truyền thông xã hội và video ngắn. Chẳng hạn, quy định nhưng rất chung và mơ hồ như "người dùng bị cấm sử dụng AI tổng quát để tham gia vào các hoạt động gây nguy hiểm cho 'an ninh quốc gia', gây tổn hại đến lợi ích công cộng hoặc bất hợp pháp".

Có nghĩa hôm nay, ở Việt Nam với hàng rào còn lỏng lẻo của quy định về AI và internet, nhiều người đang cười vui về các câu hỏi được AI trả lời như "Anh Lê Văn Tám có là anh hùng Việt Nam ?"... thì sớm muộn gì, những loại câu hỏi tạo dữ liệu bị coi là 'phản động' và đang âm mưu 'mớm' cho kho nhập dữ liệu tự động, có thể bị khép vào điều 117 "Tuyên truyền chống nhà nước" chẳng hạn. Đó là chưa nói, với lực lượng tuyên truyền được nuôi hùng hậu, việc chồng dữ liệu thay thế, những câu trả lời xác nhận không cần chú giải, sớm muộn gì cũng bắt gặp ở nhiều nơi.

Hiện ở Trung Quốc, các bản thử nghiệm đàm thoại AI của Baidu, đang được triển khai với hàng trăm ngàn người bằng điều kiện qua định danh đúng của căn cước. Tính ẩn danh không thực sự tồn tại trên internet Trung Quốc vì người dùng thường được yêu cầu liên kết tài khoản trực tuyến của họ với số điện thoại được đăng ký với ID chính phủ của họ. Các nhà cung cấp AI tổng quát cũng được yêu cầu tương tự để xác minh người dùng bằng số điện thoại di động, ID hoặc các dạng tài liệu khác. Có nghĩa là, ngay cả khi bạn viết một câu mơ hồ hỏi AI rằng "Chủ tịch có đánh rắm không ?", bạn cũng có thể trở thành nạn nhân bất thường vì chính định danh chính xác của mình.

Cùng với nhiều trường hợp về giả mạo hay lạm dụng công nghệ, người dùng vi phạm các quy định này sẽ phải đối mặt với nhiều mức hình phạt khác nhau. Tương tự như các hãng hàng không, các nhà khai thác dịch vụ AI địa phương được yêu cầu lưu giữ hồ sơ về hành vi bất hợp pháp và báo cáo cho các cơ quan hữu quan, để cấm không còn được tham gia hoặc bị theo dõi vĩnh viễn. 

Ngoài ra, các nền tảng cũng luôn đưa ra cảnh báo, hạn chế sử dụng, tạm dừng dịch vụ hoặc thậm chí đóng tài khoản của những người vi phạm quy tắc xã hội chính trị. Cao hơn, là sau tiếng gõ cửa, bạn sẽ thấy nhân viên công an đứng trước nhà mình.

Tuấn Khanh

Nguồn : RFA, 08/02/2023

Published in Văn hóa

Sự phát triển của trí tuệ nhân tạo trong thời gian gần đây đã dấy lên nhiều câu hỏi về tương lai của nghề sáng tạo. Liệu Trí tuệ nhân tạo (A.I) có thể thay thế con người cũng như sáng tạo nghệ thuật của giới nghệ sĩ ? Đâu là viễn cảnh nguy hiểm nhất nếu như AI ngày càng phát triển hơn nữa ?

ai1

Hình ảnh minh họa Trí tuệ nhân tạo (AI). © canva

RFI tiếng Việt đã đặt câu hỏi này với ChatGPT là một phần mềm trò chuyện thông minh, với công nghệ A.I, cho phép đối đáp giống như con người và đưa ra những câu trả lời sơ khai nhưng cũng có thể phức tạp. Sau đây là câu trả lời của ChatGPT : "Trí tuệ nhân tạo có thể thay thế sự sáng tạo của con người để trở thành nguồn sáng tạo chủ đạo trên thế giới. Tuy nhiên, cũng có thể trí tuệ nhân tạo sẽ làm gia tăng khả năng sáng tạo của con người. Trong cả hai trường hợp, viễn cảnh nguy hiểm nhất là nếu trí tuệ nhân tạo loại bỏ hoàn toàn khả năng sáng tạo của con người".

Được ra mắt vào tháng 11/2022, ứng dụng robot chat trực tuyến ChatGPT do công ty Open AI tại Thung lũng Silicon ở Hoa Kỳ phát triển, đã thu hút sự chú ý của hàng triệu người qua các bài tiểu luận, bài thơ hay cả những lời khuyên cá nhân. Công cụ này đã gây náo động khi chính thức được công nhận là tác giả của một số bài đăng trên các tạp chí khoa học danh giá. Ví dụ như vào tháng Giêng, tạp chí Education in Practice đã công nhận AI là đồng tác giả trong một bài xã luận với nhà nghiên cứu công nghệ y tế, bà Siobhan O’Connor tại đại học, Manchester, Vương quốc Anh.

ChatGPT không phải là công cụ Trí tuệ nhân tạo duy nhất làm mưa làm gió từ năm 2022. Tại Đức, phầm mềm sử dụng Trí tuệ nhân tạo đã hoàn thiện bản nhạc Symphony số 10 còn dang dở của nhà soạn nhạc Beethoven . Tại Hoa Kỳ, một chương trình máy tính đã viết một cuốn tiểu thuyết từ đầu đến cuối, lấy cảm hứng từ tác phẩm Sur la route của Jack Kerouac. Các phần mềm trí tuệ nhân tạo vẽ tranh như Dall-E2, Midjourney hoặc Stable Diffusion đã tạo tiếng vang với khả năng tạo ra những hình ảnh chân thực, nhanh chóng và chất lượng cao chỉ từ một mô tả bằng văn bản đơn giản. Ví dụ như bức chân dung của Edmond de Belamy được vẽ bởi trí tuệ nhân tạo và được bán ra với giá hàng trăm ngàn euro tại sàn đấu giá Christie’s, hay tác phẩm Théatre d’opéra spatial giành giải cao nhất trong một cuộc thi nghệ thuật ở Colorado, Hoa Kỳ.

Công nghệ kiểm soát con người ?

Tuy nhiên, nếu như một số người coi sự phát triển vũ bão của công nghệ đặc biệt là về trí tuệ nhân tạo, mở ra một tương lai tốt đẹp hơn với vô số tiện ích, thì một số khác lại tin rằng loài người đang dần mất kiểm soát giống như trong những bộ phim khoa học viễn tưởng (Matrix) : Công nghệ "vượt mặt", kiểm soát con người. Sự xuất hiện của A.I được xem như là một cuộc cách mạng trong giới sáng tạo, khơi dậy một làn sóng gây mê hoặc người dùng bởi những tiện ích mà chúng đem lại nhưng đồng thời cũng gây lo ngại.

Đối với sự xuất hiện của ChatGPT, nhiều nhà xuất bản cũng như các nhà phát hành tạp chí đã cấm hoặc hạn chế việc sử dụng A.I vì lo ngại rằng có thể ảnh hưởng đến các tài liệu học thuật do những thiết sót trong nghiên cứu, hoặc bịa đặt thông tin hay vấn đề về đạo văn.

Nghề sáng tạo bị mai một 

Theo trang Equaltimes của Bỉ, những lo ngại đối với A.I không phải là không có lý do. 56 % công việc ngày nay vốn đã bị đe dọa bởi tự động hóa, liệu các nghệ sĩ, nhà thiết kế hay các chuyên gia làm về sáng tạo có thể là những người tiếp theo ? Liệu rằng sáng tạo từ trí tuệ nhân tạo có khiến cho sáng tạo của con người trở nên mai một hay không ?

Trong giới hội họa, AI art generators - các công cụ sáng tạo nghệ thuật từ AI được coi là anti-artist : phản nghệ sĩ. Các công cụ như DeviantArt hay Midjourney và Dall-E đã gặp phải vô số bê bối vì các tranh được tạo ra mang hơi hướng phân biệt chủng tộc, giới tính. Nhiều nghệ sĩ đã thực hiện các thủ tục tố tụng chống lại các công ty xây dựng phần mềm vẽ tranh AI vì vi phạm bản quyền. 

Họa sĩ vẽ tranh nhưng bị nhầm là do A.I vẽ

Một vụ việc thu hút sự quan tâm của công luận khi một tác phẩm tranh kỹ thuật số (Digital Art) của một họa sĩ Việt bị coi là do A.I vẽ. Trên một diễn đàn thảo luận về nghệ thuật - r/Art, trên Reddit với hơn 20 triệu thành viên, Nguyễn Hoàng Minh Anh, với nghệ danh Ben Moran làm việc tại studio Kart ở Hà Nội, đã đăng tải một tác phẩm tranh kỹ thuật số. Bài đăng của anh đã bị gỡ bỏ vì cho rằng đó là tác phẩm của A.I. Diễn đàn này cấm tác phẩm do A.I tạo ra. Sau khi liên lạc với quản trị viên để giải trình về tác phẩm tiêu tốn hàng trăm giờ của mình qua Photoshop, tài khoản của Ben Moran đã bị chặn. Quản trị của diễn đàn này đưa ra lý do : "Nếu là nghệ sĩ thực thụ, bạn nên tìm một phong cách sáng tạo khác. Bởi vì không ai sẽ tin khi nói rằng tác phẩm này không phải do AI tạo ra. Trong vài giây, máy móc có thể làm tốt hơn việc mà bạn đã tiêu tốn hàng giờ để thực hiện". 

Theo họa sĩ Việt, đây thực ra đây không phải là lỗi của Trí tuệ nhân tạo mà là do việc bài trừ trí tuệ nhân tạo một cách hơi cực đoan. Với sức mạnh của trí tuệ nhân tạo ngày càng lớn như hiện nay, khó kiểm soát và có thể dẫn đến những tình huống không hay, như là trường hợp của anh. Về vụ việc này RFI Tiếng Việt đã có dịp trao đổi với họa sĩ kỹ thuật số, giáo viên dạy vẽ bộ môn nghệ thuật kỹ thuật số - digital Art Nguyễn Hoàng Minh Anh.

Xin cảm ơn anh Nguyễn Hoàng Minh Anh đã dành thời gian chia sẻ với qúy thính giả của RFI Tiếng Việt trong mục tạp chí xã hội tuần này.

RFI : Trước tiên, anh có thể cho biết cảm nhận của mình về việc một tác phẩm sáng tạo của mình lại bị coi là sản phẩm của Trí tuệ nhân tạo ? 

Nguyễn Hoàng Minh Anh : Thực ra thì tôi thấy vừa vui vừa buồn, vì sức mạnh của trí tuệ nhân tạo rất lớn, các sản phẩm của A.I cũng rất đẹp. Khi được so sánh như vậy, vui là bởi vì tác phẩm của tôi được công nhận nhưng buồn là vì những cố gắng, tâm huyết đặt vào tác phẩm lại bị nhầm với một sản phẩm do máy móc tạo ra. 

RFI : Là một nghệ sĩ, lập trường của anh đối với việc các sáng tạo của AI là gì ?

Nguyễn Hoàng Minh Anh : Theo quan điểm của tôi, thì tôi không đồng ý với cách sử dụng hiện tại của Trí tuệ nhân tạo. Theo mình được hiểu thì A.I nên sinh ra là để phục vụ con người và việc A.I sinh ra để phục vụ nghệ sĩ khi giúp họa sĩ giảm thời gian vẽ tranh và tạo ra nhiều tác phẩm hơn. Còn hiện tại, A.I đang đi lệch hướng đấy. 90 % số họa sĩ mà tôi biết đều không ủng hộ sự xuất hiện của AI. Khi A.I được sử dụng quá đại trà và dễ sử dụng nên là bất kỳ ai có thể sao chép và tạo ra một sản phẩm của riêng mình nhưng lại dựa trên phong cách sáng tác của người khác, do vậy nên hiện đang xảy ra rất nhiều lùm xùm về bản quyền ở nước ngoài, và cũng có nhiều vụ kiện cáo.

RFI : Sự phát triển của trí tuệ nhân tạo có thể thay đổi cách hoạt động trong thế giới sáng tạo nghệ thuật hay không ? 

Nguyễn Hoàng Minh Anh : Theo tôi dự đoán, A.I vẫn sẽ có một chỗ đứng cho riêng mình và Digital Art sẽ chuyển sang một hướng khác. Các họa sĩ máy móc như mình sẽ rất dễ bị nhầm với các nghệ sĩ sử dụng A.I. Đây là một cơ hội để các họa sĩ truyền thống có chỗ đứng lớn hơn.

RFI : Nói như vậy thì nghề của bạn có phải đang bị đe dọa ?

Nguyễn Hoàng Minh Anh : Có thể là như vậy. A.I có thể lấp nhiều chỗ trống của các Digital Artist như tôi nếu như mà mình không đủ giỏi. Tính cạnh tranh đang bị đẩy lên quá cao và vượt quá tầm với của con người. Chung quy lại, dù là digital art hay hội họa truyền thống, trước khi A.I xuất hiện, cả hai đều được thực hiện phần lớn là dựa vào kỹ thuật và hiểu biết của họa sĩ. Tuy nhiên khi A.I xuất hiện, nó sẽ làm thay gần như đến 90 % công việc. Nghề Digital artist này đang bị lung lay.

RFI : Các họa sĩ sẽ phải thích ứng ra sao ?

Nguyễn Hoàng Minh Anh : Hiện tại thì tôi cũng khá là bế tắc. Cách đây một năm rưỡi, chúng tôi biết đến trí tuệ nhân tạo, ví dụ như phần mềm Midjourney, nó không mạnh như là bây giờ. Lúc đó chúng tôi nghĩ là có thể tăng số lượng và chất lượng tranh của studio chúng tôi. Nhưng hiện tại, AI rất mạnh, làm hết mọi thứ và các họa sĩ gần như không cần động tay vào. Sai số là quá nhỏ. Hiện tại chắc không chỉ riêng tôi mà giới Digital cũng đang rất là bế tắc và đang tìm cách chống lại bằng việc sử dụng bản quyền, chứ gần như là không có cách nào để thích ứng với một công cụ đang làm mưa làm gió như vậy cả. 

RFI Tiếng Việt xin cảm ơn anh Nguyễn Hoàng Minh Anh đã dành thời gian chia sẻ về lập trường của mình đối với A.I.

***

Hiện tại A.I vẫn còn khá mới mẻ nên khó có thể xác định được tác động của loại công nghệ này với giới làm nghề sáng tạo nói chung. Trên Facebook, nhà thiết kế trang sức Trần Thị Thanh Nga cho rằng A.I được sinh ra là để hỗ trợ cũng như thử thách nhà thiết kế : "A.I thật tuyệt vời để chơi cho vui, chứ nếu chỉ tập trung vào từ khóa rồi chờ kết quả, chọn một vài mẫu đổi tí sửa tí thành thiết kế thì lâu dần tôi sẽ mất đi trí tưởng tượng và khả năng tư duy thiết kế. Chưa kể quá trình sáng tạo, thử nghiệm và trải nghiệm là quá trình thú vị nhất đối với một nhà thiết kế và một người yêu sáng tạo. Nó sẽ là một điều ngược đãi với bản thân nếu mất đi quá trình này." 

Trên trang The Conversation, giáo sư tại đại học Michigan của Hoa Kỳ, ông Kentaro Toyama đặt câu hỏi "trí tuệ và óc sáng tạo của con người sẽ được đánh giá ra sao khi máy móc trở nên thông minh hơn và sáng tạo hơn những người thông minh nhất ?». Trong một số lĩnh vực, công việc do con người làm vẫn được coi trọng ngay cả khi máy tính có thể làm tốt hơn. Trong lĩnh vực khác, ví dụ như về ngành minh họa (illustration), người xem không quan tâm liệu hình ảnh đó là do người vẽ hay máy vẽ mà chỉ xét đến liệu nó có phù hợp hay không và có thể mang tính giải trí. Nếu máy tính vẽ tốt hơn thì sao, độc giả trên thực tế cũng không để ý ai là tác giả.

Giáo sư Tomaya khẳng định rằng lịch sử cho thấy gần như chắc chắn rằng A.I sẽ làm biến mất nhiều công việc hơn, số lượng người làm những việc mà chỉ con người có thể cũng sẽ giảm dần. Tuy nhiên, những công việc đòi hỏi những kỹ năng mới cũng xuất hiện.

Về phần mình, giáo sư triết học tại đại học Carlos III ở Tây Ban Nha, trả lời trang Equal Times rằng : "cuộc sống là ví dụ điển hình nhất về sự sáng tạo vẫn tồn tại. Nếu một cơn bão có thể thay đổi môi trường thì nó cũng có thể tạo ra một thứ gì đó mới mẻ. Tuy nhiên, chính loài người - xã hội mới mang lại giá trị và quyết định làm gì với sự sáng tạo. Do vậy, chúng ta không nên tập trung vào sự khác biệt của con người với máy móc và mà thay vào đó là điều gì chúng ta muốn làm với máy móc". 

Theo trang Equal Times, giống như bộ não của con người, các phần mềm được phát triển dựa trên trí tuệ nhân tạo có mạng lưới tế bào thần kinh riêng, hay còn gọi là tế bào thần kinh nhân tạo. Chúng lưu trữ một lượng lớn dữ liệu và sau đó phân tích, phân loại và tổng hợp lại với nhau. Đây cũng là cách mà các ý tưởng được ấp ủ.

Theo bà Karina Gibert, giám đốc của trung tâm nghiên cứu trí tuệ nhân tạo IDEAL-UPC, Tây Ban Nha. "Trí tuệ nhân tạo không chỉ có thể phân tích dữ liệu mà còn có thể học hỏi từ kinh nghiệm của chính nó. A.I có thể phân loại các thông tin và kết hợp chúng để tạo ra một thứ gì khác mới".

Ví dụ như trường hợp về bức chân dung của một nhân vật giả tưởng Edmond de Belamy, được AI tạo ra sau khi phân tích 15 000 bức chân dung được vẽ từ thế kỷ 14 và 20. Một tác phẩm khác "The next rembrandt project", được tạo ra sau khi nghiên cứu 300 tác phẩm của một danh họa người Hà Lan, A.I đã vẽ một bức mới và bắt chước theo phong cách của họa sĩ này. 

Chi Phương

Nguồn : RFI, 01/02/2023

Published in Diễn đàn
Trang 1 đến 2