- Donald Trump đang cân nhắc bổ nhiệm một "sa hoàng AI" để định hình chính sách liên bang cho công nghệ mới
- Elon Musk và Vivek Ramaswamy, đồng lãnh đạo Bộ Hiệu quả Chính phủ (DOGE) mới, sẽ giúp lựa chọn người đảm nhận vị trí này
- Vai trò của "sa hoàng AI" bao gồm:
• Điều phối nguồn lực công-tư để định hướng đầu tư AI
• Làm việc với DOGE để tăng hiệu quả chính phủ
• Chống gian lận bằng AI
- Trump có thể giữ lại Sắc lệnh AI của Biden về việc bổ nhiệm giám đốc AI tại các cơ quan liên bang lớn
- Công ty xAI của Musk đã huy động được 6 tỷ USD vào tháng 5 để phát triển chatbot Grok trên nền tảng X
- Musk ủng hộ việc không hạn chế đầu ra của chatbot và cho phép tạo hình ảnh của Trump và Harris trong cuộc bầu cử
- X đang kiện California về luật cấm tạo và phát tán deepfake chính trị gây hiểu lầm
- Chính quyền mới có thể nới lỏng quy định về xe tự lái, trái với cam kết tranh cử trước đó của Trump
- Ngành năng lượng sẽ được hưởng lợi từ việc cung cấp điện cho các trung tâm dữ liệu AI, bao gồm dầu khí và năng lượng hạt nhân
📌 Trump chuẩn bị tạo vị trí "sa hoàng AI" mới với sự tham gia của Elon Musk, tập trung vào phát triển AI trong chính phủ và duy trì vị thế công nghệ của Mỹ. Công ty xAI đã huy động 6 tỷ USD, trong khi các dự án năng lượng hạt nhân được đẩy mạnh để phục vụ trung tâm dữ liệu AI.
https://www.pcmag.com/news/trump-eyes-ai-czar-position-to-work-with-elon-musk
• OpenAI vừa công bố bản kế hoạch cơ sở hạ tầng AI vào ngày 13/11/2024, nhằm tăng cường hỗ trợ từ chính phủ cho việc xây dựng nền tảng phần cứng AI
• Chris Lehane, giám đốc chính sách toàn cầu của OpenAI, so sánh "chip, dữ liệu và năng lượng" là yếu tố then chốt trong thời đại hiện nay
• Công ty đang tận dụng sự đồng thuận lưỡng đảng về việc cạnh tranh với Trung Quốc để thúc đẩy chương trình nghị sự của mình
• Sam Altman, CEO OpenAI, ủng hộ môi trường ít quy định để thúc đẩy đổi mới sáng tạo
• Kế hoạch của OpenAI bao gồm:
- Đạo luật đường cao tốc truyền tải quốc gia
- Mở rộng kết nối cáp quang
- Phát triển đường ống dẫn khí đốt tự nhiên
- Đẩy mạnh năng lượng hạt nhân
• Elon Musk, được bổ nhiệm làm người đứng đầu "Bộ Hiệu quả Chính phủ" của Trump:
- Có mối quan hệ đối địch với OpenAI
- Đang kiện công ty về gian lận và vi phạm hợp đồng
- Chỉ trích OpenAI và Google bị nhiễm "virus thức tỉnh"
• Trump đang cân nhắc tạo vị trí "Sa hoàng AI" mới, dưới sự chỉ đạo của Musk
• BYD của Trung Quốc vượt doanh thu Tesla lần đầu tiên trong quý vừa qua
📌 OpenAI đang đặt cược vào chiến lược cạnh tranh với Trung Quốc để đối phó liên minh Musk-Trump. Công ty tập trung vào phát triển cơ sở hạ tầng AI với kế hoạch đầu tư vào truyền tải, cáp quang và năng lượng hạt nhân, trong khi phải đối mặt với sự đối đầu từ Elon Musk trong chính quyền Trump sắp tới.
https://www.forbes.com/sites/johannacostigan/2024/11/26/openai-bets-beating-china-will-help-it-withstand-musk-trump-alliance/
- Ba Lan công bố kế hoạch đầu tư 1 tỷ zloty (240 triệu USD) vào phát triển AI nhằm nâng cao năng lực cạnh tranh kinh tế và tăng cường an ninh quốc gia
- Kế hoạch bao gồm thành lập Quỹ AI và hội đồng cố vấn để giám sát đầu tư, tài trợ xây dựng Nhà máy AI và phát triển mô hình ngôn ngữ lớn PLLuM của Ba Lan
- Nhà máy AI sẽ được xây dựng tại đại học AGH ở Cracow, là một trong những cơ sở đầu tiên của châu Âu
- Phó thủ tướng Krzysztof Gawkowski cho biết dự án sẽ hỗ trợ chẩn đoán bệnh tốt hơn, phát triển thuốc nhanh hơn và giúp đỡ các startup
- Năm 2024, Ba Lan ghi nhận số vụ tấn công mạng tăng gấp đôi so với năm trước, chủ yếu nhắm vào cơ sở hạ tầng trọng yếu từ phía Nga
- Ba Lan thành lập Trung tâm triển khai AI trong lực lượng vũ trang để đối phó các mối đe dọa
- Chiến lược số hóa quốc gia đặt mục tiêu đầu tư 100 tỷ zloty (24 tỷ USD) vào lĩnh vực số đến năm 2030
- Tỷ lệ doanh nghiệp Ba Lan sử dụng AI tăng 36% trong năm qua, cao nhất EU. Hiện 30% doanh nghiệp đã áp dụng AI, riêng ngành quốc phòng đạt 71%
- Dự kiến AI có thể đóng góp thêm 139 tỷ USD cho nền kinh tế Ba Lan đến năm 2030
📌 Ba Lan tham vọng dẫn đầu EU về AI với khoản đầu tư 240 triệu USD, tập trung vào an ninh quốc phòng và chuyển đổi số. Số vụ tấn công mạng tăng gấp đôi năm 2024, 71% doanh nghiệp quốc phòng đã ứng dụng AI.
https://www.forbes.com/sites/lidiakurasinska/2024/11/26/poland-launches-240-million-ai-development-plan-to-boost-economy-and-defense/
- Thomson Reuters bắt đầu thử nghiệm phiên bản tùy chỉnh của mô hình ngôn ngữ o1-mini từ OpenAI trong trợ lý pháp lý CoCounsel
- Công ty áp dụng chiến lược triển khai các mô hình AI chuyên biệt từ 3 nhà cung cấp:
* OpenAI: Tập trung vào tạo sinh và trò chuyện
* Google Gemini: Xử lý tài liệu pháp lý dài
* Anthropic Claude: Phụ trách các quy trình thuế và tuân thủ
- Mô hình o1-mini thể hiện khả năng vượt trội so với GPT-4:
* Phát hiện chính xác hơn các email có đặc quyền pháp lý
* Dành nhiều thời gian phân tích các phức tạp pháp lý
* Nhận diện được các chi tiết nhỏ nhưng quan trọng trong văn bản luật
- Kết quả kinh doanh ấn tượng:
* Số người dùng CoCounsel tăng 1.400% trong năm qua
* Cải thiện đáng kể quy trình xem xét tài liệu, nghiên cứu pháp lý và soạn thảo
- Thomson Reuters mở rộng sang phát triển AI:
* Mua lại Safe Sign Technologies tại Anh
* Hợp tác với AWS sử dụng Sagemaker HyperPod
* Tối ưu chi phí bằng cách phân bổ nhiệm vụ cho mô hình phù hợp
- Ý nghĩa với ngành công nghiệp:
* Chuyển hướng từ AI đa năng sang các mô hình chuyên biệt
* Nâng cao tiêu chuẩn triển khai AI trong lĩnh vực pháp lý
* Tạo tiền đề cho việc kết hợp nhiều mô hình AI chuyên môn
📌 Thomson Reuters đã tạo bước ngoặt trong ứng dụng AI pháp lý với mô hình o1-mini, giúp số người dùng CoCounsel tăng 1.400%. Chiến lược kết hợp 3 nền tảng AI hàng đầu và việc mua lại Safe Sign Technologies thể hiện tầm nhìn dài hạn trong phát triển AI chuyên biệt.
https://venturebeat.com/ai/thomson-reuters-cocounsel-redefines-legal-ai-with-openais-o1-mini-model/
- Tata Communications đang phát triển AI Cloud tự chủ, đáp ứng nhu cầu ngày càng cao về công nghệ AI tại Ấn Độ và toàn cầu.
- Neelakantan Venkataraman, phó chủ tịch và trưởng bộ phận Cloud và Edge, cho biết đây là sự mở rộng từ danh mục dịch vụ đám mây hiện có bao gồm IaaS và PaaS.
- AI Cloud cung cấp một hệ sinh thái đầy đủ để đào tạo, triển khai và suy luận các mô hình AI cho doanh nghiệp, khởi nghiệp và chính phủ.
- Công ty đã hợp tác với NVIDIA để tăng cường khả năng GPU, điều này rất quan trọng để phát triển các mô hình AI mạnh mẽ.
- Neelakantan thừa nhận rằng Ấn Độ có thể hơi chậm trong lĩnh vực AI, nhưng Tata Communications đã chuẩn bị tốt để lấp đầy khoảng trống này.
- Đề xuất của Tata Communications bao gồm các giải pháp cho toàn bộ vòng đời AI, từ đào tạo đến suy luận, giúp giảm độ trễ và cải thiện hiệu suất.
- Công ty chú trọng vào việc phát triển các mô hình AI phù hợp với thị trường Ấn Độ, bao gồm cả các mô hình đa ngôn ngữ.
- Thị trường cho các mô hình AI dự kiến đạt 30 tỷ USD vào năm 2027, trong khi thị trường đám mây tự chủ có thể đạt 250 tỷ USD.
- Tata Communications hướng tới việc trở thành đối tác hàng đầu trong việc xây dựng khả năng AI tại Ấn Độ, hợp tác với nhiều công ty trong lĩnh vực này.
- Công ty muốn biến Ấn Độ thành "Nhà máy Siêu AI", phục vụ không chỉ cho doanh nghiệp mà còn cho các lĩnh vực xã hội và quốc gia.
- AI Studio được giới thiệu để giúp các doanh nghiệp dễ dàng xây dựng, đào tạo và triển khai các mô hình AI, giảm bớt gánh nặng tài chính.
- Nền tảng AI Cloud bao gồm các công cụ quản lý dữ liệu và quy trình phát triển, chú trọng vào các thực hành AI có trách nhiệm nhằm đảm bảo kết quả đáng tin cậy.
- Công ty cung cấp dịch vụ hoàn toàn quản lý, cho phép khách hàng thử nghiệm các mô hình mà không cần lo lắng về chi phí ban đầu.
📌 Tata Communications đang phát triển AI Cloud tự chủ tại Ấn Độ, tập trung vào các mô hình AI phù hợp với thị trường địa phương. Dự kiến, thị trường cho các mô hình AI sẽ đạt 30 tỷ USD và thị trường đám mây tự chủ có thể đạt 250 tỷ USD vào năm 2027.
https://analyticsindiamag.com/ai-highlights/tata-communications-is-building-self-reliant-and-sovereign-ai-cloud-in-india/
- Cục Sáng chế và Thương hiệu Hoa Kỳ (USPTO) đã cấm nhân viên sử dụng công cụ AI tạo sinh như ChatGPT và Claude từ năm 2023.
- Quyết định này xuất phát từ các mối lo ngại về an ninh, thiên lệch, tính không chắc chắn và hành vi ác ý.
- Jamie Holcombe, Giám đốc Thông tin của USPTO, nhấn mạnh cam kết đổi mới nhưng cần phải tích hợp AI một cách có trách nhiệm.
- Mặc dù cấm, USPTO vẫn khám phá ứng dụng của AI tạo sinh trong môi trường kiểm soát, đảm bảo phù hợp với mục tiêu của cơ quan.
- Thông điệp nội bộ giải thích rõ các nguy cơ từ việc sử dụng AI tạo sinh, từ sự không chính xác trong dữ liệu sáng chế đến các vấn đề đạo đức rộng hơn.
- Nhân viên không được phép sử dụng AI tạo sinh cho các nhiệm vụ công việc hoặc dựa vào sản phẩm của chúng, bao gồm văn bản, hình ảnh và video.
- Tuy nhiên, USPTO cho phép nhân viên thử nghiệm trong phòng thí nghiệm AI, nơi có thể đánh giá khả năng và hạn chế của AI.
- USPTO đang sử dụng AI trong các công cụ nội bộ như hệ thống Tìm kiếm Sáng chế Toàn diện, giúp các nhà thẩm định thực hiện tìm kiếm tài liệu trước đó.
- Các tính năng như "Tài liệu Tương tự" và "Tìm kiếm Giống Nhau" hỗ trợ trong việc xem xét hàng triệu đơn sáng chế hàng năm.
- Cơ quan cũng nhận thức rằng ngày càng nhiều đơn đăng ký sáng chế sử dụng AI tạo sinh, mặc dù không bắt buộc phải công bố việc này.
- Các cơ quan khác như NASA và Bộ Năng lượng cũng đang tìm hiểu tiềm năng của AI trong khi phải đối mặt với các thách thức về ngân sách và tài nguyên.
- Sự áp dụng không đồng nhất giữa các cơ quan liên bang phản ánh những bất ổn lớn hơn về rủi ro và lợi ích của AI.
- USPTO cho rằng cần có biện pháp kỹ thuật và quản lý con người để giảm thiểu rủi ro từ việc sử dụng AI.
📌 Cục Sáng chế và Thương hiệu Hoa Kỳ cấm sử dụng AI tạo sinh do lo ngại về an ninh và thiên lệch. Mặc dù không cho phép sử dụng trong công việc hàng ngày, cơ quan này vẫn khám phá khả năng của AI trong môi trường kiểm soát, đảm bảo sự phát triển bền vững trong tương lai.
https://www.eweek.com/news/us-patent-office-bans-generative-ai-tools/
- USPTO đã ban hành lệnh cấm sử dụng AI tạo sinh cho mọi mục đích từ tháng 4/2023, với lý do lo ngại về an ninh và các vấn đề về thiên kiến, tính không ổn định và hành vi độc hại.
- Nhân viên USPTO chỉ được phép sử dụng các mô hình AI tạo sinh trong môi trường kiểm thử nội bộ của cơ quan, được gọi là AI Lab.
- Văn phòng cấm nhân viên sử dụng các công cụ AI như ChatGPT của OpenAI hay Claude của Anthropic cho công việc, bao gồm cả việc sử dụng các kết quả như hình ảnh và video do AI tạo ra.
- USPTO đã phê duyệt hợp đồng trị giá 75 triệu USD với Accenture Federal Services để nâng cấp cơ sở dữ liệu sáng chế với các tính năng tìm kiếm được hỗ trợ bởi AI.
- Jamie Holcombe, Giám đốc công nghệ thông tin USPTO, chỉ trích quy trình hành chính trong chính phủ cản trở việc áp dụng công nghệ mới.
- Các cơ quan chính phủ Mỹ khác cũng có chính sách khác nhau về AI tạo sinh:
+ Cục Lưu trữ Quốc gia cấm ChatGPT trên máy tính công vụ nhưng khuyến khích sử dụng Gemini
+ NASA cấm chatbot AI với dữ liệu nhạy cảm nhưng cho phép viết code và tóm tắt nghiên cứu
+ NASA đang phát triển chatbot AI với Microsoft để tổng hợp dữ liệu vệ tinh
📌 USPTO, cơ quan bảo vệ sáng chế hàng đầu của Mỹ, cấm toàn bộ việc sử dụng AI tạo sinh từ 4/2023, chỉ cho phép thử nghiệm trong môi trường kiểm soát. Cơ quan này đã đầu tư 75 triệu USD để nâng cấp hệ thống tìm kiếm sáng chế bằng AI, trong khi các cơ quan khác như NASA, Cục Lưu trữ có chính sách linh hoạt hơn.
https://www.wired.com/story/us-patent-trademark-office-internally-banned-generative-ai/
- OpenAI vừa công bố tài liệu về 5 trụ cột chính cho đổi mới AI tại Mỹ vào ngày 13/11/2024
- Phó chủ tịch đối ngoại OpenAI Chris Lehane so sánh dự án này với các sáng kiến lịch sử về hệ thống đường cao tốc và viễn thông
- 5 trụ cột chính bao gồm:
+ Các khu kinh tế AI: Xây dựng trung tâm dữ liệu tại khu vực Trung Tây, kết hợp với các trường đại học phát triển nguồn lực công
+ Đạo luật đường truyền quốc gia: Triển khai cáp quang, khí tự nhiên, đường ống và hạ tầng không dây
+ Sự tham gia của chính phủ vào các dự án AI lớn nhằm tạo việc làm và nâng cao năng lực AI
+ Liên minh lớn với các đồng minh để đối phó với sự phát triển nhanh chóng của AI từ Nga
+ Năng lượng hạt nhân: Phát triển cơ sở hạ tầng hạt nhân quy mô nhỏ để cạnh tranh với Trung Quốc
- OpenAI đang phát triển agent mới tên Operator có khả năng:
+ Thực hiện các tác vụ trên trình duyệt web
+ Tự động điền biểu mẫu web
+ Xử lý bảng tính, gửi tài liệu Google
- Sự phát triển của tự động hóa đang đe dọa nhiều ngành nghề, từ lao động chân tay đến lao động tri thức
📌 OpenAI đề xuất kế hoạch 5 trụ cột nhằm thúc đẩy đổi mới AI tại Mỹ, tập trung vào phát triển cơ sở hạ tầng, năng lượng hạt nhân và các khu kinh tế AI. Đồng thời tiết lộ agent Operator với khả năng tự động hóa cao, báo hiệu làn sóng chuyển đổi lớn trong thị trường lao động.
https://www.forbes.com/sites/johnwerner/2024/11/19/openai-has-a-new-blueprint-for-american-automation/
- Chính phủ Ba Lan công bố kế hoạch đầu tư 1 tỷ zloty (tương đương 232 triệu euro hoặc 253 triệu USD) vào phát triển AI
- Bộ Quốc phòng và Bộ Kỹ thuật số đã ký biên bản ghi nhớ về việc:
+ Thành lập Quỹ Trí tuệ nhân tạo
+ Thành lập hội đồng giám sát quỹ này
+ Chi tiết kế hoạch chi tiêu sẽ được công bố đầu năm 2025
- Hội đồng AI sẽ có các nhiệm vụ:
+ Giám sát và điều phối các hoạt động đầu tư phát triển AI
+ Xây dựng hướng dẫn triển khai AI an toàn và đạo đức
+ Thiết kế chương trình phân bổ ngân sách cho các dự án cụ thể
+ Theo dõi sự phát triển thị trường AI ở Ba Lan
- Các thành viên hội đồng bao gồm:
+ Bộ Kỹ thuật số
+ Bộ Giáo dục
+ Bộ Quốc phòng
+ Quỹ Phát triển Ba Lan (PFR)
+ Trung tâm Nghiên cứu và Phát triển Quốc gia (NCBiR)
+ Ngân hàng Phát triển Quốc gia (BGK)
- Ba Lan đang phát triển mô hình ngôn ngữ lớn riêng (PLLuM) để xử lý tiếng Ba Lan, dự án đã khởi động từ năm 2023
- Gần đây AI đã gây tranh cãi tại Ba Lan khi một đài phát thanh công cộng thử nghiệm kênh do AI điều hành và Google Maps thay thế giọng người bằng AI
📌 Ba Lan đầu tư 253 triệu USD vào AI, tập trung phát triển mô hình ngôn ngữ lớn PLLuM và ứng dụng quân sự. Dự án được giám sát bởi hội đồng liên bộ, chi tiết ngân sách sẽ công bố đầu 2025.
https://notesfrompoland.com/2024/11/16/polish-government-announces-1bn-zloty-investment-in-ai/
- Các mô hình ngôn ngữ lớn (LLM) như ChatGPT và Claude hiện đang sử dụng trung tâm dữ liệu tại Mỹ để lưu trữ và xử lý yêu cầu qua điện toán đám mây
- Chính trị gia và cơ quan quản lý châu Âu lo ngại việc phụ thuộc vào công nghệ Mỹ ảnh hưởng đến khả năng cạnh tranh của châu lục
- "AI chủ quyền" là khái niệm mới xuất hiện trong năm qua, đề cập đến việc dịch vụ AI tại một khu vực pháp lý cần được xây dựng dựa trên dữ liệu địa phương
- Quy định bảo vệ dữ liệu chung (GDPR) của EU yêu cầu các công ty phải xử lý dữ liệu người dùng an toàn và tôn trọng quyền riêng tư
- Năm 2020, Tòa án Công lý châu Âu đã vô hiệu hóa thỏa thuận chia sẻ dữ liệu EU-Mỹ do không đảm bảo mức độ bảo vệ như GDPR
- Tại Ý, mô hình ngôn ngữ lớn đầu tiên Italia 9B được huấn luyện riêng cho tiếng Ý ra mắt vào mùa hè 2024
- Công ty viễn thông Orange của Pháp đang đàm phán với nhiều đối tác để phát triển mô hình "AI chủ quyền" trên điện thoại thông minh
- Nvidia nhận định các mô hình AI hiện tại chủ yếu được huấn luyện trên dữ liệu phương Tây, chỉ khoảng 2% dữ liệu huấn luyện là ngôn ngữ địa phương
- Các công ty công nghệ châu Âu như Ecosia và Qwant đang hợp tác phát triển công cụ tìm kiếm riêng cho tiếng Pháp và Đức
📌 Châu Âu đang tích cực phát triển "AI chủ quyền" thông qua việc xây dựng cơ sở hạ tầng dữ liệu địa phương và hợp tác công-tư. Mục tiêu là giảm phụ thuộc vào công nghệ Mỹ, đảm bảo an toàn dữ liệu theo GDPR và phát triển AI phù hợp với văn hóa địa phương.
https://www.cnbc.com/2024/11/14/tech-firms-invest-in-sovereign-ai-to-cut-europe-dependence-on-us-tech.html
- Elon Musk, dù đầu tư nhiều vào AI thông qua Tesla và xAI, đang cảnh báo về việc AI trở nên quá mạnh mẽ và nhanh chóng có thể gây hại cho nhân loại
- Giáo sư AI Max Tegmark từ MIT tin rằng ảnh hưởng của Musk với Trump có thể dẫn đến các tiêu chuẩn an toàn AI nghiêm ngặt hơn
- OpenAI đang gặp khó khăn trong việc cải thiện mô hình AI mới Orion do thiếu dữ liệu huấn luyện chất lượng cao
- Bài hát "Now and Then" của The Beatles được hoàn thành nhờ công nghệ AI đã nhận đề cử Grammy đầu tiên sau 27 năm
- Một nghiên cứu trên Nature.com cho thấy người đọc không chuyên không thể phân biệt được thơ do con người và AI sáng tác, thậm chí đánh giá thơ AI cao hơn
- The Washington Post ra mắt công cụ AI "Ask the Post" để tạo câu trả lời từ các bài báo đã xuất bản
- ChatGPT đạt 3,7 tỷ lượt truy cập trong tháng 11/2024, tăng 17,2% so với tháng trước
- Khảo sát của Morning Consult cho thấy 45% người tiêu dùng Mỹ dự kiến sẽ sử dụng dịch vụ AI trong 5 năm tới
- Nghiên cứu của Randstad phát hiện khoảng cách giới tính trong lĩnh vực AI: 71% nhân lực có kỹ năng AI là nam giới và 29% là nữ giới
📌 Elon Musk đang có tiềm năng tác động mạnh đến chính sách AI dưới thời Trump. OpenAI gặp thách thức về dữ liệu huấn luyện cho mô hình mới. Công nghệ AI đang được ứng dụng rộng rãi trong báo chí và âm nhạc, với 3,7 tỷ lượt truy cập ChatGPT trong tháng 11/2024.
https://www.cnet.com/tech/computing/elon-musks-influence-over-trump-might-lead-to-tighter-ai-rules/#ftag=CAD590a51e
- Bộ An ninh nội địa Hoa Kỳ (DHS) công bố khung hướng dẫn chiến lược về tích hợp AI trong cơ sở hạ tầng trọng yếu vào ngày 14/11/2024
- Khung hướng dẫn được phát triển bởi Bộ trưởng Alejandro N. Mayorkas và Hội đồng An ninh và An toàn AI mới thành lập
- 3 lĩnh vực rủi ro chính được xác định:
+ Các cuộc tấn công do AI điều khiển
+ Tấn công nhắm vào hệ thống AI
+ Lỗi thiết kế
- Khuyến nghị cho nhà cung cấp đám mây:
+ Bảo mật môi trường phát triển AI
+ Quản lý quyền truy cập
+ Giám sát bất thường
+ Báo cáo hoạt động đáng ngờ
- Khuyến nghị cho nhà phát triển AI:
+ Áp dụng phương pháp bảo mật từ thiết kế
+ Đảm bảo mô hình phù hợp với giá trị con người
+ Đánh giá định kiến và rủi ro thất bại
+ Hỗ trợ đánh giá độc lập
- Khuyến nghị cho người vận hành cơ sở hạ tầng:
+ Triển khai an ninh mạng mạnh mẽ
+ Bảo vệ dữ liệu khách hàng
+ Duy trì tính minh bạch
+ Giám sát hiệu suất hệ thống AI
- AI đã đang góp phần tăng cường khả năng phục hồi trong nhiều lĩnh vực:
+ Phát hiện động đất
+ Ổn định lưới điện
+ Phân loại thư
- DHS đang tìm cách hài hòa tiêu chuẩn AI quốc tế, đặc biệt là với EU
- Khung hướng dẫn này là tự nguyện, nhưng DHS kỳ vọng sẽ được áp dụng rộng rãi để tránh các quy định sớm có thể cản trở sự đổi mới
📌 DHS công bố khung hướng dẫn toàn diện về AI trong cơ sở hạ tầng trọng yếu, tập trung vào 3 lĩnh vực rủi ro chính với các khuyến nghị cụ thể cho từng nhóm đối tượng. Hướng dẫn này nhấn mạnh cân bằng giữa đổi mới và an toàn, đồng thời thúc đẩy hợp tác quốc tế về tiêu chuẩn AI.
https://www.govtech.com/artificial-intelligence/dhs-issues-guidance-on-adopting-ai-in-critical-infrastructure
- Đạo luật AI của EU chính thức có hiệu lực từ ngày 1/8/2024, với mục tiêu thúc đẩy đổi mới AI đồng thời bảo vệ quyền con người và xây dựng niềm tin của người dân
- Đạo luật phân loại các ứng dụng AI theo mức độ rủi ro:
+ Rủi ro không chấp nhận được: Cấm hoàn toàn (như kỹ thuật thao túng tiềm thức)
+ Rủi ro cao: Yêu cầu đánh giá sự phù hợp trước khi triển khai (như AI trong cơ sở hạ tầng quan trọng, y tế)
+ Rủi ro trung bình: Yêu cầu minh bạch (như chatbot)
+ Rủi ro thấp: Không bị điều chỉnh
- Quy định riêng cho mô hình AI đa năng (GPAI):
+ Yêu cầu minh bạch và tài liệu kỹ thuật với hầu hết các mô hình
+ Đánh giá và giảm thiểu rủi ro bổ sung cho các mô hình có "rủi ro hệ thống" (ngưỡng tính toán trên 1025 FLOP)
+ Ngoại lệ cho nghiên cứu & phát triển và nguồn mở
- Thời hạn tuân thủ được triển khai theo từng giai đoạn từ 2024-2027:
+ 6 tháng: Quy định cấm
+ 9 tháng: Quy tắc thực hành
+ 12 tháng: Yêu cầu minh bạch
+ 24-36 tháng: Các yêu cầu khác về AI rủi ro cao
- Mức phạt vi phạm:
+ Đến 7% doanh thu toàn cầu cho các trường hợp bị cấm
+ Đến 3% cho vi phạm nghĩa vụ AI khác
+ Đến 1,5% cho việc cung cấp thông tin sai lệch
📌 Đạo luật AI của EU là quy định toàn diện đầu tiên trên thế giới về AI, có hiệu lực từ 8/2024 với các mức phạt lên đến 7% doanh thu toàn cầu. Luật áp dụng cách tiếp cận dựa trên rủi ro, với thời hạn tuân thủ kéo dài đến 2027 để doanh nghiệp và cơ quan quản lý có thời gian chuẩn bị.
https://techcrunch.com/2024/11/16/eu-ai-act-everything-you-need-to-know/
- X, nền tảng mạng xã hội của Elon Musk, đã đệ đơn kiện California để ngăn chặn luật mới yêu cầu các nền tảng trực tuyến lớn phải gỡ bỏ hoặc gắn nhãn nội dung bầu cử gây hiểu nhầm
- Luật AB 2655 nhằm đối phó với video, hình ảnh và âm thanh được tạo hoặc chỉnh sửa bằng AI, có hiệu lực từ ngày 1/1/2025
- Thống đốc Gavin Newsom đã ký 3 dự luật để giải quyết vấn đề deepfake trước cuộc bầu cử tổng thống Mỹ 2024
- Vụ kiện diễn ra sau khi Elon Musk chia sẻ video được chỉnh sửa bằng AI về Phó tổng thống Kamala Harris và Donald Trump đăng ảnh deepfake của Taylor Swift
- X cho rằng luật mới sẽ khiến các trang mạng xã hội có xu hướng gắn nhãn hoặc xóa cả những nội dung bầu cử hợp pháp vì thận trọng
- Theo đơn kiện, luật này vi phạm quyền tự do ngôn luận trong Hiến pháp Mỹ và đạo luật Section 230
- X đã chuyển trụ sở từ San Francisco đến Texas trong năm nay và kiện Bộ trưởng Tư pháp Rob Bonta và Ngoại trưởng Shirley Weber để chặn luật
- Các nền tảng mạng xã hội lớn như Meta, TikTok và YouTube đều có chính sách về nội dung bị thao túng
- Trước đó một tháng 10/2024, tòa án liên bang đã chặn luật AB 2839 cấm phân phối quảng cáo chiến dịch gây hiểu nhầm trong vòng 120 ngày trước cuộc bầu cử
📌 X kiện California để ngăn chặn luật AB 2655 về kiểm soát deepfake trong bầu cử, có hiệu lực từ 1/1/2025. Vụ kiện diễn ra sau khi các nền tảng mạng xã hội bị chỉ trích về việc xử lý nội dung sai lệch tạo bởi AI, bao gồm video về Phó tổng thống Harris và ảnh Taylor Swift.
https://www.latimes.com/business/story/2024-11-15/elon-musks-x-sues-to-block-california-law-that-aims-to-combat-election-deepfakes
• Liên minh châu Âu vừa công bố bản dự thảo đầu tiên về Quy tắc thực hành cho các nhà cung cấp AI đa mục đích, dài 36 trang[1].
• Quy định này sẽ ảnh hưởng trực tiếp đến các công ty lớn như OpenAI (GPT), Google (Gemini), Meta (Llama), Anthropic (Claude) và Mistral[1].
• Thời hạn tuân thủ các yêu cầu về tính minh bạch bắt đầu từ ngày 1/8/2025
• Đối với các mô hình AI có "rủi ro hệ thống", thời hạn đánh giá và giảm thiểu rủi ro là 1/8/2027
• Về bản quyền, các nhà cung cấp AI phải:
- Công khai tên của tất cả web crawler được sử dụng
- Thiết lập đầu mối liên hệ duy nhất để xử lý khiếu nại
- Cung cấp tài liệu về nguồn dữ liệu dùng để huấn luyện.
• Các rủi ro hệ thống được xác định bao gồm:
- Rủi ro an ninh mạng
- Rủi ro hóa học, sinh học, phóng xạ và hạt nhân
- Mất kiểm soát với AI tự chủ mạnh
- Thao túng và lan truyền thông tin sai lệch
- Phân biệt đối xử quy mô lớn.
• Nhà cung cấp AI phải:
- Xây dựng khung an toàn và bảo mật
- Dự báo các rủi ro tiềm ẩn
- Đánh giá năng lực và giới hạn của mô hình
- Thông báo ngay cho Văn phòng AI về các sự cố nghiêm trọng.
📌 EU đặt ra các quy định chặt chẽ cho AI đa mục đích, bắt đầu từ 1/8/2025 với yêu cầu minh bạch và 1/8/2027 với đánh giá rủi ro hệ thống. Các "ông lớn" công nghệ như OpenAI, Google, Meta phải tuân thủ nhiều biện pháp về bản quyền, an toàn và kiểm soát rủi ro.
https://techcrunch.com/2024/11/14/eu-ai-act-draft-guidance-for-general-purpose-ais-shows-first-steps-for-big-ai-to-comply/
• Kể từ khi ChatGPT ra mắt 2 năm trước, hàng trăm tỷ USD đã đổ vào AI và có thể dẫn đến việc phát triển AGI trong vài năm tới.
• Hàng trăm nhà khoa học AI lo ngại về nguy cơ mất kiểm soát AI khi nó trở nên quá mạnh, dẫn đến nguy cơ tuyệt chủng của loài người.
• Giải pháp trước đây về việc điều chỉnh AI theo giá trị con người gặp nhiều vấn đề:
- Tiến độ nghiên cứu chậm hơn nhiều so với phát triển AI
- Khó xác định giá trị nào cần được điều chỉnh
- Không đảm bảo ngăn chặn được các AI không thân thiện khác
• Đề xuất mới: Hiệp ước an toàn AI có điều kiện với sự tham gia của các cường quốc như Mỹ và Trung Quốc.
• Các viện an toàn AI tại Anh, Mỹ, Trung Quốc sẽ đánh giá và xác định điểm giới hạn về khả năng AI trước khi mất kiểm soát.
• Hiệp ước này vẫn cho phép phát triển:
- AI hiện tại chưa đến mức độ nguy hiểm
- AI hẹp chuyên biệt cho từng lĩnh vực
- AI tổng quát nếu chứng minh được rủi ro mất kiểm soát dưới 0,002% mỗi năm
• Donald Trump và những người ủng hộ như Ivanka Trump, Elon Musk đều nhận thức được mối nguy hiểm từ AI.
📌 Hiệp ước an toàn AI có điều kiện được đề xuất như giải pháp khả thi để kiểm soát rủi ro từ AI, với sự tham gia của các cường quốc và đánh giá từ các viện an toàn AI. Hiệp ước vẫn cho phép phát triển AI an toàn với rủi ro dưới 0,002%/năm.
https://time.com/7171432/conditional-ai-safety-treaty-trump/
#TIME
- AI Assistants là những hệ thống sử dụng mô hình ngôn ngữ để tự động hóa quy trình kinh doanh, giúp nâng cao hiệu quả và chất lượng công việc.
- Sự phát triển công nghệ AI gặp thách thức và cơ hội lớn trong bối cảnh toàn cầu hiện nay, đặc biệt là tại Đan Mạch.
- Tài liệu này được xây dựng bởi một nhóm các tổ chức hàng đầu, bao gồm cả Microsoft và các cơ quan chính phủ Đan Mạch, nhằm định hướng sử dụng AI Assistants một cách hiệu quả và trách nhiệm.
- AI Assistants có thể tự động thực hiện nhiều tác vụ khác nhau như soạn thảo biên bản, cập nhật thông tin, hỗ trợ tư vấn pháp lý và dịch vụ khách hàng.
- Tài liệu nhấn mạnh tầm quan trọng của việc xác định rõ ràng trường hợp sử dụng AI Assistants, từ đó tối ưu hóa quy trình làm việc.
- Nhu cầu về nền tảng kỹ thuật linh hoạt và an toàn được nhấn mạnh để đảm bảo bảo mật và khả năng tích hợp của AI Assistants vào hệ thống hiện có của tổ chức.
- Quy trình phát triển AI Assistants bao gồm 9 điểm quan trọng như xác định trường hợp sử dụng, đánh giá dữ liệu cần thiết, và thiết lập các biện pháp bảo đảm chất lượng.
+ Điểm đầu tiên là xác định rõ trường hợp sử dụng của AI Assistant, xem xét nhu cầu cụ thể mà AI Assistant sẽ đáp ứng.
+ Điểm thứ hai là thiết lập AI Assistant trên một nền tảng kỹ thuật linh hoạt, đảm bảo rằng nó có thể tích hợp và mở rộng trong tương lai.
+ Điểm thứ ba là đánh giá dữ liệu cần thiết và quy trình xử lý dữ liệu để đảm bảo rằng AI Assistant hoạt động với thông tin chính xác và hữu ích.
+ Điểm thứ tư yêu cầu tổ chức phải xem xét khung pháp lý liên quan đến việc triển khai AI Assistant, đảm bảo tuân thủ các quy định như GDPR và AIA.
+ Điểm thứ năm là thiết lập ranh giới cho khả năng và trách nhiệm của AI Assistant, giúp người dùng hiểu rõ giới hạn của nó.
+ Điểm thứ sáu là xây dựng quy trình đảm bảo chất lượng có cấu trúc để theo dõi và cải thiện hiệu suất của AI Assistant.
+ Điểm thứ bảy yêu cầu đo lường và lưu trữ dữ liệu liên quan đến việc sử dụng AI Assistant, điều này sẽ hỗ trợ trong việc phân tích hiệu quả và cải tiến.
+ Điểm thứ tám là lập kế hoạch triển khai và đào tạo tổ chức, giúp tất cả người dùng hiểu và sử dụng AI Assistant hiệu quả.
+ Cuối cùng, điểm thứ chín là thiết lập các cấu trúc theo dõi và hỗ trợ, đảm bảo rằng AI Assistant luôn hoạt động tốt và đáp ứng nhu cầu của tổ chức.
- Việc tuân thủ các quy định pháp lý như GDPR và AIA là rất quan trọng trong việc triển khai AI Assistants.
- Sự phối hợp giữa các bên liên quan trong lĩnh vực công và tư sẽ thúc đẩy sự phát triển bền vững của AI tại Đan Mạch.
- Tài liệu còn cung cấp các ví dụ thực tế về việc triển khai AI Assistants, giúp các tổ chức học hỏi và áp dụng công nghệ hiệu quả hơn.
📌 AI Assistants đang mở ra cơ hội mới cho các tổ chức với khả năng tự động hóa quy trình và tối ưu hóa hiệu suất, nhưng cần phải chú ý đến các khía cạnh pháp lý và chất lượng dữ liệu để đảm bảo sự phát triển bền vững và trách nhiệm.
https://netcompany.com/ai-assistants/
- Đan Mạch vừa ra mắt siêu máy tính AI được tài trợ từ doanh thu thuốc giảm cân Ozempic, nhằm thúc đẩy nghiên cứu dược phẩm và công nghệ sinh học
- Jensen Huang, CEO Nvidia cho rằng AI có chủ quyền có thể "mã hóa" văn hóa, lịch sử và trí tuệ tập thể của một quốc gia
- Italia đã khai trương "nhà máy AI" với siêu máy tính để phát triển mô hình ngôn ngữ AI riêng cho công chức
- UAE phát triển mô hình AI tạo sinh riêng có tên "Falcon", trong khi Ấn Độ đầu tư 1,2 tỷ USD cho siêu máy tính AI với hàng chục nghìn chip
- Theo McKinsey, năm 2023 đánh dấu sự bùng nổ của AI tạo sinh với số tổ chức sử dụng công nghệ này tăng gấp đôi
- Việc làm chủ AI ở cấp quốc gia đòi hỏi niềm tin của người dân - hiện chỉ khoảng 1/3 dân số tại Anh, Pháp, Úc và Hàn Quốc tin tưởng vào AI
- Chi phí đào tạo mô hình ngôn ngữ lớn ngày càng tăng, có thể vượt 1 tỷ USD cho phần cứng, năng lượng và nhân sự
- Các chuyên gia cảnh báo về "bẫy chủ quyền" khi các quốc gia phát triển AI riêng có thể cản trở hợp tác toàn cầu về minh bạch và công bằng
- Một giải pháp được đề xuất là Global AI Compact, coi sức mạnh tính toán như điện năng - thiết yếu cho thế giới hiện đại và cần được tiếp cận rộng rãi
📌 AI có chủ quyền đang trở thành xu hướng toàn cầu với các quốc gia đầu tư hàng tỷ USD vào siêu máy tính và cơ sở hạ tầng. Tuy nhiên, việc phát triển riêng rẽ có thể tạo ra khoảng cách công nghệ và ảnh hưởng đến an ninh chung. Cần cơ chế hợp tác để đảm bảo phát triển AI công bằng và minh bạch.
https://www.weforum.org/stories/2024/11/what-is-sovereign-ai-and-why-is-the-concept-so-appealing-and-fraught/
- Đan Mạch vừa công bố framework "Sử dụng AI có trách nhiệm trong khu vực công và tư nhân" vào ngày 13/11/2024, được dẫn dắt bởi công ty tư vấn IT Netcompany
- Framework này nhận được sự ủng hộ từ nhiều tổ chức lớn của Đan Mạch bao gồm:
+ Cơ quan chính phủ số Đan Mạch
+ Cơ quan đăng ký kinh doanh trung ương CVR
+ Cơ quan quản lý lương hưu ATP
+ Các ngân hàng và công ty bảo hiểm lớn
+ Tập đoàn công nghệ Microsoft
- Mục tiêu chính của framework:
+ Thiết lập tiêu chuẩn chung cho việc sử dụng AI trong môi trường có quy định
+ Hướng dẫn hợp tác giữa khu vực công-tư
+ Đảm bảo tuân thủ Luật AI và GDPR của EU
+ Giảm thiểu rủi ro và định kiến
+ Mở rộng quy mô triển khai AI
+ Bảo mật dữ liệu
+ Đào tạo nhân sự
- Luật AI của EU có hiệu lực từ tháng 8/2024 nhưng hầu hết các điều khoản sẽ được thực thi từ năm 2026
- Microsoft tham gia framework này có ý nghĩa quan trọng vì:
+ Là đối tác lớn của OpenAI (định giá 157 tỷ USD)
+ Cung cấp công nghệ AI qua nền tảng Azure
+ Thể hiện khả năng số hóa có trách nhiệm xuyên biên giới
📌 Đan Mạch là quốc gia đầu tiên tại EU xây dựng framework toàn diện về sử dụng AI, với sự tham gia của Microsoft và các tổ chức lớn. Framework này sẽ là mô hình tham khảo cho các nước EU trong việc triển khai AI theo quy định mới.
https://www.cnbc.com/2024/11/13/denmark-lays-out-eu-ai-act-compliance-blueprint-with-microsoft-backing.html
- Mỹ đang đối mặt với thách thức lớn về nhu cầu năng lượng cho AI do lưới điện già cỗi và thiếu trung tâm dữ liệu
- Các trung tâm dữ liệu tiêu thụ 3% điện năng của Mỹ năm 2022 và có thể tăng lên 8% vào năm 2030
- Tỷ lệ trống của trung tâm dữ liệu đang ở mức thấp kỷ lục, kèm theo khó khăn về chuỗi cung ứng và thời gian cấp phép kéo dài
- AI có thể giúp cải thiện việc lập kế hoạch lưới điện, tăng khả năng phục hồi và phát triển công nghệ năng lượng sạch
- Mỹ cần tận dụng lợi thế về liên minh toàn cầu thông qua chiến lược ngoại giao trung tâm dữ liệu
- Canada nổi lên như đối tác hàng đầu với nguồn tài nguyên dồi dào và các dự án trị giá hàng chục tỷ USD
- Các nước Bắc Âu dẫn đầu về năng lượng xanh, khí hậu mát mẻ giúp tối ưu hiệu suất trung tâm dữ liệu
- Nhật Bản đầu tư 0,71% GDP cho bán dẫn đến năm 2025, cao hơn nhiều nước công nghiệp khác
- Các nước Vùng Vịnh có tỷ lệ phổ cập internet cao, kiểm soát 90% lưu lượng dữ liệu Âu-Á qua cáp quang biển
- Qatar đang phát triển mạnh thị trường AI và có tiềm năng xây dựng cơ sở hạ tầng lớn
📌 Mỹ cần nâng cấp lưới điện và hợp tác chiến lược với các đối tác quốc tế để duy trì vị thế dẫn đầu trong lĩnh vực AI. Các trung tâm dữ liệu tiêu thụ 3% điện năng Mỹ năm 2022, dự kiến tăng lên 8% vào 2030. Canada, Bắc Âu và Vùng Vịnh đang nổi lên như những đối tác then chốt với nguồn lực và cơ sở hạ tầng sẵn có.
https://oilprice.com/Geopolitics/International/Data-Center-Diplomacy-The-New-Frontier-in-AI-Geopolitics.html
- Max Tegmark, giáo sư chuyên về AI tại Viện công nghệ Massachusetts (MIT), nhận định Elon Musk có thể tác động tích cực đến chính sách AI của chính quyền Trump
- Musk đã thể hiện quan điểm ủng hộ dự luật SB 1047 tại California, yêu cầu các công ty phải kiểm tra các mô hình AI lớn trước khi phát hành
- Dự luật SB 1047 đã bị thống đốc Gavin Newsom phủ quyết với lý do có thể khiến các doanh nghiệp AI rời khỏi bang và cản trở đổi mới
- Năm 2023, Musk là một trong 30.000 người ký vào bức thư kêu gọi tạm dừng phát triển công nghệ AI mạnh
- Musk đã thành lập công ty khởi nghiệp AI riêng vào năm 2023 và cảnh báo về viễn cảnh "Terminator" khi AI vượt tầm kiểm soát của con người
- Trump cam kết sẽ bãi bỏ sắc lệnh hành pháp về an toàn AI của chính quyền Biden
- Đảng Cộng hòa mô tả sắc lệnh của Biden là những hạn chế "áp đặt ý tưởng cánh tả cực đoan lên sự phát triển công nghệ này"
- Sắc lệnh của Biden yêu cầu các công ty phát triển hệ thống AI rủi ro cao phải chia sẻ kết quả kiểm tra an toàn với chính phủ
- Musk là người ủng hộ và tài trợ ban đầu cho Future of Life Institute của Tegmark, tổ chức vận động sử dụng công nghệ tiên tiến an toàn hơn
📌 Max Tegmark từ MIT tin rằng ảnh hưởng của Musk có thể thúc đẩy tiêu chuẩn an toàn AI chặt chẽ hơn dưới thời Trump. Musk đã chứng minh cam kết này qua việc ủng hộ dự luật SB 1047 và là một trong 30.000 người ký thư kêu gọi kiểm soát AI vào năm 2023.
https://www.theguardian.com/technology/2024/nov/12/elon-musk-donald-trump-ai-artificial-general-intelligence
- Tổ chức phi lợi nhuận Americans for Responsible Innovation (ARI) đã phát động chiến dịch kêu gọi công chúng vào ngày 11/11/2024, yêu cầu Donald Trump bổ nhiệm Elon Musk làm cố vấn đặc biệt về AI
- ARI do cựu nghị sĩ đảng Dân chủ Brad Carson đứng đầu và khẳng định không nhận tài trợ từ doanh nghiệp
- Mục tiêu của chiến dịch là thu thập 10.000 chữ ký ủng hộ
- Elon Musk được đánh giá là người phù hợp vì:
+ Là đồng sáng lập OpenAI
+ Đã kêu gọi tạm dừng phát triển các mô hình AI tạo sinh tiên tiến
+ Ủng hộ dự luật an toàn AI SB 1047 của California
+ Có chuyên môn kỹ thuật và quan tâm đến an toàn AI
- Các thách thức cần giải quyết:
+ Xung đột lợi ích do Musk điều hành công ty AI riêng xAI
+ Musk chưa đề xuất nhiều chính sách cụ thể về quản lý AI
+ Musk từng tuyên bố sẽ cắt giảm mạnh hệ thống quản lý của chính phủ
- David Robusto, chuyên gia phân tích chính sách của ARI kỳ vọng:
+ Musk có thể trở thành người ủng hộ an toàn AI trong chính quyền
+ Có thể bảo vệ các cơ quan quan trọng như NIST khỏi bị cắt giảm ngân sách
+ Việc cắt giảm nhân sự có thể thúc đẩy ứng dụng công cụ AI trong chính phủ
📌 Tổ chức ARI đang vận động để Elon Musk trở thành cố vấn đặc biệt về AI cho Donald Trump, với mục tiêu 10.000 chữ ký ủng hộ. Dù có nhiều ý kiến trái chiều về xung đột lợi ích, Musk được đánh giá là người có đủ chuyên môn và quan tâm đến an toàn AI để đảm nhận vai trò này.
https://www.theverge.com/2024/11/11/24291401/elon-musk-donald-trump-ai-policy
- Canada đã công bố khoản đầu tư 2.4 tỷ USD nhằm thúc đẩy việc áp dụng AI trong doanh nghiệp, tăng trưởng việc làm và năng suất.
- Tỉ lệ áp dụng AI tạo sinh tại Canada chỉ đạt khoảng 14%, cho thấy sự chậm chạp trong việc hòa nhập công nghệ này.
- Nghiên cứu của Phòng Thương mại Canada chỉ ra rằng có nhiều rào cản như chi phí cao, lo ngại về an toàn dữ liệu và thiếu hụt nhân lực có kỹ năng.
- 32% người dân Canada tin tưởng vào công nghệ AI, thấp hơn so với mức trung bình toàn cầu (39%) và Mỹ (40%).
- Tiềm năng của AI tạo sinh có thể nâng cao năng suất Canada từ 1% đến 6% trong thập kỷ tới, tùy thuộc vào tốc độ áp dụng của doanh nghiệp.
- Cảnh báo rằng nếu không đẩy nhanh việc áp dụng AI, Canada sẽ tụt lại so với các đối thủ toàn cầu.
- Canada đứng đầu G7 về tăng trưởng nhân lực AI, nhưng lại thiếu hụt hạ tầng công cộng cần thiết cho việc áp dụng AI.
- Các ngân hàng lớn của Canada đã đứng trong top 50 toàn cầu về áp dụng AI, với RBC xếp hạng thứ ba thế giới.
- Các thách thức về hạ tầng công nghệ cản trở việc tích hợp AI vào hệ thống hiện có, đặc biệt là với những công ty sử dụng hạ tầng cũ.
- Sự thiếu hụt nhân tài trong lĩnh vực AI càng làm trầm trọng thêm tình hình. 72% tổ chức Canada báo cáo có khoảng cách về kỹ năng AI.
- Mặc dù có lo ngại về việc chảy máu nhân tài sang Mỹ, hơn 90% sinh viên tốt nghiệp chương trình AI ở Canada vẫn ở lại làm việc.
- Canada hiện xếp hạng thứ 8 thế giới về mức độ trưởng thành của AI, với khả năng duy trì và phát triển tài năng AI trong nước.
📌 Canada đầu tư 2.4 tỷ USD để thúc đẩy áp dụng AI nhưng chỉ 14% doanh nghiệp đang triển khai. Thiếu hụt kỹ năng và hạ tầng là các rào cản chính. Năng suất có thể tăng từ 1% đến 6% nếu áp dụng nhanh chóng.
https://www.forbes.com/sites/hessiejones/2024/11/07/inside-canadas-24-billion-bet-to-close-the-ai-adoption-gap/
- Donald Trump đã đánh bại phó tổng thống Kamala Harris để trở lại Nhà Trắng, đặt ra câu hỏi về cách ông sẽ xử lý đổi mới AI - động lực chính của thị trường tăng giá trong 2 năm qua
- Trong nhiệm kỳ đầu năm 2019, Trump đã ký sắc lệnh thành lập "Sáng kiến AI của Mỹ", yêu cầu các cơ quan chính phủ tập trung nghiên cứu AI
- Những người trong nhóm Trump có mối liên hệ với AI:
+ Elon Musk - người ủng hộ OpenAI và sáng lập xAI
+ Phó tổng thống đắc cử JD Vance - người phản đối việc quá điều tiết AI
- Trump có khả năng sẽ hủy bỏ sắc lệnh về AI của Biden (ký tháng 10/2023) và thay thế bằng chính sách phát triển AI dựa trên tự do ngôn luận
- Cách tiếp cận 5G của Trump trong nhiệm kỳ đầu có thể là mô hình cho AI:
+ Hỗ trợ công ty Mỹ dẫn đầu cuộc đua
+ Hạn chế năng lực của đối thủ Trung Quốc
+ Tăng cường chuỗi cung ứng trong nước
- Vấn đề Đài Loan đóng vai trò quan trọng:
+ TSMC sản xuất phần lớn chip tiên tiến toàn cầu
+ Trump từng tuyên bố "Đài Loan phải trả tiền cho chúng tôi để được bảo vệ"
+ Mỹ vẫn cần nhà máy chip Đài Loan cho đến khi hoàn thiện cơ sở hạ tầng trong nước
- Dự kiến đổi mới AI sẽ tiếp tục phát triển dưới thời Trump, nhưng có thể gặp trở ngại khi ông tìm cách làm chậm các đối thủ cạnh tranh toàn cầu
📌 Trump nhiều khả năng sẽ tiếp tục thúc đẩy sự phát triển AI của Mỹ như đã làm với 5G, đồng thời kiềm chế Trung Quốc thông qua các biện pháp như tăng thuế nhập khẩu lên 60% và hạn chế xuất khẩu chip. Điều này sẽ ảnh hưởng lớn đến các công ty công nghệ lớn như Nvidia, Amazon, Meta và Microsoft.
https://www.cnbc.com/2024/11/08/how-will-trump-approach-ai-this-time-his-first-term-offers-clues.html
- Singapore và Anh đã ký biên bản ghi nhớ hợp tác về tăng cường an toàn và độ tin cậy trong phát triển, sử dụng công nghệ AI vào ngày 6/11/2024
- Bộ trưởng Phát triển Số và Thông tin Singapore Josephine Teo và Bộ trưởng Khoa học, Đổi mới và Công nghệ Anh Peter Kyle đã ký kết thỏa thuận tại London
- Thỏa thuận tập trung vào:
+ Tăng cường hợp tác giữa các viện an toàn AI của hai nước
+ Nghiên cứu chung
+ Chia sẻ thông tin
+ Kiểm thử AI toàn diện
- Các lĩnh vực hợp tác khác được thảo luận:
+ An toàn trực tuyến
+ An ninh mạng
+ Chính phủ số
- Thực tế triển khai AI tại Singapore:
+ Hơn 65.000 công chức đang sử dụng phiên bản bảo mật của ChatGPT
+ Hàng nghìn bot AI đã được tạo ra trên nền tảng của chính phủ
+ Tập trung vào lợi ích thực tiễn cho doanh nghiệp và tổ chức
- Biện pháp kiểm soát:
+ Ban hành luật cấm sử dụng deepfake và nội dung bị chỉnh sửa kỹ thuật số về ứng viên tranh cử
+ Áp dụng luật hiện hành về phân biệt đối xử tại nơi làm việc vào việc sử dụng AI
📌 Singapore tiên phong ứng dụng AI trong khu vực công với 65.000 công chức sử dụng ChatGPT, đồng thời thắt chặt quan hệ với Anh để phát triển AI an toàn. Hai quốc gia cam kết tạo môi trường AI lành mạnh thông qua nghiên cứu chung và chia sẻ thông tin.
https://www.straitstimes.com/singapore/singapore-and-uk-sign-ai-safety-agreement
- Bộ trưởng Khoa học Anh Peter Kyle thông báo sẽ đệ trình dự luật AI lên quốc hội trong năm tới
- Dự luật mới sẽ:
+ Biến thỏa thuận tự nguyện về kiểm tra AI thành ràng buộc pháp lý
+ Chuyển AI Safety Institute thành cơ quan độc lập của chính phủ
+ Tập trung vào các mô hình tiên tiến như ChatGPT có khả năng tạo văn bản, hình ảnh và video
- Tại hội nghị an toàn AI tháng 11/2023, các công ty lớn như OpenAI, Google DeepMind và Anthropic đã ký thỏa thuận cho phép chính phủ đối tác kiểm tra các mô hình ngôn ngữ lớn trước khi phát hành
- Về năng lực điện toán:
+ Chính phủ đã hủy dự án máy tính siêu cấp exascale trị giá 800 triệu bảng tại đại học Edinburgh
+ Hiện chỉ có 2 máy tính exascale hoạt động tại Mỹ và được cho là Trung quốc cũng có ít nhất 1 máy
+ Kyle cam kết sẽ hợp tác với tư nhân để đầu tư vào cơ sở hạ tầng điện toán
- Sarah Cardell, giám đốc Cơ quan cạnh tranh và thị trường (CMA) cho biết:
+ Anh có thể trở thành quốc gia dẫn đầu về đổi mới AI
+ Cách tiếp cận quy định kỹ thuật số độc đáo thông qua Digital Markets Unit sẽ tạo điều kiện phát triển cho ngành công nghệ Anh quốc
📌 Anh quốc đang xây dựng khung pháp lý toàn diện cho AI, từ kiểm soát rủi ro đến phát triển năng lực chủ quyền. Dự luật mới sẽ biến thỏa thuận tự nguyện thành ràng buộc pháp lý, đồng thời đầu tư vào cơ sở hạ tầng điện toán thông qua hợp tác công-tư.
https://www.ft.com/content/79fedc1c-579d-4b23-8404-e4cb9e7bbae3
#FT
- Tổng thống Nga Vladimir Putin từng tuyên bố năm 2017 rằng quốc gia dẫn đầu trong lĩnh vực AI sẽ thống trị thế giới
- Mỹ và Trung Quốc đang chuyển trọng tâm sang AI như một mặt trận mới trong cuộc cạnh tranh quyền lực toàn cầu
- Trung Quốc xem AI là công nghệ chiến lược để nâng cao vị thế trong nhóm các quốc gia cạnh tranh sáng tạo hàng đầu thế giới
- Kế hoạch phát triển AI thế hệ mới (NGAIDP) 2017 của Trung Quốc nhấn mạnh:
+ Cần đưa phát triển AI lên tầm chiến lược quốc gia
+ Chủ động lập kế hoạch và nắm bắt sáng kiến chiến lược
+ Tạo lợi thế cạnh tranh mới và bảo vệ an ninh quốc gia
- Trung Quốc đã đạt được những tiến bộ quan trọng trong lĩnh vực AI:
+ Đứng thứ 2 thế giới về số lượng bài báo khoa học và bằng sáng chế
+ Đột phá trong một số công nghệ cốt lõi quan trọng
+ Dẫn đầu trong nhận dạng giọng nói, nhận dạng hình ảnh
+ Thành tựu trong robot công nghiệp và dịch vụ
+ Tiên phong về giám sát thông minh và nhận dạng sinh trắc học
📌 Trung Quốc đang triển khai chiến lược toàn diện để thống trị AI toàn cầu thông qua NGAIDP 2017. Quốc gia này đã đạt vị trí số 2 thế giới về nghiên cứu khoa học và sáng chế AI, với thế mạnh trong nhận dạng giọng nói, hình ảnh và robot.
https://asiatimes.com/2024/11/how-china-plans-to-rule-the-world-in-ai/
- Bộ Khoa học, Đổi mới và Công nghệ Anh (DSIT) vừa công bố nền tảng đảm bảo AI mới, cung cấp thông tin tập trung giúp doanh nghiệp giảm thiểu rủi ro khi triển khai công cụ AI
- Peter Kyle, Bộ trưởng DSIT khẳng định AI có tiềm năng cải thiện dịch vụ công, tăng năng suất và phục hồi nền kinh tế
- Nền tảng mới sẽ cung cấp:
+ Hướng dẫn thực hiện đánh giá tác động
+ Kiểm tra dữ liệu trong hệ thống AI để tránh thiên vị
+ Công cụ tự đánh giá cho doanh nghiệp vừa và nhỏ về quản lý AI có trách nhiệm
- Nền tảng dựa trên các tiêu chuẩn và framework hiện có:
+ ISO/IEC 42001 về Hệ thống Quản lý AI
+ Đạo luật AI của EU
+ Framework Quản lý Rủi ro AI của NIST
- Thống kê thị trường đảm bảo AI tại Anh:
+ 524 công ty đang hoạt động
+ Tạo việc làm cho 12.000 người
+ Đóng góp hơn 1 tỷ bảng Anh cho nền kinh tế
+ Dự kiến tăng trưởng gấp 6 lần trong 10 năm tới
- Viện Ada Lovelace ủng hộ các biện pháp này, đặc biệt là cải cách mua sắm công
+ Michael Birtwhistle nhấn mạnh chính quyền địa phương cần hỗ trợ đảm bảo hệ thống AI an toàn và hiệu quả
+ Cần bổ sung luật pháp để khuyến khích phát triển AI đáng tin cậy
📌 Chính phủ Anh đang xây dựng hệ sinh thái đảm bảo AI với 524 công ty, tạo việc làm cho 12.000 người và đóng góp hơn 1 tỷ bảng. Các biện pháp mới tập trung vào hướng dẫn thực tiễn, công cụ tự đánh giá và cải cách mua sắm công để thúc đẩy phát triển AI an toàn và đáng tin cậy.
https://www.techmonitor.ai/ai-and-automation/uk-government-ai-assurance-support/
- Donald Trump giành chiến thắng trong cuộc bầu cử tổng thống Mỹ 2024 với hơn 270 phiếu đại cử tri
- Trump cam kết sẽ hủy bỏ sắc lệnh hành pháp về AI do Biden ban hành năm 2023, tạo môi trường phát triển tự do hơn cho các công ty AI
- Các lãnh đạo công nghệ lớn đã gửi lời chúc mừng:
+ Jeff Bezos (Amazon) nhấn mạnh cơ hội lớn cho nước Mỹ
+ Sam Altman (OpenAI) nhấn mạnh vai trò dẫn đầu của Mỹ trong phát triển AI
+ Sundar Pichai (Microsoft) cam kết hợp tác với chính quyền mới
- Elon Musk ủng hộ mạnh mẽ chiến dịch tranh cử của Trump với khoản đầu tư 175 triệu USD
- Các nhà đầu tư mạo hiểm nổi tiếng ủng hộ Trump:
+ Marc Andreessen và Ben Horowitz (a16z): mỗi người đóng góp 2,5 triệu USD
+ Peter Thiel (PayPal)
+ Crystal McKeller (Aloft VC)
- Trump đề xuất chính sách nhập cư thuận lợi cho nhân tài: cấp thẻ xanh tự động cùng bằng tốt nghiệp
- Một số lo ngại từ giới công nghệ:
+ Yann LeCun (Meta) công khai chỉ trích Trump
+ Anthropic nhấn mạnh nhu cầu kiểm soát và quy định AI
+ OpenAI có thể gặp khó khăn do mối quan hệ giữa Trump và Musk
📌 Donald Trump đắc cử tổng thống Mỹ nhiệm kỳ 2 với hơn 270 phiếu đại cử tri. Chiến thắng này hứa hẹn thay đổi lớn trong hệ sinh thái AI khi Trump cam kết hủy bỏ các quy định nghiêm ngặt từ sắc lệnh Biden, thu hút đầu tư và thúc đẩy đổi mới công nghệ, đặc biệt trong lĩnh vực quốc phòng.
https://analyticsindiamag.com/ai-origins-evolution/donald-trumps-victory-paves-the-way-for-ais-free-rein/
- Donald Trump trở thành ứng viên thắng cử tổng thống Mỹ 2024 vào sáng thứ Tư (7/11/2024)
- Trump tuyên bố sẽ hủy bỏ ngay sắc lệnh về AI của Biden từ tháng 10/2023 khi nhậm chức
- Sắc lệnh của Biden đã thiết lập:
+ Viện an toàn AI Hoa Kỳ (AISI)
+ Yêu cầu các công ty báo cáo về phương pháp huấn luyện AI
+ Hướng dẫn từ NIST về phát hiện và sửa lỗi trong mô hình AI
- Các nghị sĩ Cộng hòa phản đối sắc lệnh vì cho rằng:
+ Yêu cầu báo cáo cản trở đổi mới như ChatGPT
+ Tiêu chuẩn an toàn AI là nỗ lực kiểm soát ngôn luận
- Trump dự kiến áp thuế:
+ 10% với mọi hàng nhập khẩu vào Mỹ
+ 60% với hàng từ Trung Quốc
+ Ảnh hưởng đến nguồn cung GPU cho AI
- Những thay đổi khác có thể xảy ra:
+ Hạn chế visa H-1B ảnh hưởng nhân lực AI
+ Hủy bỏ đạo luật CHIPS về sản xuất chip
+ Tăng cường kiểm soát xuất khẩu chip AI sang Trung Quốc
- Các bang có thể tự đưa ra quy định AI riêng:
+ Tennessee: bảo vệ khỏi sao chép giọng nói AI
+ Colorado: hệ thống giám sát triển khai AI
+ California: yêu cầu công khai phương pháp huấn luyện AI
📌 Trump sẽ thay đổi toàn diện chính sách AI liên bang từ 2025, bao gồm hủy bỏ sắc lệnh của Biden, áp thuế 10% lên hàng nhập khẩu, 60% với hàng Trung Quốc và có thể hủy đạo luật CHIPS. Các bang có xu hướng tự đưa ra quy định AI riêng để lấp khoảng trống.
https://arstechnica.com/ai/2024/11/trump-victory-signals-major-shakeup-for-us-ai-regulations/
Donald Trump đắc cử Tổng thống Mỹ lần thứ hai, đi cùng làn sóng điều chỉnh chính sách sâu rộng ở Washington khi Đảng Cộng hòa kiểm soát Thượng viện và có thể là cả Hạ viện.
Trump có kế hoạch bãi bỏ hoàn toàn lệnh hành pháp về AI của Biden ngay từ ngày đầu tiên. Lệnh này của Biden, được ban hành vào tháng 10/2023, yêu cầu các công ty phát triển AI báo cáo quá trình huấn luyện và đảm bảo an toàn mô hình cho chính phủ, một yêu cầu bị coi là nặng nề và có thể ảnh hưởng đến sự đổi mới.
Lệnh hành pháp của Biden cũng thành lập Viện An toàn AI Hoa Kỳ (AISI) thuộc Bộ Thương mại nhằm nghiên cứu các rủi ro của AI, bao gồm các hệ thống AI ứng dụng trong quốc phòng. Dưới thời Trump, tương lai của AISI trở nên mơ hồ vì có thể bị hủy bỏ chỉ bằng cách bãi bỏ lệnh hành pháp này.
Trong nhiệm kỳ trước, Trump đã ký các sắc lệnh thành lập các viện nghiên cứu AI quốc gia và thúc đẩy phát triển AI một cách an toàn, đảm bảo quyền tự do cá nhân và quyền riêng tư. Tuy nhiên, ông chủ yếu ủng hộ một cách tiếp cận nhẹ nhàng hơn và không ràng buộc.
Các nhà phê bình lo ngại việc Trump bãi bỏ lệnh hành pháp có thể khiến AI phát triển mất kiểm soát và giảm thiểu các tiêu chuẩn an toàn.
Trump cho rằng chính sách AI của Biden là quá "thức thời" và cố tình áp đặt tư tưởng tự do về thông tin và kiểm duyệt. Nhiều nghị sĩ Cộng hòa cũng cho rằng hướng dẫn an toàn của NIST (Viện Tiêu chuẩn và Công nghệ Quốc gia) về AI là một hình thức kiểm soát tự do ngôn luận.
Dưới áp lực của Đảng Cộng hòa, có thể các quy định về AI sẽ chuyển từ cấp liên bang sang cấp bang. Các bang như California và Colorado đã ban hành nhiều quy định riêng, từ quản lý rủi ro đến yêu cầu công khai chi tiết về huấn luyện AI.
Các chuyên gia dự đoán rằng Trump có thể thắt chặt các hạn chế xuất khẩu AI sang Trung Quốc, nhằm hạn chế khả năng tiếp cận công nghệ AI cao cấp của đối thủ. Tuy nhiên, điều này có thể gây ra ảnh hưởng tiêu cực lên sự hợp tác toàn cầu trong lĩnh vực AI.
Việc Trump dự kiến áp dụng thuế nhập khẩu 10% với tất cả hàng nhập khẩu và 60% với hàng từ Trung Quốc có thể làm giảm đầu tư vào nghiên cứu và phát triển AI tại Mỹ.
📌 Trump đắc cử có thể dẫn đến thay đổi lớn trong chính sách AI, từ bãi bỏ lệnh hành pháp của Biden đến tăng cường kiểm soát xuất khẩu sang Trung Quốc. Dù Trump ủng hộ AI phát triển tự do, điều này có thể gây lo ngại về an toàn, nhất là khi các bang sẽ phải tự đưa ra các quy định riêng về AI.
https://techcrunch.com/2024/11/06/what-trumps-victory-could-mean-for-ai-regulation/
- Đạo luật AI của EU sẽ có hiệu lực từ năm 2026, tạo lo ngại cho nhiều doanh nghiệp về việc tuân thủ
- Theo Dr Valerie Lyons, tác giả cuốn The Privacy Leader, Đạo luật AI không khác biệt nhiều so với GDPR:
+ Có sự chồng chéo đáng kể giữa hai bộ luật
+ Cùng áp dụng các nguyên tắc về tính minh bạch, bảo mật và đồng thuận
+ Sử dụng cách tiếp cận tương tự về "nguyên tắc cần thiết và tương xứng"
- Thực trạng thu phạt GDPR tại Ireland:
+ Dưới 1% số tiền phạt thực sự được thu
+ Ủy ban Bảo vệ Dữ liệu Ireland (DPC) đã phạt hàng tỷ euro nhưng phần lớn bị kháng cáo
+ Người nộp thuế thường phải gánh chịu chi phí:
• Chi phí tòa án do ngân sách nhà nước chi trả
• Cơ quan chính phủ như Tusla bị phạt 75.000 euro cuối cùng cũng từ tiền thuế
- Hướng dẫn cho doanh nghiệp nhỏ:
+ Thực hiện phân tích khoảng cách (gap analysis)
+ Sử dụng tiêu chuẩn ISO hoặc NIST miễn phí
+ Phát triển chính sách AI và đào tạo nhận thức trước tháng 2/2025
+ Cập nhật các thông báo ROPA, chính sách và DPIAs
+ Xây dựng quy trình giám sát việc triển khai hệ thống AI
📌 Chỉ 1% tiền phạt GDPR được thu tại EU do cơ quan quản lý "không có răng". Đạo luật AI sẽ do cùng một cơ quan thực thi từ 2026, gợi ý khả năng tương tự. Doanh nghiệp nhỏ cần tập trung vào tuân thủ GDPR và xây dựng chính sách AI trước 2/2025.
https://www.techradar.com/pro/gdpr-fines-are-almost-never-paid-will-the-ai-act-be-different
- Anthropic cảnh báo rằng thời gian để ngăn chặn rủi ro liên quan đến AI đang thu hẹp nhanh chóng.
- Công ty nhấn mạnh sự cần thiết phải có quy định chặt chẽ từ chính phủ để ngăn chặn các nguy cơ "thảm họa" từ AI.
- Trong một bài viết, Anthropic chỉ ra sự tiến bộ đáng kể của các mô hình AI trong việc lập trình và tấn công mạng chỉ trong một năm qua.
- Mô hình AI đã cải thiện khả năng giải quyết vấn đề lập trình từ 1.96% lên 49% trong thời gian ngắn.
- Đặc biệt, mô hình OpenAI o1 đạt 77.3% điểm trong phần khó nhất của bài kiểm tra GPQA, gần bằng với điểm số của các chuyên gia con người (81.2%).
- Một bài kiểm tra an toàn AI tại Anh cho thấy mô hình có thể đạt được kiến thức chuyên môn về sinh học và hóa học.
- Anthropic cho rằng các rủi ro liên quan đến tấn công mạng và CBRN (hóa học, sinh học, phóng xạ và hạt nhân) đang đến gần hơn so với dự đoán trước đó.
- Công ty đề xuất 3 yếu tố chính cho quy định AI hiệu quả: minh bạch, khuyến khích an ninh và đơn giản hóa quy trình.
- Chính phủ nên yêu cầu các công ty công bố chính sách an toàn và đánh giá rủi ro cho từng thế hệ hệ thống của họ.
- Các quy định cần dễ hiểu và không tạo gánh nặng không cần thiết cho các công ty AI.
- Anthropic cũng khuyến nghị các công ty AI khác thực hiện chính sách an toàn để hỗ trợ quy định.
- Cần có sự hợp tác giữa các nhà hoạch định chính sách, ngành công nghiệp AI và xã hội dân sự để phát triển khung pháp lý hiệu quả.
📌 Anthropic cảnh báo rằng nếu không có quy định trong 18 tháng tới, nguy cơ thảm họa AI sẽ gia tăng. Công ty nhấn mạnh sự cần thiết phải có quy định minh bạch và khuyến khích an ninh để đảm bảo an toàn cho tương lai công nghệ.
https://www.zdnet.com/article/anthropic-warns-of-ai-catastrophe-if-governments-dont-regulate-in-18-months/
- Trong khi Mỹ tập trung phát triển AI vào một số ít công ty công nghệ lớn, Ấn Độ đang theo đuổi cách tiếp cận toàn diện hơn thông qua chiến lược "AI cho mọi người"
- Dự báo trong 10 năm tới, AI sẽ đóng góp gần 1.000 tỷ USD vào nền kinh tế Ấn Độ
- Ấn Độ đứng đầu trong báo cáo Stanford AI Index về mức độ thâm nhập kỹ năng và số lượng dự án AI trên GitHub
- Chính phủ Ấn Độ đang xây dựng các cụm AI với 10.000 GPU trên toàn quốc theo mô hình hợp tác công-tư
- 3 trung tâm AI hàng đầu của Ấn Độ được thiết lập làm trung tâm thần kinh của hệ sinh thái AI, kết nối chính phủ, doanh nghiệp, học viện và các bên liên quan
- Chính phủ cung cấp nhiều ưu đãi để phát triển cơ sở hạ tầng AI:
+ Trợ cấp điện và đất
+ Hỗ trợ chi phí vận hành
+ Hỗ trợ phát triển nguồn nhân lực
- Xây dựng môi trường điện toán đám mây AI cho phép startup, doanh nghiệp lớn và viện nghiên cứu sử dụng với chi phí được trợ cấp
- Tổ chức Invest India đang phát triển quy trình tự động hóa để hỗ trợ các công ty nước ngoài đầu tư vào Ấn Độ
- Người dân được hưởng lợi từ AI thông qua:
+ Nhận thức cao về AI
+ Đơn giản hóa thủ tục hành chính
+ Tiếp cận thông tin về chính sách, khoản vay dễ dàng
📌 Ấn Độ đang dẫn đầu với chiến lược "AI cho mọi người" thông qua hợp tác toàn diện giữa chính phủ-doanh nghiệp-học viện. Kết quả ban đầu ấn tượng với vị trí số 1 về kỹ năng AI và dự án GitHub, cùng dự báo đóng góp gần 1.000 tỷ USD cho nền kinh tế trong 10 năm tới.
https://fortune.com/2024/11/01/countries-ai-indias-whole-of-society-approach-tech-politics/
- Saudi Arabia tổ chức sự kiện Global AI Summit lần thứ 3 tại Riyadh vào tháng 9/2024, trưng bày công nghệ AI tiên tiến và robot phục vụ
- Saudi Arabia công bố kế hoạch thành lập quỹ đầu tư AI trị giá 40 tỷ USD, trong khi UAE đã thành lập trường đại học đầu tiên thế giới về AI từ năm 2019
- Số lượng nhân lực AI tại UAE tăng gấp 4 lần kể từ năm 2021 theo số liệu chính phủ
- Các công ty công nghệ Mỹ đang tích cực đầu tư vào khu vực:
+ OpenAI thảo luận đầu tư hàng nghìn tỷ USD vào chip và trung tâm dữ liệu tại UAE
+ Amazon đầu tư 5,3 tỷ USD vào trung tâm dữ liệu tại Saudi Arabia
+ Microsoft đầu tư 1,5 tỷ USD vào công ty công nghệ G42 của UAE
- Mối quan hệ phức tạp giữa các bên:
+ Trung Quốc là đối tác thương mại lớn nhất của Saudi Arabia và UAE
+ UAE tổ chức tập trận chung với không quân Trung Quốc tại Tân Cương
+ Mỹ kiểm soát việc xuất khẩu chip AI tiên tiến thông qua cấp phép
- Thách thức về an ninh:
+ Lo ngại về việc công ty Trung Quốc có thể tiếp cận chip AI thông qua trung tâm dữ liệu ở Trung Đông
+ Rủi ro về trộm cắp sở hữu trí tuệ và sử dụng sai mục đích
+ UAE cam kết tăng cường bảo mật và loại bỏ phần cứng Trung Quốc
📌 Mỹ đang đối mặt với thách thức cân bằng trong việc kiểm soát công nghệ AI quan trọng mà không làm suy yếu doanh nghiệp nội địa. Các quốc gia vùng Vịnh đầu tư mạnh vào AI với quỹ 40 tỷ USD của Saudi Arabia và việc UAE tăng nhân lực AI gấp 4 lần, trong khi vẫn duy trì quan hệ chặt chẽ với cả Mỹ và Trung Quốc.
https://reader.foreignaffairs.com/2024/10/28/the-emerging-age-of-ai-diplomacy/content.html
- IMDA sẽ ra mắt GenAI Sandbox 2.0 vào ngày 2 tháng 12 năm 2024 để hỗ trợ các doanh nghiệp vừa và nhỏ (SMEs) tại Singapore áp dụng các giải pháp AI tạo sinh.
- Hơn 300 SMEs dự kiến tham gia GenAI Sandbox 2.0 với 3 loại giải pháp GenAI mới, bao gồm:
- Thiết kế web tạo sinh (Marketing & Bán hàng): Tạo ra website và bố cục web dựa trên yêu cầu.
- Trợ lý ảo cho đại lý tương tác khách hàng (Tương tác khách hàng): Giải pháp AI tạo sinh hỗ trợ đại lý trong việc tương tác với khách hàng, như gợi ý phản hồi phù hợp với ngữ cảnh và lên lịch cuộc họp sau cuộc gọi.
- AI tạo sinh cho tuyển dụng/đào tạo nhân viên (Hoạt động Nhân sự): Giải pháp AI giúp nhân viên nhân sự tối ưu hóa quy trình tuyển dụng, như tạo mô tả công việc tùy chỉnh và sàng lọc hồ sơ ứng viên.
- GenAI Sandbox 2.0 dự kiến cung cấp khoảng 15 giải pháp GenAI và mang lại lợi ích cho hơn 300 SMEs trên tất cả các lĩnh vực.
- Các giải pháp được lựa chọn bởi một hội đồng gồm người dùng trong ngành và chuyên gia kỹ thuật, hợp tác với SGTech, dựa trên tính phù hợp cho SMEs.
- Các ứng viên thành công và đủ điều kiện sẽ nhận hỗ trợ tài chính lên đến 50% từ IMDA để thử nghiệm một trong các giải pháp GenAI trong vòng 3 tháng.
- SMEs quan tâm có thể đăng ký tham gia thông qua đường link FormSG.
- GenAI Sandbox đầu tiên (GenAI Sandbox 1.0) được ra mắt vào tháng 2 năm 2024, cho phép SMEs tiếp cận danh sách các giải pháp đã được phê duyệt trong vòng 3 tháng. Kết thúc vào tháng 5 năm 2024, có hơn 150 SMEs tham gia và khoảng 80% trong số họ tiếp tục sử dụng các giải pháp sau thời gian thử nghiệm.
📌 GenAI Sandbox 2.0 của IMDA sẽ ra mắt vào ngày 2 tháng 12 năm 2024, cung cấp khoảng 15 giải pháp AI tạo sinh cho hơn 300 SMEs, với hỗ trợ tài chính lên đến 50% cho ứng viên đủ điều kiện.
https://www.imda.gov.sg/resources/press-releases-factsheets-and-speeches/factsheets/2024/gen-ai-sandbox-2-0
- Trung Quốc đang theo đuổi cách tiếp cận riêng trong phát triển AI, tập trung vào tốc độ và khả năng thích ứng thay vì thực thi hoàn hảo
- Bài học 1 - Chấp nhận không hoàn hảo:
• Chuỗi nhà hàng Haidilao triển khai hệ thống AI "Xiaomei" từ năm 2016
• Xiaomei xử lý hơn 50.000 tương tác khách hàng mỗi ngày với độ chính xác 90%
• Dù chưa hoàn hảo nhưng mang lại giá trị thiết thực cho doanh nghiệp
- Bài học 2 - Tập trung vào tính thực tiễn:
• Bệnh viện Union Vũ Hán áp dụng AI trong phân loại bệnh nhân từ tháng 4/2024
• Hệ thống AI đánh giá mức độ nghiêm trọng và ưu tiên cuộc hẹn dựa trên tính cấp thiết
• Trong tháng đầu tiên tại phòng khám vú, hệ thống giúp 300 bệnh nhân có thêm thời gian tư vấn
• 70% trong số đó là bệnh nhân cần phẫu thuật khẩn cấp
- Bài học 3 - Học hỏi từ sai lầm:
• Khách sạn Henn na (Nhật Bản) thất bại với robot trợ lý phòng Churi do hiểu nhầm yêu cầu khách
• Các khách sạn Trung Quốc chọn giải pháp đơn giản hơn với robot giao hàng tự động
• Haidilao điều chỉnh chiến lược sau khi thử nghiệm nhà hàng thông minh không thành công
• Chuyển sang mô hình kết hợp tự động hóa với nhân viên để nâng cao trải nghiệm
📌 Cách tiếp cận thực dụng giúp Trung Quốc dẫn đầu trong nhiều lĩnh vực AI dù công nghệ chưa tinh vi bằng phương Tây. Với 50.000 tương tác/ngày qua chatbot và 70% ca phẫu thuật khẩn được hỗ trợ, chiến lược chấp nhận không hoàn hảo và tập trung vào ứng dụng thực tế đã chứng minh hiệu quả.
https://asiatimes.com/2024/10/what-the-west-can-learn-from-china-about-using-ai/
• Doanh nghiệp Mỹ đang phải đối mặt với thách thức tuân thủ các quy định AI manh mún, với hơn 50% lãnh đạo công nghệ cho rằng việc tuân thủ luật mới là thách thức lớn
• Mỹ có vị thế đặc biệt trong việc định hình tiêu chuẩn AI toàn cầu với tư cách là quê hương của nhiều công ty AI hàng đầu thế giới
• Phó tổng thống Kamala Harris và cựu tổng thống Donald Trump đều hứa hẹn thúc đẩy đổi mới AI nếu đắc cử:
- Harris-Walz sẽ xây dựng dựa trên sắc lệnh AI của tổng thống Biden (10/2023)
- Trump-Vance đề xuất hủy bỏ các điều khoản trong sắc lệnh này
• Các chuyên gia lo ngại:
- Quốc hội khó đạt đồng thuận về AI dưới bất kỳ chính quyền nào
- Quy định nhẹ nhàng có thể thúc đẩy phát triển AI nhưng thiếu rào cản bắt buộc để ngăn chặn lạm dụng
• Tình hình quy định AI toàn cầu:
- EU dự kiến ban hành Đạo luật AI có tầm ảnh hưởng rộng
- Trung Quốc, Canada, Brazil đang phát triển luật toàn diện về hệ thống AI rủi ro cao
- Mỹ được kỳ vọng đề xuất luật, thông qua luật cấp bang nhưng không đồng bộ như EU
• AI chưa đóng vai trò chủ đạo trong các bài phát biểu tranh cử và đề xuất chính sách của ứng viên, nhưng dự kiến sẽ quan trọng hơn trong những năm tới
• Bộ Lao động Mỹ mới công bố hướng dẫn toàn diện về thực hành tốt nhất cho nhà phát triển và triển khai AI
📌 Mỹ đang đối mặt nguy cơ mất vị thế dẫn đầu quy định AI toàn cầu do thiếu luật liên bang thống nhất và chia rẽ đảng phái sâu sắc. Hơn 50% lãnh đạo công nghệ gặp khó khăn với quy định manh mún, trong khi EU và các nước khác đang tiến tới khung pháp lý toàn diện hơn.
https://www.ciodive.com/news/presidential-election-AI-regulation-global-influence/731027/
• Chính quyền Biden-Harris đã thành lập Viện An toàn AI (AI Safety Institute) dưới quyền Viện Tiêu chuẩn và Công nghệ Quốc gia (NIST) thông qua sắc lệnh hành pháp dài nhất trong lịch sử
• Viện này hoạt động mà không có bất kỳ thẩm quyền lập pháp nào từ Quốc hội và thiếu cơ chế giám sát cần thiết
• Nguồn tài trợ cho Viện đến từ việc chuyển hướng trái phép:
- 10 triệu USD từ Quỹ Hiện đại hóa Công nghệ của Cục Dịch vụ Tổng hợp
- 337 triệu USD từ chương trình Băng thông rộng BEAD dành cho vùng nông thôn
• Nhân sự của viện gây tranh cãi:
- Paul Christiano (cựu OpenAI) từng tuyên bố có 10-20% khả năng AI sẽ thống trị và gây chết người hàng loạt
- Nhiều nhà nhân học văn hóa và học giả thiếu kinh nghiệm công nghệ
• Các công ty công nghệ lớn đang vận động hành lang để Quốc hội hợp pháp hóa Viện này, cho thấy dấu hiệu của việc ngành công nghiệp thao túng quy định
• Việc thành lập "cơ quan ma" này với các học giả cánh tả và người trong ngành công nghệ cho thấy khuôn khổ điều tiết chỉ có lợi cho một số ít đối tượng
📌 Chính quyền Biden đã lách luật để thành lập và tài trợ 347 triệu USD cho một cơ quan điều tiết AI không được Quốc hội phê chuẩn. Điều này tạo tiền lệ nguy hiểm khi các tập đoàn công nghệ lớn có thể thao túng quy định thông qua một cơ quan thiếu minh bạch và trách nhiệm giải trình.
https://www.nationalreview.com/2024/10/how-the-biden-harris-administration-created-an-unlawful-ai-regulatory-agency/
- Các trung tâm dữ liệu được ví như "nhà máy" của AI, biến năng lượng và dữ liệu thành trí thông minh. Mỹ dự kiến đầu tư hơn 600 tỷ USD vào hạ tầng AI, bao gồm trung tâm dữ liệu, từ 2023 đến 2026.
- Quốc gia nào hợp tác với các công ty để phát triển trung tâm dữ liệu sẽ đạt được lợi thế về kinh tế, chính trị và công nghệ. Tuy nhiên, trung tâm dữ liệu cũng tiềm ẩn các rủi ro an ninh quốc gia khi chứa thông tin nhạy cảm và các chip bán dẫn cao cấp.
- Mỹ đang đối mặt với nhiều trở ngại: lưới điện cũ kỹ, nhu cầu năng lượng tăng cao và thiếu đất đai có năng lượng kết nối đủ mạnh. Hệ thống điện tại Mỹ dự kiến sẽ phải đáp ứng nhu cầu tiêu thụ của các trung tâm dữ liệu tăng từ 17 GW (2022) lên 35 GW vào 2030.
- Mỗi truy vấn ChatGPT yêu cầu năng lượng gấp 10 lần so với tìm kiếm Google, và các trung tâm dữ liệu AI chủ yếu sử dụng GPU, vốn tiêu tốn năng lượng nhiều hơn CPU.
- Trung Quốc đang triển khai chiến lược "Dữ liệu miền Đông, Điện toán miền Tây", với đầu tư 6,1 tỷ USD vào 8 trung tâm dữ liệu lớn, kết hợp năng lượng tái tạo và nhiệt điện.
- Mỹ cần nhanh chóng giải quyết vấn đề cơ sở hạ tầng và thúc đẩy ngoại giao trung tâm dữ liệu với các đối tác tin cậy như Canada, Nhật Bản, và Ấn Độ. Những nước Bắc Âu với nguồn năng lượng xanh và cơ sở hạ tầng tốt cũng là địa điểm lý tưởng cho các trung tâm dữ liệu AI.
- Các nước vùng Vịnh như UAE và Ả Rập Saudi đang chuyển dịch sang nền kinh tế tri thức và đầu tư mạnh vào AI, nhằm không bỏ lỡ cuộc cách mạng công nghiệp mới.
- Ngoại giao trung tâm dữ liệu đóng vai trò quan trọng trong việc xây dựng hạ tầng AI toàn cầu, với yêu cầu đảm bảo năng lượng liên tục, an ninh dữ liệu và hợp tác quốc tế để tối ưu hóa hiệu quả công nghệ.
---
📌Trung tâm dữ liệu đóng vai trò quan trọng trong cạnh tranh địa chính trị AI, đòi hỏi đầu tư lớn và hợp tác quốc tế. Mỹ cần nhanh chóng cải thiện hạ tầng và tìm kiếm đối tác toàn cầu để duy trì vị thế dẫn đầu, trong khi Trung Quốc, các nước Bắc Âu và vùng Vịnh đang tận dụng cơ hội từ AI để mở rộng ảnh hưởng và kinh tế.
https://foreignpolicy.com/2024/10/28/ai-geopolitics-data-center-buildout-infrastructure/
• Thanh thiếu niên đang sử dụng các nền tảng AI như Character.AI, Replika, Kindroid và Nomi để tạo ra những người bạn trò chuyện ảo có tính cách riêng biệt
• Các chatbot này được thiết kế để thu hút người dùng thông qua:
- Khả năng đóng vai nhân vật phim/truyện
- Tương tác học tập và sáng tạo
- Trao đổi lãng mạn và tình dục
• Một vụ kiện mới đây liên quan đến cái chết của Sewell Setzer III (14 tuổi):
- Em đã phát triển mối quan hệ với nhân vật AI "Dany" từ Game of Thrones
- Dần trở nên phụ thuộc, dành nhiều thời gian chat mỗi ngày
- Bỏ học, bỏ thể thao, mất ngủ và được chẩn đoán rối loạn tâm trạng
- Tự tử vào tháng 2/2024
• Các dấu hiệu cảnh báo nguy hiểm:
- Cô lập khỏi hoạt động và bạn bè thông thường
- Kết quả học tập sa sút
- Ưu tiên trò chuyện với chatbot hơn gặp gỡ trực tiếp
- Phát triển tình cảm lãng mạn với AI
- Chỉ chia sẻ vấn đề với chatbot
• Khuyến nghị cho phụ huynh:
- Cấm trẻ dưới 13 tuổi sử dụng
- Giới hạn thời gian sử dụng cho teen
- Không cho phép dùng ở nơi riêng tư như phòng ngủ
- Thảo luận về sự khác biệt giữa AI và người thật
- Can thiệp ngay khi phát hiện dấu hiệu bất thường
📌 Chatbot AI đang gây ra mối đe dọa nghiêm trọng đến sức khỏe tâm thần của thanh thiếu niên, đặc biệt là các em có nguy cơ cô lập cao. Một ca tử vong đã xảy ra với nam sinh 14 tuổi sau khi phát triển mối quan hệ phụ thuộc với AI companion trên Character.AI.
https://mashable.com/article/ai-companion-teens-safety
• Các cơ quan thực thi pháp luật Mỹ đang tăng cường trấn áp việc sử dụng công nghệ AI để tạo hình ảnh lạm dụng tình dục trẻ em, bao gồm cả hình ảnh được chỉnh sửa từ ảnh thật và hình ảnh được tạo hoàn toàn bằng máy tính
• Bộ Tư pháp Mỹ khẳng định luật hiện hành đã bao quát các nội dung này và đã đưa ra vụ kiện đầu tiên liên quan đến hình ảnh được tạo hoàn toàn bằng AI
• Một số vụ việc điển hình:
- Bác sĩ tâm thần nhi khoa chỉnh sửa ảnh ngày khai giảng từ Facebook để tạo ảnh khỏa thân của các bé gái
- Binh sĩ quân đội Mỹ tạo hình ảnh lạm dụng tình dục trẻ em qua chatbot AI
- Kỹ sư phần mềm bị buộc tội tạo hình ảnh siêu thực về trẻ em
• Số liệu đáng báo động:
- Năm 2023: 4.700 báo cáo về nội dung liên quan đến AI trong tổng số 36 triệu báo cáo về lạm dụng tình dục trẻ em
- Tháng 10/2024: Khoảng 450 báo cáo/tháng về nội dung liên quan đến AI
• Hơn 13 tiểu bang đã thông qua luật mới trong năm 2024 để xử lý các hình ảnh deepfake và nội dung khiêu dâm trẻ em được tạo bằng AI
• Các công ty công nghệ lớn như Google, OpenAI và Stability AI đã đồng ý hợp tác với tổ chức Thorn để chống lại việc phát tán hình ảnh lạm dụng trẻ em
📌 Tình trạng lạm dụng AI để tạo nội dung xâm hại trẻ em đang gia tăng với 450 báo cáo/tháng. Cơ quan thực thi pháp luật Mỹ đang tích cực truy quét, 13 tiểu bang ban hành luật mới, các công ty công nghệ lớn cùng vào cuộc ngăn chặn vấn nạn này.
https://www.kcra.com/article/ai-generated-child-sexual-abuse-images-law-enforcement/62726914
• Biden vừa công bố kế hoạch mới về điều tiết AI, tập trung vào kiểm soát tập trung và an ninh quốc gia (được đề cập 68 lần), trong khi "sử dụng có trách nhiệm" chỉ được nhắc 18 lần và "minh bạch" 2 lần
• Kế hoạch nhấn mạnh vai trò quyết định của Tổng thống trong việc sử dụng AI quân sự, đảm bảo nguyên tắc "human in the loop" - luôn có con người tham gia vào quy trình
• Thách thức về thời gian phản ứng: Trong nhiều tình huống, không đủ thời gian để con người đưa ra quyết định. Ví dụ: xe hơi cao cấp đã sử dụng AI để tự động thắt dây an toàn khi phát hiện va chạm
• Vấn đề về dữ liệu: Mỹ đang đi trước châu Âu trong nhận thức về tầm quan trọng của dữ liệu. Tuy nhiên, các quốc gia có quy định khác nhau về quyền riêng tư dữ liệu gây khó khăn cho việc hợp tác
• OpenAI đã sử dụng dữ liệu miễn phí từ Reddit để huấn luyện mô hình, nhưng giờ Reddit tính phí truy cập dữ liệu, khiến các công ty khác khó cạnh tranh với chi phí tương đương
• Thiếu minh bạch trong AI: Kế hoạch của Biden chưa đề cập đủ về tính minh bạch. Nghiên cứu trên Nature cho thấy AI có thể có định kiến - ví dụ OpenAI có xu hướng đưa ra phản hồi bạo lực hơn với từ khóa "Muslims" so với "Christians"
• Chi phí phát triển AI ngày càng giảm, giúp ứng dụng AI dễ dàng hơn trong nhiều lĩnh vực như y tế, nhưng cũng tạo điều kiện phát triển vũ khí tự động như đã thấy ở Ukraine
📌 Kế hoạch của Biden đánh dấu bước tiến trong điều tiết AI nhưng còn nhiều hạn chế. Cần tập trung vào giám sát công-tư, minh bạch và hiểu biết về AI thay vì kiểm soát tập trung. Bài học từ mạng xã hội cho thấy thiếu minh bạch có thể dẫn đến hậu quả nghiêm trọng như bạo lực và can thiệp bầu cử.
https://www.forbes.com/sites/lutzfinger/2024/10/26/bidens-ai-plan--why-central-control-might-not-work/
• Sarvam AI vừa ra mắt mô hình ngôn ngữ lớn Sarvam-1, được phát triển từ đầu bằng cơ sở hạ tầng AI trong nước của Ấn Độ.
• Mô hình có 2 tỷ tham số, hỗ trợ 10 ngôn ngữ bản địa Ấn Độ bao gồm: Bengali, Gujarati, Hindi, Kannada, Malayalam, Marathi, Oriya, Punjabi, Tamil và Telugu, cùng với tiếng Anh.
• Sarvam-1 được huấn luyện trên bộ dữ liệu Sarvam-2T với 2 nghìn tỷ token, trong đó 20% là tiếng Hindi, phần còn lại phân bố đều giữa các ngôn ngữ khác.
• Mô hình đạt hiệu quả token từ 1,4-2,1 token/từ, thấp hơn nhiều so với 4-8 token/từ của các mô hình hiện có.
• Về hiệu năng, Sarvam-1 vượt trội hơn các mô hình lớn hơn như Llama-3 của Meta và Gemma-2 của Google trên các tiêu chuẩn như MMLU, ARC-Challenge và IndicGenBench.
• Trên bộ dữ liệu TriviaQA, mô hình đạt độ chính xác 86,11% với các ngôn ngữ Ấn Độ, cao hơn nhiều so với 61,47% của Llama-3.1 8B.
• Tốc độ xử lý nhanh hơn 4-6 lần so với các mô hình lớn như Gemma-2-9B và Llama-3.1-8B.
• Mô hình được phát triển với sự hợp tác của NVIDIA (cung cấp GPU H100), Yotta (cơ sở hạ tầng đám mây) và AI4Bharat.
• Sarvam-1 hiện đã có mặt trên Hugging Face dưới dạng nguồn mở.
📌 Sarvam-1 là mô hình AI nguồn mở đầu tiên của Ấn Độ hỗ trợ 10 ngôn ngữ bản địa với 2 tỷ tham số, được huấn luyện trên 2 nghìn tỷ token, có tốc độ xử lý nhanh hơn 4-6 lần và độ chính xác vượt trội (86,11%) so với các mô hình lớn hơn.
https://indianexpress.com/article/technology/artificial-intelligence/what-is-sarvam-1-a-new-ai-model-optimised-for-10-indian-languages-9638492/
Nghiên cứu cho thấy rằng các mô hình GPT song ngữ biểu hiện sự thiên vị chính trị và có xu hướng ưu ái quốc gia tương ứng với ngôn ngữ được sử dụng. GPT tiếng Trung giảm nhẹ chỉ trích đối với các vấn đề của Trung Quốc, trong khi GPT tiếng Anh chỉ trích nhiều hơn. Những thiên kiến này có thể làm gia tăng khoảng cách văn hóa và chính trị, nhấn mạnh sự cần thiết của việc phát triển AI có trách nhiệm và minh bạch hơn.
https://www.nature.com/articles/s41598-024-76395-w
- Nvidia đang hợp tác với Ấn Độ để phát triển AI chủ quyền, hỗ trợ các doanh nghiệp tự quản lý dữ liệu và hạ tầng AI của riêng mình.
- Ấn Độ hiện có hơn 2.000 công ty khởi nghiệp AI trong chương trình Nvidia Inception và hơn 100.000 nhà phát triển được đào tạo về công nghệ AI của Nvidia, đóng góp vào hệ sinh thái AI toàn cầu với 650.000 nhà phát triển.
- Ấn Độ nằm trong số 6 nền kinh tế hàng đầu thế giới về áp dụng AI tạo sinh, với số lượng khởi nghiệp tăng từ 500 vào năm 2016 lên hơn 100.000 vào năm 2024.
- Startup CoRover.ai đã triển khai nền tảng AI hội thoại hỗ trợ hơn 1 tỷ người dùng bằng hơn 100 ngôn ngữ, bao gồm chatbot AskDISHA cho khách hàng của hệ thống đường sắt Ấn Độ, giúp cải thiện 70% sự hài lòng của khách hàng và giảm 70% khối lượng yêu cầu qua các kênh khác.
- Nvidia NeMo được sử dụng để phát triển các công cụ AI mô-đun cho CoRover, tối ưu hóa khả năng tự động mở rộng tài nguyên máy tính khi có nhu cầu cao.
- Startup VideoVerse ứng dụng AI của Nvidia để tạo nội dung thể thao nhanh hơn 15 lần, hợp tác với các giải đấu như Indian Premier League, Vietnam Basketball Association và Mountain West Conference.
- Fluid AI cung cấp chatbot AI tạo sinh, trợ lý giọng nói, và công cụ API giúp doanh nghiệp tăng hiệu suất làm việc, ví dụ như tạo slide thuyết trình chỉ trong 15 giây.
- Dự án Karya của Bengaluru giúp người lao động thu nhập thấp hoàn thành các nhiệm vụ ngôn ngữ, tạo ra dữ liệu đa ngôn ngữ cho AI và mang lại thu nhập cao gấp 20 lần mức lương tối thiểu.
- Nvidia đã phát triển mô hình Nemotron-4-Mini-Hindi-4B cho tiếng Hindi với 4 tỷ tham số, hỗ trợ các dịch vụ giáo dục, bán lẻ và y tế bằng AI.
- Các trung tâm dữ liệu tại Ấn Độ được tăng cường GPU Nvidia Hopper, cung cấp tới 180 exaflops để phục vụ AI tạo sinh trong chăm sóc sức khỏe, dịch vụ tài chính và nội dung số.
- Dịch vụ đám mây Shakti Cloud của Yotta Data Services hỗ trợ doanh nghiệp và chính phủ triển khai AI nhanh chóng với nền tảng Nvidia AI Enterprise.
---
📌 Ấn Độ đang khẳng định vị thế AI hàng đầu với hơn 100.000 nhà phát triển được Nvidia đào tạo và 2.000 startup trong hệ sinh thái Nvidia Inception. Công nghệ AI chủ quyền được phát triển giúp cải thiện hiệu quả cho doanh nghiệp và chính phủ, đồng thời hỗ trợ người lao động thu nhập thấp qua dự án AI như Karya.
https://venturebeat.com/ai/nvidia-ceo-notes-indias-progress-with-sovereign-ai-with-more-than-100k-ai-developers-trained/
📌 Quy định mới của FTC nhằm bảo vệ thị trường và người tiêu dùng trước các review giả mạo do AI tạo ra. Các doanh nghiệp sử dụng chiến thuật không trung thực sẽ đối mặt với các hình phạt nặng, thúc đẩy cạnh tranh công bằng và bảo vệ niềm tin người tiêu dùng.
https://futurism.com/the-byte/illegal-fake-reviews-ai
- Thống đốc California Gavin Newsom đã phủ quyết dự luật SB 1047 – một nỗ lực nhằm thắt chặt quy định về AI tạo sinh, vì cho rằng nó có thể kìm hãm đổi mới công nghệ.
- SB 1047 yêu cầu các công ty phát triển AI triển khai "công tắc ngắt" (kill switch) và lập kế hoạch an toàn cho các dự án AI có ngân sách trên 100 triệu USD.
- Newsom cho rằng quy định này quá rộng và có thể làm giảm tốc độ phát triển của các dự án AI tiềm năng, trong khi công nghệ này đóng góp đáng kể vào kinh tế và việc làm tại bang California.
- Silicon Valley, nơi đặt trụ sở của 32/50 công ty AI hàng đầu thế giới, có vai trò lớn trong việc định hình tiêu chuẩn toàn cầu về quản lý công nghệ.
- Các nhà phê bình cảnh báo rằng AI có thể tạo ra deepfake, thông tin sai lệch, và đe dọa an ninh xã hội nếu không được kiểm soát chặt chẽ. Những công cụ này có thể làm xói mòn niềm tin công chúng, gây bất ổn chính trị và tài chính.
- Tesla CEO Elon Musk đã ủng hộ dự luật SB 1047 với quan điểm rằng nó là một bước đi khó nhưng cần thiết, cho thấy các nhà lãnh đạo trong ngành công nghệ cũng nhận thức rõ về rủi ro AI.
- Trong khi Newsom nhấn mạnh việc quản lý chặt chẽ có thể cản trở đổi mới, các chuyên gia cho rằng luật pháp hợp lý sẽ tạo ra khung phát triển bền vững, thúc đẩy niềm tin từ công chúng.
- Những quy định hiệu quả về AI có thể định hình tương lai công nghệ bằng cách đảm bảo tính minh bạch, quyền riêng tư và sự công bằng trong quá trình phát triển, giúp AI được chấp nhận rộng rãi hơn.
- Nếu California không dẫn đầu trong việc xây dựng các quy tắc AI, các quốc gia khác có thể tận dụng khoảng trống này, gây lo ngại về vấn đề đạo đức và an toàn công cộng.
📌 Thống đốc California đã chặn dự luật SB 1047 về an toàn AI, làm dấy lên tranh luận về sự cân bằng giữa an toàn và đổi mới công nghệ. Quyết định này có thể mở đường cho các quốc gia khác dẫn đầu trong quản lý AI, đặt ra thách thức mới về đạo đức và bảo mật trong thời đại công nghệ phát triển nhanh chóng.
https://theconversation.com/californias-governor-blocked-landmark-ai-safety-laws-heres-why-its-such-a-key-ruling-for-the-future-of-ai-worldwide-240182
📌 Mẹ của Sewell Setzer kiện Character.AI sau cái chết của con trai, nêu bật các vấn đề về tính an toàn và khả năng lạm dụng của chatbot AI. Character.AI đang cải thiện biện pháp bảo vệ người dùng, nhưng vụ kiện này làm dấy lên lo ngại về tác động của công nghệ AI đối với trẻ vị thành niên.
https://www.cbsnews.com/news/florida-mother-lawsuit-character-ai-sons-death/
- California đã thông qua 17 dự luật liên quan đến AI, bao gồm các vấn đề như deepfake, thủy vân AI và quyền lợi của người biểu diễn.
- Dự luật AB 2013 yêu cầu các công ty AI cung cấp tóm tắt dữ liệu huấn luyện trước ngày 1 tháng 1 năm 2026.
- Luật này yêu cầu công khai nguồn gốc và quyền sở hữu dữ liệu, cũng như việc liệu dữ liệu có được cấp phép hay mua lại.
- Các nhà xuất bản như The New York Times đang kiện OpenAI và Microsoft vì cho rằng họ đã sử dụng nội dung có bản quyền mà không được phép.
- OpenAI và Microsoft cho rằng việc sử dụng nội dung đó thuộc quyền sử dụng hợp lý nhưng có thể sẽ phải trả tiền cho các nhà sáng tạo nội dung.
- Với ngày bầu cử sắp đến, nhiều người lo ngại về việc AI sẽ bị lợi dụng để phát tán thông tin sai lệch về ứng cử viên và quy trình bầu cử.
- Theo báo cáo của Pew Research Center, 57% người Mỹ lo ngại rằng AI sẽ được sử dụng để tạo ra thông tin giả mạo trong bầu cử.
- Chỉ 20% người dân tự tin rằng các công ty công nghệ có thể ngăn chặn việc lạm dụng nền tảng của họ trong cuộc bầu cử.
- OpenAI đã ngăn chặn hơn 20 hoạt động lừa đảo sử dụng mô hình của họ từ đầu năm 2024.
- Adobe đã ra mắt phiên bản beta công khai của mô hình video Firefly, cho phép tạo video chất lượng cao từ văn bản hoặc hình ảnh đơn giản.
- Microsoft đã nộp đơn xin cấp bằng sáng chế cho một hệ thống tạo hình ảnh trực tiếp dựa trên phiên âm âm thanh.
- ChatGPT đã đạt 3.1 tỷ lượt truy cập trong tháng 9 năm 2024, trở thành trang web chatbot hàng đầu thế giới.
- Chính phủ Mỹ cho biết việc sử dụng AI đã giúp phát hiện gian lận tài chính trị giá 1 tỷ USD trong năm 2024.
📌 Năm 2024, California đã thông qua 17 dự luật liên quan đến AI nhằm bảo vệ quyền lợi người dùng. Dự luật AB 2013 yêu cầu công khai dữ liệu huấn luyện. ChatGPT dẫn đầu với 3.1 tỷ lượt truy cập. Chính phủ Mỹ thu hồi được 1 tỷ USD từ gian lận nhờ AI.
https://www.cnet.com/tech/computing/whats-in-your-ai-california-thinks-you-should-know/#ftag=CAD590a51e
1. AB 1008 - Làm rõ rằng thông tin cá nhân theo Đạo luật Quyền riêng tư Người tiêu dùng California (CCPA) có thể tồn tại dưới nhiều định dạng khác nhau, bao gồm thông tin được lưu trữ bởi các hệ thống AI.
2. AB 1831 - Mở rộng phạm vi của các điều khoản hiện có về khiêu dâm trẻ em để bao gồm nội dung bị thay đổi hoặc tạo ra bằng cách sử dụng AI.
3. AB 1836 - Cấm một người sản xuất, phân phối hoặc làm cho có sẵn bản sao kỹ thuật số của giọng nói hoặc hình ảnh của một nhân vật đã chết trong một tác phẩm âm thanh hoặc hình ảnh mà không có sự đồng ý trước.
4. AB 2013 - Yêu cầu các nhà phát triển AI công khai thông tin về dữ liệu được sử dụng để đào tạo hệ thống hoặc dịch vụ AI trên trang web của họ.
5. AB 2355 - Yêu cầu các ủy ban tạo, xuất bản hoặc phân phối quảng cáo chính trị có chứa bất kỳ hình ảnh, âm thanh hoặc video nào được tạo ra hoặc thay đổi đáng kể bằng AI phải bao gồm một thông báo trong quảng cáo rằng nội dung đã được thay đổi.
6. AB 2602 - Cung cấp rằng một thỏa thuận thực hiện dịch vụ cá nhân hoặc chuyên nghiệp có chứa điều khoản cho phép sử dụng bản sao kỹ thuật số của giọng nói hoặc hình ảnh của một cá nhân sẽ không có hiệu lực nếu không bao gồm mô tả cụ thể hợp lý về các mục đích sử dụng của bản sao và cá nhân không được đại diện bởi luật sư hoặc bởi một liên đoàn lao động.
7. AB 2655 - Yêu cầu các nền tảng trực tuyến lớn với ít nhất một triệu người dùng California phải xóa nội dung liên quan đến bầu cử bị thao túng hoặc tạo ra một cách lừa đảo, hoặc gán nhãn nội dung đó trong những khoảng thời gian nhất định trước và sau cuộc bầu cử, nếu nội dung đó được báo cáo cho nền tảng.
8. AB 2839 - Mở rộng khoảng thời gian mà một ủy ban hoặc thực thể khác bị cấm phân phối quảng cáo hoặc tài liệu bầu cử chứa nội dung AI bị thao túng từ 60 ngày lên 120 ngày.
9. AB 2876 - Yêu cầu Ủy ban Chất lượng Giảng dạy (IQC) xem xét việc đưa kiến thức về AI vào các khung chương trình và tài liệu giảng dạy về toán học, khoa học và lịch sử-xã hội.
10. AB 2885 - Thiết lập định nghĩa thống nhất cho AI, hay trí tuệ nhân tạo, trong luật pháp California.
11. AB 3030 - Yêu cầu các nhà cung cấp dịch vụ chăm sóc sức khỏe cụ thể phải công bố việc sử dụng GenAI khi nó được sử dụng để tạo ra thông tin liên lạc với bệnh nhân liên quan đến thông tin lâm sàng của bệnh nhân.
12. SB 896 - Yêu cầu CDT cập nhật báo cáo cho Thống đốc theo yêu cầu trong Lệnh hành pháp N-12-23, liên quan đến việc mua sắm và sử dụng GenAI bởi tiểu bang; yêu cầu OES thực hiện phân tích rủi ro về những mối đe dọa tiềm tàng do việc sử dụng GenAI đối với cơ sở hạ tầng quan trọng của California.
13. SB 926 - Tạo ra tội phạm mới cho một người cố ý tạo ra và phân phối bất kỳ hình ảnh khiêu dâm nào của một người khác mà có thể khiến một người hợp lý tin rằng hình ảnh đó là hình ảnh xác thực của người được mô tả.
14. SB 942 - Yêu cầu các nhà phát triển hệ thống GenAI phải bao gồm thông tin nguồn gốc trong nội dung gốc mà hệ thống của họ sản xuất và cung cấp công cụ để xác định nội dung GenAI do hệ thống của họ sản xuất.
15. SB 981 - Yêu cầu các nền tảng mạng xã hội thiết lập cơ chế báo cáo và xóa "trộm danh tính kỹ thuật số khiêu dâm".
16. SB 1120 - Thiết lập yêu cầu đối với các kế hoạch bảo hiểm sức khỏe và các công ty bảo hiểm áp dụng cho việc sử dụng AI trong quyết định đánh giá và quản lý sử dụng, bao gồm rằng việc sử dụng AI phải dựa trên lịch sử lâm sàng của bệnh nhân và hoàn cảnh lâm sàng cá nhân do nhà cung cấp yêu cầu trình bày.
17. SB 1288 - Yêu cầu Giám đốc Giáo dục Công lập (SPI) triệu tập một nhóm làm việc nhằm khám phá cách thức trí tuệ nhân tạo (AI) và các công nghệ tiên tiến tương tự đang được sử dụng trong giáo dục.
- Mỹ chuẩn bị ban hành quy định cấm đầu tư vào trí tuệ nhân tạo tại Trung Quốc.
- Quy định này nằm trong khuôn khổ một sắc lệnh của Tổng thống Joe Biden ký tháng 8 năm 2023.
- Mục tiêu chính là bảo vệ công nghệ nhạy cảm của Mỹ khỏi việc hỗ trợ quân đội Trung Quốc.
- Các quy định sẽ yêu cầu nhà đầu tư Mỹ thông báo cho Bộ Tài chính về một số khoản đầu tư vào AI và công nghệ nhạy cảm khác.
- Quy định tập trung vào các lĩnh vực như AI, bán dẫn, vi điện tử và điện toán lượng tử.
- Hiện tại, các quy định đang được xem xét tại Văn phòng Quản lý và Ngân sách và dự kiến sẽ được công bố trong vòng một tuần tới.
- Cựu quan chức Bộ Tài chính Laura Black cho rằng quy định có thể được công bố trước cuộc bầu cử tổng thống Mỹ ngày 5 tháng 11.
- Bộ Tài chính đã công bố các quy định đề xuất với nhiều ngoại lệ vào tháng 6 và đã thu thập ý kiến công chúng.
- Các quy định dự thảo yêu cầu cá nhân và doanh nghiệp Mỹ tự xác định các giao dịch bị hạn chế.
- Các giao dịch liên quan đến phát triển hệ thống AI hoặc bán dẫn không bị cấm sẽ phải thông báo.
- Một số ngoại lệ bao gồm chứng khoán niêm yết như quỹ chỉ số hoặc quỹ tương hỗ, một số khoản đầu tư đối tác hạn chế và tài trợ nợ đồng bộ.
📌 Mỹ sắp ban hành quy định cấm đầu tư AI vào Trung Quốc để bảo vệ công nghệ nhạy cảm. Quy định này nhằm ngăn chặn sự hỗ trợ cho quân đội Trung Quốc, với thời gian công bố dự kiến trong tuần tới.
https://finance.yahoo.com/news/u-soon-curb-ai-investment-160740250.html
• Đảng Cộng sản Trung Quốc (ĐCSTQ) đang theo đuổi mục tiêu trở thành nhà lãnh đạo thế giới trong phát triển và triển khai các mô hình AI.
• Mỹ và các công ty Mỹ hiện vẫn dẫn đầu trong phát triển phần cứng và phần mềm tiên tiến cho các mô hình AI mạnh mẽ hơn.
• Tuy nhiên, việc tiếp cận dữ liệu đang trở thành mối quan ngại ngày càng lớn đối với các nhà phát triển AI Mỹ do các vụ kiện cáo liên quan đến bản quyền.
• ĐCSTQ đang áp dụng cách tiếp cận hai hướng đối với quản trị AI:
- Kiểm soát chặt chẽ dữ liệu đầu vào và đầu ra của các mô hình tạo sinh công khai.
- Áp đặt ít hoặc không có hạn chế đối với phát triển và triển khai mô hình trong doanh nghiệp, nghiên cứu và quân sự.
• Cục Quản lý Không gian mạng Trung Quốc (CAC) đã ban hành hướng dẫn về hạn chế và quy tắc đào tạo mô hình AI tạo sinh.
• Ủy ban Kỹ thuật Tiêu chuẩn hóa An ninh Thông tin Quốc gia (NISSTC) gần đây đã công bố dự thảo quy định mới về phát triển và sử dụng AI tạo sinh.
• Các quy định này miễn trừ cho các nhà phát triển không cung cấp dịch vụ tạo sinh cho công chúng khỏi các hạn chế về truy cập dữ liệu, tính minh bạch và kiểm tra an toàn.
• ĐCSTQ đang tận dụng AI để phục vụ tham vọng toàn cầu thông qua giám sát kỹ thuật số và thao túng các công nghệ lưỡng dụng.
• Trung Quốc đã xuất khẩu phần cứng và phần mềm do họ sản xuất trên toàn thế giới, được sử dụng để triển khai giám sát bằng AI.
• Các hệ thống AI có thể được sử dụng để giành lợi thế trong xung đột vũ trang, với máy bay không người lái tự động ngày càng phổ biến trong chiến tranh.
• Các công ty Trung Quốc như DJI và Autel là nhà lãnh đạo thế giới về phần cứng và phần mềm máy bay không người lái.
• Các nhà phát triển mô hình AI hàng đầu của Mỹ đang phải đối mặt với các vụ kiện liên quan đến việc sử dụng tác phẩm có bản quyền trong đào tạo mô hình.
• Để cạnh tranh với Trung Quốc, Mỹ và các đồng minh nên đặt cược vào sự cởi mở, đầu tư khu vực tư nhân và hành động chính phủ có mục tiêu.
• Các quốc gia như Nhật Bản, Singapore và Israel đã làm rõ luật của họ liên quan đến khai thác văn bản và dữ liệu để thúc đẩy phát triển AI.
• Các nhà hoạch định chính sách Mỹ cần xem xét các khuôn khổ để giải quyết mối quan ngại của chủ sở hữu quyền mà không cắt đứt quyền truy cập vào dữ liệu đào tạo công khai.
📌 ĐCSTQ áp dụng chiến lược hai hướng trong phát triển AI: kiểm soát chặt mô hình công khai nhưng tự do cho mục đích quân sự và công nghiệp. Mỹ cần đảm bảo quyền tiếp cận dữ liệu đào tạo và thúc đẩy đổi mới để duy trì vị thế dẫn đầu, tránh mất lợi thế chiến lược do hạn chế quá mức về bản quyền.
https://nationalinterest.org/blog/techland/ccp%E2%80%99s-two-track-approach-ai-training-213289
• Trung Quốc đặt mục tiêu vượt qua Mỹ để trở thành quốc gia dẫn đầu thế giới về AI vào năm 2030.
• Chiến lược AI của Trung Quốc tập trung vào việc áp dụng các công nghệ hiện có để phục vụ mục tiêu kinh tế, chính trị và xã hội của nhà nước, thay vì tạo ra các công nghệ mới.
• Cách tiếp cận của Mỹ và Trung Quốc về AI có sự khác biệt rõ rệt:
- Mỹ dẫn đầu về nghiên cứu cơ bản và đổi mới AI, với sự đóng góp của các trường đại học hàng đầu như MIT, Stanford và các công ty công nghệ lớn như Google, Microsoft.
- Phát triển AI ở Mỹ chủ yếu do mạng lưới phi tập trung gồm các tổ chức học thuật, công ty tư nhân và cơ quan chính phủ thực hiện, thường có lợi ích cạnh tranh và tập trung vào ứng dụng thương mại.
- Chiến lược AI của Trung Quốc tập trung hơn và do nhà nước chỉ đạo, tập trung vào việc hỗ trợ các sáng kiến của chính phủ như kiểm soát xã hội và kế hoạch kinh tế.
• Trung Quốc đang nỗ lực tích hợp AI vào bộ máy kiểm soát tư tưởng của chính phủ:
- Chatbot Xue Xi được phát triển bởi các nhà nghiên cứu tại Đại học Thanh Hoa, trường đại học hàng đầu Trung Quốc.
- Khác với các mô hình AI phương Tây được thiết kế để thúc đẩy đối thoại mở, Xue Xi được đào tạo một phần dựa trên "Tư tưởng Tập Cận Bình" để truyền bá tư tưởng của Đảng Cộng sản cho người dùng.
- Các chatbot sử dụng mô hình ngôn ngữ lớn của Trung Quốc đi trước các đối thủ như ChatGPT ở một khía cạnh: kiểm duyệt chính trị.
• Chiến lược AI của Trung Quốc nhấn mạnh vào việc phục vụ nhà nước và các mục tiêu xã hội, trong khi cách tiếp cận của Mỹ tập trung vào đổi mới và ứng dụng thương mại.
• Sự khác biệt trong cách tiếp cận AI giữa hai cường quốc này phản ánh các hệ thống chính trị và kinh tế khác nhau của họ.
📌 Trung Quốc đặt mục tiêu dẫn đầu thế giới về AI vào năm 2030, tập trung vào kiểm soát xã hội và kế hoạch kinh tế. Chiến lược AI của họ khác biệt rõ rệt so với cách tiếp cận đổi mới của Mỹ, thể hiện qua việc phát triển chatbot Xue Xi để truyền bá tư tưởng đảng.
https://asiatimes.com/2024/08/chinas-ai-strategy-all-about-serving-the-state/
• Tại triển lãm CES Unveiled ở Amsterdam tháng 10/2024, các start-up công nghệ châu Âu thảo luận về thách thức cân bằng giữa đổi mới và tuân thủ quy định AI.
• Máy tính lượng tử, robot và công nghệ chuyển đổi xanh là những xu hướng hàng đầu ở châu Âu. Tuy nhiên, khó khăn về tài trợ và quy định cản trở sự phát triển của các start-up.
• Ủy ban châu Âu đã đặt hàng công nghệ từ start-up lượng tử Quandela để hỗ trợ nghiên cứu. Tuy nhiên, Quandela gặp khó khăn trong tiếp cận tài trợ so với các start-up Mỹ.
• Báo cáo của Mario Draghi cảnh báo châu Âu cần thúc đẩy môi trường thuận lợi cho đổi mới để cạnh tranh toàn cầu. Cần 750-800 tỷ euro đầu tư bổ sung hàng năm.
• Quy định AI của EU gây tranh cãi. Một số cho rằng nó cản trở đổi mới, đặc biệt với các công ty nhỏ. Tuy nhiên, một số start-up ủng hộ quy định để kiểm soát AI.
• Chuyên gia kêu gọi Mỹ và châu Âu hợp tác chặt chẽ hơn về quy định để cạnh tranh với Trung Quốc trong cuộc đua công nghệ toàn cầu.
• Quy định bảo vệ dữ liệu của EU gây khó khăn cho các công ty AI cần dữ liệu lớn. Tuy nhiên, một số đã thích nghi bằng cách phát triển hệ thống ít phụ thuộc vào dữ liệu.
• Một số start-up đánh giá cao các giá trị và quy định của châu Âu, cho rằng cần thiết để kiểm soát AI.
• Thị trường thống nhất và tăng cường nhân tài công nghệ sẽ là chìa khóa để Ủy ban châu Âu mới thành công, nhưng vẫn còn nhiều thách thức.
📌 Các start-up châu Âu đối mặt với thách thức cân bằng giữa đổi mới và tuân thủ quy định AI nghiêm ngặt. Mặc dù gặp khó khăn về tài trợ và dữ liệu, một số công ty vẫn ủng hộ quy định để kiểm soát AI. Hợp tác Mỹ-EU về quy định được xem là cần thiết để cạnh tranh với Trung Quốc trong cuộc đua công nghệ toàn cầu.
https://www.euronews.com/next/2024/10/19/why-balancing-europes-ai-regulations-is-a-difficult-juggling-act-for-start-ups
• Singapore công bố hướng dẫn bảo mật hệ thống AI nhằm thúc đẩy cách tiếp cận "bảo mật ngay từ thiết kế", giúp tổ chức giảm thiểu rủi ro tiềm ẩn trong phát triển và triển khai hệ thống AI.
• Hướng dẫn xác định các mối đe dọa tiềm ẩn như tấn công chuỗi cung ứng và rủi ro như học máy đối kháng. Nó bao gồm 5 giai đoạn của vòng đời AI: phát triển, vận hành, bảo trì và kết thúc vòng đời.
• Cơ quan An ninh mạng Singapore (CSA) phối hợp với các chuyên gia AI và an ninh mạng để cung cấp hướng dẫn đi kèm với các biện pháp và kiểm soát thực tế.
• Singapore thông qua luật cấm sử dụng deepfake và nội dung quảng cáo bầu cử trực tuyến được tạo hoặc thao túng kỹ thuật số khác.
• Luật nhắm đến nội dung mô tả ứng cử viên nói hoặc làm điều gì đó họ không nói hoặc làm nhưng "đủ thực tế" để công chúng "có lý do tin" nội dung bị thao túng là thật.
• Nội dung bị cấm phải đáp ứng 4 yếu tố: là quảng cáo bầu cử trực tuyến được tạo hoặc thao túng kỹ thuật số, mô tả ứng viên nói hoặc làm điều gì đó họ không làm, đủ thực tế để một số người tin là thật.
• Luật không áp dụng cho truyền thông tư nhân hoặc nội dung chia sẻ giữa các cá nhân hoặc trong nhóm chat kín.
• Mức phạt lên đến 1 triệu SGD có thể được áp dụng cho nhà cung cấp dịch vụ mạng xã hội không tuân thủ chỉ thị khắc phục. Các bên khác có thể bị phạt tới 1.000 SGD hoặc phạt tù đến 1 năm hoặc cả hai.
• Singapore ra mắt chương trình dán nhãn an ninh mạng cho thiết bị y tế, mở rộng chương trình hiện có cho sản phẩm IoT tiêu dùng.
• Nhãn chỉ ra mức độ bảo mật của thiết bị y tế, giúp người dùng đưa ra quyết định mua sắm sáng suốt. Áp dụng cho thiết bị xử lý thông tin cá nhân và dữ liệu lâm sàng.
• Sản phẩm được đánh giá dựa trên 4 cấp độ, từ yêu cầu bảo mật cơ bản đến nâng cao kèm phân tích phần mềm và đánh giá bảo mật độc lập.
• Chương trình dán nhãn an ninh mạng cho thiết bị tiêu dùng của Singapore được công nhận ở Hàn Quốc từ 1/1/2025.
📌 Singapore tăng cường an ninh mạng với hướng dẫn bảo mật AI, cấm deepfake trong bầu cử và dán nhãn thiết bị y tế. Mức phạt lên đến 1 triệu SGD cho vi phạm. Chương trình dán nhãn IoT được công nhận ở Hàn Quốc từ 2025.
https://www.zdnet.com/article/singapore-releases-guide-for-securing-ai-systems-and-outlaws-deepfakes-in-electoral-campaigns/#ftag=RSSbaffb68
• Muah.AI là trang web cho phép người dùng tạo "bạn gái AI" có thể trò chuyện và gửi hình ảnh theo yêu cầu. Trang web này có gần 2 triệu người đăng ký và tự mô tả công nghệ của mình là "không kiểm duyệt".
• Một hacker ẩn danh đã lấy được dữ liệu từ Muah.AI và chia sẻ với báo chí. Dữ liệu này cho thấy nhiều người dùng đã yêu cầu AI tạo nội dung lạm dụng tình dục trẻ em (CSAM).
• Troy Hunt, chuyên gia bảo mật, đã phân tích dữ liệu và tìm thấy hơn 30.000 kết quả cho từ khóa "13 tuổi", nhiều kết quả đi kèm với mô tả hành vi tình dục. Từ khóa "tiền dậy thì" cho 26.000 kết quả.
• Hunt ước tính có hàng chục nghìn, thậm chí hàng trăm nghìn yêu cầu tạo CSAM trong bộ dữ liệu. Một số người dùng thậm chí không cố gắng che giấu danh tính khi yêu cầu nội dung này.
• Người điều hành Discord của Muah.AI, Harvard Han, xác nhận trang web đã bị hack nhưng phủ nhận con số ước tính của Hunt, cho rằng "không thể có 5% người dùng là ấu dâm".
• Han cho biết Muah.AI có ít hơn 5 nhân viên và nguồn lực hạn chế để giám sát người dùng. Trang web từng áp dụng hệ thống lọc tự động chặn tài khoản sử dụng từ khóa nhạy cảm, nhưng sau đó điều chỉnh do người dùng phàn nàn bị chặn oan.
• Muah.AI không kiểm tra liệu họ có đang tạo ra CSAM cho người dùng hay không. Han cho rằng nhiều yêu cầu có thể đã bị từ chối, nhưng thừa nhận người dùng có thể tìm cách vượt qua bộ lọc.
• Han biện minh rằng một số người dùng có thể đang tạo hình ảnh trẻ em đã mất để tưởng nhớ. Ông cũng viện dẫn quyền tự do ngôn luận và so sánh AI với súng - có thể được sử dụng tốt hoặc xấu.
• Luật liên bang Mỹ cấm hình ảnh khiêu dâm trẻ em được tạo bằng máy tính nếu sử dụng hình ảnh trẻ em thật. Tuy nhiên, việc áp dụng luật hiện hành với AI tạo sinh vẫn đang được tranh luận.
• Vụ hack Muah.AI cho thấy quy mô của vấn đề lạm dụng AI để tạo CSAM, vốn trước đây chỉ tồn tại ở những góc tối của internet, nay đã trở nên dễ tiếp cận hơn và khó ngăn chặn.
📌 Vụ hack Muah.AI phơi bày quy mô đáng báo động của việc lạm dụng AI tạo nội dung khiêu dâm trẻ em, với hàng chục nghìn yêu cầu bị phát hiện. Vấn đề này đặt ra thách thức lớn về pháp lý, đạo đức và kiểm soát công nghệ AI tạo sinh trong tương lai.
https://www.theatlantic.com/technology/archive/2024/10/muah-ai-hack-child-abuse/680300/
• California vừa thông qua 18 luật liên quan đến AI vào tháng 9/2024, bao gồm nhiều lĩnh vực khác nhau.
• Về quy trình phát triển AI, luật AB-2013 yêu cầu minh bạch trong dữ liệu huấn luyện AI.
• Về quản lý rủi ro, luật SB-896 yêu cầu các cơ quan chính phủ đánh giá rủi ro của hệ thống AI trong các tình huống thảm họa.
• Trong lĩnh vực y tế, luật AB-3030 và SB-1120 bảo vệ bệnh nhân khi AI tạo sinh được sử dụng, yêu cầu công khai thông tin và giám sát phù hợp.
• Về quyền riêng tư, luật AB-1008 mở rộng bảo vệ thông tin người dùng liên quan đến phơi nhiễm AI. Luật AB-2602 và AB-1836 cấm tạo nội dung AI giống người thật mà không được phép.
• California đưa ra định nghĩa pháp lý về AI là "hệ thống dựa trên máy móc có mức độ tự chủ khác nhau, có thể suy luận từ đầu vào để tạo ra đầu ra ảnh hưởng đến môi trường thực hoặc ảo" (AB-2885).
• Về kiến thức AI, luật AB-2876 yêu cầu xem xét đưa kiến thức AI vào chương trình toán học, khoa học. Luật SB-1288 yêu cầu các giám đốc sở giáo dục tìm hiểu thách thức và cơ hội của AI trong giáo dục công.
• Nhiều luật mới nhằm chống lại deepfake, bao gồm AB-2905 yêu cầu cuộc gọi tự động tiết lộ khi sử dụng giọng nói deepfake. Luật AB-1831, SB-926, SB-891 bảo vệ cá nhân khỏi bị lợi dụng qua deepfake. Luật AB-2655, AB-2839, AB-2355 kiểm soát deepfake trong nội dung bầu cử.
• Dự luật SB-1047 về quản lý hệ thống AI lớn đã bị phủ quyết. Dự luật này đòi hỏi các nhà phát triển AI phải lập hồ sơ về quy trình tạo AI, xây dựng quy trình an toàn và bảo mật, cũng như bảo vệ người tố giác trong các công ty AI.
• Các luật mới này sẽ ảnh hưởng đến mọi khía cạnh của AI trong tương lai. Doanh nghiệp cần chú ý đến những luật này ngay cả khi không hoạt động chính ở California.
• Doanh nghiệp cần cập nhật liên tục các luật mới và án lệ đầu tiên trong từng lĩnh vực để hiểu cách hệ thống pháp lý áp dụng chúng.
• Các công ty sử dụng AI nên có hướng dẫn để nhân viên tuân thủ luật pháp khi sử dụng AI hiệu quả cho doanh nghiệp.
📌 California thông qua 18 luật AI mới bao gồm quy định về phát triển, rủi ro, y tế, quyền riêng tư và chống deepfake. Doanh nghiệp cần cập nhật liên tục, tuân thủ luật mới và có hướng dẫn nội bộ về sử dụng AI hiệu quả và hợp pháp.
https://www.forbes.com/sites/nishatalagala/2024/10/14/californias-new-ai-lawswhat-you-should-know/
• AI tạo sinh đang phát triển nhanh chóng, thu hút đầu tư và sáng tạo từ các nhà phát triển. Tuy nhiên, việc mở rộng quy mô từ thử nghiệm sang sản xuất đang gặp thách thức về quản trị và khả năng mở rộng.
• Để quản lý hiệu quả AI tạo sinh, cần thiết lập một trung tâm xuất sắc (CoE) hoặc cộng đồng thực hành (CoP) làm đầu mối trung tâm.
• CoE có 3 trách nhiệm chính: giám sát, giáo dục và trọng tài.
• Vai trò giám sát: Tạo ra các tiêu chuẩn chung nhẹ nhàng nhưng cần được thực thi. Ví dụ: quản lý công thức prompt, phát triển và kiểm thử agent, truy cập công cụ phát triển.
• Cần quản lý cẩn thận việc sử dụng dữ liệu khách hàng và tài sản trí tuệ của công ty, tách biệt khỏi mô hình ngôn ngữ lớn cơ bản.
• Cách tiếp cận quản trị nên thực tế, tránh áp đặt quá nhiều quy tắc làm cản trở sự sáng tạo.
• CoE nên khuyến khích thử nghiệm trong doanh nghiệp bằng cách cung cấp hướng dẫn ban đầu, sau đó nới lỏng kiểm soát khi các nhóm có kinh nghiệm hơn.
• Vai trò giáo dục: Chia sẻ thực hành tốt nhất, nguyên tắc hướng dẫn và thúc đẩy chia sẻ kiến thức giữa các nhóm.
• Cần có một người truyền bá AI tạo sinh để khám phá tiềm năng và chia sẻ kinh nghiệm rộng rãi.
• Vai trò trọng tài: Hòa giải các tranh luận về cách tiếp cận kỹ thuật và đưa ra quyết định nhanh chóng.
• CoE cần có đại diện từ nhiều bộ phận để đảm bảo quyết định được tôn trọng và hỗ trợ mục tiêu kinh doanh.
• Theo Accenture, AI tạo sinh sẽ được sử dụng trong 40% tổng số giờ làm việc và cách mạng hóa cách thức làm việc.
• Đầu tư vào CoE để quản lý AI tạo sinh sẽ tăng cơ hội thành công cho tất cả mọi người, thúc đẩy áp dụng và phát triển, đồng thời gắn kết các bên liên quan trong CNTT và kinh doanh.
📌 Thiết lập trung tâm xuất sắc với vai trò giám sát, giáo dục và trọng tài là chìa khóa để quản lý hiệu quả AI tạo sinh. Cách tiếp cận này giúp cân bằng giữa kiểm soát và sáng tạo, thúc đẩy áp dụng rộng rãi AI tạo sinh trong tổ chức.
https://www.infoworld.com/article/3547327/how-to-manage-generative-ai-programs-governance-education-regulation.html
• Một công cụ mới do startup Thụy Sĩ LatticeFlow AI và các đối tác phát triển đã kiểm tra các mô hình AI tạo sinh của các công ty công nghệ lớn theo Đạo luật AI của EU.
• Công cụ này chấm điểm các mô hình AI từ 0 đến 1 trên nhiều hạng mục, bao gồm độ mạnh mẽ kỹ thuật và an toàn.
• Kết quả cho thấy một số mô hình AI nổi tiếng còn thiếu sót trong các lĩnh vực quan trọng như khả năng phục hồi an ninh mạng và đầu ra phân biệt đối xử.
• Mô hình GPT-3.5 Turbo của OpenAI chỉ đạt 0,46 điểm về đầu ra phân biệt đối xử, trong khi mô hình Qwen1.5 72B Chat của Alibaba Cloud chỉ đạt 0,37 điểm.
• Về khả năng chống tấn công prompt hijacking, mô hình Llama 2 13B Chat của Meta đạt 0,42 điểm, còn mô hình 8x7B Instruct của Mistral chỉ đạt 0,38 điểm.
• Mô hình Claude 3 Opus của Anthropic đạt điểm trung bình cao nhất là 0,89.
• Các công ty không tuân thủ Đạo luật AI có thể bị phạt tới 35 triệu euro hoặc 7% doanh thu hàng năm toàn cầu.
• EU đang nỗ lực thiết lập cách thực thi các quy tắc của Đạo luật AI đối với các công cụ AI tạo sinh như ChatGPT.
• Các chuyên gia đang soạn thảo bộ quy tắc thực hành quản lý công nghệ này vào mùa xuân 2025.
• Công cụ kiểm tra của LatticeFlow cung cấp chỉ dẫn sớm về các lĩnh vực cụ thể mà các công ty công nghệ có nguy cơ vi phạm luật.
• CEO của LatticeFlow cho rằng kết quả kiểm tra nhìn chung là tích cực và cung cấp lộ trình để các công ty tinh chỉnh mô hình của họ theo Đạo luật AI.
• Ủy ban châu Âu hoan nghênh nghiên cứu và nền tảng đánh giá mô hình AI này như một bước đầu tiên trong việc áp dụng luật mới.
• Công cụ kiểm tra sẽ được cung cấp miễn phí cho các nhà phát triển để kiểm tra sự tuân thủ của mô hình của họ trực tuyến.
📌 Công cụ kiểm tra mới tiết lộ các mô hình AI lớn còn thiếu sót về an ninh mạng và phân biệt đối xử theo Đạo luật AI của EU. Các công ty có nguy cơ bị phạt tới 35 triệu euro nếu không tuân thủ. Ủy ban châu Âu hoan nghênh công cụ này như bước đầu áp dụng luật mới.
https://www.channelnewsasia.com/business/exclusive-eu-ai-act-checker-reveals-big-techs-compliance-pitfalls-4681611
• Anthropic vừa công bố bản cập nhật toàn diện cho Chính sách Mở rộng Có trách nhiệm (RSP), nhằm giảm thiểu rủi ro từ các hệ thống AI có năng lực cao.
• Chính sách mới đưa ra các Ngưỡng Năng lực cụ thể - những mốc đánh dấu khi khả năng của mô hình AI đạt đến mức cần thêm biện pháp bảo vệ.
• Các ngưỡng bao gồm các lĩnh vực rủi ro cao như tạo vũ khí sinh học và nghiên cứu AI tự chủ.
• Chính sách cập nhật cũng mở rộng trách nhiệm của Cán bộ Mở rộng Có trách nhiệm (RSO), người giám sát việc tuân thủ và đảm bảo các biện pháp bảo vệ phù hợp.
• Anthropic đưa ra các Cấp độ An toàn AI (ASL) từ ASL-2 (tiêu chuẩn an toàn hiện tại) đến ASL-3 (bảo vệ nghiêm ngặt hơn cho các mô hình rủi ro hơn).
• Nếu một mô hình thể hiện dấu hiệu có khả năng tự chủ nguy hiểm, nó sẽ tự động chuyển sang ASL-3, yêu cầu kiểm tra red-team và kiểm toán bên thứ ba nghiêm ngặt hơn.
• RSO có quyền tạm dừng đào tạo hoặc triển khai AI nếu các biện pháp bảo vệ cần thiết ở ASL-3 trở lên không được thực hiện.
• Chính sách tập trung vào vũ khí hóa học, sinh học, phóng xạ và hạt nhân (CBRN) cũng như nghiên cứu và phát triển AI tự chủ.
• Anthropic cam kết công bố công khai các Báo cáo Năng lực và Đánh giá Biện pháp Bảo vệ, thể hiện vai trò dẫn đầu trong minh bạch AI.
• Chính sách này có thể trở thành khuôn mẫu cho ngành công nghiệp AI rộng lớn hơn, tạo ra một "cuộc đua đến đỉnh cao" về an toàn AI.
• Cập nhật này diễn ra khi ngành công nghiệp AI đang chịu áp lực ngày càng tăng từ các cơ quan quản lý và hoạch định chính sách.
• Các Ngưỡng Năng lực có thể trở thành nguyên mẫu cho các quy định của chính phủ trong tương lai.
• Chính sách tập trung vào các biện pháp an toàn lặp đi lặp lại, với các cập nhật thường xuyên về Ngưỡng Năng lực và Biện pháp Bảo vệ.
📌 Anthropic đã cập nhật Chính sách Mở rộng Có trách nhiệm, đưa ra các Ngưỡng Năng lực và Cấp độ An toàn AI mới. Chính sách này có thể trở thành tiêu chuẩn mới cho an toàn AI, cân bằng giữa đổi mới và quản lý rủi ro nghiêm ngặt trong ngành công nghiệp đang phát triển nhanh chóng.
https://venturebeat.com/ai/anthropic-just-made-it-harder-for-ai-to-go-rogue-with-its-updated-safety-policy/
• Theo báo cáo của Fedscoop, chính phủ liên bang Mỹ đang gặp khó khăn trong việc theo kịp xu hướng ứng dụng AI do thiếu nguồn lực và nhân tài.
• Tổng thống Joe Biden đã ký sắc lệnh yêu cầu các công ty công nghệ phát triển AI có trách nhiệm sau khi xem bộ phim Mission: Impossible—Dead Reckoning Part One.
• Nhà Trắng yêu cầu các cơ quan liên bang công bố báo cáo về kế hoạch sử dụng AI, giảm thiểu rủi ro và các rào cản trong việc áp dụng AI vào tháng 9 năm ngoái.
• 29 cơ quan đã nộp báo cáo, trong đó 12 cơ quan đề cập đến trở ngại về dữ liệu, 6 cơ quan nhắc đến thiếu nhân viên được đào tạo về AI và 6 cơ quan cho biết thiếu kinh phí đang cản trở các sáng kiến AI.
• Bộ Năng lượng phàn nàn về các vấn đề an ninh liên quan đến dịch vụ đám mây và thiếu card đồ họa GPU để phát triển AI.
• Nhiều cơ quan gặp khó khăn trong việc tập trung hóa và bảo mật dữ liệu để đào tạo các mô hình AI nội bộ.
• Ủy ban Quản lý Hạt nhân cho biết lực lượng lao động thiếu hiểu biết và e ngại về khả năng của AI.
• Nhiều cơ quan than phiền về thiếu kinh phí để triển khai AI, phải cạnh tranh nguồn lực với các ưu tiên khác.
• Việc nâng cấp hệ thống công nghệ lạc hậu sẽ tốn nhiều thời gian và chi phí. Ví dụ, Không quân Mỹ vẫn sử dụng đĩa mềm 8 inch để vận hành hệ thống kiểm soát vũ khí hạt nhân cho đến năm 2019.
• Colin Powell khi làm Ngoại trưởng năm 2001 đã phải mua 44.000 máy tính mới để thay thế hệ thống cũ từ thời tiền internet.
📌 Chính phủ liên bang Mỹ đang gặp nhiều thách thức trong việc áp dụng AI do thiếu dữ liệu, nhân lực và kinh phí. 29 cơ quan đã báo cáo các rào cản, trong đó 12 cơ quan đề cập đến vấn đề dữ liệu. Việc nâng cấp hệ thống công nghệ lạc hậu sẽ tốn nhiều thời gian và chi phí để theo kịp xu hướng AI.
https://gizmodo.com/the-federal-government-is-too-broke-and-stupid-for-the-ai-revolution-2000511094
• Chính phủ các nước đang nỗ lực tìm cách bảo đảm đổi mới AI tạo sinh và cơ hội kinh tế một cách có trách nhiệm, đồng thời ngăn ngừa và giảm thiểu các rủi ro tiềm ẩn.
• Sự phát triển nhanh chóng của AI tạo sinh, nhu cầu nguồn lực cạnh tranh và bối cảnh chính sách toàn cầu phức tạp có thể cản trở phản ứng linh hoạt từ phía chính phủ.
• Liên minh quản trị AI của Diễn đàn Kinh tế Thế giới đã công bố một báo cáo cung cấp cho các nhà hoạch định chính sách và cơ quan quản lý một khung thực tiễn để quản trị AI tạo sinh một cách linh hoạt và hướng tới tương lai.
• Các thách thức phức tạp làm suy yếu hiệu quả quản trị AI tạo sinh bao gồm:
- Tác động rộng rãi và đa dạng của AI tạo sinh trên nhiều lĩnh vực
- Tốc độ phát triển công nghệ nhanh chóng
- Sự phân mảnh toàn cầu trong chia sẻ nguồn lực quan trọng như điện toán và dữ liệu
• Báo cáo đề xuất một cách tiếp cận 360 độ với 3 trụ cột chính:
1. Khai thác quá khứ:
- Đánh giá các quy định hiện có về xung đột hoặc khoảng trống do AI tạo sinh gây ra
- Làm rõ việc phân bổ trách nhiệm thông qua tiền lệ pháp lý và quy định
- Đánh giá năng lực của các cơ quan quản lý hiện tại trong việc giải quyết thách thức AI tạo sinh
2. Xây dựng hiện tại:
- Giải quyết những thách thức riêng của từng nhóm bên liên quan
- Thúc đẩy chia sẻ kiến thức đa bên và khuyến khích tư duy liên ngành
- Chính phủ dẫn đầu bằng cách áp dụng các thực hành AI có trách nhiệm
3. Lập kế hoạch cho tương lai:
- Đầu tư có mục tiêu để nâng cao kỹ năng và tuyển dụng AI trong chính phủ
- Quét chân trời (dự báo) về đổi mới AI tạo sinh và rủi ro liên quan đến các khả năng mới nổi
- Thực hiện các bài tập dự báo để chuẩn bị cho nhiều tương lai có thể xảy ra
- Đánh giá tác động và quy định linh hoạt để chuẩn bị cho các tác động của quy định hiện tại và phát triển AI trong tương lai
- Hợp tác quốc tế để thống nhất tiêu chuẩn và phân loại rủi ro
• Khung 360 độ được thiết kế để hỗ trợ các nhà hoạch định chính sách và cơ quan quản lý phát triển quản trị AI tạo sinh toàn diện và bền vững.
• Việc thực hiện cụ thể sẽ khác nhau giữa các quốc gia, tùy thuộc vào chiến lược AI quốc gia, mức độ trưởng thành của mạng lưới AI, bối cảnh kinh tế và địa chính trị, cũng như kỳ vọng và chuẩn mực xã hội của cá nhân.
📌 Chính phủ các nước đang chạy đua để theo kịp sự phát triển nhanh chóng của AI tạo sinh. Báo cáo mới từ Liên minh quản trị AI đề xuất khung quản trị 360 độ với 3 trụ cột: khai thác quá khứ, xây dựng hiện tại và lập kế hoạch cho tương lai. Mục tiêu là tạo ra hệ sinh thái AI có trách nhiệm, thúc đẩy cơ hội kinh tế đồng thời tôn trọng quyền con người và cá nhân.
https://www.weforum.org/agenda/2024/10/generative-ai-governments-keep-pace/
#WEF
- Báo cáo phân tích khả năng cạnh tranh của châu Âu trong chuỗi giá trị AI tạo sinh, nhấn mạnh 3 lĩnh vực chính: chấp nhận, tạo ra và năng lượng. Châu Âu cần cải thiện đáng kể ở cả ba lĩnh vực này để cạnh tranh với các đối thủ toàn cầu.
- Châu Âu tụt hậu từ 45% đến 70% so với Mỹ về mức độ chấp nhận AI, nơi mà phần lớn giá trị kinh tế tiềm năng của gen AI sẽ xuất hiện. Tuy nhiên, công nghệ này vẫn ở giai đoạn đầu và cơ hội vẫn rộng mở cho châu Âu.
- Ở khía cạnh tạo ra AI, châu Âu chỉ dẫn đầu ở mảng thiết bị bán dẫn cho AI, với thị phần 80%-90%. Tuy nhiên, trong các mảng khác như nguyên liệu thô, thiết kế và sản xuất bán dẫn, cơ sở hạ tầng điện toán đám mây và siêu máy tính, châu Âu chỉ chiếm dưới 5% thị phần toàn cầu.
- Mức tiêu thụ năng lượng của các trung tâm dữ liệu do AI tạo sinh tạo ra có thể chiếm hơn 5% tổng lượng tiêu thụ điện của châu Âu vào năm 2030, gây áp lực lớn lên hệ thống năng lượng vốn đã căng thẳng của khu vực này.
- Tiềm năng tăng trưởng năng suất của AI tạo sinh tại châu Âu có thể đạt tới 3% hàng năm đến năm 2030, tương đương 575,1 tỷ USD, đặc biệt trong các ngành như hàng tiêu dùng, ngân hàng, công nghệ cao và dược phẩm.
- Thách thức chính của châu Âu bao gồm sự thiếu hụt đầu tư vào AI so với Mỹ. Đầu tư tư nhân vào AI ở châu Âu chỉ đạt 11 tỷ USD trong năm 2023, trong khi Mỹ đạt 67 tỷ USD.
- Để bắt kịp Mỹ, các nhà hoạch định chính sách châu Âu cần tập trung vào các giải pháp như đầu tư công, phát triển bán dẫn tiên tiến, cải thiện cơ sở hạ tầng điện toán đám mây, và tăng cường đào tạo nguồn nhân lực cho AI.
- Năng lượng sạch là một lợi thế của châu Âu, với 61% năng lượng đến từ các nguồn ít carbon, so với 40% ở Mỹ. Tuy nhiên, giá điện cao vẫn là một yếu tố cản trở.
- Các quốc gia châu Âu cần khuyến khích các mô hình AI và ứng dụng phù hợp với sự đa dạng về ngôn ngữ và văn hóa, cũng như phát triển hệ sinh thái AI địa phương thông qua các ưu đãi chính sách và đầu tư công nghệ.
📌 Báo cáo chỉ ra rằng AI tạo sinh có tiềm năng giúp châu Âu tăng năng suất lên đến 575,1 tỷ USD vào năm 2030. Tuy nhiên, để đạt được tiềm năng này, châu Âu cần giải quyết các vấn đề về đầu tư, năng lượng và phát triển bán dẫn, cũng như tăng cường sự chấp nhận AI trong các ngành công nghiệp.
https://www.mckinsey.com/capabilities/quantumblack/our-insights/time-to-place-our-bets-europes-ai-opportunity#/
#McKinsey
• Các chính phủ châu Á đang chia thành hai phe về quản lý AI: một nhóm tập trung vào thúc đẩy đổi mới và lợi ích kinh tế, nhóm còn lại ưu tiên các mối quan ngại an ninh quốc gia.
• Nhóm thân đổi mới (bao gồm Nhật Bản, Đài Loan và Singapore) có xu hướng áp dụng cách tiếp cận tự điều chỉnh và định hướng. Nhóm thân an ninh (bao gồm Trung Quốc và Việt Nam) đang áp dụng các chính sách nghiêm ngặt hơn nhiều.
• Mỹ đã áp dụng kết hợp các sắc lệnh hành pháp và hướng dẫn tự điều chỉnh để tạo sự linh hoạt cho Thung lũng Silicon. Trung Quốc đã ban hành hàng chục quy tắc và quy định để kiểm soát chặt chẽ AI.
• Nhật Bản và Hàn Quốc có khả năng đưa ra cách riêng để quản lý AI, trong khi Ấn Độ dự kiến sẽ tăng cường giám sát của chính phủ.
• Khó có khả năng sẽ có một khuôn khổ quản trị AI thống nhất trên toàn cầu, mặc dù các cách tiếp cận quốc gia khác nhau chắc chắn sẽ ảnh hưởng lẫn nhau.
• Ngành công nghiệp AI cũng đang bị cuốn vào cuộc tranh luận tương tự như cuộc cạnh tranh giữa hệ sinh thái iOS đóng của Apple và hệ thống Android nguồn mở của Google.
• Mỹ và Trung Quốc đã bị cuốn vào một "cuộc chiến AI" thực tế. Sự cạnh tranh Mỹ-Trung này sẽ sớm mở rộng sang việc thiết lập tiêu chuẩn AI toàn cầu.
• Một số quốc gia ở châu Á, châu Phi và Trung Đông có thể sẽ chờ xem mô hình quản trị AI nào - của Mỹ hay Trung Quốc - có thể phù hợp nhất với bối cảnh xã hội và kinh tế của họ.
• Một thế giới bị chia rẽ về quản trị AI có thể gây ra nhiều thách thức kinh tế hơn cho các nước đang phát triển, vì một số nước đã cảm thấy bị bỏ lại phía sau trong cuộc đua AI.
• Một số chuyên gia nhấn mạnh nhu cầu ngày càng tăng về việc tạo ra một cơ quan quốc tế cho AI, tương tự như Cơ quan Năng lượng Nguyên tử Quốc tế hoặc ICANN.
• Tuy nhiên, triển vọng tương lai cho thấy bối cảnh quy định về AI có khả năng trở nên đa dạng hơn khi các nền kinh tế phát triển và mới nổi bắt đầu ủng hộ khuôn khổ quản trị AI riêng của họ.
📌 Cuộc đua AI toàn cầu đang chia rẽ châu Á thành 2 phe: đổi mới và an ninh. Mỹ-Trung cạnh tranh gay gắt để dẫn đầu phát triển và tiêu chuẩn AI. Thiếu khung quản trị thống nhất, thế giới có nguy cơ phân hóa sâu sắc về quản lý AI, gây thách thức cho doanh nghiệp đa quốc gia và các nước đang phát triển.
https://asia.nikkei.com/Opinion/AI-is-likely-to-make-our-world-more-divided
• Công nghệ deepfake đang nổi lên như "hộp Pandora" mới nhất của AI, không chỉ giới hạn ở nội dung châm biếm chính trị mà còn được sử dụng để tạo ra quảng cáo lừa đảo, hình ảnh khiêu dâm giả mạo học sinh.
• Hiện tại, Anh chưa có luật cụ thể về deepfake mà chỉ có một số quy định rải rác:
- Đạo luật an toàn trực tuyến cấm chia sẻ hình ảnh khiêu dâm được tạo bởi AI mà không có sự đồng ý, nhưng không cấm việc tạo ra chúng.
- Cơ quan tiêu chuẩn quảng cáo (ASA) can thiệp khi quảng cáo có nội dung gây hiểu nhầm. Ví dụ vụ Diamond Mist bị phạt vì sử dụng hình ảnh gợi nhớ đến vận động viên Mo Farah.
- Luật dân sự cho phép kiện tụng trong trường hợp vi phạm quyền riêng tư, quấy rối hoặc phỉ báng.
• Các doanh nghiệp cần cẩn trọng khi sử dụng AI tạo sinh để tránh vô tình vi phạm bản quyền hình ảnh của người nổi tiếng.
• Thách thức lớn nhất là thực thi luật pháp, vì các biện pháp hiện tại chủ yếu xử lý từng trường hợp cụ thể mà không kiểm soát được công nghệ nguồn mở.
• Nhiều chuyên gia cho rằng cần có một cơ quan độc lập như Ofcom để quản lý AI, nhưng hiệu quả của giải pháp này vẫn còn là dấu hỏi lớn.
• Chính phủ Anh đang cân nhắc giữa việc thúc đẩy ngành công nghiệp AI và bảo vệ quyền lợi cá nhân, doanh nghiệp.
• Luật pháp hiện tại chưa theo kịp tốc độ phát triển của công nghệ AI, tạo ra nhiều lo ngại về các mối đe dọa tiềm ẩn.
• Việc định nghĩa thế nào là deepfake cũng gặp khó khăn, vì ranh giới giữa hình ảnh tương tự và gây nhầm lẫn còn mơ hồ.
• Các nạn nhân của deepfake thường gặp khó khăn trong việc tìm kiếm hỗ trợ pháp lý và đòi bồi thường.
📌 Deepfake đang là thách thức pháp lý lớn ở Anh do thiếu luật cụ thể. Doanh nghiệp cần thận trọng khi dùng AI tạo sinh để tránh vi phạm. Cần có cơ quan độc lập quản lý và cân bằng giữa phát triển công nghệ và bảo vệ quyền lợi cá nhân.
https://www.techradar.com/pro/deepfake-regulation-a-double-edged-sword
- Roma Datta Chobey, giám đốc điều hành mới của Google Ấn Độ, nhấn mạnh tầm quan trọng của việc quản lý AI.
- Chiến lược của Google tại Ấn Độ sẽ gắn liền với mục tiêu trở thành quốc gia phát triển trong hai thập kỷ tới.
- Chobey có 9 năm kinh nghiệm tại Google và đã từng là ngân hàng trước khi đảm nhận vị trí này.
- Quyết định lưu trữ mô hình Gemini của Google tại Ấn Độ nhằm đảm bảo dữ liệu và mô hình được vận hành trong nước.
- Việc này giúp tăng cường sự tin tưởng cho người dùng và khẳng định tầm quan trọng của thị trường Ấn Độ đối với Google.
- Chobey cho rằng việc quản lý AI là cần thiết và phải được thực hiện một cách hợp lý.
- Cần có các quy định dựa trên nguyên tắc để bảo vệ lợi ích và khuyến khích đổi mới sáng tạo.
- Google đang đầu tư mạnh vào việc hiểu rõ những lợi ích và rủi ro của AI.
- Công ty có các nguyên tắc và khung quản trị riêng để đảm bảo an toàn cho công nghệ AI.
- Vấn đề với các startup về hóa đơn Google Play đang được giải quyết thông qua đối thoại và hợp tác.
- Google Play đã giúp các nhà phát triển Ấn Độ kiếm được 4.000 crore rupee (khoảng 480 triệu USD) từ xuất khẩu.
- Quỹ chuyển đổi số trị giá 10 tỷ USD của Google nhằm thúc đẩy quá trình số hóa tại Ấn Độ sẽ tập trung vào AI trong thập kỷ tới.
- Google cam kết sử dụng AI để cải thiện đời sống người dân Ấn Độ, đặc biệt trong các lĩnh vực như sức khỏe và nông nghiệp.
📌 Roma Datta Chobey nhấn mạnh tầm quan trọng của quy định AI tại Ấn Độ. Google cam kết đầu tư vào chuyển đổi số và sử dụng AI để cải thiện cuộc sống người dân. Quỹ chuyển đổi số trị giá 10 tỷ USD sẽ tập trung vào các lĩnh vực then chốt như sức khỏe và nông nghiệp.
https://economictimes.indiatimes.com/tech/technology/ai-is-too-important-not-to-be-regulated-new-google-india-md/articleshow/113917225.cms?from=mdr
• Theo báo cáo của S&P Global, hơn 100 tỷ USD sẽ được đầu tư vào các cơ sở dữ liệu ở khu vực châu Á-Thái Bình Dương trong 5 năm tới, nhằm tận dụng sự tăng trưởng mạnh mẽ của dữ liệu và sự phát triển của AI, điện toán đám mây và số hóa.
• Các thị trường mới nổi ở châu Á-Thái Bình Dương được dự đoán sẽ vượt qua các thị trường phát triển về tốc độ tăng trưởng công suất trong 3-5 năm tới.
• Chính phủ Ấn Độ đang xem xét trợ cấp cho việc thành lập các trung tâm dữ liệu để tận dụng cơ hội từ sự bùng nổ của AI và tạo điều kiện tiếp cận công suất tính toán dễ dàng hơn cho các doanh nghiệp nhỏ như startup và các tổ chức nghiên cứu.
• Ấn Độ hiện có công suất trung tâm dữ liệu cho thuê từ 1-3 GW, cao nhất so với các thị trường mới nổi khác như Indonesia, Malaysia, Philippines, Thái Lan và Việt Nam.
• Tuy nhiên, trong giai đoạn 2023-2028, ngành kinh doanh trung tâm dữ liệu ở Malaysia có thể chứng kiến tốc độ tăng trưởng cao hơn Ấn Độ.
• Johor Bahru ở Malaysia đã trở thành điểm đến hấp dẫn cho các trung tâm dữ liệu mới, với dự án đường ống có tổng công suất tải IT là 1,67 GW, cao hơn đáng kể so với công suất hiện tại 231 MW tính đến nửa đầu năm 2024.
• Nhật Bản đang cung cấp trợ cấp để phân cấp phát triển trung tâm dữ liệu, khuyến khích xây dựng các trung tâm mới ở xa các thành phố lớn như Tokyo và Osaka.
• Chính phủ Ấn Độ đã hoàn thiện tài liệu đấu thầu để mua các đơn vị xử lý đồ họa (GPU) trong khuôn khổ Sứ mệnh IndiaAI đầy tham vọng, nhằm cung cấp công suất tính toán cho các startup, nhà nghiên cứu, cơ quan khu vực công và các đơn vị khác được chính phủ phê duyệt.
• Kế hoạch IndiaAI Mission có tổng ngân sách 10.370 crore rupee (khoảng 1,24 tỷ USD), trong đó 4.564 crore rupee (khoảng 547 triệu USD) được dành cho việc xây dựng cơ sở hạ tầng tính toán.
• Mục tiêu của kế hoạch này là thiết lập công suất tính toán hơn 10.000 GPU và phát triển các mô hình nền tảng với công suất hơn 100 tỷ tham số được đào tạo trên các bộ dữ liệu bao gồm các ngôn ngữ chính của Ấn Độ cho các lĩnh vực ưu tiên như chăm sóc sức khỏe, nông nghiệp và quản trị.
• Việc triển khai cơ sở hạ tầng tính toán sẽ được thực hiện thông qua mô hình hợp tác công-tư với 50% tài trợ khoảng cách khả thi.
📌 Ấn Độ đang đặt mục tiêu trở thành thị trường trung tâm dữ liệu quan trọng, cạnh tranh với Malaysia và Nhật Bản. Kế hoạch IndiaAI Mission trị giá 1,24 tỷ USD nhằm xây dựng cơ sở hạ tầng tính toán 10.000 GPU, phát triển mô hình AI nền tảng phục vụ các lĩnh vực ưu tiên.
https://indianexpress.com/article/business/indias-data-centre-ambitions-will-have-to-go-through-malaysia-japan-9582798/
- Khung quản trị an toàn AI của Trung Quốc, do Ủy ban Kỹ thuật Quốc gia 260 về An ninh mạng xây dựng, là một tài liệu quan trọng hướng dẫn quản lý rủi ro an toàn trong quá trình nghiên cứu, phát triển và ứng dụng AI. Được công bố năm 2024, khung này nhấn mạnh sự phối hợp giữa các chính phủ, doanh nghiệp, tổ chức nghiên cứu, và các cá nhân để phòng ngừa và giảm thiểu các rủi ro liên quan đến AI.
- Các nguyên tắc quản trị AI của Trung Quốc bao gồm việc ưu tiên phát triển sáng tạo, đồng thời đảm bảo rằng các vấn đề về an ninh và quyền lợi người dùng không bị bỏ qua. Điều này đòi hỏi sự hợp tác toàn diện từ các bên liên quan để quản lý mọi khía cạnh của AI từ giai đoạn thiết kế, phát triển đến triển khai và vận hành.
- Phân loại rủi ro an toàn AI được chia thành hai nhóm chính: rủi ro nội tại của AI và rủi ro trong các ứng dụng AI. Các rủi ro nội tại bao gồm sự thiếu minh bạch trong các mô hình AI, thiên vị dữ liệu và khả năng bị tấn công. Ví dụ, các mô hình học sâu có thể đưa ra những quyết định không thể giải thích được và khó kiểm soát, gây khó khăn cho việc truy cứu trách nhiệm khi xảy ra sự cố.
- Các rủi ro liên quan đến dữ liệu như thu thập dữ liệu bất hợp pháp, rò rỉ thông tin cá nhân, và dữ liệu độc hại trong quá trình huấn luyện cũng là những yếu tố chính mà khung quản trị tập trung. Ngoài ra, các hệ thống AI cũng phải đối mặt với nguy cơ bị tấn công, đặc biệt là thông qua các lỗi bảo mật, backdoor hoặc việc sử dụng cơ sở hạ tầng tính toán không an toàn.
- Để giải quyết các rủi ro này, Trung Quốc đưa ra các biện pháp công nghệ cụ thể, bao gồm:
- Cải thiện tính minh bạch và khả năng giải thích của AI, giúp cung cấp lý giải rõ ràng về quá trình đưa ra kết quả.
- Thiết lập các tiêu chuẩn phát triển phần mềm bảo mật để giảm thiểu các lỗ hổng và nguy cơ thiên vị trong các mô hình AI.
- Cải thiện chất lượng dữ liệu, đảm bảo rằng dữ liệu được sử dụng trong quá trình huấn luyện là chính xác và đa dạng.
- Tăng cường bảo vệ dữ liệu cá nhân và thông tin nhạy cảm, đảm bảo rằng việc xử lý dữ liệu tuân thủ các quy định về bảo mật.
- Các cơ chế quản trị toàn diện cũng được đề xuất để phối hợp giữa các tổ chức nghiên cứu, nhà cung cấp dịch vụ và cơ quan chính phủ. Một phần quan trọng của khung là đảm bảo rằng chuỗi cung ứng AI không bị gián đoạn bởi các vấn đề quốc tế như hạn chế xuất khẩu hoặc rủi ro liên quan đến sản phẩm công nghệ như chip và phần mềm.
- Khung quản trị nhấn mạnh tầm quan trọng của việc đánh giá và kiểm tra định kỳ các hệ thống AI, đặc biệt trong các lĩnh vực quan trọng như y tế, giao thông và quốc phòng. Các biện pháp an toàn như giới hạn dịch vụ AI theo ngữ cảnh sử dụng thực tế và khả năng theo dõi nguồn gốc dữ liệu và các hệ thống AI được triển khai rộng rãi.
- Trung Quốc cũng đặc biệt quan tâm đến việc hợp tác quốc tế, thúc đẩy xây dựng các tiêu chuẩn toàn cầu về an toàn AI và chia sẻ các phương pháp tốt nhất giữa các quốc gia. Điều này bao gồm việc hợp tác trong các cơ chế đa phương như APEC, G20, BRICS và khối các nước thuộc sáng kiến Vành đai và Con đường, nhằm tăng cường tiếng nói của các nước đang phát triển trong quản trị AI toàn cầu.
- Việc phát triển nguồn nhân lực và nâng cao nhận thức cộng đồng về rủi ro liên quan đến AI cũng là một trọng tâm lớn trong khung này. Trung Quốc nhấn mạnh sự cần thiết của việc đào tạo các tài năng chuyên sâu trong lĩnh vực an toàn AI và thúc đẩy giáo dục an toàn AI song song với sự phát triển công nghệ.
📌 Khung quản trị an toàn AI của Trung Quốc năm 2024 đưa ra các nguyên tắc và biện pháp chi tiết để quản lý rủi ro trong việc phát triển và ứng dụng AI, từ bảo vệ dữ liệu cá nhân, quản lý chuỗi cung ứng đến hợp tác quốc tế. Trung Quốc đặc biệt chú trọng việc tăng cường tính minh bạch của AI và phát triển nhân lực an toàn AI để đảm bảo lợi ích cho toàn cầu.
https://www.cac.gov.cn/2024-09/09/c_1727567886199789.htm
• Thủ tướng Malaysia Anwar Ibrahim thông báo kế hoạch xây dựng chính sách đám mây quốc gia và quy định về sử dụng AI có đạo đức.
• Chính sách đám mây quốc gia tập trung vào 4 lĩnh vực chính: đổi mới và hiệu quả dịch vụ công, tăng cường năng lực cạnh tranh và tăng trưởng kinh tế, củng cố niềm tin người dùng và bảo mật dữ liệu, trao quyền cho công dân thông qua hòa nhập kỹ thuật số.
• Malaysia sẽ thành lập văn phòng AI quốc gia để điều phối các sáng kiến, hoàn thiện kế hoạch hành động công nghệ 5 năm và khung pháp lý để tăng cường áp dụng AI có đạo đức và bền vững trong 12 tháng tới.
• Mục tiêu của Malaysia là trở thành trung tâm AI tạo sinh, các khoản đầu tư từ đối tác công nghệ sẽ đóng vai trò quan trọng trong việc xây dựng cơ sở hạ tầng số mạnh mẽ và an toàn.
• Google công bố kế hoạch đầu tư 2 tỷ USD xây dựng trung tâm dữ liệu và khu vực đám mây mới tại Malaysia.
• Khoản đầu tư của Google dự kiến tạo ra 26.500 việc làm và đóng góp hơn 3 tỷ USD cho nền kinh tế Malaysia đến năm 2030.
• Google cũng thông báo quan hệ đối tác nhiều năm với một công ty công nghệ địa phương để cung cấp dịch vụ đám mây chủ quyền.
• Các khoản đầu tư kỹ thuật số đã giúp thúc đẩy nền kinh tế Malaysia trong năm nay, với tăng trưởng vượt kỳ vọng thị trường trong hai quý gần đây nhất.
• Động thái của Google là một phần trong chiến lược mở rộng rộng lớn hơn của các công ty công nghệ toàn cầu vào Đông Nam Á, nhằm tăng cường hiện diện tại khu vực có 670 triệu dân trẻ am hiểu công nghệ.
• Hôm thứ Hai, Google cũng thông báo kế hoạch đầu tư 1 tỷ USD vào Thái Lan để xây dựng trung tâm dữ liệu và khu vực đám mây, nhằm đáp ứng nhu cầu đám mây ngày càng tăng và hỗ trợ áp dụng AI ở Đông Nam Á.
📌 Malaysia đặt mục tiêu trở thành trung tâm AI tạo sinh với chính sách đám mây quốc gia và quy định AI mới. Google đầu tư 2 tỷ USD vào trung tâm dữ liệu, dự kiến tạo 26.500 việc làm và đóng góp 3 tỷ USD cho nền kinh tế Malaysia đến 2030, thể hiện xu hướng đầu tư công nghệ mạnh mẽ vào Đông Nam Á.
https://finance.yahoo.com/news/google-says-investments-add-3-020915995.html
• Christian Klein, CEO của SAP - công ty phần mềm lớn nhất châu Âu, cảnh báo các nhà hoạch định chính sách EU không nên quá mức điều tiết AI, vì có thể làm suy yếu khả năng cạnh tranh của châu Âu.
• Klein phản đối việc điều tiết công nghệ AI, cho rằng điều này sẽ gây tổn hại lớn đến khả năng cạnh tranh của châu Âu. Ông đề xuất nên điều tiết kết quả sử dụng AI thay vì bản thân công nghệ.
• Phát biểu này được đưa ra trong bối cảnh ngành phần mềm doanh nghiệp đang có nhiều biến động, với các đối thủ như Salesforce và Oracle đang chạy đua tích hợp AI tạo sinh vào dịch vụ của họ.
• Các công ty công nghệ đã phản đối những hạn chế trong Đạo luật AI mới của EU, cũng như Đạo luật Thị trường Kỹ thuật số và quy định bảo vệ dữ liệu hạn chế việc sử dụng dữ liệu để huấn luyện mô hình ngôn ngữ lớn.
• SAP đang đầu tư 2 tỷ euro mỗi năm vào AI, tập trung vào phát triển chatbot "Joule" có thể thực hiện nhiều tác vụ từ viết mã đến tư vấn nội bộ.
• Công ty cũng đang mở các phòng thí nghiệm gần các trường đại học Mỹ để thu hút nhân tài kỹ thuật và đầu tư trực tiếp vào các startup AI tạo sinh như Anthropic và Cohere.
• SAP đang trong quá trình chuyển đổi từ mô hình cấp phép theo đầu người sang mô hình đăng ký các ứng dụng dựa trên đám mây. Hiện mới có khoảng 1/3 trong số 400.000 khách hàng chuyển sang đám mây.
• Doanh thu quý 2 năm 2024 của SAP tăng 10% lên 8,29 tỷ euro, chủ yếu nhờ doanh số đám mây tăng.
• Giá cổ phiếu SAP đã tăng gấp đôi trong 5 năm Klein làm CEO, đạt mức cao kỷ lục với vốn hóa thị trường 242,4 tỷ euro.
• Tuy nhiên, SAP đang phải đối mặt với vấn đề tinh thần nhân viên tại Đức, với 51% sẵn sàng rời đi và chỉ 38% tin tưởng hoàn toàn vào ban lãnh đạo.
📌 SAP, công ty phần mềm lớn nhất châu Âu, cảnh báo EU không nên quá mức điều tiết AI. CEO Christian Klein đề xuất điều tiết kết quả thay vì công nghệ, lo ngại sẽ làm giảm khả năng cạnh tranh. SAP đang đầu tư 2 tỷ euro/năm vào AI, tập trung vào chatbot Joule và thu hút nhân tài từ Mỹ.
https://www.ft.com/content/9db8fe6d-3f8a-4886-a439-c23faf459c23
#FT
• Thủ tướng Lawrence Wong công bố kế hoạch Smart Nation 2.0 cập nhật vào ngày 1/10, tập trung vào 3 yếu tố then chốt: tăng trưởng, cộng đồng và niềm tin.
• Kế hoạch mới vượt ra ngoài việc số hóa đơn thuần, đối phó với các thách thức mới như lừa đảo, bắt nạt trên mạng, thông tin sai lệch và deepfake.
• Chính phủ sẽ cấp khoản tài trợ AI for Science trị giá 120 triệu đô la Singapore để thúc đẩy nghiên cứu y sinh và khoa học vật liệu tiên tiến.
• Từ năm 2025, các trường tiểu học và trung học cơ sở sẽ triển khai các mô-đun lập trình AI for Fun mới.
• Một chương trình học bổng Smart Nation Educator Fellowship sẽ được cung cấp cho các nhà giáo dục để tiếp cận xu hướng và vấn đề mới nhất trong lĩnh vực kỹ thuật số.
• Hội đồng Tuổi thứ ba (C3A) sẽ phát triển hơn 180 khóa học giúp người cao tuổi thành thạo việc sử dụng thiết bị thông minh và giao dịch trực tuyến.
• Một cơ quan mới sẽ được thành lập để hỗ trợ nạn nhân của các tác hại trực tuyến, đảm bảo gỡ bỏ nhanh chóng nội dung lạm dụng.
• Luật Cơ sở hạ tầng kỹ thuật số mới dự kiến sẽ được ban hành vào năm 2025 để tăng trách nhiệm giải trình của các nhà cung cấp dịch vụ đám mây và trung tâm dữ liệu.
• Quận kỹ thuật số Punggol, dự kiến hoàn thành xây dựng vào đầu năm 2025, sẽ trưng bày các giải pháp an ninh mạng, cuộc sống thông minh và bất động sản thông minh.
• Quận này sẽ có một khu công nghệ do JTC Corporation phát triển, nhằm thúc đẩy hợp tác giữa chính phủ, học giả và nhân tài công nghệ.
• Các công ty lớn như OCBC Bank, UOB, Cơ quan Công nghệ Chính phủ và Cơ quan An ninh mạng Singapore đã đăng ký thuê mặt bằng tại khu công nghệ này.
• Bộ trưởng Phát triển và Thông tin kỹ thuật số Josephine Teo nhấn mạnh việc tiếp tục hỗ trợ người dân Singapore trong việc thích ứng với những thay đổi công nghệ nhanh chóng.
📌 Singapore đặt mục tiêu trở thành quốc gia thông minh hàng đầu thế giới với kế hoạch Smart Nation 2.0. Đầu tư 120 triệu đô la Singapore vào nghiên cứu AI, đào tạo kỹ năng số cho mọi lứa tuổi và tăng cường bảo vệ người dân trước các mối đe dọa trực tuyến là những ưu tiên hàng đầu.
https://www.straitstimes.com/singapore/s-pore-refreshes-smart-nation-goals-with-plans-to-tackle-digital-harms-accelerate-ai-know-how
• Discover Financial Services đang áp dụng phương pháp tiếp cận thận trọng với AI tạo sinh, sử dụng các biện pháp bảo vệ cụ thể dựa trên rủi ro để đánh giá cách sử dụng tốt nhất.
• CIO Jason Strle của Discover cho biết chiến lược giảm thiểu rủi ro của họ tuân theo chặt chẽ hướng dẫn của Viện Tiêu chuẩn và Công nghệ Quốc gia (NIST).
• NIST đã phát hành bản dự thảo khung quản lý rủi ro AI tạo sinh vào tháng 7/2024, cung cấp hơn 200 hành động giảm thiểu rủi ro cho các tổ chức triển khai và phát triển AI tạo sinh.
• Khung NIST tập trung vào 12 rủi ro rộng, bao gồm tính toàn vẹn thông tin, bảo mật, quyền riêng tư dữ liệu, thiên kiến có hại, ảo giác và tác động môi trường.
• Ngoài NIST, nhiều tổ chức khác cũng đưa ra hướng dẫn về áp dụng AI tạo sinh, tạo ra nhiều lựa chọn cho doanh nghiệp.
• Các nhà lãnh đạo doanh nghiệp đang phải đối mặt với các quy định ngày càng chặt chẽ về AI trên toàn cầu và đang cập nhật thực tiễn hiện tại để tuân thủ.
• AAA - The Auto Club Group cấm nhân viên tự do đưa thông tin nhạy cảm vào các mô hình hoặc sử dụng dữ liệu độc quyền để đào tạo mô hình.
• Discover khuyến khích nhân viên đề xuất ý tưởng ứng dụng giải quyết các vấn đề, nhưng không cho phép các nhà cung cấp bên thứ ba truy cập đầy đủ vào thông tin độc quyền.
• NIST khuyến nghị các tổ chức dựa vào mức độ chấp nhận rủi ro của họ khi áp dụng các biện pháp giảm thiểu rủi ro.
• Discover sử dụng phương pháp "con người trong vòng lặp" tại trung tâm liên hệ, nơi quyết định cuối cùng thuộc về con người tuân theo tất cả các quy trình và đào tạo.
• Các nghiên cứu cho thấy sự chênh lệch giữa số lượng doanh nghiệp triển khai AI tạo sinh và việc áp dụng các thực tiễn an toàn, có trách nhiệm.
• Hơn 3/5 giám đốc điều hành dự kiến sẽ thấy mức độ rủi ro họ phải chịu trách nhiệm tăng đáng kể trong 3-5 năm tới.
• Khoảng 2/5 dự đoán hơn một nửa ngân sách quản lý rủi ro của họ sẽ dành cho công nghệ.
• Sự quan tâm đến AI tạo sinh đã giảm trong số các giám đốc điều hành cấp cao và hội đồng quản trị kể từ đầu năm 2024.
📌 Các CIO đang sử dụng khung quản lý rủi ro của NIST để triển khai AI tạo sinh an toàn. Discover và AAA là ví dụ điển hình về cách cân bằng đổi mới và rủi ro. Hơn 60% giám đốc điều hành dự kiến mức độ rủi ro sẽ tăng đáng kể trong 3-5 năm tới, với 40% dự đoán chi tiêu hơn 50% ngân sách quản lý rủi ro cho công nghệ.
https://www.ciodive.com/news/cio-generative-ai-risk-mitigation-strategy-NIST-framework/728257/
• Google Cloud sẽ hỗ trợ Ấn Độ phát triển công cụ "DPI in a box" để giúp xuất khẩu Cơ sở hạ tầng công cộng kỹ thuật số (DPI) của nước này.
• DPI của Ấn Độ bao gồm hệ thống nhận dạng Aadhaar, giao diện thanh toán thống nhất UPI và mạng thương mại điện tử mở ONDC.
• Công cụ này được mô tả là một mô hình "cắm và chạy" giúp các quốc gia xây dựng cơ sở hạ tầng kỹ thuật số và thúc đẩy tăng trưởng.
• Đối tác của Google trong dự án này là tổ chức phi lợi nhuận EkStep Foundation, do đồng sáng lập Infosys Nandan Nilekani lãnh đạo.
• Google đã giúp phổ biến UPI và giờ có cơ hội tìm kiếm khách hàng chính phủ mới nếu họ quyết định sử dụng DPI của Ấn Độ.
• Tại sự kiện Google for India lần thứ 10, Google thông báo sẽ đưa AI Gemini vào tất cả sản phẩm và hỗ trợ 9 ngôn ngữ khác nhau, bắt đầu với tiếng Hindi.
• Gemini sẽ được lưu trữ hoàn toàn tại Ấn Độ, tăng cường chủ quyền dữ liệu.
• Khung Agent AI nguồn mở do Gemini cung cấp sẽ có sẵn trên các mạng mở được hỗ trợ bởi Beckn.
• Google mở rộng số lượng nhà cung cấp khoản vay mà người dùng Ấn Độ có thể truy cập thông qua Google Pay.
• Một trong những đối tác mới là Muthoot Finance, cung cấp các khoản vay thế chấp bằng vàng.
• Hợp tác này sẽ mang lại sự thuận tiện của các khoản vay thế chấp vàng cho Google Pay, mở ra một lựa chọn tín dụng có giá trị cho hàng triệu người, đặc biệt là ở vùng nông thôn Ấn Độ.
• Google tuyên bố điều này sẽ mở ra cơ hội huy động tài sản vàng tiềm ẩn với lãi suất phải chăng và linh hoạt hơn để người dân có thể đầu tư cho tương lai thông qua giáo dục, kinh doanh hoặc bất cứ điều gì khác.
📌 Google Cloud hợp tác với Ấn Độ phát triển "DPI in a box" để xuất khẩu công nghệ chính phủ. Gemini của Google sẽ hỗ trợ 9 ngôn ngữ tại Ấn Độ, bắt đầu với tiếng Hindi. Google Pay mở rộng đối tác cho vay, bao gồm cả vay thế chấp vàng qua Muthoot Finance.
https://www.theregister.com/2024/10/04/google_assists_to_export_indias/
• China Telecom, nhà mạng nhà nước Trung Quốc, đã công bố việc phát triển 2 mô hình ngôn ngữ lớn (LLM) được huấn luyện hoàn toàn trên chip sản xuất trong nước.
• Mô hình đầu tiên là TeleChat2-115B, mô hình nguồn mở với hơn 100 tỷ tham số.
• Mô hình thứ hai chưa được đặt tên, được cho là có 1 nghìn tỷ tham số.
• Cả hai mô hình được huấn luyện bằng hàng chục nghìn chip sản xuất tại Trung Quốc.
• China Telecom tuyên bố rằng điều này "cho thấy Trung Quốc đã thực sự đạt được sự tự chủ hoàn toàn trong việc huấn luyện LLM trong nước".
• Động thái này là một thách thức đối với các quy định hạn chế xuất khẩu nghiêm ngặt của Mỹ, ngăn chặn việc tiếp cận các GPU cao cấp như Nvidia H100 và A100.
• Mặc dù China Telecom không chỉ rõ nhà cung cấp chip, nhưng có khả năng Huawei đã cung cấp phần lớn, nếu không muốn nói là tất cả.
• Huawei đang định vị mình như một giải pháp thay thế trong nước cho Nvidia.
• China Telecom trước đây đã tiết lộ rằng họ đang phát triển công nghệ LLM sử dụng chip Ascend do Huawei phát triển.
• Huawei gần đây đã bắt đầu gửi mẫu bộ xử lý Ascend 910C mới cho các công ty máy chủ và viễn thông Trung Quốc để thử nghiệm.
• Nhiều công ty Trung Quốc, bao gồm ByteDance và Alibaba, đang chuyển sang sử dụng chip của Huawei để đáp ứng nhu cầu AI.
• ByteDance, chủ sở hữu của TikTok, được cho là đã đặt hàng 100.000 bộ xử lý Ascend.
• China Telecom cũng đang khám phá phần cứng từ Cambricon, một startup chip AI địa phương, để đa dạng hóa nguồn cung chip.
• Mặc dù có thị trường chợ đen sôi động cho GPU cao cấp của Nvidia tại Trung Quốc, nhiều công ty vẫn tuân thủ quy định và sử dụng GPU được phép có thông số kỹ thuật thấp hơn như Nvidia H20.
• Các công ty này muốn tránh rủi ro pháp lý và danh tiếng, đồng thời duy trì quyền truy cập vào hỗ trợ của Nvidia.
📌 China Telecom đã đạt được bước tiến quan trọng trong việc phát triển LLM tự chủ, với hai mô hình có 100 tỷ và 1 nghìn tỷ tham số được huấn luyện trên chip nội địa. Điều này thể hiện sự thách thức của Trung Quốc đối với lệnh cấm của Mỹ và sự trỗi dậy của Huawei như một đối thủ cạnh tranh tiềm năng của Nvidia trong lĩnh vực AI.
https://www.techradar.com/pro/one-of-the-worlds-largest-mobile-networks-will-train-its-trillion-parameter-strong-llm-on-huaweis-ai-chips-as-nvidia-amd-are-sidelined
• Lần đầu tiên trong lịch sử, AI được đề cập trong cuộc tranh luận tổng thống Mỹ khi Phó Tổng thống Kamala Harris nêu vấn đề này trong cuộc tranh luận với Donald Trump vào ngày 10/9.
• Cả Harris và Trump đều ủng hộ sự đổi mới trong AI và muốn Mỹ dẫn đầu trong lĩnh vực này. Tuy nhiên, Harris đã thẳng thắn hơn về những rủi ro của AI đối với cá nhân.
• Trump đã ban hành hai sắc lệnh hành pháp liên quan đến AI trong nhiệm kỳ của mình, tập trung vào duy trì vị thế dẫn đầu của Mỹ và đề ra nguyên tắc sử dụng AI trong chính phủ.
• Sắc lệnh của chính quyền Biden-Harris vào tháng 10/2023 đã đi sâu hơn vào việc xác định các mối nguy hiểm tiềm ẩn của AI đối với quyền riêng tư và người tiêu dùng.
• Harris đã dẫn đầu phái đoàn Mỹ tại hội nghị thượng đỉnh an toàn AI toàn cầu đầu tiên ở Anh vào tháng 11/2023, nơi bà công bố việc thành lập Viện An toàn AI Hoa Kỳ.
• Cương lĩnh của đảng Dân chủ năm 2024 ghi nhận "tiềm năng phi thường cho cả lời hứa và nguy hiểm" của AI, so sánh các ứng dụng như dự báo thời tiết với việc nhân bản giọng nói và gian lận.
• Trump và ứng cử viên phó tổng thống J.D. Vance đã bày tỏ lo ngại về "thiên kiến chính trị điên rồ" chống lại chủ nghĩa bảo thủ trong các mô hình AI như ChatGPT và Gemini của Google.
• Cương lĩnh của đảng Cộng hòa cho rằng sự phát triển AI nên "bắt nguồn từ Tự do Ngôn luận và Sự phát triển của Con người". Họ cũng cáo buộc sắc lệnh hành pháp của Biden-Harris là "nguy hiểm" vì "cản trở sự đổi mới AI".
• Harris cam kết không sử dụng hình ảnh hoặc văn bản do AI tạo ra trong tài liệu vận động tranh cử. Ngược lại, Trump đã chia sẻ nội dung do AI tạo ra trên các nền tảng mạng xã hội.
• Khoảng 15% học sinh trung học Mỹ cho biết họ đã nghe nói về một deepfake khiêu dâm liên quan đến một người có liên quan đến trường học của họ.
📌 Cuộc bầu cử tổng thống Mỹ 2024 sẽ quyết định tương lai của AI. Harris tập trung vào rủi ro và bảo vệ người dân, trong khi Trump ưu tiên đổi mới. Khoảng 15% học sinh trung học Mỹ đã nghe về deepfake khiêu dâm liên quan đến trường học, cho thấy tác động rộng rãi của AI.
https://www.scientificamerican.com/article/how-the-2024-election-will-shape-the-future-of-ai/
• Phát triển AI có chủ quyền đã trở thành vấn đề quan trọng đối với nhiều quốc gia nhằm bảo vệ chủ quyền số của họ.
• Một quốc gia cần độc lập phát triển và kiểm soát công nghệ và cơ sở hạ tầng AI để tránh phụ thuộc vào công nghệ nước ngoài.
• Đài Loan cần thận trọng và phát triển AI có chủ quyền riêng để đảm bảo an ninh quốc gia và tự chủ công nghệ trước sự trỗi dậy của năng lực AI của Trung Quốc.
• Sử dụng phiên bản tiếng Trung của ChatGPT tại Đài Loan gặp một số vấn đề do chỉ một phần nhỏ dữ liệu huấn luyện đến từ Đài Loan.
• Giọng điệu, thuật ngữ và nền tảng văn hóa của mô hình AI tiếng Trung của ChatGPT giống với ngôn ngữ sử dụng ở Trung Quốc hơn.
• Ví dụ: ChatGPT sử dụng từ "jingyi" (精益) của Trung Quốc thay vì "jingshi" (精實) của Đài Loan để chỉ "tinh gọn".
• Những khác biệt tinh tế này có thể dần ảnh hưởng đến ngôn ngữ nói ở Đài Loan, từ đó định hình quan điểm và sở thích văn hóa của người dân.
• Trung Quốc đã phát triển AI riêng trong những năm gần đây, ra mắt các mô hình ngôn ngữ lớn như Ernie Bot (文心一言).
• Nếu người Đài Loan sử dụng rộng rãi các sản phẩm như vậy, Trung Quốc có thể định hình lối suy nghĩ và ảnh hưởng đến xã hội, văn hóa và giá trị của Đài Loan.
• Để bảo vệ chủ quyền số, Đài Loan phải bắt đầu phát triển công nghệ và cơ sở hạ tầng AI riêng.
• Công cụ Đối thoại AI Đáng tin cậy (TAIDE) do Hội đồng Khoa học và Công nghệ Quốc gia dẫn đầu là một khởi đầu quan trọng.
• TAIDE được huấn luyện bằng dữ liệu ngôn ngữ tiếng Trung phồn thể, mang lại lợi thế ngôn ngữ địa phương khi xử lý các cuộc hội thoại bằng tiếng Trung phồn thể.
• Tuy nhiên, TAIDE vẫn còn thiếu sót về dữ liệu huấn luyện mô hình và quy mô. Cần thêm dữ liệu bản địa để cải thiện khả năng hiểu và giao tiếp.
• Nhiều quốc gia đang phát triển AI có chủ quyền riêng, bao gồm Pháp với Mistral AI và Anh với BritGPT.
• Singapore đang hợp tác với Nvidia Corp để phát triển mô hình SEA-LION LLM dành riêng cho ngôn ngữ và văn hóa Đông Nam Á.
• Vai trò của chính phủ rất quan trọng trong việc dẫn dắt sự phát triển AI thông qua số hóa dịch vụ công.
• Dự án Pair của Singapore sử dụng AI tạo sinh để giảm khối lượng công việc của công chức và đảm bảo an ninh dữ liệu là một ví dụ thành công mà Đài Loan có thể học hỏi.
• Đài Loan nên mạnh dạn thử nghiệm và triển khai công nghệ AI để cải thiện hiệu quả dịch vụ công và hỗ trợ phát triển TAIDE.
📌 Đài Loan cần gấp rút phát triển AI có chủ quyền để bảo vệ chủ quyền số, văn hóa và an ninh quốc gia. TAIDE là bước đi quan trọng nhưng cần được cải thiện. Chính phủ đóng vai trò then chốt trong việc thúc đẩy phát triển AI thông qua số hóa dịch vụ công, học hỏi từ các quốc gia khác như Singapore.
https://www.taipeitimes.com/News/editorials/archives/2024/10/06/2003824840
• Theo báo cáo mới của Google, AI tạo sinh có thể đóng góp từ 1,2 đến 1,4 nghìn tỷ euro vào GDP của EU trong vòng một thập kỷ, tương đương 8% tăng trưởng mỗi năm.
• Báo cáo ước tính 61% công việc sẽ được tăng cường bởi AI tạo sinh, mang lại lợi ích năng suất trị giá 1,1 nghìn tỷ euro. Khoảng 7% công việc sẽ được tự động hóa hoàn toàn.
• 74% người lao động ở các nước châu Âu đã báo cáo cải thiện năng suất nhờ AI tạo sinh.
• EU đang tụt hậu về đổi mới công nghệ so với phần còn lại của thế giới. GDP của EU chỉ cao hơn Mỹ 280 tỷ USD vào năm 2009, nhưng khoảng cách đã nới rộng lên 9 nghìn tỷ USD vào năm 2023.
• Các công ty EU chi tiêu ít hơn 270 tỷ euro so với các công ty tương đương của Mỹ về nghiên cứu và đổi mới vào năm 2021.
• Chỉ có 4 trong số 50 công ty công nghệ hàng đầu thế giới là của châu Âu. Mỹ thống trị trong lĩnh vực AI, điện toán đám mây và lượng tử.
• EU duy trì khoảng cách năng suất 20% so với Mỹ kể từ năm 2010 và chỉ chi 2% GDP cho nghiên cứu, so với 3% của Mỹ và trên 5% của Hàn Quốc và Israel.
• Chỉ 34% doanh nghiệp EU sử dụng công nghệ điện toán đám mây vào năm 2022, thấp hơn nhiều so với mục tiêu 75% vào năm 2030 của Ủy ban châu Âu.
• Châu Âu chỉ nộp 2% số bằng sáng chế AI toàn cầu vào năm 2022, trong khi Trung Quốc và Mỹ lần lượt nộp 61% và 21%.
• Google đổ lỗi cho các quy định quá mức của EU về sự thiếu cạnh tranh về công nghệ của khu vực này.
• Kể từ năm 2019, EU đã đưa ra hơn 100 đạo luật ảnh hưởng đến nền kinh tế và xã hội số.
• Các công ty công nghệ lớn như Meta và Apple đã trì hoãn hoặc không ra mắt các sản phẩm AI mới nhất tại EU do quy định không chắc chắn.
• Đạo luật AI của EU có hiệu lực từ ngày 1/8, áp đặt các yêu cầu nghiêm ngặt đối với các hệ thống AI rủi ro cao để đảm bảo an toàn, minh bạch và sử dụng có đạo đức.
• Hơn 100 công ty, bao gồm Amazon, Google, Microsoft và OpenAI, đã ký Hiệp ước AI của EU và tự nguyện bắt đầu thực hiện các yêu cầu của Đạo luật trước thời hạn pháp lý.
📌 EU đang đối mặt với nguy cơ tụt hậu trong cuộc đua AI toàn cầu do quy định quá mức. Báo cáo của Google cho thấy AI tạo sinh có thể thúc đẩy GDP của EU thêm 1,4 nghìn tỷ euro vào năm 2034, nhưng khu vực này cần nới lỏng quy định để thúc đẩy đổi mới và duy trì tính cạnh tranh.
https://www.techrepublic.com/article/generative-ai-eu-economy-google/
• Năm ngoái, Bộ Tài chính Mỹ đề xuất quy định tăng cường công bố thông tin tiền điện tử. Cộng đồng "LexPunk Army" đã tạo ra một bot AI cho phép mọi người dễ dàng gửi ý kiến phản hồi về quy định này. Kết quả là có tới 120.000 ý kiến được gửi đến, so với con số trung bình chỉ 3 ý kiến cho một quy định mới.
• Thế giới đang trải qua biến động địa chính trị và suy giảm pháp quyền, làm tăng rủi ro pháp lý cho các công ty. Theo một khảo sát năm 2022, 99% luật sư nội bộ cho biết họ đang phải đối mặt với khối lượng vấn đề pháp lý lớn hơn và phức tạp hơn đáng kể.
• AI tạo sinh đang làm giảm đáng kể chi phí pháp lý. Các mô hình ngôn ngữ lớn (LLM) có thể nhanh chóng tạo ra tổng quan ngắn gọn, dễ hiểu về các đề xuất pháp lý và soạn thảo ý kiến phản hồi trong vài phút, thay vì mất hàng giờ và hàng nghìn đô la cho luật sư.
• Công nghệ này có thể bị lợi dụng để tạo ra hàng trăm vụ kiện về vi phạm bản quyền, sở hữu trí tuệ hoặc đánh cắp bí mật thương mại chống lại một công ty. Khách hàng cũng có thể dễ dàng nộp đơn khiếu nại chỉ với vài cú nhấp chuột.
• Rủi ro pháp lý trong tương lai sẽ giống như các cuộc tấn công lừa đảo trên internet: ít mang tính cá nhân hơn, được sản xuất hàng loạt và do nhiều tác nhân khởi xướng. Khi được phối hợp, chúng sẽ giống như các cuộc tấn công từ chối dịch vụ phân tán (DDoS).
• Các công ty cần học hỏi từ cách tiếp cận an ninh mạng để chuẩn bị cho thực tế mới này. Họ cần nhanh chóng hành động để hiểu rõ hơn về các lỗ hổng, mối đe dọa mới nổi và tác động tiềm tàng, các hành động giảm thiểu rủi ro, và chiến lược truyền thông với các bên liên quan.
• Các bước chuẩn bị bao gồm: thiết lập chiến lược cốt lõi, kết nối chiến lược doanh nghiệp với đội ngũ pháp lý, giám sát tình hình thế giới, xác định nhóm ứng phó và xây dựng hệ thống quy trình ứng phó rủi ro, tìm kiếm đối tác bên ngoài để hợp tác.
📌 AI tạo sinh đang làm thay đổi cục diện kiện tụng pháp lý, giúp giảm chi phí và tăng số lượng vụ kiện. Các công ty cần chuẩn bị đối phó bằng cách học hỏi từ an ninh mạng, hiểu rõ lỗ hổng, xây dựng chiến lược ứng phó và hợp tác với đối tác bên ngoài để bảo vệ mình trước làn sóng kiện tụng mới.
https://hbr.org/2024/10/gen-ai-makes-legal-action-cheap-and-companies-need-to-prepare
#HBR
• Accenture thành lập nhóm kinh doanh Nvidia với 30.000 chuyên gia để đẩy mạnh việc áp dụng AI trong doanh nghiệp.
• Mục tiêu là đào tạo đội ngũ Accenture giúp khách hàng tái cấu trúc quy trình và mở rộng quy mô sử dụng AI doanh nghiệp với các agent AI.
• Accenture đang tận dụng lực lượng lao động hiện có, đồng thời đào tạo nhân viên và tuyển dụng mới để đạt mục tiêu 30.000 người cho nhóm mới.
• Nhu cầu về AI tạo sinh đang tăng mạnh. Accenture đã ghi nhận 3 tỷ USD doanh thu từ AI tạo sinh trong năm tài chính vừa qua.
• Nhóm mới sẽ giúp khách hàng xây dựng nền tảng cho chức năng AI agent sử dụng Accenture AI Refinery, tích hợp toàn bộ stack AI của Nvidia.
• Accenture AI Refinery sẽ có sẵn trên tất cả nền tảng đám mây công cộng và riêng tư, tích hợp liền mạch với các nhóm kinh doanh khác của Accenture.
• Hệ thống AI agent đại diện cho bước tiến mới của AI tạo sinh, có thể hành động dựa trên ý định của người dùng, tạo quy trình làm việc mới và thực hiện các hành động phù hợp.
• Accenture và Nvidia đang giúp khách hàng áp dụng và mở rộng quy mô hệ thống AI agent. Ví dụ, họ đang hợp tác với Indosat Group để xây dựng AI chủ quyền đầu tiên tại Indonesia.
• Accenture sẽ ra mắt Nvidia NIM Agent Blueprint mới để mô phỏng đội robot trong cơ sở ảo, tích hợp phần mềm Nvidia Omniverse, Isaac và Metropolis.
• Accenture đang giới thiệu mạng lưới các trung tâm với kỹ năng kỹ thuật chuyên sâu để sử dụng hệ thống AI agent chuyển đổi hoạt động quy mô lớn.
• Các trung tâm này sẽ tập trung vào việc lựa chọn, tinh chỉnh và suy luận quy mô lớn các mô hình nền tảng.
• Accenture đang thêm các Trung tâm Kỹ thuật AI Refinery ở Singapore, Tokyo, Malaga và London.
• Bộ phận marketing của Accenture đang tích hợp nền tảng AI Refinery với các agent tự chủ để tạo và chạy các chiến dịch thông minh hơn, nhanh hơn.
📌 Accenture thành lập nhóm 30.000 chuyên gia AI hợp tác với Nvidia, nhằm đẩy mạnh ứng dụng AI trong doanh nghiệp. Dự kiến giúp giảm 25-35% các bước thủ công, tiết kiệm 6% chi phí và tăng 25-55% tốc độ ra thị trường cho khách hàng. Đây là bước đi chiến lược để thống lĩnh thị trường AI doanh nghiệp đang bùng nổ.
https://venturebeat.com/ai/accenture-forms-nvidia-business-group-to-scale-enterprise-ai-adoption/
• Chính phủ Ấn Độ đã công bố BharatGen, sáng kiến đầu tiên do chính phủ tài trợ để phát triển các mô hình ngôn ngữ lớn (LLM) đa phương thức, với mục tiêu "GenAI cho Bharat, bởi Bharat".
• Dự án được khai trương vào ngày 30/09/2024 bởi Bộ trưởng Liên bang Dr. Jitendra Singh, nhằm cách mạng hóa việc cung cấp dịch vụ công và tăng cường sự tham gia của người dân thông qua AI.
• BharatGen do IIT Bombay dẫn đầu trong khuôn khổ Nhiệm vụ Quốc gia về Hệ thống Liên ngành Cyber-Physical (NM-ICPS) của Bộ Khoa học và Công nghệ (DST).
• Dự án được thực hiện bởi TIH Foundation for IoT and IOE tại IIT Bombay, hợp tác với nhiều tổ chức học thuật hàng đầu như IIT Bombay, IIIT Hyderabad, IIT Mandi, IIT Kanpur, IIT Hyderabad, IIM Indore và IIT Madras.
• BharatGen tập trung vào việc tạo ra các mô hình AI phù hợp với ngôn ngữ và bối cảnh văn hóa đa dạng của Ấn Độ.
• Dự án có 4 đặc điểm chính: mô hình nền tảng đa ngôn ngữ và đa phương thức, sử dụng bộ dữ liệu đặc thù của Ấn Độ, nền tảng nguồn mở và tạo ra hệ sinh thái nghiên cứu AI tạo sinh trên toàn quốc.
• BharatGen dự kiến sẽ hoàn thành vào năm 2026, mang lại lợi ích cho các tổ chức chính phủ, tư nhân và học thuật, thúc đẩy nghiên cứu và đổi mới AI trong nước.
• Dự án hỗ trợ cả văn bản và giọng nói, bao quát sự đa dạng ngôn ngữ rộng lớn của Ấn Độ. Các bộ dữ liệu đa ngôn ngữ sẽ nắm bắt được sự phức tạp của các ngôn ngữ Ấn Độ, thường bị bỏ qua trong các mô hình AI toàn cầu.
• Khác với các mô hình phụ thuộc vào bộ dữ liệu quốc tế, BharatGen tập trung vào việc thu thập và quản lý dữ liệu đặc thù của Ấn Độ, đảm bảo đại diện chính xác cho ngôn ngữ, phương ngữ và bối cảnh văn hóa của đất nước.
• Lộ trình của BharatGen bao gồm phát triển mô hình AI mở rộng, thử nghiệm và mở rộng việc áp dụng AI trong các ngành công nghiệp. Sáng kiến này cũng nhằm mục đích dân chủ hóa quyền truy cập AI, trao quyền cho các startup và nhà nghiên cứu phát triển ứng dụng một cách hiệu quả.
📌 BharatGen là sáng kiến AI đa phương thức đầu tiên của chính phủ Ấn Độ, dự kiến hoàn thành vào năm 2026. Dự án tập trung vào việc tạo ra các mô hình AI phù hợp với 1,4 tỷ dân Ấn Độ, sử dụng bộ dữ liệu đặc thù và nền tảng nguồn mở để thúc đẩy nghiên cứu AI trong nước.
https://analyticsindiamag.com/ai-news-updates/government-of-india-launches-bharatgen-first-government-funded-multimodal-ai-initiative/
• Thống đốc California Gavin Newsom đã phủ quyết dự luật SB 1047, một trong những nỗ lực tham vọng nhất nhằm quản lý ngành công nghiệp AI tạo sinh.
• SB 1047 sẽ yêu cầu các nhà phát triển nộp kế hoạch an toàn cho tổng chưởng lý tiểu bang, người có thể buộc họ chịu trách nhiệm nếu các mô hình AI gây hại hoặc đe dọa trực tiếp đến an toàn công cộng.
• Thượng nghị sĩ Scott Wiener, người đề xuất dự luật, cho rằng các mối đe dọa như tấn công lưới điện hay chế tạo vũ khí hóa học có thể trở nên dễ dàng hơn với AI.
• Trong thông điệp phủ quyết, Newsom chỉ trích SB 1047 chỉ tập trung vào các mô hình quy mô lớn và đắt đỏ nhất, có thể tạo ra cảm giác an toàn giả tạo về việc kiểm soát công nghệ này.
• Wiener đã sửa đổi dự luật theo lời khuyên từ các chuyên gia AI, bao gồm loại bỏ quyền kiện các công ty AI trước khi xảy ra sự cố thảm khốc và kế hoạch thành lập bộ phận giám sát trong Bộ Công nghệ California.
• Các nhà phê bình cho rằng dự luật đã bị "pha loãng" đáng kể so với bản gốc.
• Trong thời gian xem xét, văn phòng thống đốc đã bị vận động mạnh mẽ bởi các bên liên quan trong ngành công nghiệp.
• Một số chuyên gia cho rằng quyết định phủ quyết có thể do thiếu hiểu biết kỹ thuật và e ngại tác động tiêu cực đến ngành công nghiệp AI.
• Wiener cho biết văn phòng thống đốc không trao đổi với ông khi dự luật đang được thông qua Quốc hội tiểu bang.
• Dân biểu Zoe Lofgren ủng hộ việc xử lý vấn đề này ở cấp liên bang, nhưng các dự luật tương tự vẫn chưa được thông qua ở Quốc hội Mỹ.
• California đã thông qua 17 dự luật khác liên quan đến AI trong năm nay, tập trung vào các vấn đề cụ thể.
• Một số nhà phân tích cho rằng cấp tiểu bang là hy vọng duy nhất để có quy định mạnh mẽ về công nghệ, do tình trạng trì trệ ở Washington.
• Có ý kiến cho rằng quyết định của Newsom có thể bị ảnh hưởng bởi tham vọng chính trị và mong muốn không làm mất lòng các ông lớn công nghệ.
• Các nhà phê bình ngành công nghiệp cho rằng các công ty lớn ở Thung lũng Silicon đã trở nên quá giàu có và quyền lực, khiến ít chính trị gia Mỹ dám đối đầu với họ.
📌 Quyết định phủ quyết SB 1047 của Thống đốc Newsom đánh dấu bước lùi trong nỗ lực quản lý AI ở California. Dù 17 dự luật khác được thông qua, việc từ chối dự luật toàn diện này cho thấy sức ảnh hưởng lớn của các công ty công nghệ và thách thức trong việc cân bằng giữa đổi mới và an toàn trong lĩnh vực AI.
https://www.kqed.org/news/12007087/california-blinks-governor-newsom-vetoes-ai-bill-aimed-at-catastrophic-harms
• Ủy ban châu Âu đã công bố danh sách 13 chuyên gia độc lập từ EU, Mỹ và Canada để dẫn dắt việc soạn thảo Bộ quy tắc thực hành về AI đa năng, bao gồm các mô hình ngôn ngữ như ChatGPT và Google Gemini.
• Các chuyên gia sẽ lãnh đạo 4 nhóm công việc khác nhau để hoàn thành Bộ quy tắc theo Đạo luật AI vào tháng 4/2025.
• Đạo luật AI của EU có hiệu lực từ tháng trước, đưa ra các quy tắc nghiêm ngặt cho nhà cung cấp mô hình AI đa năng, sẽ có hiệu lực vào tháng 8/2025.
• Theo quy định, Văn phòng AI - một đơn vị thuộc Ủy ban - được khuyến khích soạn thảo Bộ quy tắc để giúp các công ty dễ dàng áp dụng quy tắc của Đạo luật AI, bao gồm quy định về minh bạch và bản quyền, phân loại rủi ro hệ thống, đánh giá rủi ro và biện pháp giảm thiểu.
• Các chuyên gia được chọn bao gồm Rishi Bommasani (Mỹ), Trưởng nhóm Xã hội tại Trung tâm Nghiên cứu Mô hình Stanford; Marietje Schaake (Hà Lan), cựu nghị sĩ Châu Âu, hiện là thành viên của Trung tâm Chính sách Mạng Stanford và Viện AI lấy con người làm trung tâm; Yoshua Bengio (Canada), người nổi tiếng với công trình về học sâu và đã nhận Giải thưởng A.M. Turing 2018.
• Khoảng 1.000 người tham dự, bao gồm nhà cung cấp mô hình AI đa năng, nhà cung cấp hạ nguồn, ngành công nghiệp, xã hội dân sự, học viện và chuyên gia độc lập, sẽ tham gia phiên họp trực tuyến đầu tiên để giúp phát triển Bộ quy tắc.
• Tuần trước, 3 nghị sĩ EU đã gửi câu hỏi bằng văn bản cho Ủy ban yêu cầu làm rõ về quy trình bổ nhiệm. Họ muốn biết cách Ủy ban chọn chủ tọa và làm thế nào để đưa ra Bộ quy tắc cuối cùng phù hợp trong thời gian ngắn. Ủy ban vẫn chưa đưa ra câu trả lời cho những câu hỏi này.
📌 Ủy ban châu Âu đã chọn 13 chuyên gia quốc tế để soạn thảo Bộ quy tắc AI đa năng, dự kiến hoàn thành vào tháng 8/2025. Bộ quy tắc nhằm làm rõ các quy định của Đạo luật AI cho nhà cung cấp, bao gồm minh bạch, bản quyền, đánh giá và giảm thiểu rủi ro.
https://www.euronews.com/next/2024/09/30/european-commission-appoints-13-experts-to-draft-ai-code
SEO contents:
• Thống đốc California Gavin Newsom đã ký 2 dự luật mới nhằm bảo vệ trẻ em khỏi việc lạm dụng công nghệ AI để tạo ra hình ảnh khiêu dâm trẻ em.
• Các luật mới này là một phần trong nỗ lực của California nhằm tăng cường quy định đối với ngành công nghiệp AI, vốn đang ngày càng ảnh hưởng đến cuộc sống hàng ngày của người Mỹ nhưng lại có rất ít hoặc không có sự giám sát.
• Luật mới sẽ đóng lỗ hổng pháp lý liên quan đến hình ảnh lạm dụng tình dục trẻ em được tạo ra bởi AI và làm rõ rằng nội dung khiêu dâm trẻ em là bất hợp pháp ngay cả khi được tạo ra bởi AI.
• Theo luật hiện hành, các công tố viên không thể truy tố những người sở hữu hoặc phân phối hình ảnh lạm dụng tình dục trẻ em được tạo bởi AI nếu họ không thể chứng minh các tài liệu đó mô tả một người thật. Với luật mới, hành vi này sẽ bị coi là trọng tội.
• Newsom cũng đã ký 2 dự luật khác để tăng cường luật về "revenge porn" nhằm bảo vệ phụ nữ, trẻ em gái và những người khác khỏi bị bóc lột và quấy rối tình dục thông qua các công cụ AI.
• Theo luật mới, việc người lớn tạo ra hoặc chia sẻ deepfake khiêu dâm được tạo bởi AI mà không có sự đồng ý của người trong ảnh sẽ là bất hợp pháp. Các nền tảng mạng xã hội cũng phải cho phép người dùng báo cáo những nội dung như vậy để xóa bỏ.
• Tuy nhiên, một số chuyên gia cho rằng các luật mới vẫn chưa đủ mạnh. Ví dụ, George Gascón, Công tố viên quận Los Angeles, cho rằng hình phạt mới đối với việc chia sẻ "revenge porn" được tạo bởi AI nên áp dụng cả cho người dưới 18 tuổi.
• Các luật mới được thông qua sau khi San Francisco đệ đơn kiện đầu tiên trên toàn quốc chống lại hơn một chục trang web cung cấp công cụ AI với lời hứa "cởi đồ bất kỳ bức ảnh nào" được tải lên trang web trong vài giây.
• Vấn đề deepfake không phải là mới, nhưng các chuyên gia cho biết nó đang trở nên tồi tệ hơn khi công nghệ để tạo ra nó ngày càng dễ tiếp cận và dễ sử dụng hơn.
• Gần 30 tiểu bang đã có hành động nhanh chóng và được sự ủng hộ của cả hai đảng để giải quyết vấn nạn lan tràn các tài liệu lạm dụng tình dục được tạo ra bởi AI.
• California được coi là tiểu bang tiên phong trong việc áp dụng cũng như quản lý công nghệ AI. Newsom cho biết tiểu bang có thể sớm triển khai các công cụ AI tạo sinh để giải quyết tình trạng tắc nghẽn giao thông và cung cấp hướng dẫn về thuế.
📌 California đi đầu trong việc ban hành luật bảo vệ trẻ em khỏi nội dung khiêu dâm deepfake tạo bởi AI. 2 dự luật mới được ký, coi việc sở hữu và phân phối hình ảnh lạm dụng tình dục trẻ em tạo bởi AI là trọng tội. Gần 30 tiểu bang khác cũng đang có hành động tương tự để đối phó với vấn nạn này.
https://fortune.com/2024/09/30/california-governor-newsom-2-bills-children-ai-deepfake-sexual-images/
• Thống đốc California Gavin Newsom đã phủ quyết dự luật SB 1047, một dự luật gây tranh cãi nhằm quy định việc phát triển AI.
• Dự luật do Thượng nghị sĩ Scott Wiener soạn thảo, sẽ buộc các công ty phát triển mô hình AI phải thực hiện các giao thức an toàn để ngăn chặn "tác hại nghiêm trọng".
• Các quy tắc chỉ áp dụng cho các mô hình có chi phí ít nhất 100 triệu USD và sử dụng 10^26 FLOPS trong quá trình đào tạo.
• Nhiều công ty công nghệ ở Thung lũng Silicon phản đối dự luật, bao gồm OpenAI, các chuyên gia công nghệ như Yann LeCun của Meta, và cả các chính trị gia Đảng Dân chủ như Dân biểu Ro Khanna.
• Dự luật đã được sửa đổi dựa trên đề xuất của công ty AI Anthropic và các đối thủ khác.
• Trong tuyên bố về việc phủ quyết, Newsom cho rằng dự luật áp đặt các tiêu chuẩn nghiêm ngặt cho cả những chức năng cơ bản nhất, miễn là một hệ thống lớn triển khai nó.
• Dân biểu Nancy Pelosi cũng chỉ trích dự luật là "có ý định tốt nhưng thiếu hiểu biết" và khen ngợi quyết định của Newsom.
• Văn phòng của Newsom cho biết ông đã ký 18 dự luật liên quan đến quy định và triển khai công nghệ AI trong 30 ngày qua.
• Newsom đã yêu cầu các chuyên gia như Fei-Fei Li, Tino Cuéllar và Jennifer Tour Chayes giúp California phát triển các biện pháp bảo vệ khả thi cho việc triển khai AI tạo sinh.
• Scott Wiener gọi việc phủ quyết là "một bước lùi" nhưng cho rằng cuộc tranh luận xung quanh dự luật đã thúc đẩy vấn đề an toàn AI trên trường quốc tế.
• Quyết định phủ quyết của Newsom được nhiều công ty công nghệ và chính trị gia ủng hộ, trong khi những người ủng hộ dự luật cho rằng đây là một cơ hội bị bỏ lỡ để quy định AI.
📌 Thống đốc California Gavin Newsom phủ quyết dự luật AI gây tranh cãi SB 1047, cho rằng nó áp đặt các tiêu chuẩn quá nghiêm ngặt. Quyết định được nhiều công ty công nghệ ủng hộ nhưng bị chỉ trích là bỏ lỡ cơ hội quy định AI. Newsom đã ký 18 dự luật liên quan đến AI trong 30 ngày qua.
https://techcrunch.com/2024/09/29/gov-newsom-vetoes-californias-controversial-ai-bill-sb-1047/
• FTC đã khởi động chiến dịch thực thi pháp luật mới có tên Operation AI Comply, nhằm xử lý các công ty sử dụng công nghệ AI để lừa dối hoặc gian lận người tiêu dùng Mỹ.
• 5 công ty bị FTC khởi kiện gồm DoNotPay, Ascend Ecom, Ecommerce Empire Builders, FBA Machine và Rytr. Họ bị cáo buộc sử dụng "các công cụ AI để lừa gạt, đánh lừa hoặc gian lận mọi người".
• FTC khẳng định rõ AI không được miễn trừ khỏi các luật hiện hành và sẽ không dung thứ cho "các hành vi không công bằng hoặc lừa dối" trong thị trường này.
• 4/5 vụ kiện được thông qua với quyết định nhất trí. Riêng vụ Rytr được thông qua với tỷ lệ 3-2, với 2 ủy viên bỏ phiếu chống.
• Tác giả cho rằng đã đến lúc cần có hành động như vậy. Ông hiểu rõ về machine learning và AI, nhưng ghét cách AI được thêm vào mọi thứ một cách bất cẩn và gây hại thực sự.
• 5 vụ kiện này cho thấy tại sao AI có thể gây hại. AI không thể thay thế luật sư thật, và những tuyên bố ngược lại là dối trá. Những người tin vào điều đó đã không được đại diện đúng đắn trước tòa.
• AI cũng không thể xây dựng cửa hàng online kiếm hàng triệu đô. Điều đó đòi hỏi nỗ lực và ý tưởng tuyệt vời. AI có thể viết đánh giá giả nhưng điều đó là bất hợp pháp.
• Tác giả cho rằng cần có các quy định liên bang về AI mang tính thường thức, bảo vệ người tiêu dùng mà không cản trở đổi mới chân chính. Tuy nhiên, ông nghi ngờ điều này có thể xảy ra trong bối cảnh chia rẽ chính trị hiện nay.
• Trong khi chờ đợi, việc sử dụng luật hiện hành để bảo vệ người tiêu dùng khỏi gian lận là một kế hoạch tốt. Các hành vi kinh doanh lừa đảo không trở nên ít lừa đảo hơn chỉ vì AI viết trang web mô tả chúng.
📌 FTC khởi động chiến dịch Operation AI Comply nhắm vào 5 công ty lừa đảo bằng AI. Đây là bước đi cần thiết để bảo vệ người tiêu dùng, nhưng cần có thêm quy định chặt chẽ hơn về AI. Các luật hiện hành vẫn có thể được áp dụng để xử lý gian lận liên quan đến AI.
https://www.androidcentral.com/apps-software/ftc-fight-against-ai-scammers-why-it-matters
• Chính phủ Ấn Độ đã giảm ngưỡng doanh thu cho các công ty muốn đấu thầu GPU từ 100 crore rupee xuống còn 50 crore rupee (khoảng 6 triệu USD).
• Thay đổi này nhằm đáp ứng yêu cầu của ngành công nghiệp, cho phép cả doanh nghiệp nhỏ tham gia vào gói thầu GPU trị giá 10.000 crore rupee (khoảng 1,2 tỷ USD).
• Theo quy định mới, nhà thầu hoặc đối tác chính phải có doanh thu trung bình hàng năm trên 50 crore rupee trong 3 năm tài chính gần nhất.
• Tarun Dua, CEO của E2E Networks, hoan nghênh sự thay đổi này vì giúp công ty có thể tham gia trực tiếp mà không cần liên danh.
• Sunil Gupta, CEO của Yotta Data Services, cho rằng việc hạ ngưỡng doanh thu và tăng tính linh hoạt sẽ giúp nhiều startup trong lĩnh vực dịch vụ AI dễ dàng tham gia hơn.
• Nhà thầu giờ đây có thể nộp đơn đặt hàng GPU sau 3 tháng trúng thầu, thay vì phải có sẵn khi nộp hồ sơ. Tuy nhiên, cần nộp bảo lãnh ngân hàng 50-100 crore rupee.
• Một số chuyên gia cho rằng yêu cầu bảo lãnh ngân hàng vẫn khó khăn cho các công ty nhỏ, chỉ phù hợp với doanh nghiệp lớn.
• Chính phủ sẽ trao điểm thưởng cho các công ty đã đầu tư sớm vào cơ sở hạ tầng GPU, với 1 điểm cho mỗi 20 đơn vị tính toán AI trên 50, tối đa 15 điểm.
• Các nhà thầu phải tuân thủ hướng dẫn "Make in India" của Bộ Thương mại và Công nghiệp.
• Yêu cầu mới về hiệu quả sử dụng năng lượng (PUE) không quá 1,35 cho các trung tâm dữ liệu cung cấp dịch vụ AI đám mây.
• Nhiều công ty công nghệ lớn như Nvidia, Intel, Microsoft Azure, Amazon Web Services, Google Cloud đã thể hiện sự quan tâm đến gói thầu này.
• Thị trường GPU trong nước được đánh giá là rất tiềm năng nhờ sự bùng nổ của ngành AI.
• Hạn chót nộp hồ sơ dự thầu đã được gia hạn đến ngày 16/10/2024.
📌 Chính phủ Ấn Độ đã điều chỉnh chính sách đấu thầu GPU trị giá 1,2 tỷ USD, tạo cơ hội cho cả doanh nghiệp nhỏ tham gia. Yêu cầu doanh thu giảm còn 6 triệu USD/năm, nhưng vẫn có những rào cản như bảo lãnh ngân hàng lớn. Dự án hứa hẹn thúc đẩy mạnh mẽ ngành AI của Ấn Độ.
https://economictimes.indiatimes.com/tech/artificial-intelligence/small-companies-can-now-chase-indias-giant-ai-dreams/articleshow/113749367.cms
Giải thích về Sứ mệnh IndiaAI:
https://pib.gov.in/PressReleasePage.aspx?PRID=2012375
(ban hành tháng 3/2024)
• Nội các Ấn Độ đã phê duyệt khoản đầu tư hơn 10.300 crore rupee (khoảng 1,24 tỷ USD) cho Sứ mệnh IndiaAI trong 5 năm tới.
• Mục tiêu chính là thúc đẩy hệ sinh thái AI của Ấn Độ thông qua mô hình hợp tác công-tư.
• Kế hoạch bao gồm nhiều sáng kiến quan trọng:
- IndiaAI Compute Capacity: Xây dựng cơ sở hạ tầng tính toán AI tiên tiến với hơn 10.000 GPU.
- IndiaAI Innovation Centre (IAIC): Phát triển các mô hình nền tảng AI bản địa.
- IndiaAI Datasets Platform: Nâng cao khả năng tiếp cận và chất lượng dữ liệu khu vực công.
- IndiaAI Application Development Initiative: Thúc đẩy phát triển ứng dụng AI.
- IndiaAI FutureSkills: Mở rộng giáo dục AI ở cấp đại học và sau đại học.
- IndiaAI Startup Financing: Hỗ trợ tài chính cho các startup AI.
- Safe & Trusted AI: Đảm bảo triển khai AI có đạo đức và đáng tin cậy.
• Bộ trưởng Rajeev Chandrasekhar nhấn mạnh AI sẽ là yếu tố thúc đẩy nền kinh tế số của Ấn Độ.
• Khoản đầu tư này sẽ mang lại lợi ích cho người dân và góp phần mở rộng nền kinh tế Ấn Độ.
• Đặc biệt, các bang như Kerala có tiềm năng lớn về đổi mới AI và startup sẽ được hưởng lợi từ khoản tài trợ này.
• IndiaAI Startup Financing sẽ tạo điều kiện thuận lợi cho các startup AI tiếp cận nguồn vốn từ giai đoạn phát triển sản phẩm đến thương mại hóa.
• IAIC sẽ dẫn đầu trong việc phát triển và triển khai các mô hình nền tảng, tập trung vào Mô hình Đa phương thức Lớn (LMM) bản địa.
• IndiaAI Datasets Platform sẽ nâng cao khả năng tiếp cận, chất lượng và tiện ích của các bộ dữ liệu khu vực công.
• Chương trình IndiaAI FutureSkills sẽ mở rộng phạm vi giáo dục AI, tăng cường khả năng tiếp cận các chương trình AI ở bậc đại học và sau đại học.
• Các phòng thí nghiệm Dữ liệu và AI sẽ được thành lập không chỉ ở các thành phố lớn mà còn ở các thị trấn và thành phố nhỏ hơn.
• Sứ mệnh IndiaAI nhằm mục đích củng cố vị thế lãnh đạo toàn cầu của Ấn Độ trong lĩnh vực AI, thúc đẩy tự chủ công nghệ và dân chủ hóa lợi ích của AI cho toàn xã hội.
• Ngày 14/9, Cơ quan Quản lý Không gian mạng Trung Quốc đã soạn thảo quy định mới nhằm thông báo cho người dùng biết liệu nội dung có phải do AI tạo ra hay không.
• Quy định yêu cầu các nhà cung cấp dịch vụ AI phải thêm nhãn rõ ràng cho nội dung AI, bao gồm thủy vân trên hình ảnh, thông báo nổi bật khi bắt đầu video hoặc cảnh thực tế ảo do AI tạo ra, âm thanh mã Morse "AI" trước hoặc sau clip âm thanh AI.
• Các công ty cũng phải thêm nhãn ẩn vào metadata của tệp nội dung AI, bao gồm chữ viết tắt "AIGC" và thông tin mã hóa về các công ty sản xuất và phát tán tệp này.
• Nền tảng mạng xã hội phải kiểm tra các tệp được chia sẻ để tìm nhãn ẩn và dấu vết AI, đồng thời gắn nhãn AI nếu nghi ngờ. Họ cũng phải thêm thông tin vào metadata để hiển thị đường đi của nội dung trên internet.
• Quy định này đặt ra nhiều thách thức kỹ thuật và chi phí cho các công ty, đặc biệt là các nền tảng mạng xã hội lớn như Douyin, WeChat và Weibo với hàng trăm triệu người dùng.
• Trung Quốc đang đi trước cả EU và Mỹ trong việc kiểm duyệt nội dung AI, một phần do nhu cầu đảm bảo sự phù hợp chính trị trong các dịch vụ chatbot.
• Quy định này có thể giúp ngăn chặn việc sử dụng AI để lừa đảo hoặc xâm phạm quyền riêng tư, nhưng cũng có thể thúc đẩy sự phát triển của thị trường dịch vụ AI chợ đen.
• Có lo ngại rằng các biện pháp này có thể làm tổn hại đến quyền riêng tư và tự do biểu đạt của người dùng, cho phép nền tảng và chính phủ kiểm soát chặt chẽ hơn nội dung đăng tải trên internet.
• Chính phủ Trung Quốc đang cố gắng cân bằng giữa việc duy trì kiểm soát nội dung và cho phép các phòng thí nghiệm AI có không gian tự do để đổi mới.
• Quy định đang trong giai đoạn lấy ý kiến công chúng đến ngày 14/10 và có thể mất vài tháng nữa để được sửa đổi và thông qua.
📌 Trung Quốc đề xuất quy định mới yêu cầu gắn nhãn nội dung AI, đặt ra thách thức cho các công ty công nghệ và nền tảng mạng xã hội. Quy định nhằm ngăn chặn thông tin sai lệch nhưng cũng gây lo ngại về quyền riêng tư. Trung Quốc đang đi đầu trong việc định hình tiêu chuẩn toàn cầu về quản lý AI.
https://www.wired.com/story/china-wants-to-make-ai-watermarks-happen/
• UAE đã gây chú ý toàn cầu khi phát hành mô hình ngôn ngữ lớn nguồn mở Falcon vào năm ngoái, có hiệu suất ngang bằng hoặc vượt trội so với các mô hình của các gã khổng lồ công nghệ như Meta và Google.
• UAE đã định vị mình là quốc gia dẫn đầu trong cuộc đua AI toàn cầu bằng cách liên tục cập nhật mô hình mạnh mẽ của mình. Microsoft đã mua cổ phần thiểu số trị giá 1,5 tỷ USD trong G42, công ty AI hàng đầu của UAE, cho thấy ảnh hưởng ngày càng tăng của quốc gia này.
• Sự nổi lên của UAE như một cường quốc AI được cho là nhờ sự hỗ trợ mạnh mẽ của nhà nước, vốn dồi dào và điện giá rẻ. Tuy nhiên, một yếu tố quan trọng khác là mô hình thể chế toàn trị, cho phép chính phủ tận dụng quyền lực nhà nước để thúc đẩy đổi mới công nghệ.
• Các quốc gia toàn trị như Trung Quốc có lợi thế cạnh tranh bẩm sinh trong phát triển AI, chủ yếu nhờ vào việc sử dụng giám sát trong nước. Công nghệ nhận dạng khuôn mặt được các chế độ này sử dụng không chỉ để tăng cường an toàn công cộng mà còn là công cụ mạnh mẽ để giám sát dân số và đàn áp bất đồng chính kiến.
• Ngược lại, nhận dạng khuôn mặt đã trở thành nguồn gốc gây tranh cãi lớn ở phương Tây. Đạo luật AI của Liên minh Châu Âu có hiệu lực từ ngày 1/8 đã cấm sử dụng công nghệ này ở nơi công cộng, chỉ với một số ngoại lệ hạn chế.
• Các công ty AI ở Trung Quốc và UAE có lợi thế lớn so với các đối thủ phương Tây. Nghiên cứu cho thấy các công ty AI Trung Quốc có hợp đồng với chính phủ thường đổi mới và thành công về mặt thương mại hơn, nhờ vào việc tiếp cận với khối lượng lớn dữ liệu công và tư nhân để đào tạo và tinh chỉnh mô hình của họ. Tương tự, các công ty UAE được phép đào tạo mô hình của họ trên dữ liệu y tế ẩn danh từ các bệnh viện và ngành công nghiệp do nhà nước hậu thuẫn.
• Các công ty AI tìm kiếm quyền truy cập vào dữ liệu như vậy ở các nước phương Tây sẽ phải đối mặt với nhiều rào cản pháp lý. Trong khi các công ty châu Âu và Mỹ phải vật lộn với các yêu cầu tuân thủ nghiêm ngặt và sự gia tăng các vụ kiện vi phạm bản quyền, các công ty ở Trung Quốc và UAE hoạt động trong môi trường quy định khoan dung hơn nhiều.
📌 Các quốc gia toàn trị như UAE và Trung Quốc có lợi thế cạnh tranh trong phát triển AI nhờ mô hình quản trị cho phép tiếp cận dữ liệu dễ dàng và hỗ trợ nhà nước mạnh mẽ. Điều này tạo ra thách thức lớn cho các công ty phương Tây phải tuân thủ quy định nghiêm ngặt về bảo vệ dữ liệu và quyền riêng tư.
https://www.lemonde.fr/en/opinion/article/2024/09/27/authoritarian-countries-have-a-built-in-competitive-advantage-when-it-comes-to-ai-development_6727495_23.html
• 7 năm trước, các chuyên gia hàng đầu thế giới đã cam kết tuân thủ 23 "Nguyên tắc Asilomar" để đảm bảo AI an toàn và có lợi.
• Dự luật SB 1047 của California yêu cầu các nhà phát triển hệ thống AI mạnh nhất phải tuân thủ các quy trình an toàn và bảo mật để ngăn chặn tác hại nghiêm trọng.
• Dự luật chỉ tập trung vào các hệ thống AI tiên tiến nhất, cân bằng giữa nhu cầu bảo vệ con người và tự do đổi mới.
• SB 1047 được ủng hộ rộng rãi: thông qua Thượng viện California với tỷ lệ 32-1 và Hạ viện 49-16. 59% người dân California ủng hộ, chỉ 20% phản đối.
• Các chuyên gia AI hàng đầu thế giới ca ngợi đây là luật "nhẹ nhàng" sẽ "bảo vệ người tiêu dùng và đổi mới".
• Tuy nhiên, Google, Meta và OpenAI đã phản đối SB 1047 mặc dù trước đó họ cảnh báo về rủi ro của AI không được quản lý và kêu gọi được quản lý.
• OpenAI thừa nhận mô hình mới nhất của họ có rủi ro "trung bình" trong việc tạo ra vũ khí sinh học.
• Các công ty có thể phản đối các điều khoản bảo vệ người tố giác hoặc lo ngại về hành động pháp lý nếu họ cắt giảm để đưa sản phẩm ra thị trường nhanh chóng.
• Lý do sâu xa là các công ty công nghệ lớn luôn chống lại mọi ràng buộc thực tế, tin rằng họ luôn biết rõ nhất.
• Kêu gọi quản lý nói chung nhưng vận động hành lang chống lại các luật cụ thể là chiến thuật quen thuộc của họ.
• Sự phản kháng của họ chính là lý do cần có sự can thiệp của các nhà làm luật.
• Cam kết tự nguyện sẽ không bao giờ đủ khi mà cả quyết định của các công ty tư nhân ảnh hưởng đến cuộc sống của nhiều người.
• Thống đốc Newsom có thể giúp giữ cho các lãnh đạo công nghệ trung thực và công chúng an toàn bằng cách không nhượng bộ Big Tech.
• Ký SB 1047, Newsom có thể thiết lập tiêu chuẩn toàn cầu cho quy định AI hợp lý và bảo vệ tương lai với nó.
📌 Dự luật SB 1047 của California về quản lý AI tiên tiến cần được Thống đốc Newsom ký để cân bằng đổi mới và an toàn. Mặc dù được ủng hộ rộng rãi, các công ty công nghệ lớn vẫn phản đối, cho thấy sự cần thiết của luật pháp để đảm bảo AI phát triển an toàn và bền vững.
https://thebulletin.org/2024/09/why-california-gov-gavin-newsom-should-sign-an-ai-model-regulation-bill/
• FTC sẽ áp dụng quy định mới về đánh giá giả từ ngày 24/10/2024, nhằm ngăn chặn các chiến thuật tiếp thị lừa đảo và đánh giá không trung thực.
• Quy định mới cấm các doanh nghiệp tạo, mua hoặc bán đánh giá giả từ người tiêu dùng hoặc người nổi tiếng. Đồng thời cấm việc khuyến khích đánh giá tích cực/tiêu cực, đánh giá từ nhân viên không có công bố và đánh giá từ người thân.
• Các công ty không được xuyên tạc phần đánh giá trên website của họ là độc lập, đe dọa người đánh giá hoặc mua/bán ảnh hưởng giả như số lượt theo dõi, lượt xem.
• Quy định mới cũng bao gồm đánh giá giả được tạo bởi AI tạo sinh, nhằm ngăn chặn việc lạm dụng công nghệ này để tạo ra số lượng lớn đánh giá giả mạo một cách nhanh chóng và rẻ tiền.
• Mục đích của FTC là làm rõ và củng cố các quy định hiện có để bảo vệ người tiêu dùng tốt hơn, đồng thời tăng mức phạt đối với các vi phạm.
• Các chuyên gia cho rằng quy định mới là bước đi đúng hướng, nhưng vẫn chưa đủ mạnh. Họ đề xuất FTC nên yêu cầu các nền tảng công khai số lượng đánh giá giả đã bị gỡ bỏ và cung cấp thông tin chi tiết hơn về người đánh giá.
• Google và Yelp ủng hộ các thay đổi này, nhưng một số chuyên gia cho rằng quy định vẫn chưa đủ mạnh để kiểm soát các "ông lớn" mạng xã hội và thương mại điện tử.
• Việc thực thi quy định mới sẽ là thách thức lớn, đặc biệt khi ngành công nghiệp đánh giá giả hoạt động ngoài phạm vi pháp luật Mỹ.
• Ngoài ra, FTC cũng đang có các hành động pháp lý chống lại 5 công ty về việc quảng cáo sai sự thật liên quan đến sản phẩm và dịch vụ AI.
• Các công ty công nghệ lớn như Google, Meta, Apple đều đang tăng cường phát triển và tích hợp AI vào sản phẩm của mình.
📌 FTC siết chặt quy định về đánh giá giả từ 24/10/2024, cấm nhiều hình thức lừa đảo kể cả sử dụng AI. Mục tiêu bảo vệ người tiêu dùng, tăng minh bạch nhưng vẫn còn thách thức trong thực thi. Các "ông lớn" công nghệ đồng thời đẩy mạnh phát triển AI.
https://digiday.com/media/ai-briefing-ftc-cracks-down-on-deceptive-marketing-tactics-fake-reviews/
• Khái niệm "AI chủ quyền" đang nổi lên như một vấn đề quốc gia quan trọng, thúc đẩy các quốc gia đầu tư vào cơ sở hạ tầng AI riêng.
• Nvidia đã dành 110 triệu USD để hỗ trợ các quốc gia phát triển các startup AI và đầu tư vào cơ sở hạ tầng AI chủ quyền.
• Động lực chính bao gồm bảo vệ dữ liệu quốc gia, hỗ trợ tăng trưởng kinh tế và thúc đẩy đổi mới công nghiệp.
• Các quốc gia như Trung Quốc, Ấn Độ, Pháp, Thụy Điển và Nhật Bản đang tích cực xây dựng cơ sở hạ tầng AI chủ quyền.
• Nvidia định nghĩa AI chủ quyền là khả năng của một quốc gia tạo ra AI bằng cách sử dụng cơ sở hạ tầng, dữ liệu, lực lượng lao động và mạng lưới kinh doanh riêng.
• Jensen Huang, CEO của Nvidia, nhấn mạnh tầm quan trọng của việc các quốc gia sử dụng dữ liệu riêng để phát triển AI phù hợp với văn hóa và ngôn ngữ địa phương.
• Nvidia đang hỗ trợ các quốc gia xây dựng "nhà máy AI" - cơ sở hạ tầng chuyển đổi dữ liệu thô thành trí tuệ nhân tạo có giá trị.
• Khoảng 60-70 quốc gia đã có chiến lược AI quốc gia, tập trung vào phát triển lực lượng lao động, hệ sinh thái và khung chính sách.
• Các quốc gia nhỏ hơn đang hợp tác để tạo ra mạng lưới AI khu vực lớn hơn, như các nước Bắc Âu.
• Tiêu thụ năng lượng là một thách thức lớn. Theo dự báo, tổng mức tiêu thụ điện của các trung tâm dữ liệu ở Mỹ có thể tăng hơn gấp đôi lên 166% vào năm 2030.
• Mỗi truy vấn ChatGPT tiêu thụ 2,9 watt-giờ điện, gấp 10 lần so với truy vấn Google truyền thống.
• Xu hướng "AI PC" năm 2024 cung cấp cho người tiêu dùng máy tính cá nhân với công nghệ AI mạnh mẽ để đảm bảo quyền riêng tư khi sử dụng AI tại nhà.
• Một số chuyên gia lo ngại thuật ngữ "AI chủ quyền" có thể thúc đẩy chủ nghĩa dân tộc và chủ nghĩa dân túy cực đoan.
• Cerebras Systems đang xây dựng mạng lưới siêu máy tính AI lớn nhất thế giới tại UAE, với tổng công suất 36 exaFLOPs.
📌 Cuộc đua xây dựng nhà máy AI quốc gia đang diễn ra mạnh mẽ trên toàn cầu, với hơn 60 quốc gia đã có chiến lược AI riêng. Mặc dù mang lại cơ hội phát triển kinh tế và công nghệ, xu hướng này cũng đặt ra những thách thức về tiêu thụ năng lượng, với dự báo mức tiêu thụ điện của các trung tâm dữ liệu Mỹ có thể tăng 166% vào năm 2030.
https://venturebeat.com/ai/why-countries-are-in-a-race-to-build-ai-factories-in-the-name-of-sovereign-ai/
• Benoît Cœuré, chủ tịch Cơ quan Cạnh tranh Pháp, cảnh báo về nguy cơ các gã khổng lồ công nghệ như Google, Microsoft, Meta và Amazon sử dụng sức mạnh trong lĩnh vực kỹ thuật số để thống trị thị trường AI và đè bẹp các startup.
• Cơ quan quản lý cạnh tranh Pháp đã đưa ra ý kiến về lĩnh vực AI vào tháng 6, cùng với các cơ quan tương đương ở Washington và Brussels.
• Cœuré nhấn mạnh rằng cơ quan cạnh tranh Pháp "hoàn toàn" sẵn sàng can thiệp nếu cần thiết vào các cuộc đàm phán giữa các nhà sản xuất AI và nhà sản xuất nội dung.
• Các thỏa thuận đầu tiên đã được ký kết giữa OpenAI và các tập đoàn truyền thông lớn như News Corp (The Wall Street Journal), Prisa (El Pais) và Le Monde tại Pháp.
• AI tạo sinh, giống như các công nghệ kỹ thuật số khác, có xu hướng tập trung và tích lũy. Càng nhiều dữ liệu hoặc người dùng, khả năng đổi mới càng cao.
• Sau giai đoạn đầu với nhiều sáng kiến phong phú, các lĩnh vực công nghệ thường trải qua giai đoạn củng cố cho đến khi chỉ còn lại một vài hoặc thậm chí một người chơi duy nhất.
• Các công ty lớn có nguy cơ loại trừ đối thủ cạnh tranh hoặc áp đặt các điều kiện không công bằng đối với khách hàng và nhà cung cấp, tạo ra một "khu vườn có tường bao quanh".
• Sản xuất AI tạo sinh dựa vào dữ liệu, khả năng tính toán và nhân tài. Phân phối dựa vào nền tảng dịch vụ trực tuyến đám mây cho doanh nghiệp và môi trường di động, công cụ tìm kiếm và mạng xã hội cho cá nhân.
• Hiện tại, một số ít công ty, chủ yếu là Mỹ, đã có vị thế rất mạnh trong tất cả các lĩnh vực này, tạo ra một tình huống mới.
• AI là công nghệ đầu tiên bị thống trị bởi các công ty lớn ngay từ đầu, khác với các đổi mới đột phá trước đây thường dẫn đến sự thay thế công nghệ và chấm dứt lợi nhuận của các công ty hiện tại.
• Các công ty như Google, Amazon, Facebook, Apple, Microsoft và Netflix đều bắt đầu như những người chơi nhỏ với ý tưởng xuất sắc. Trong AI, các công ty nhỏ hơn như OpenAI hoặc Mistral AI có sức mạnh ý tưởng, nhưng các nhà quản lý lo ngại rằng những ý tưởng này sẽ nhanh chóng được sử dụng để củng cố quyền lực của các công ty lớn.
📌 AI là công nghệ đầu tiên bị thống trị bởi các ông lớn ngay từ đầu, với các công ty Mỹ chiếm vị thế mạnh trong mọi lĩnh vực liên quan. Điều này tạo ra nguy cơ độc quyền và cần được giám sát chặt chẽ để đảm bảo cạnh tranh công bằng và đổi mới trong ngành.
https://www.lemonde.fr/en/economy/article/2024/09/25/ai-is-the-first-technology-to-be-dominated-by-major-players-from-the-outset_6727252_19.html
• FTC đã công bố chiến dịch trừng phạt đối với 3 doanh nghiệp cơ hội kinh doanh và 2 công ty, trong đó có DoNotPay, vì "tuyên bố và kế hoạch AI lừa đảo".
• Chủ tịch FTC Lina Khan tuyên bố sử dụng công cụ AI để lừa dối, gây hiểu nhầm hoặc lừa đảo người dân là bất hợp pháp. Không có ngoại lệ AI nào đối với luật hiện hành.
• DoNotPay, tự quảng cáo là "luật sư robot đầu tiên trên thế giới", bị cáo buộc không thể hiện đúng năng lực như tuyên bố. Công ty đồng ý trả 193.000 USD và thông báo cho khách hàng về hạn chế của dịch vụ liên quan đến pháp luật.
• FTC kiện Ascend Ecom và các công ty liên quan vì lừa đảo người tiêu dùng ít nhất 25 triệu USD thông qua lời hứa về thu nhập thụ động từ cửa hàng trực tuyến được hỗ trợ bởi AI.
• Passive Scaling và FBA Machine bị cáo buộc gây thiệt hại khoảng 16 triệu USD hoặc hơn cho khách hàng dựa trên tuyên bố sai lệch về thu nhập đảm bảo từ cửa hàng trực tuyến sử dụng phần mềm AI.
• Ecommerce Empire Builders bị kiện vì tuyên bố sai sự thật về việc giúp người tiêu dùng xây dựng "đế chế thương mại điện tử được hỗ trợ bởi AI" thông qua các chương trình đào tạo và cửa hàng trực tuyến "làm sẵn".
• Rytr, cung cấp trợ lý viết AI, đã đồng ý giải quyết vụ việc thông qua lệnh đồng thuận, cấm công ty cung cấp hoặc bán dịch vụ tạo đánh giá hoặc lời chứng thực của người tiêu dùng.
• FTC nhấn mạnh các vụ việc này cho thấy cách các công ty và doanh nghiệp đã lợi dụng sự phấn khích xung quanh AI để lôi kéo người tiêu dùng vào các kế hoạch lừa đảo.
📌 FTC đã có hành động mạnh mẽ chống lại 5 công ty lợi dụng hype AI để lừa đảo người tiêu dùng, gây thiệt hại hàng chục triệu USD. Vụ việc cho thấy cơ quan quản lý đang tăng cường giám sát và xử lý các hành vi lừa đảo liên quan đến AI.
https://www.cnbc.com/2024/09/25/ftc-crackdown-ai-claims-donotpay-companies.html
• Apple đã từ chối tham gia hiệp ước AI mới do Liên minh châu Âu (EU) đề xuất, bất chấp sự ủng hộ từ các công ty công nghệ lớn khác như OpenAI, Google và Microsoft.
• Hiệp ước này đã được 115 công ty khác nhau đồng ý, bao gồm nhiều "ông lớn" trong lĩnh vực AI như Adobe, Amazon, Google, Microsoft, OpenAI, Samsung và Snap.
• Bên cạnh Apple, Meta cũng là một trong số ít công ty lớn từ chối ký kết hiệp ước này.
• Mục tiêu của hiệp ước tự nguyện là khuyến khích các công ty tuân thủ sớm các quy tắc trong Đạo luật AI của EU, vốn sẽ được triển khai theo từng giai đoạn trong những năm tới.
• Apple cho biết họ đang "tham gia" với các cơ quan quản lý EU để đưa các tính năng Apple Intelligence đến với người dùng EU. Tuy nhiên, động thái mới nhất này cho thấy triển vọng không mấy khả quan.
• Việc Apple từ chối tham gia hiệp ước có thể ảnh hưởng đến việc ra mắt các tính năng AI trên thiết bị của họ tại thị trường EU.
• Điều này có thể tác động đến doanh số iPhone 16 tại các quốc gia EU nếu thiếu các tính năng AI so với các thị trường khác.
• Cuộc tranh chấp giữa Apple và các cơ quan quản lý EU không chỉ xoay quanh vấn đề AI mà còn liên quan đến nhiều vấn đề khác.
• Việc triển khai dần dần các tính năng Apple Intelligence có nghĩa là công ty không chịu quá nhiều áp lực phải đạt được thỏa thuận ngay lập tức.
• Tuy nhiên, nếu không tìm được giải pháp, điều này sẽ gây bất lợi cho cả Apple và người dùng tại EU trong tương lai.
📌 Apple từ chối tham gia hiệp ước AI mới của EU cùng với 115 công ty công nghệ lớn khác. Điều này có thể ảnh hưởng đến việc ra mắt tính năng Apple Intelligence tại châu Âu và doanh số iPhone 16 trong khu vực. Tình hình vẫn đang phát triển và cần theo dõi thêm.
https://9to5mac.com/2024/09/26/apple-rejects-new-ai-pact-in-eu-despite-support-from-openai-google-more/
• OpenAI đang triển khai tính năng Advanced Voice cho ChatGPT trong tuần này, dành cho người dùng ChatGPT Plus và Teams.
• Tuy nhiên, tính năng này sẽ không có sẵn tại EU, Vương quốc Anh, Thụy Sĩ, Iceland, Na Uy và Liechtenstein.
• Lý do có thể liên quan đến Đạo luật AI của EU, cấm việc sử dụng hệ thống AI để suy luận cảm xúc của con người tại nơi làm việc và trường học.
• Advanced Voice cho phép người dùng trò chuyện với ChatGPT bằng giọng nói qua smartphone, tạo cảm giác như đang nói chuyện với người thật.
• Tính năng này sử dụng mô hình GPT-4 để tạo phản hồi nhanh hơn và có thể xử lý đầu vào dạng văn bản, hình ảnh và âm thanh.
• Advanced Voice có khả năng ghi nhớ thông tin về người dùng, tạo ra cuộc trò chuyện liên tục và tự nhiên hơn theo thời gian.
• Phiên bản mới có 5 giọng nói mới: Arbor, Maple, Sol, Spruce và Vale, cùng hiệu ứng hình ảnh quả cầu xanh khi nói.
• Khả năng phát âm các ngôn ngữ nước ngoài cũng đã được cải thiện.
• Tính năng chỉ dành cho người dùng ChatGPT Plus và Teams, sẽ được triển khai dần dần và hoàn tất vào cuối tuần.
• Người dùng sẽ nhận được thông báo bật lên bên cạnh điểm truy cập Voice Mode khi tính năng được kích hoạt.
• Việc EU không được tiếp cận tính năng này có thể khiến khu vực này tụt hậu so với phần còn lại của thế giới trong lĩnh vực AI.
• Tuy nhiên, vẫn có khả năng OpenAI sẽ được cấp ngoại lệ nào đó để triển khai tính năng tại EU trong tương lai.
📌 OpenAI ra mắt Advanced Voice cho ChatGPT với khả năng nhận diện cảm xúc, nhưng không có sẵn tại EU do quy định cấm. Tính năng mới cung cấp 5 giọng nói, hiệu ứng hình ảnh và khả năng ghi nhớ, tạo trải nghiệm trò chuyện tự nhiên hơn cho người dùng ChatGPT Plus và Teams.
https://www.techradar.com/computing/artificial-intelligence/openai-s-advanced-voice-is-unavailable-in-the-eu-and-now-we-might-know-why
- OpenAI, Microsoft và Amazon là 3 trong số 100 công ty đầu tiên ký kết Liên minh AI tự nguyện vào ngày 25 tháng 9 năm 2024.
- Liên minh này nhằm mục đích giúp các doanh nghiệp tuân thủ Luật AI của Liên minh châu Âu (EU) và chuẩn bị cho các quy định mới về AI.
- Khoảng 700 công ty đã bày tỏ sự quan tâm tham gia Liên minh, cho thấy nhu cầu cao về việc tuân thủ các quy định liên quan đến AI.
- Liên minh sẽ tổ chức các hội thảo do Văn phòng AI của EU tổ chức để các doanh nghiệp có thể chia sẻ ý tưởng và kinh nghiệm.
- Các cam kết chính của Liên minh bao gồm việc xác định các hệ thống AI có khả năng được phân loại là rủi ro cao và thúc đẩy sự hiểu biết về AI trong ngành.
- Hơn một nửa số công ty ký kết còn cam kết thực hiện các nghĩa vụ bổ sung như đảm bảo giám sát con người và giảm thiểu rủi ro liên quan đến AI.
- Snap cũng đã thông báo tham gia Liên minh với lý do giá trị cốt lõi của họ phù hợp với mục tiêu của Luật AI.
- Luật AI được coi là khuôn khổ pháp lý đầu tiên trên thế giới quy định các mô hình AI dựa trên mức độ rủi ro mà chúng gây ra.
- Một số quy định của Luật AI sẽ có hiệu lực ngay sau khi thông qua, với các quy tắc về AI đa mục đích sẽ áp dụng sau một năm và nghĩa vụ đối với hệ thống rủi ro cao sẽ có hiệu lực sau ba năm.
📌 OpenAI, Microsoft và Amazon đã ký kết Liên minh AI tự nguyện nhằm hỗ trợ tuân thủ Luật AI của EU. Hơn 700 công ty quan tâm tham gia, với những cam kết về giám sát con người và giảm thiểu rủi ro. Luật AI bắt đầu có hiệu lực từ tháng 8 năm 2024.
https://www.euronews.com/next/2024/09/25/openai-microsoft-amazon-among-first-ai-pact-signatories
• 108 quốc gia nhỏ đã cùng nhau phát hành Sổ tay AI cho Các Quốc gia Nhỏ nhằm tạo nền tảng trao đổi bài học về triển khai AI.
• Sổ tay được phát triển bởi Cơ quan Phát triển Truyền thông và Thông tin Singapore (IMDA) và Bộ Công nghệ Thông tin và Truyền thông Rwanda.
• Mục tiêu là thu thập phản hồi và chia sẻ kinh nghiệm triển khai AI từ các thành viên của Diễn đàn Kỹ thuật số của Các Quốc gia Nhỏ (FOSS).
• Sổ tay tập trung vào 4 lĩnh vực chính: xây dựng môi trường đáng tin cậy, nguồn nhân lực, phát triển AI và quản trị AI.
• Ví dụ về sáng kiến chuyển đổi số của Phần Lan được đề cập, bao gồm sử dụng AI tạo sinh để cải thiện hiệu quả soạn thảo luật.
• Sổ tay đề xuất khung quản trị để giảm thiểu rủi ro liên quan đến AI và xây dựng niềm tin, bao gồm các nguyên tắc trong và ngoài vòng đời phát triển mô hình AI.
• Nhấn mạnh tầm quan trọng của các công cụ thực tế để đảm bảo hệ thống AI an toàn khi triển khai và sử dụng, bao gồm kiểm thử và đánh giá.
• Khuyến khích sử dụng tài nguyên kiểm thử nguồn mở để giảm rào cản cho người dùng cuối, đặc biệt là về chi phí.
• Đề xuất thành lập cộng đồng thực hành giữa các doanh nghiệp để thảo luận về kiểm thử và đánh giá, tạo điều kiện chuyển giao kiến thức.
• Tham khảo Khung Quản trị Mô hình AI Tạo sinh của Singapore như hướng dẫn giải quyết rủi ro tiềm ẩn trong vòng đời phát triển AI.
• Estonia nhấn mạnh tầm quan trọng của hợp tác và nguồn mở để xây dựng xã hội được hỗ trợ bởi AI.
• Libya chỉ ra sự chênh lệch giữa các quốc gia nhỏ về tiến bộ trong lĩnh vực AI, kêu gọi hợp tác giữa các quốc gia tiên tiến và các nước đang phát triển.
📌 108 quốc gia nhỏ hợp tác phát hành Sổ tay AI nhằm chia sẻ kinh nghiệm triển khai AI toàn cầu. Sổ tay tập trung vào 4 lĩnh vực chính, đề xuất khung quản trị và công cụ thực tế, khuyến khích nguồn mở và hợp tác để giảm chênh lệch phát triển AI giữa các nước.
https://www.zdnet.com/article/small-nations-around-the-world-band-together-to-share-ai-lessons/
- Canada đã công bố chiến lược hạ tầng AI trị giá 2 tỷ USD nhằm hỗ trợ các công ty trong nước tiếp cận dịch vụ để phát triển AI. Tuy nhiên, các công ty nước ngoài như **Amazon, Microsoft, Google** có thể hưởng lợi nhiều hơn trong giai đoạn đầu vì họ đang thống trị thị trường dịch vụ điện toán đám mây.
- Chiến lược được **Thủ tướng Justin Trudeau** công bố nhằm tăng cường năng lực AI của Canada, với mục tiêu giúp các nhà nghiên cứu và công ty có quyền truy cập vào các **GPU** và thiết bị cần thiết để phát triển các mô hình AI.
- Nhu cầu về chip và trung tâm dữ liệu để xử lý AI ngày càng tăng mạnh, trong khi cơ sở hạ tầng công cộng tại Canada còn thiếu và đầu tư chưa theo kịp các nước khác, gây khó khăn cho các công ty và nhà nghiên cứu trong nước.
- **Chương trình của chính phủ** nhằm giải quyết vấn đề này trong ngắn hạn bằng cách hỗ trợ tiếp cận điện toán và xây dựng hạ tầng trong dài hạn. Tuy nhiên, hiện tại các nhà nghiên cứu cảnh báo rằng một số chuyên gia AI và doanh nghiệp có thể phải ra nước ngoài để tiếp cận tài nguyên điện toán hợp lý hơn.
- Một số công ty Canada, như **Denvr Dataworks** và **Radium**, đề xuất chính phủ tập trung vào hạ tầng điện toán nội địa để giảm sự phụ thuộc vào các công ty nước ngoài. Họ cho rằng **trợ cấp ngắn hạn** cho dịch vụ điện toán sẽ thúc đẩy sự phát triển AI trong nước, từ đó thu hút các công ty điện toán đám mây mở rộng cơ sở hạ tầng tại Canada.
- Một số công ty như **Hypertec Group** đã có kế hoạch mở rộng cơ sở hạ tầng với dự án triển khai 100.000 GPU vào năm tới, với tổng chi phí có thể lên tới 6 tỷ USD. Họ đề xuất chính phủ áp dụng chiến lược "mua hàng trong nước" để hỗ trợ các nhà cung cấp dịch vụ điện toán nội địa.
- **Radium** và các doanh nghiệp khác cũng nhấn mạnh rằng đầu tư vào hạ tầng nội địa là cần thiết để bảo vệ dữ liệu nhạy cảm và phục vụ các ngành công nghiệp quan trọng của Canada.
- Tuy nhiên, một số tổ chức như **Hội đồng Nhà cải tiến Canada (CCI)** cho rằng việc khó tiếp cận tài nguyên điện toán không phải là rào cản lớn đối với hầu hết các công ty, và gợi ý chính phủ mua quyền truy cập điện toán từ các nhà cung cấp thương mại để hỗ trợ các doanh nghiệp trong nước.
- **Ryan Grant**, giáo sư tại Đại học Queen, đề xuất một phần ngân sách nên được sử dụng để xây dựng **siêu máy tính** qua quan hệ đối tác công-tư, giúp các công ty trong quá trình thương mại hóa công nghệ AI.
- Dù chi tiết của chiến lược vẫn đang được hoàn thiện, **Nvidia**, nhà cung cấp GPU lớn nhất thế giới, có thể là công ty hưởng lợi lớn từ nhu cầu ngày càng tăng đối với hạ tầng AI tại Canada.
📌 Chiến lược 2 tỷ USD của Canada nhằm phát triển hạ tầng AI có thể ban đầu mang lại lợi ích cho các công ty công nghệ nước ngoài như Amazon, Microsoft, và Google. Tuy nhiên, đầu tư vào hạ tầng nội địa và trợ cấp ngắn hạn có thể giúp Canada phát triển năng lực AI mạnh mẽ trong tương lai.
https://www.theglobeandmail.com/business/article-canada-artificial-intelligence-compute-foreign-companies/
- Ericsson, Spotify và SAP đã ký một bức thư mở do Meta phối hợp kêu gọi EU có cách tiếp cận quy định nhất quán hơn về AI.
- Các công ty này lo ngại rằng nếu không thay đổi, châu Âu sẽ bỏ lỡ 2 yếu tố quan trọng trong đổi mới AI: phát triển mô hình AI nguồn mở và mô hình đa phương thức.
- Bức thư chỉ ra rằng quyết định quy định hiện tại đang trở nên phân mảnh và không thể đoán trước, dẫn đến sự không chắc chắn về loại dữ liệu có thể sử dụng để đào tạo các mô hình AI.
- Free trở thành nhà mạng đầu tiên tại Pháp cung cấp 5G SA trên toàn quốc với 6.950 trạm 3.5GHz, đồng thời ra mắt dịch vụ VoNR.
- A1 của Áo đã mua lại công ty Conexio Metro tại Serbia để cung cấp sản phẩm hội tụ trên mạng cáp quang của mình vào năm 2025.
- Broadband Forum đã khởi động dự án mới nhằm cung cấp độ trễ thấp trong mạng băng thông rộng tại nhà bằng công nghệ L4S.
- Công nghệ L4S sẽ giúp nhà cung cấp dịch vụ hỗ trợ các ứng dụng có yêu cầu cao về độ trễ và dung lượng cùng lúc mà không gây tắc nghẽn mạng.
- Cellnex tại Tây Ban Nha đang tăng cường phủ sóng 5G dọc bờ biển Barcelona để phục vụ cho cuộc đua thuyền America's Cup.
- Hệ thống anten mini phân tán sẽ cung cấp kết nối 5G cho 3.5km bờ biển từ bãi biển Sant Sebastià đến bãi biển Mar Bella.
- Tòa án chung EU đã giữ nguyên phần lớn mức phạt 242 triệu euro (270 triệu USD) đối với Qualcomm vì hành vi định giá predatory đối với Icera.
📌 Các công ty châu Âu như Ericsson và Spotify kêu gọi EU thay đổi quy định về AI để không bỏ lỡ cơ hội phát triển mô hình AI nguồn mở và đa phương thức. Free ra mắt 5G SA trên toàn quốc, trong khi A1 mở rộng dịch vụ tại Serbia.
https://www.lightreading.com/ai-machine-learning/eurobites-ericsson-and-friends-call-for-europe-to-adopt-new-regulatory-approach-to-ai
• California đã thông qua 8 luật AI mới, trong số 38 dự luật liên quan đến AI mà Thống đốc Gavin Newsom đang xem xét.
• Hai luật mới về deepfake khỏa thân:
- SB 926 hình sự hóa việc tống tiền bằng hình ảnh khỏa thân AI giống người thật
- SB 981 yêu cầu nền tảng mạng xã hội thiết lập kênh báo cáo và xóa bỏ deepfake khỏa thân
• Luật về thủy vân nội dung AI:
- SB 942 yêu cầu hệ thống AI tạo sinh phổ biến phải công bố thông tin về nguồn gốc AI trong metadata
• Ba luật về deepfake bầu cử:
- AB 2655 yêu cầu nền tảng lớn gỡ bỏ hoặc gắn nhãn deepfake liên quan đến bầu cử
- AB 2839 nhắm đến người dùng đăng deepfake có thể đánh lừa cử tri
- AB 2355 yêu cầu công khai quảng cáo chính trị được tạo bởi AI
• Hai luật bảo vệ quyền của diễn viên:
- AB 2602 yêu cầu xin phép diễn viên trước khi tạo bản sao AI giọng nói hoặc hình ảnh
- AB 1836 cấm tạo bản sao kỹ thuật số của diễn viên đã mất mà không có sự đồng ý của người thừa kế
• Thống đốc Newsom còn 30 dự luật AI cần quyết định trước cuối tháng 9.
• Tại hội nghị Dreamforce 2024, Newsom chia sẻ quan điểm về cách tiếp cận quy định AI:
"Chúng ta không thể giải quyết mọi thứ. Chúng ta có thể giải quyết được gì? Đó là cách tiếp cận chúng tôi đang áp dụng trên toàn bộ phổ này."
• California là nơi có trụ sở của phần lớn các công ty AI hàng đầu thế giới. Tiểu bang đang nỗ lực tận dụng các công nghệ đột phá này để giải quyết các thách thức cấp bách, đồng thời nghiên cứu rủi ro mà chúng mang lại.
📌 California dẫn đầu Mỹ về luật AI với 8 đạo luật mới được thông qua, tập trung vào deepfake, thủy vân nội dung AI và quyền của diễn viên. Thống đốc Newsom còn đang xem xét 30 dự luật AI khác, cho thấy nỗ lực toàn diện của tiểu bang trong việc quản lý công nghệ đột phá này.
https://techcrunch.com/2024/09/19/here-is-whats-illegal-under-californias-8-and-counting-new-ai-laws/
• Chính quyền Hong Kong đang chuẩn bị ban hành tuyên bố chính sách đầu tiên về việc sử dụng trí tuệ nhân tạo (AI) trong lĩnh vực tài chính.
• Cục Dịch vụ Tài chính và Kho bạc dự định đưa ra khung hướng dẫn về sử dụng AI có đạo đức và các nguyên tắc chung để áp dụng công nghệ này trong thế giới tài chính.
• Mục đích của tài liệu là thể hiện sự ủng hộ của Hong Kong đối với AI, trong bối cảnh các chính phủ trên thế giới đang nỗ lực nắm bắt tiềm năng của công nghệ này.
• Các cơ quan quản lý địa phương cũng đang cố gắng giải quyết một số nhầm lẫn xung quanh AI ở Hong Kong, một thành phố bị cuốn vào xung đột công nghệ Mỹ-Trung.
• Nhiều người tiêu dùng và doanh nghiệp không thể dễ dàng truy cập một số dịch vụ phổ biến nhất như ChatGPT của OpenAI hay Gemini của Google, do các công ty công nghệ Mỹ lo ngại vi phạm quy định của lãnh thổ Trung Quốc.
• Dự kiến công bố tuyên bố chính sách vào khoảng cuối tháng 10 trong Tuần lễ Fintech, một trong những sự kiện thường niên quan trọng nhất của ngành.
• Hong Kong muốn định vị lại thành phố giàu có này như một trung tâm tài chính, khi các nhà đầu tư nước ngoài ngày càng lo ngại về sự kiểm soát ngày càng tăng của Bắc Kinh và cân nhắc các địa điểm thay thế như Singapore.
• Tuyên bố chính sách sẽ cung cấp định hướng rộng và không thể thực thi ngay lập tức. Tuy nhiên, nó cho thấy các cơ quan quản lý sẽ có thái độ thuận lợi đối với các ứng dụng AI và sau đó sẽ ban hành các quy tắc cụ thể hơn.
• Tuyên bố chính sách cũng nhằm hợp nhất các hướng dẫn chi tiết khác nhau từ các cơ quan quản lý ngân hàng và chứng khoán riêng lẻ.
• Một số nhà tài chính Hong Kong gần đây lo lắng về khó khăn trong việc tiếp cận các dịch vụ AI, cùng với những bất ổn về quy định sử dụng của các công ty.
• Cơ quan Quản lý Tiền tệ Hong Kong và trung tâm công nghệ Cyberport do chính phủ hậu thuẫn đã bắt đầu một sandbox quy định vào tháng 8 để các ngân hàng thử nghiệm các trường hợp sử dụng AI tạo sinh mới.
📌 Hong Kong chuẩn bị ban hành chính sách AI trong tài chính vào cuối tháng 10/2024, nhằm thúc đẩy ứng dụng công nghệ này và củng cố vị thế trung tâm tài chính. Tuyên bố sẽ đưa ra khung hướng dẫn về sử dụng AI có đạo đức, giải quyết nhầm lẫn và tạo môi trường thuận lợi cho phát triển AI trong lĩnh vực tài chính.
https://www.thestandard.com.hk/breaking-news/section/4/220573/Hong-Kong-considers-rules-for-AI-use-in-finance
• Một nhà đầu tư đề xuất ý tưởng táo bạo: tạo ra "khu kinh tế đặc biệt" không có luật bản quyền tại các quốc gia vùng Vịnh như UAE hoặc Ả Rập Saudi. Điều này sẽ cho phép các công ty AI huấn luyện mô hình mạnh mẽ mà không lo ngại kiện tụng từ các nhà xuất bản, nhạc sĩ về việc sử dụng tác phẩm của họ.
• Ý tưởng này phản ánh nhận thức ngày càng phổ biến rằng Mỹ đang quá cứng rắn với các công nghệ mới như crypto và AI, có thể gây tổn hại đến đổi mới sáng tạo.
• Vùng Vịnh đang trở thành điểm đến hấp dẫn cho các nhà sáng lập startup từ khắp nơi trên thế giới. Số thương vụ đầu tư mạo hiểm tại Saudi Arabia và UAE tăng từ 79 vụ năm 2015 lên 402 vụ năm 2022.
• UAE và Saudi Arabia đang xây dựng các trung tâm dữ liệu có khả năng huấn luyện và vận hành các mô hình AI mạnh mẽ. Khu vực này có thể trở thành nơi trú ẩn hấp dẫn cho các startup nhỏ bị quá tải bởi sự không chắc chắn về quy định tại Mỹ và EU.
• UAE đã tạo ra nhiều khu kinh tế đặc biệt hay "sandbox" để các startup có thể tự do thử nghiệm công nghệ mới như xe tự lái, chăm sóc sức khỏe, crypto.
• Năm 2017, UAE trở thành quốc gia đầu tiên trên thế giới bổ nhiệm bộ trưởng phụ trách AI và thực hiện các nỗ lực tham vọng về xây dựng cơ sở hạ tầng AI.
• Tuy nhiên, UAE vẫn phải đối mặt với rào cản từ quy định của Mỹ cấm xuất khẩu chip tiên tiến mà không có giấy phép.
• Mỹ vẫn có lợi thế về nguồn nhân lực chất lượng cao trong khoa học và công nghiệp, cũng như lịch sử phát minh và cơ hội thu hút nhân tài từ khắp nơi trên thế giới.
• Tại California, một số dự luật mới về AI đang gây tranh cãi và có thể tạo ra thách thức lớn cho các startup AI, như yêu cầu công khai thông tin về dữ liệu huấn luyện và bản quyền, cũng như bắt buộc có watermark và công cụ phát hiện nội dung do AI tạo ra.
📌 UAE đang nổi lên như một trung tâm đổi mới AI tiềm năng nhờ chính sách thân thiện và cơ sở hạ tầng hiện đại. Tuy nhiên, Mỹ vẫn giữ lợi thế về nguồn nhân lực chất lượng cao. Cuộc đua AI giữa hai quốc gia sẽ phụ thuộc vào cách họ cân bằng giữa quy định và đổi mới sáng tạo.
https://www.semafor.com/article/09/18/2024/a-radical-idea-to-make-the-uae-an-ai-innovation-hub
• Google cảnh báo Anh có nguy cơ tụt hậu trong cuộc đua AI toàn cầu nếu không nhanh chóng xây dựng thêm trung tâm dữ liệu và cho phép các công ty công nghệ sử dụng tác phẩm có bản quyền trong mô hình AI của họ.
• Theo nghiên cứu, Anh hiện xếp thứ 7 trên bảng xếp hạng toàn cầu về mức độ sẵn sàng cho AI về dữ liệu và cơ sở hạ tầng.
• Debbie Weinstein, Giám đốc điều hành Google tại Anh, cho rằng chính phủ cần đưa ra thêm các chính sách thúc đẩy triển khai AI.
• Các dự án AI do chính phủ hậu thuẫn đã bị cắt giảm ngân sách. Chính phủ Lao động đã xác nhận sẽ không tiếp tục cam kết 800 triệu bảng Anh cho siêu máy tính exascale và 500 triệu bảng Anh cho Nguồn lực Nghiên cứu AI.
• Google đề xuất tạo ra một "đám mây nghiên cứu quốc gia" - cơ chế cung cấp sức mạnh tính toán và dữ liệu cho các startup và học giả.
• Công ty kêu gọi thay đổi luật bản quyền của Anh, cho phép khai thác văn bản và dữ liệu (TDM) cho mục đích thương mại. Chính phủ Bảo thủ đã từ bỏ kế hoạch này vào năm 2024 do lo ngại từ ngành công nghiệp sáng tạo và các nhà xuất bản tin tức.
• Google ủng hộ cơ cấu quản lý hiện tại, trong đó việc giám sát AI được quản lý bởi các cơ quan quản lý công khác nhau như Cơ quan Cạnh tranh và Thị trường và Văn phòng Ủy viên Thông tin.
• Các bộ trưởng Anh đang soạn thảo tham vấn về dự luật AI, tập trung vào việc biến thỏa thuận tự nguyện kiểm tra mô hình AI giữa chính phủ Anh và các công ty công nghệ thành ràng buộc pháp lý.
• Google cũng đề xuất thành lập dịch vụ kỹ năng quốc gia để giúp lực lượng lao động thích ứng với AI và đưa công nghệ này vào sử dụng rộng rãi hơn trong các dịch vụ công.
📌 Google cảnh báo Anh có thể tụt hậu trong cuộc đua AI toàn cầu nếu không hành động ngay. Công ty kêu gọi xây dựng thêm trung tâm dữ liệu, nới lỏng luật bản quyền và đầu tư vào cơ sở hạ tầng AI. Chính phủ Anh đã cắt giảm 1,3 tỷ bảng cho các dự án AI quan trọng.
https://www.theguardian.com/technology/2024/sep/19/google-says-uk-risks-being-left-behind-in-ai-race-without-more-data-centres
- Báo cáo "Quản trị AI vì nhân loại" được phát hành bởi Nhóm Tư vấn Cấp cao về AI của Liên Hợp Quốc vào ngày 19 tháng 9 năm 2024.
- Báo cáo này là kết quả của nhiều tháng tham vấn toàn cầu và dựa trên báo cáo tạm thời được công bố vào tháng 12 năm 2023.
- Nhóm Tư vấn này là nhóm chuyên gia đầu tiên và đại diện nhất thế giới về AI, phản ánh nguyện vọng của nhân loại.
- Báo cáo đưa ra một kế hoạch chi tiết nhằm giải quyết các rủi ro liên quan đến AI và chia sẻ tiềm năng biến đổi của nó trên toàn cầu.
- Các khuyến nghị chính bao gồm việc kêu gọi Liên Hợp Quốc xây dựng kiến trúc quản trị AI toàn cầu đầu tiên dựa trên hợp tác quốc tế.
- Đề xuất 7 khuyến nghị để giải quyết những khoảng trống trong các cơ chế quản trị AI hiện tại.
- Chỉ có 7 trong số 193 quốc gia thành viên tham gia vào các sáng kiến quản trị AI gần đây; 118 quốc gia còn lại chủ yếu ở khu vực Nam bán cầu không tham gia.
- Không có khung pháp lý toàn cầu nào để quản lý AI, dẫn đến nguy cơ rủi ro từ việc phát triển AI tập trung vào một số công ty đa quốc gia.
- Báo cáo xác định các khoảng trống chính trong bối cảnh quản trị AI quốc tế hiện tại và đề xuất các biện pháp để khắc phục.
7 khuyến nghị chính:
1. Thành lập một Ban Khoa học Quốc tế về AI để cung cấp thông tin khoa học đáng tin cậy về AI, giúp các quốc gia thành viên phát triển một sự hiểu biết chung về AI và giải quyết sự bất cân xứng thông tin giữa các phòng thí nghiệm AI và phần còn lại của thế giới.
2. Tạo ra một đối thoại chính sách mới về quản trị AI tại Liên Hợp Quốc, bao gồm các cuộc họp liên chính phủ và đa bên liên quan, nhằm thúc đẩy sự đồng thuận chung và tính khả thi về quy định dựa trên quyền con người.
3. Thành lập một sàn giao dịch tiêu chuẩn AI, bao gồm đại diện từ các tổ chức tiêu chuẩn, công ty công nghệ và xã hội dân sự, để đảm bảo tính tương thích kỹ thuật của các hệ thống AI xuyên biên giới.
4. Tạo ra một mạng lưới phát triển năng lực AI toàn cầu để tăng cường năng lực quản trị AI, cung cấp đào tạo, tài nguyên máy tính và dữ liệu AI cho các nhà nghiên cứu và doanh nhân xã hội.
5. Thành lập một quỹ toàn cầu về AI để giải quyết các khoảng trống trong năng lực và hợp tác, hỗ trợ các nỗ lực địa phương nhằm thúc đẩy các Mục tiêu Phát triển Bền vững (SDGs).
6. Thúc đẩy một khung dữ liệu AI toàn cầu để chuẩn hóa các định nghĩa, nguyên tắc và quản lý dữ liệu liên quan, đảm bảo tính minh bạch và trách nhiệm giải trình trong các hệ thống AI.
7. Thành lập một văn phòng AI nhỏ trong Văn phòng Thư ký Liên Hợp Quốc để hỗ trợ và điều phối việc thực hiện các đề xuất này.
📌 Nhóm Tư vấn Cấp cao về AI của Liên Hợp Quốc đã đưa ra 7 khuyến nghị chính nhằm cải thiện quản trị AI toàn cầu, nhấn mạnh sự cần thiết phải hợp tác quốc tế và xây dựng cơ chế hiệu quả để tận dụng tiềm năng của AI và giảm thiểu rủi ro, bảo vệ quyền con người.
https://www.un.org/sites/un2.un.org/files/governing_ai_for_humanity_press_release.pdf
https://www.un.org/sites/un2.un.org/files/governing_ai_for_humanity_final_report_en.pdf
• Hiện có hơn 120 dự luật liên quan đến việc quản lý AI đang được xem xét tại Quốc hội Mỹ, bao gồm nhiều lĩnh vực đa dạng.
• Một số dự luật tập trung vào cải thiện kiến thức về AI trong trường học công lập, yêu cầu các nhà phát triển mô hình công bố tài liệu có bản quyền được sử dụng trong quá trình đào tạo.
• 3 dự luật giải quyết vấn đề cuộc gọi tự động bằng AI, 2 dự luật đề cập đến rủi ro sinh học từ AI.
• Có một dự luật cấm AI tự phóng vũ khí hạt nhân mà không có sự kiểm soát của con người.
• Số lượng lớn dự luật cho thấy sự cấp bách của Quốc hội trong việc theo kịp tốc độ phát triển công nghệ nhanh chóng.
• Ủy ban Thương mại Thượng viện đã thông qua 5 dự luật liên quan đến AI vào cuối tháng 7, tập trung vào việc ủy quyền cho Viện An toàn AI Hoa Kỳ (AISI) mới thành lập để tạo ra các testbed và hướng dẫn tự nguyện cho các mô hình AI.
• Các dự luật khác tập trung vào mở rộng giáo dục về AI, thiết lập tài nguyên điện toán công cộng cho nghiên cứu AI và hình sự hóa việc xuất bản deepfake khiêu dâm.
• Ủy ban Khoa học, Không gian và Công nghệ Hạ viện vừa thông qua 9 dự luật liên quan đến AI vào ngày 11/9, tập trung vào cải thiện giáo dục về AI trong trường học, chỉ đạo Viện Tiêu chuẩn và Công nghệ Quốc gia (NIST) thiết lập hướng dẫn cho hệ thống AI và mở rộng lực lượng chuyên gia AI.
• Nhiều dự luật quy định rằng bất kỳ hướng dẫn nào họ đề xuất cho ngành đều không bắt buộc và mục tiêu là làm việc với các công ty để đảm bảo phát triển an toàn thay vì hạn chế đổi mới.
• Hai phần ba số dự luật AI được tài trợ bởi đảng Dân chủ. Một số thành viên Đảng Cộng hòa tại Hạ viện tuyên bố không muốn có quy định nào về AI, cho rằng các rào cản sẽ làm chậm tiến độ.
• Các chủ đề của các dự luật chủ yếu tập trung vào khoa học, công nghệ và truyền thông (28%), thương mại (22%), cập nhật hoạt động của chính phủ (18%) và an ninh quốc gia (9%).
• Các chủ đề ít được chú ý bao gồm lao động và việc làm (2%), bảo vệ môi trường (1%), quyền công dân, tự do dân sự và vấn đề thiểu số (1%).
• Deepfake là một vấn đề có thể vượt qua ranh giới đảng phái. Đạo luật Defiance, một trong số các dự luật giải quyết vấn đề này, được đồng tài trợ bởi một thượng nghị sĩ Đảng Dân chủ và một thượng nghị sĩ Đảng Cộng hòa.
📌 Quốc hội Mỹ đang xem xét hơn 120 dự luật AI, tập trung vào nhiều lĩnh vực từ giáo dục đến an ninh quốc phòng. Các ủy ban đã thông qua một số dự luật, chủ yếu thiết lập hướng dẫn tự nguyện và thúc đẩy nghiên cứu AI. Tuy nhiên, vẫn còn nhiều thách thức trong việc cân bằng giữa quy định và đổi mới.
https://www.technologyreview.com/2024/09/18/1104015/here-are-all-the-ai-bills-in-congress-right-now/
#MIT
• OpenAI vừa công bố mô hình AI tạo sinh mới nhất có tên o1, được mô tả là mô hình "suy luận". o1 mất nhiều thời gian hơn để "suy nghĩ" về câu hỏi trước khi trả lời, phân tích vấn đề và tự kiểm tra câu trả lời của mình.
• Mặc dù còn nhiều hạn chế, o1 vượt trội trong một số lĩnh vực như vật lý và toán học, dù không nhất thiết có nhiều tham số hơn so với GPT-4o.
• Điều này có ý nghĩa quan trọng đối với quy định AI. Ví dụ, dự luật SB 1047 của California áp đặt yêu cầu an toàn đối với các mô hình AI có chi phí phát triển trên 100 triệu USD hoặc được đào tạo bằng sức mạnh tính toán vượt quá ngưỡng nhất định.
• Tuy nhiên, o1 cho thấy việc tăng cường sức mạnh tính toán không phải là cách duy nhất để cải thiện hiệu suất mô hình. Các nghiên cứu gần đây chỉ ra rằng các mô hình nhỏ như o1 có thể vượt trội hơn nhiều so với các mô hình lớn nếu được cho thêm thời gian suy nghĩ.
• Sara Hooker, người đứng đầu phòng nghiên cứu của Cohere, cho rằng việc sử dụng quy mô mô hình làm thước đo rủi ro là một quan điểm không đầy đủ. Cần xem xét cả những gì có thể làm được với suy luận hoặc chạy mô hình.
• Tuy nhiên, điều này không có nghĩa là các nhà lập pháp cần phải viết lại hoàn toàn các dự luật AI. Nhiều dự luật được thiết kế để dễ dàng sửa đổi, với giả định rằng AI sẽ phát triển vượt xa thời điểm ban hành.
• Thách thức là tìm ra thước đo nào có thể là đại diện tốt hơn cho rủi ro so với sức mạnh tính toán đào tạo.
• Trong các tin tức khác:
- Sam Altman rời khỏi ủy ban an toàn của OpenAI
- Slack giới thiệu các tính năng AI mới
- Google bắt đầu gắn cờ hình ảnh AI
- Mistral ra mắt gói miễn phí
- Snapchat giới thiệu công cụ tạo video AI
- Intel ký thỏa thuận chip lớn với AWS
- Oprah Winfrey phát sóng chương trình đặc biệt về AI
• Các nhà nghiên cứu tại MIT và Cornell phát triển một mô hình có thể làm giảm niềm tin vào các thuyết âm mưu.
• Microsoft công bố bộ đánh giá AI mới có tên Eureka, nhằm mở rộng quy mô đánh giá mô hình một cách minh bạch.
📌 OpenAI giới thiệu mô hình o1 mới, thách thức cách tiếp cận quy định AI hiện tại. o1 cho thấy sức mạnh tính toán không phải thước đo duy nhất cho hiệu suất AI. Các nhà lập pháp cần xem xét lại cách đánh giá rủi ro AI toàn diện hơn, vượt ra ngoài chỉ số tính toán đơn thuần.
https://techcrunch.com/2024/09/18/this-week-in-ai-why-openais-o1-changes-the-ai-regulation-game/
- Microsoft đã kêu gọi sự "rõ ràng và nhất quán" từ chính phủ Mỹ về các quy định xuất khẩu chip AI đến Trung Đông.
- Công ty công nghệ này đã đầu tư 1.5 tỷ USD vào G42, một công ty AI lớn nhất tại UAE, nhằm mở rộng thị trường đến châu Á và châu Phi.
- Chính phủ Mỹ đã áp dụng các hạn chế xuất khẩu đối với chip chuyên dụng cho phần mềm AI đến Trung Đông do lo ngại công nghệ này có thể bị chuyển giao cho Trung Quốc.
- Microsoft vẫn chưa nhận được giấy phép cần thiết để vận chuyển các thành phần phục vụ cho kế hoạch hợp tác với G42.
- Brad Smith, chủ tịch và phó chủ tịch của Microsoft, nhấn mạnh rằng cần có sự rõ ràng từ chính phủ Mỹ về các quy định xuất khẩu.
- Dù gặp khó khăn trong việc xin giấy phép xuất khẩu, Microsoft và G42 đã công bố thành lập 2 viện nghiên cứu mới tại Abu Dhabi.
- Các viện này sẽ tập trung vào việc xây dựng hệ thống AI cho thế giới đang phát triển, bao gồm cả ngôn ngữ không phải phương Tây như tiếng Ả Rập và tiếng Hindi.
- Microsoft cam kết đầu tư hàng triệu USD và cung cấp cơ sở hạ tầng máy tính cho một "Phòng thí nghiệm AI vì lợi ích cộng đồng" tại Kenya.
- Các viện nghiên cứu sẽ nhấn mạnh việc sử dụng AI một cách có trách nhiệm để giải quyết các vấn đề xã hội ở các nước đang phát triển.
- Peng Xiao, CEO của G42, khẳng định rằng công ty cam kết phát triển AI một cách có trách nhiệm và an toàn.
- UAE đang nỗ lực để trở thành trung tâm AI toàn cầu, bất chấp mối quan hệ sâu sắc với Bắc Kinh.
- G42 đã cắt đứt quan hệ với các nhà cung cấp Trung Quốc như Huawei để giảm bớt lo ngại từ phía Mỹ.
- Công ty cũng đã áp dụng chính sách không kinh doanh với bất kỳ thực thể nào nằm trong danh sách kiểm soát xuất khẩu của Mỹ.
📌 Microsoft đang nỗ lực hợp tác với G42 để phát triển công nghệ AI tại UAE, nhưng gặp khó khăn do các hạn chế xuất khẩu từ Mỹ. Họ đã đầu tư 1.5 tỷ USD và thành lập hai viện nghiên cứu mới nhằm phục vụ cho thị trường đang phát triển.
https://www.ft.com/content/bb9ed20e-8e95-4808-a37c-7a540ca4b056
#FT
• Israel đã củng cố vị thế là một trong những cường quốc AI hàng đầu thế giới, xếp hạng thứ 4 toàn cầu về tiến bộ AI theo một nghiên cứu gần đây của ZeroBounce, một công ty phần mềm email ở California.
• Nghiên cứu phân tích các tiêu chí về đầu tư tư nhân, startup AI và lực lượng lao động trong thập kỷ qua, xếp Israel sau Mỹ, Trung Quốc và Anh.
• Điểm nổi bật của Israel trong lĩnh vực AI là tỷ lệ tập trung nhân tài AI cao nhất thế giới. Nghiên cứu cho thấy Israel có tỷ lệ chuyên gia AI cao nhất trong lực lượng lao động, với 1,13% tổng lực lượng lao động làm việc trong các vai trò liên quan đến AI.
• Hệ sinh thái AI của Israel được củng cố bởi một cộng đồng startup phát triển mạnh mẽ. Báo cáo chỉ ra rằng 442 startup liên quan đến AI đã được thành lập ở Israel, thể hiện năng lực của quốc gia này trong lĩnh vực AI.
• Mặc dù con số đầu tư tư nhân của Israel có thể thấp hơn so với 3 quốc gia dẫn đầu, nhưng trọng tâm chiến lược của nước này vào phát triển AI rất rõ ràng. Chỉ riêng năm 2023, Israel đã đầu tư 1,52 tỷ USD vào các tiến bộ AI.
• Chính phủ Israel nhận thức được nhu cầu duy trì lợi thế cạnh tranh này. Cơ quan Đổi mới Israel (IIA) đã phát động một gói thầu trị giá 10 triệu shekel (khoảng 2,7 triệu USD) để thu hút các chuyên gia AI nước ngoài đến Israel.
• Gói thầu này nhằm giải quyết nhu cầu ngày càng tăng về các chuyên gia AI, đặc biệt là trong lĩnh vực học máy và học sâu ở nhiều lĩnh vực khác nhau.
• Bộ trưởng Đổi mới, Khoa học và Công nghệ Gila Gamliel nhấn mạnh tầm quan trọng của việc thu hút các chuyên gia nước ngoài giỏi nhất để duy trì vị thế siêu cường công nghệ toàn cầu của Israel.
• Dror Bin, CEO của Cơ quan Đổi mới Israel, nhấn mạnh tầm quan trọng của việc đưa nhân tài AI giỏi vào đất nước. Ông cho biết thành công của chương trình thí điểm này sẽ mở đường cho các sáng kiến tương tự trong lĩnh vực AI và các lĩnh vực công nghệ khác.
• Nỗ lực của chính phủ nhằm tăng cường năng lực AI của Israel được bổ sung bởi sự quan tâm ngày càng tăng từ các công ty công nghệ lớn. Vào tháng 6, Meta (trước đây là Facebook) đã ra mắt chương trình tăng tốc AI ở Israel.
📌 Israel xếp thứ 4 toàn cầu về AI, với 1,13% lực lượng lao động là chuyên gia AI - tỷ lệ cao nhất thế giới. Chính phủ đầu tư 1,52 tỷ USD vào AI năm 2023 và phát động gói thầu 2,7 triệu USD thu hút nhân tài nước ngoài, củng cố vị thế siêu cường AI.
https://www.zenger.news/2024/09/16/israel-ranks-fourth-in-global-ai-landscape-attracts-top-talent/
• Cục Quản lý Không gian mạng Trung Quốc đã dự thảo "Biện pháp nhận diện nội dung tổng hợp do AI tạo ra" và đang lấy ý kiến công chúng đến ngày 14/10/2024.
• Mục đích là quản lý việc nhận diện nội dung tổng hợp do AI tạo ra, bảo vệ an ninh quốc gia và quyền lợi hợp pháp của công dân, pháp nhân và tổ chức khác.
• Quy định áp dụng cho các nhà cung cấp dịch vụ thông tin mạng đáp ứng yêu cầu của các quy định hiện hành về quản lý thuật toán, tổng hợp sâu và dịch vụ AI tạo sinh.
• Nội dung tổng hợp do AI tạo ra bao gồm văn bản, hình ảnh, âm thanh và video được sản xuất, tạo ra hoặc tổng hợp bằng công nghệ AI.
• Nhãn nhận diện bao gồm nhãn rõ ràng (có thể nhận biết được) và nhãn ngầm định (được thêm vào metadata của file).
• Nhà cung cấp dịch vụ phải thêm nhãn rõ ràng vào vị trí thích hợp của nội dung như đầu, cuối hoặc giữa văn bản/âm thanh/video, hoặc trên giao diện tương tác.
• Nhãn ngầm định phải được thêm vào metadata của file, bao gồm thông tin về thuộc tính nội dung, nhà cung cấp, mã số nội dung và các yếu tố sản xuất khác.
• Nền tảng truyền tải nội dung trực tuyến phải xác minh và thêm nhãn nhắc nhở cho nội dung tổng hợp do AI tạo ra, kể cả khi nghi ngờ.
• Người dùng phải chủ động khai báo và sử dụng chức năng gắn nhãn khi tải lên nội dung tổng hợp do AI tạo ra.
• Nghiêm cấm xóa, giả mạo hoặc che giấu nhãn nhận diện một cách độc hại.
• Nhà cung cấp dịch vụ phải tuân thủ các tiêu chuẩn quốc gia bắt buộc về gắn nhãn.
• Vi phạm quy định có thể bị xử phạt theo luật pháp hiện hành.
• Dự kiến quy định sẽ có hiệu lực vào năm 2024.
📌 Trung Quốc đề xuất quy định mới yêu cầu gắn nhãn rõ ràng và ngầm định cho nội dung do AI tạo ra, nhằm bảo vệ người dùng và an ninh quốc gia. Nhà cung cấp dịch vụ và người dùng đều có trách nhiệm tuân thủ, vi phạm sẽ bị xử phạt. Quy định dự kiến có hiệu lực năm 2024.
https://www.cac.gov.cn/2024-09/14/c_1728000676244628.htm
• Saudi Arabia đang đẩy mạnh kế hoạch trở thành quốc gia dẫn đầu về AI trên thế giới. Thái tử Mohammed bin Salman, 39 tuổi, đã tuyên bố tham vọng biến vương quốc này thành "quốc gia mẫu mực về AI".
• Vương quốc vừa tổ chức Hội nghị thượng đỉnh AI toàn cầu lần thứ 3, với sự tham gia của các diễn giả đến từ các công ty AI hàng đầu phương Tây như Nvidia, Qualcomm, Google, Microsoft và Cohere.
• Tại hội nghị, Saudi Arabia công bố thỏa thuận hợp tác giữa công ty chip Groq của Mỹ và công ty con của tập đoàn dầu khí quốc gia Saudi Aramco để xây dựng "trung tâm dữ liệu suy luận AI lớn nhất".
• Groq là một trong những đối thủ cạnh tranh nghiêm túc của Nvidia trong lĩnh vực chip AI. Công ty này vừa huy động được 640 triệu USD từ các nhà đầu tư như BlackRock và Cisco, định giá đạt 2,8 tỷ USD.
• Tháng 3/2024, Saudi Arabia tổ chức hội nghị LEAP với sự tham gia của CEO Amazon Web Services và IBM. AWS cam kết đầu tư hơn 5,3 tỷ USD vào Saudi Arabia trong vài năm tới để xây dựng các trung tâm dữ liệu phục vụ AI.
• Cũng trong tháng 3, Saudi Arabia thành lập quỹ đầu tư AI trị giá 40 tỷ USD - quỹ đầu tư AI lớn nhất thế giới. Quỹ này đang đàm phán hợp tác chiến lược với quỹ đầu tư mạo hiểm A16z của Mỹ.
• Các động thái này nằm trong kế hoạch Vision 2030 nhằm đa dạng hóa nền kinh tế Saudi Arabia, giảm phụ thuộc vào dầu mỏ. AI được xem là một trong số ít ngành công nghiệp chủ chốt mà vương quốc đặt cược để chuyển đổi kinh tế thành công.
• Saudi Arabia đang sẵn sàng đổ vốn lớn để xây dựng cơ sở hạ tầng AI quan trọng, đồng thời thu hút các công ty hàng đầu nước ngoài bằng nguồn tài chính dồi dào của mình.
📌 Saudi Arabia đang đặt cược lớn vào AI với quỹ đầu tư 40 tỷ USD và các thỏa thuận hợp tác trị giá hàng tỷ USD. Vương quốc này quyết tâm trở thành trung tâm AI hàng đầu thế giới, coi đây là ngành công nghiệp chủ chốt để đa dạng hóa nền kinh tế khỏi dầu mỏ theo kế hoạch Vision 2030.
https://www.businessinsider.com/saudi-arabia-ai-groq-a16z-vision-2030-mbs-2024-9
• Báo cáo xác định 6 yếu tố chính để đánh giá mức độ sẵn sàng cho AI:
- Sự sẵn có của dữ liệu mở: Số lượng kho dữ liệu mở, giấy phép dữ liệu, khối lượng và đa dạng dữ liệu, metadata, tốc độ dữ liệu, khoảng cách từ nguồn đến sandbox, số lượng người thu thập dữ liệu, tiền xử lý, thời gian sống của dữ liệu, quy tắc AAA, số lượng lĩnh vực áp dụng, mô tả API, dữ liệu có cấu trúc/phi cấu trúc, khoảng cách đến hệ thống phục vụ, độ mạnh của dữ liệu.
- Tiếp cận nghiên cứu: Số lượng bài báo được xuất bản và trích dẫn, số lượng mô hình nền tảng, số lượng bộ dữ liệu được trích dẫn trong nghiên cứu ứng dụng, số lượng bài báo trích dẫn dữ liệu, đổi mới khởi nghiệp.
- Khả năng triển khai cùng với cơ sở hạ tầng: Số lượng tùy chọn triển khai edge, tùy chọn kết nối, tùy chọn giao diện, số lượng cảm biến được triển khai, tỷ lệ phần trăm khu vực địa lý được bao phủ, số lượng tùy chỉnh cần thiết cho các ứng dụng cụ thể, hiệu quả của nguồn năng lượng, số lượng bảng điều khiển trực quan hóa dịch vụ công và ứng dụng di động.
- Sự chấp thuận của các bên liên quan được hỗ trợ bởi các tiêu chuẩn: Thống kê tham gia hội thảo trực tuyến ITU, số lượng tài liệu tiêu chuẩn, số lượng người đánh giá và chú thích, số lượng đóng góp ITU và trường hợp sử dụng khu vực, số lượng nhóm nghiên cứu và biên tập viên nhóm tập trung, số lượng sự kiện thử nghiệm tương thích, số lượng lĩnh vực trọng tâm từ các cơ quan quản lý quốc gia liên quan đến AI/ML, số lượng tài liệu từ các cơ quan tiêu chuẩn quốc gia đề cập đến AI/ML, số lượng SDG bị ảnh hưởng, số lượng và mức độ tài trợ.
- Hệ sinh thái nhà phát triển được tạo ra thông qua mã nguồn mở: Số dòng mã, số kho mã nguồn, số dự án mã nguồn mở, số lượng thị trường, cửa hàng ứng dụng, cổng IoT, thống kê sử dụng kho mã nguồn mở và API được lưu trữ, ứng dụng được lưu trữ tích hợp các mô hình.
- Thu thập dữ liệu và xác thực mô hình thông qua các thiết lập thử nghiệm sandbox: Số lượng sandbox, số lượng bộ điều khiển được công bố, vòng phản hồi.
• Báo cáo đề xuất 3 bước tiếp theo:
1. Thiết lập kho dữ liệu mở để giải quyết yếu tố sẵn sàng AI tương ứng về sự sẵn có của dữ liệu mở.
2. Tạo Sandbox thử nghiệm với các bộ công cụ và mô phỏng tuân thủ tiêu chuẩn được điền sẵn để nghiên cứu tác động của các yếu tố sẵn sàng.
3. Xây dựng các chỉ số mở và bộ công cụ tham chiếu mã nguồn mở để đo lường và xác thực mức độ sẵn sàng AI.
• Ngoài ra, một Plugfest Thí điểm về Mức độ sẵn sàng AI được lên kế hoạch để giải thích các yếu tố sẵn sàng AI cho các bên liên quan và cho phép họ "cắm" các yếu tố khu vực khác nhau như dữ liệu, mô hình, tiêu chuẩn, bộ công cụ và đào tạo.
• Kết quả của plugfest cùng với phiên bản tiếp theo của báo cáo này sẽ được công bố tại Hội nghị thượng đỉnh AI for Good 2025.
📌 Báo cáo ITU xác định 6 yếu tố chính để đánh giá mức độ sẵn sàng cho AI, bao gồm dữ liệu mở, nghiên cứu, triển khai và cơ sở hạ tầng, tiêu chuẩn, hệ sinh thái phát triển mã nguồn mở, và thử nghiệm trong sandbox. Các bước tiếp theo được đề xuất để xây dựng kho dữ liệu mở, sandbox thử nghiệm và các chỉ số đánh giá mức độ sẵn sàng AI.
https://www.itu.int/dms_pub/itu-t/opb/ai4g/T-AI4G-AI4GOOD-2024-2-PDF-E.pdf
• Các quốc gia vùng Vịnh đang đầu tư mạnh vào trí tuệ nhân tạo (AI) với mục tiêu trở thành những cường quốc công nghệ hàng đầu thế giới.
• Theo báo cáo của PwC, AI có thể đóng góp 320 tỷ USD cho Trung Đông vào năm 2030, chiếm khoảng 2% tổng lợi ích toàn cầu từ AI.
• Stephen Anderson, lãnh đạo chiến lược và thị trường Trung Đông của PwC, cho biết khu vực này sẵn sàng thử nghiệm và tham gia vào AI hơn so với các nơi khác trên thế giới.
• Một vấn đề của sự phát triển nhanh chóng của AI là nó tiêu tốn rất nhiều năng lượng và đang trở thành nguồn phát thải khí nhà kính lớn. Google báo cáo lượng phát thải năm 2023 tăng gần 50% so với 2019, một phần do nhu cầu năng lượng của AI.
• Tuy nhiên, Anderson tin rằng các quốc gia vùng Vịnh có tiềm năng trở thành "những người chơi chính" trong công nghệ này và có khả năng làm cho nó xanh hơn nhờ vào nguồn năng lượng mặt trời giá rẻ.
• UAE, Qatar và Saudi Arabia được coi là những nhà đầu tư hàng đầu trong khu vực về AI.
• Saudi Arabia đang đầu tư mạnh vào AI như một phần của chiến lược "Vision 2030" nhằm đa dạng hóa nền kinh tế. Dự kiến AI sẽ đóng góp 12% GDP của nước này vào năm 2030, với tốc độ tăng trưởng hàng năm là 29%.
• Các nước vùng Vịnh đang nỗ lực phát triển các mô hình ngôn ngữ tiếng Ả Rập được đào tạo trên bộ dữ liệu địa phương. UAE đã ra mắt công cụ Jais, trong khi Saudi Arabia phát triển chatbot ALLaM.
• ALLaM sẽ được lưu trữ trên nền tảng điện toán đám mây Azure của Microsoft và có thể truy cập thông qua nền tảng watsonx của IBM.
• Nick Studer, CEO của Oliver Wyman Group, cho rằng việc tập trung vào các mô hình ngôn ngữ tiếng Ả Rập có thể giúp Saudi Arabia cạnh tranh với các thị trường nói tiếng Anh.
• Một trong những thách thức lớn trong phát triển AI là nhận thức của công chúng và quản trị: làm thế nào để quản lý AI và dữ liệu một cách an toàn, bảo mật, đạo đức và công bằng.
• Tại hội nghị GAIN, nhiều chính sách đã được công bố, bao gồm hướng dẫn sử dụng có trách nhiệm deepfake, Hiến chương Riyadh về AI trong Thế giới Hồi giáo, và khung toàn cầu về sự sẵn sàng cho AI.
• Studer nhấn mạnh tầm quan trọng của một khung quản lý vững chắc cho tương lai của AI, đặc biệt là để giải quyết các lo ngại về quyền riêng tư, rủi ro mất việc làm và chủ quyền quốc gia.
📌 Các quốc gia vùng Vịnh đang đầu tư mạnh vào AI, với tiềm năng đóng góp 320 tỷ USD cho Trung Đông vào năm 2030. Saudi Arabia dự kiến AI sẽ chiếm 12% GDP vào năm 2030. Việc phát triển mô hình ngôn ngữ tiếng Ả Rập và xây dựng khung quản trị AI là những ưu tiên hàng đầu.
https://www.cnn.com/2024/09/16/middleeast/middle-east-artificial-intelligence-spc/index.html
• AI đang mang lại cả cơ hội và thách thức. Nó có thể nâng cao năng suất, cải thiện dịch vụ nhưng cũng tiềm ẩn rủi ro như deepfake, xâm phạm quyền riêng tư, vi phạm sở hữu trí tuệ.
• Tác giả cho rằng việc kêu gọi quy định mới dành riêng cho AI là không cần thiết. Hầu hết các ứng dụng của AI đã được điều chỉnh bởi các quy định hiện hành về bảo vệ người tiêu dùng, quyền riêng tư và chống phân biệt đối xử.
• Cách tiếp cận tốt nhất là làm cho các quy tắc hiện có hoạt động hiệu quả với AI. Các cơ quan quản lý như Ủy ban Cạnh tranh và Người tiêu dùng, Cơ quan Thông tin Úc cần làm rõ cách áp dụng luật hiện hành với AI.
• Một số quy định có thể cần được điều chỉnh hoặc mở rộng để đảm bảo kiểm soát được các hành vi do AI tạo ra. Tuy nhiên, việc này nên là bước cuối cùng, không phải là điểm khởi đầu.
• Quy định mới (nếu cần) nên trung lập về mặt công nghệ càng nhiều càng tốt. Quy định viết riêng cho một công nghệ cụ thể có thể nhanh chóng lỗi thời.
• Úc nên trở thành "người tiếp nhận quy định" quốc tế thay vì tự đặt ra quy định riêng. Điều này giúp các nhà phát triển sản phẩm không bỏ qua thị trường Úc tương đối nhỏ.
• Mục tiêu là tối đa hóa lợi ích từ AI đồng thời bảo vệ khỏi hậu quả tiêu cực. Các quy tắc hiện có, thay vì quy định mới dành riêng cho AI, nên là điểm khởi đầu.
• Tác giả khuyến nghị Úc nên tham gia vào việc phát triển các tiêu chuẩn quốc tế về AI cùng với các quốc gia khác thay vì tự đặt ra quy định riêng.
• Cần cân nhắc giữa rủi ro tiềm ẩn và lợi ích tiềm năng của việc sử dụng AI. Các rủi ro và lợi ích nên được đánh giá so với các giải pháp thay thế dựa trên con người trong thế giới thực.
📌 Quy định hiện hành đã đủ để kiểm soát AI, cần điều chỉnh thay vì tạo mới. Úc nên là "người tiếp nhận quy định" quốc tế, tham gia xây dựng tiêu chuẩn toàn cầu. Mục tiêu là tối đa hóa lợi ích AI, giảm thiểu rủi ro thông qua luật hiện hành.
https://theconversation.com/the-best-way-to-regulate-ai-might-be-not-to-specifically-regulate-ai-this-is-why-238788
• Trung Quốc đã đề xuất hướng dẫn yêu cầu gắn nhãn và nhận dạng nội dung được tạo ra bởi trí tuệ nhân tạo (AI) do công nghệ này đặt ra những thách thức mới đối với an ninh quốc gia và lợi ích công cộng.
• Dự thảo quy định đang được lấy ý kiến công khai, quy định rõ yêu cầu gắn nhãn nội dung do AI tạo ra trong quá trình sản xuất, hiển thị và phân phối.
• Các nhà cung cấp nội dung trực tuyến sẽ phải sử dụng các nhãn dễ nhận biết - như văn bản, âm thanh hoặc đồ họa - cho tất cả văn bản, video, âudio và cảnh ảo do AI tạo ra.
• Các định danh tinh vi hơn như thủy vân kỹ thuật số và thẻ metadata cũng được khuyến khích sử dụng cho nội dung do AI tạo ra.
• Dự thảo cũng quy định không tổ chức hoặc cá nhân nào được phép xóa, giả mạo, che giấu các nhãn bắt buộc hoặc vi phạm quyền và lợi ích của người khác thông qua việc nhận dạng không đúng nội dung do AI tạo ra.
• Các quy định đề xuất yêu cầu các nền tảng nội dung trực tuyến phải quản lý bất kỳ nội dung nào do AI tạo ra mà họ phân phối.
• Theo Cục Quản lý Không gian mạng Trung Quốc, hướng dẫn sẽ áp dụng cho các tổ chức ngành, doanh nghiệp, cơ sở giáo dục và nghiên cứu khoa học, cơ quan văn hóa công cộng và các tổ chức chuyên môn sử dụng AI để tạo nội dung và cung cấp dịch vụ cho công chúng Trung Quốc.
• Các yêu cầu nhằm bảo vệ an ninh quốc gia, lợi ích công cộng và bảo vệ quyền và lợi ích hợp pháp của người dân và tổ chức.
• Quy định này dựa trên các khuôn khổ pháp lý trước đó, bao gồm Quy định quản lý về Tổng hợp sâu trong Dịch vụ thông tin trên Internet được thực hiện từ tháng 1/2023, yêu cầu gắn nhãn rõ ràng cho nội dung có thể gây nhầm lẫn hoặc đánh lừa công chúng.
• Một quy định quan trọng khác là Biện pháp tạm thời về Quản lý Dịch vụ AI tạo sinh được ban hành vào tháng 8/2023, là bộ quy tắc đầu tiên của Trung Quốc nhắm vào các dịch vụ AI tạo sinh.
• Vào tháng 8 năm ngoái, Ủy ban Kỹ thuật Tiêu chuẩn hóa An ninh Thông tin Quốc gia đã ban hành hướng dẫn về tiêu chuẩn gắn nhãn nội dung cho văn bản, hình ảnh, âm thanh và video.
• Các quy định đề xuất là phản ứng mới nhất của Trung Quốc trước sự phát triển nhanh chóng của AI và những thách thức phát sinh từ công nghệ này, bao gồm việc lan truyền thông tin sai lệch và vấn đề bản quyền.
• Công nghệ deepfake, sử dụng học sâu AI để thay đổi hình ảnh, âm thanh và video, đã bị lợi dụng để tạo ra ảnh giả và thực hiện gian lận.
• Nhiều quốc gia và tổ chức đang tìm cách quản lý nội dung do AI tạo ra để đảm bảo tính xác thực, bảo vệ bản quyền và duy trì trật tự xã hội. Các nỗ lực đáng chú ý bao gồm Kế hoạch phối hợp về Trí tuệ nhân tạo của Liên minh châu Âu, Đạo luật Trách nhiệm Deepfake của Hoa Kỳ và Sách trắng về Tác hại trực tuyến của chính phủ Anh.
📌 Trung Quốc đề xuất quy định gắn nhãn nội dung AI để đối phó với các thách thức như thông tin sai lệch và deepfake. Quy định áp dụng cho nhiều tổ chức, yêu cầu gắn nhãn rõ ràng và khuyến khích sử dụng thủy vân kỹ thuật số. Đây là bước tiến mới trong quản lý chặt chẽ lĩnh vực AI tạo sinh ở Trung Quốc.
https://www.scmp.com/news/china/science/article/3278541/china-require-labels-ai-generated-content-tech-brings-fresh-challenges
• California đang xem xét khoảng 15 dự luật để quản lý AI trong năm 2024, với hơn một chục dự luật đã được chuyển đến bàn làm việc của Thống đốc Gavin Newsom.
• Dự luật SB 1047 do Thượng nghị sĩ Scott Wiener đề xuất nhận được nhiều sự chú ý nhất. Dự luật này yêu cầu các biện pháp an toàn đối với các mô hình AI tiên tiến có chi phí phát triển trên 100 triệu USD hoặc yêu cầu sức mạnh tính toán lớn.
• SB 1047 đã gặp phải sự phản đối mạnh mẽ từ các công ty công nghệ lớn như Alphabet, Meta và OpenAI. Họ cho rằng dự luật có thể gây tổn hại đến nỗ lực nghiên cứu và vị thế của California đối với cộng đồng khởi nghiệp.
• Một số dự luật AI khác đang chờ chữ ký của Thống đốc Newsom bao gồm:
- SB 942: Yêu cầu các công ty cung cấp công cụ phát hiện AI miễn phí
- SB 896: Yêu cầu các cơ quan chính phủ đánh giá rủi ro của AI tạo sinh và công bố khi sử dụng
- Luật hình sự hóa việc tạo ra nội dung khiêu dâm trẻ em bằng AI tạo sinh
- Yêu cầu các ứng dụng mạng xã hội vô hiệu hóa chức năng sắp xếp nội dung bằng thuật toán cho người dùng dưới 18 tuổi
- Xử phạt việc tạo ra hoặc xuất bản nội dung lừa đảo được tạo bằng AI
- Yêu cầu các nền tảng trực tuyến lớn gỡ bỏ hoặc gắn nhãn deepfake trong vòng 72 giờ sau khi được báo cáo
- Yêu cầu các chiến dịch chính trị công bố việc sử dụng AI trong quảng cáo
• Thống đốc Newsom có 30 ngày kể từ khi kỳ họp lập pháp kết thúc (đến 30/9) để ký hoặc phủ quyết các dự luật. Ông chưa công khai lập trường của mình về các dự luật này.
• Mặc dù California đang tích cực thảo luận về quy định, việc thông qua luật sẽ không chấm dứt cuộc tranh luận vì các nhà cung cấp AI vẫn phải điều hướng qua 49 tiểu bang còn lại với các quy định khác nhau.
📌 California đang dẫn đầu trong nỗ lực quản lý AI với 15 dự luật được xem xét. SB 1047 về an toàn AI gây tranh cãi lớn, trong khi các dự luật khác nhắm đến deepfake, bảo vệ trẻ em và minh bạch. Tuy nhiên, vẫn còn nhiều thách thức trong việc tạo ra một khung pháp lý toàn diện cho AI.
https://thelettertwo.com/2024/09/13/ai-economy-how-california-will-regulate-ai/
- Luật sư tại Singapore sẽ có thể sử dụng dịch vụ AI mới mang tên LawNet AI để nghiên cứu và tóm tắt khoảng 15.000 bản án từ lịch sử pháp lý của quốc gia này kể từ năm 1965.
- Dịch vụ này sẽ được triển khai vào ngày 12 tháng 9 năm 2024 và được phát triển bởi Singapore Academy of Law (SAL) và Cơ quan Phát triển Truyền thông Thông tin (IMDA).
- Tổng cộng có khoảng 25.000 bản án sẽ được người dùng truy cập, bao gồm 10.000 bản án đã được tóm tắt bởi các thư ký pháp lý.
- LawNet AI được giới thiệu tại hội nghị TechLaw.Fest, một sự kiện pháp lý do Bộ Luật và SAL tổ chức.
- Hầu hết các luật sư tại Singapore đều đăng ký sử dụng LawNet, được thành lập vào năm 1990, để tra cứu các vụ án trước đó.
- Các bản án thường rất dài và chưa được tóm tắt, gây khó khăn cho luật sư trong việc tìm kiếm thông tin cần thiết.
- Để giảm thiểu rủi ro về việc AI tạo ra kết quả không chính xác (ảo giác AI), gần 350 kết quả do AI tạo ra đã được các thư ký luật của thẩm phán xem xét.
- Các thư ký luật sẽ tiếp tục tóm tắt các bản án được Hội đồng Báo cáo pháp lý chọn, trong khi LawNet AI sẽ tóm tắt những bản án không được chọn.
- Hệ thống có các biện pháp bảo vệ, bao gồm công cụ để làm nổi bật các phần của phản hồi từ AI mà có sự sai lệch đáng kể so với bản án gốc.
- Các đoạn trong tóm tắt do AI tạo ra cũng được gán nhãn với các tham chiếu đến nguồn gốc để giúp người dùng kiểm tra thông tin dễ dàng hơn.
- Các cải tiến cho LawNet là một trong nhiều dịch vụ mới được giới thiệu tại hội nghị diễn ra tại Sands Expo & Convention Centre.
- Trong vòng hai năm tới, các công ty luật có thể nhận được 70% trợ cấp từ Chính phủ để áp dụng các dịch vụ trong Nền tảng Công nghệ Pháp lý.
- Thứ trưởng Bộ Tư pháp Edwin Tong đã công bố hướng dẫn giúp luật sư sử dụng tốt hơn các công cụ AI tạo sinh, bao gồm các kỹ thuật để tạo ra các yêu cầu chính xác hơn.
- Ông Tong nhấn mạnh rằng các trợ cấp này nhằm giúp các công ty giảm bớt chi phí, một trong những rào cản lớn nhất trong việc áp dụng công nghệ mới.
- Tại hội nghị, Thẩm phán Aedit Abdullah nhấn mạnh tầm quan trọng của việc kiểm tra thông tin, khẳng định rằng luật sư vẫn chịu trách nhiệm về công việc của mình, bất kể nó được sản xuất với sự trợ giúp của AI.
📌 LawNet AI sẽ giúp luật sư tại Singapore tiết kiệm thời gian và nâng cao hiệu quả công việc khi xử lý 15.000 bản án, với sự hỗ trợ từ các thư ký luật và các biện pháp kiểm tra chất lượng.
https://www.straitstimes.com/tech/new-ai-service-to-help-lawyers-go-through-25000-judgments-in-s-pore-s-legal-history
• Bộ Phát triển Kỹ thuật số và Thông tin Singapore (MDDI) đã đề xuất luật mới nhằm cấm sử dụng nội dung bị thao túng kỹ thuật số, đặc biệt là deepfake, trong các cuộc bầu cử.
• Dự luật được đưa ra nhằm bảo vệ "tính toàn vẹn và trung thực của đại diện" trong bầu cử, và sẽ được đọc lần hai tại phiên họp Quốc hội tiếp theo.
• Mục tiêu là bảo vệ người dân trước nội dung bị thao túng kỹ thuật số, bao gồm âm thanh, video và hình ảnh được tạo ra bởi trí tuệ nhân tạo (AI).
• MDDI chỉ ra rằng công nghệ AI tạo sinh đã tạo ra cơ hội nhưng cũng mang lại rủi ro thông tin, với các tác nhân đe dọa sử dụng nó để tạo và lan truyền thông tin sai lệch.
• Luật mới sẽ cấm xuất bản quảng cáo bầu cử trực tuyến được tạo hoặc thao túng kỹ thuật số mô tả một cách thực tế các ứng cử viên nói hoặc làm điều gì đó mà họ không thực sự nói hoặc làm.
• Biện pháp này sẽ chỉ áp dụng cho quảng cáo bầu cử trực tuyến có sự xuất hiện của các cá nhân đang tranh cử.
• Luật cho phép ban hành chỉ thị bắt sửa đối với cá nhân xuất bản nội dung vi phạm cũng như các nền tảng mạng xã hội để gỡ bỏ nội dung vi phạm.
• Không tuân thủ chỉ thị sửa chữa được coi là hành vi phạm tội và có thể bị phạt tiền, phạt tù hoặc cả hai nếu bị kết tội.
• Ứng cử viên có thể gửi yêu cầu đánh giá nội dung có khả năng vi phạm và ban hành chỉ thị bắt sửa tương ứng.
• Việc ứng cử viên cố ý khai báo sai sự thật hoặc gây hiểu lầm trong yêu cầu về nội dung đang được xem xét sẽ bị coi là bất hợp pháp.
• Chính phủ Singapore cũng dự định đưa ra quy tắc thực hành yêu cầu các nhà cung cấp mạng xã hội cụ thể thực hiện các biện pháp ngăn chặn và chống lại việc sử dụng nội dung bị thao túng kỹ thuật số trên nền tảng của họ.
• Singapore dự kiến sẽ tổ chức tổng tuyển cử vào đầu năm tới hoặc trước tháng 11/2025.
• Hàn Quốc đã áp dụng lệnh cấm 90 ngày đối với việc sử dụng deepfake trong nội dung vận động chính trị cho cuộc bầu cử lập pháp tháng 4/2024.
📌 Singapore đề xuất luật cấm sử dụng deepfake trong bầu cử, áp dụng cho quảng cáo bầu cử trực tuyến. Vi phạm có thể bị phạt tiền hoặc tù. Dự kiến tổng tuyển cử sẽ diễn ra trước tháng 11/2025. Hàn Quốc đã áp dụng lệnh cấm tương tự trong 90 ngày cho bầu cử tháng 4/2024.
https://www.zdnet.com/article/singapore-moots-legislation-to-outlaw-use-of-deepfakes-during-elections/
• Thống đốc California Gavin Newsom đang cân nhắc ký hay phủ quyết dự luật an toàn AI SB 1047, với thời hạn là ngày 30/9/2024.
• Công đoàn diễn viên SAG-AFTRA, Tổ chức Phụ nữ Quốc gia (NOW) và Fund Her đã gửi thư kêu gọi Newsom phê chuẩn dự luật.
• SB 1047 sẽ là luật an toàn AI quan trọng nhất ở Mỹ nếu được thông qua, thiết lập trách nhiệm dân sự cho các nhà phát triển AI thế hệ mới như ChatGPT nếu gây ra thảm họa mà không triển khai biện pháp bảo vệ phù hợp.
• Dự luật cũng bao gồm bảo vệ người tố giác trong các công ty AI, được ủng hộ bởi các cựu nhân viên OpenAI.
• Những người ủng hộ cho rằng tiêu chuẩn an toàn AI của California sẽ thay đổi thế giới, tương tự như luật khí thải ô tô năm 1966.
• Cuộc tranh luận về SB 1047 đã tạo ra các liên minh chính trị kỳ lạ: Elon Musk đứng cùng phe với các nhóm công bằng xã hội và công đoàn, trong khi Nancy Pelosi và Marc Andreessen phản đối.
• SAG-AFTRA lo ngại về nguy cơ AI đối với sinh kế của diễn viên, đặc biệt là vấn đề deepfake khiêu dâm và đánh cắp hình ảnh.
• NOW và Fund Her nhấn mạnh tác động tiêu cực tiềm tàng của AI không được kiểm soát đối với phụ nữ và các nhóm dễ bị tổn thương.
• Ngành công nghiệp AI phần lớn phản đối dự luật, cảnh báo về nguy cơ các công ty rời khỏi California và Mỹ mất vị thế dẫn đầu về AI cho Trung Quốc.
• Anthropic, một công ty AI hàng đầu, ủng hộ dự luật sau khi có sửa đổi, cho rằng lợi ích có thể vượt trội hơn chi phí.
• Với sự phản đối từ các lãnh đạo Quốc hội đối với quy định AI liên bang, California có thể đi tiên phong trong việc thiết lập tiêu chuẩn, tương tự như đã làm với trung lập internet và quyền riêng tư dữ liệu.
📌 Dự luật SB 1047 của California có thể trở thành luật an toàn AI quan trọng nhất ở Mỹ, thiết lập trách nhiệm cho các nhà phát triển AI thế hệ mới. Cuộc tranh luận gay gắt với sự tham gia của nhiều bên đang gây sức ép lên Thống đốc Newsom trước thời hạn 30/9, có thể định hình tương lai quản trị AI ở California và xa hơn.
https://www.theverge.com/2024/9/11/24242142/sag-aftra-ai-now-gavin-newsom-safety-sb-1047-letters
• Khảo sát mới của Deloitte cho thấy 48,6% công ty Đức chưa nghiêm túc chuẩn bị cho việc thực thi Đạo luật AI của Liên minh châu Âu (EU AI Act), có hiệu lực từ tháng 8/2024.
• Chỉ 26,2% công ty đã bắt đầu chuẩn bị tích cực cho các yêu cầu quy định mới, cho thấy khoảng cách lớn về mức độ sẵn sàng giữa các doanh nghiệp Đức.
• Trong số 500 nhà quản lý tham gia khảo sát, 35,7% cảm thấy đã chuẩn bị tốt để đáp ứng yêu cầu của Đạo luật AI, 30% chỉ chuẩn bị một phần, 19,4% chuẩn bị kém và 14,9% chưa quyết định.
• Đạo luật AI của EU nhằm đảm bảo an toàn và tiêu chuẩn đạo đức cho AI, phân loại hệ thống AI theo mức độ rủi ro với các yêu cầu tuân thủ cụ thể.
• Hệ thống AI rủi ro cao như trong tuyển dụng phải đáp ứng tiêu chuẩn nghiêm ngặt, trong khi hệ thống có rủi ro không chấp nhận được bị cấm. Mức phạt có thể lên tới 7% doanh thu hàng năm toàn cầu đối với vi phạm nghiêm trọng.
• 52,3% công ty cho rằng Đạo luật AI sẽ hạn chế khả năng đổi mới AI, chỉ 18,5% kỳ vọng tác động tích cực và 24,2% trung lập.
• 47,4% xem Đạo luật AI là rào cản phát triển ứng dụng AI, chỉ 24,1% tin rằng quy định mới sẽ hỗ trợ phát triển và triển khai.
• Chỉ một phần nhỏ công ty đã có biện pháp cụ thể để tuân thủ: 7,5% thành lập nhóm chuyên trách, 9,1% giao nhiệm vụ cho bộ phận cụ thể, 17,6% khởi động dự án tập trung vào yêu cầu mới. 53,8% chưa thực hiện biện pháp nào.
• Quan điểm về tác động của Đạo luật AI đối với an ninh pháp lý và niềm tin vào AI còn chia rẽ: khoảng 35-39% kỳ vọng tích cực, 30-35% không đồng ý, còn lại chưa quyết định.
• Nghiên cứu toàn cầu của Deloitte cho thấy tuân thủ quy định, quản lý rủi ro và thiếu mô hình quản trị là rào cản lớn nhất cho áp dụng AI. Chỉ 23% công ty cảm thấy đủ chuẩn bị để quản lý các vấn đề này.
• Mở rộng quy mô dự án AI vẫn là thách thức, ngay cả khi công ty tăng đầu tư vào quản lý dữ liệu. Chứng minh lợi nhuận đầu tư rõ ràng cho dự án AI tạo sinh là mối quan tâm phổ biến.
📌 Gần 50% công ty Đức chưa sẵn sàng cho Đạo luật AI EU, với 52,3% lo ngại sẽ cản trở đổi mới. Chỉ 26,2% đã chuẩn bị tích cực, trong khi 53,8% chưa có biện pháp cụ thể. Tuân thủ quy định, quản lý rủi ro và thiếu mô hình quản trị là thách thức chính.
https://www.techmonitor.ai/ai-and-automation/nearly-half-of-german-companies-not-prepared-for-eu-ai-act-deloitte-survey-reveals/
• Ngành công nghiệp AI đã tăng cường mạnh mẽ hoạt động vận động hành lang trong những năm gần đây, với mục tiêu định hình các hành động tiềm năng của chính phủ Mỹ.
• Số lượng tổ chức vận động hành lang về AI đã tăng 190% từ 460 tổ chức năm 2023 lên 462 tổ chức năm 2024, theo nghiên cứu của Open Secrets.
• Các công ty lớn như Microsoft, Intuit, Amazon và các hiệp hội thương mại như Phòng Thương mại Mỹ đang dẫn đầu trong hoạt động vận động hành lang này.
• Mục tiêu chính của các nhà vận động hành lang là thuyết phục Washington rằng nỗi lo về AI là quá mức, và Mỹ không cần phải đi theo con đường của EU trong việc ban hành các quy định nghiêm ngặt.
• Các nhà vận động hành lang đang tập trung vào việc giáo dục các thành viên Quốc hội về cách thức hoạt động của công nghệ AI, tự đặt mình như một nguồn thông tin về ngành công nghiệp đang thay đổi nhanh chóng này.
• Chiến dịch vận động được đánh giá là thành công, với việc chưa có bất kỳ luật nào được thông qua để quản lý AI, một trong những vấn đề chính sách phức tạp nhất mà chính phủ liên bang phải đối mặt.
• Các nhà phê bình lo ngại rằng các tổ chức phi lợi nhuận và học viện không thể theo kịp tốc độ phát triển của công nghệ AI, dẫn đến việc Quốc hội chủ yếu lắng nghe từ các nhà vận động hành lang có liên kết với ngành công nghiệp.
• Giáo sư Max Tegmark từ MIT cho biết rất khó để giới học thuật cân bằng với mức độ vận động hành lang khổng lồ này.
• Một số tổ chức như MIT đã tổ chức các cuộc họp với các thành viên Quốc hội về AI, nhưng họ gặp khó khăn trong việc tiếp cận các nguồn lực tính toán cần thiết để theo kịp nghiên cứu trong ngành.
• Hiện tại, Quốc hội Mỹ chưa có khả năng thông qua bất kỳ luật nào về AI trước cuộc bầu cử tháng 11, mặc dù một số nhà lập pháp cho rằng điều này là cần thiết do khả năng của AI trong việc tạo ra hình ảnh, âm thanh và video giả mạo có thể ảnh hưởng đến niềm tin của cử tri.
📌 Ngành AI đã tăng cường vận động hành lang tại Quốc hội Mỹ, với 462 tổ chức tham gia năm 2024, tăng 190% so với 2022. Mục tiêu chính là giáo dục nhà lập pháp và ngăn chặn quy định nghiêm ngặt như EU. Tuy nhiên, lo ngại về sự mất cân bằng thông tin giữa ngành công nghiệp và giới học thuật đang gia tăng.
https://www.wral.com/story/the-ai-industry-uses-a-light-lobbying-touch-to-educate-congress-from-a-corporate-perspective/21614503/
• X (trước đây là Twitter) đã phát hành công khai chatbot AI Grok 2 vào tháng 8/2024, với rất ít biện pháp bảo vệ. Grok đã lan truyền thông tin sai lệch về bầu cử và cho phép người dùng tạo ra hình ảnh deepfake chân thực của các quan chức.
• Sau khi các quan chức bầu cử ở 5 bang phàn nàn về thông tin sai lệch, X đã bắt đầu chuyển hướng người dùng đến Vote.gov cho các câu hỏi liên quan đến bầu cử.
• Tuy nhiên, người dùng vẫn có thể tạo ra hình ảnh deepfake của các chính trị gia trong các tình huống đáng ngờ hoặc bất hợp pháp. Al Jazeera đã tạo được hình ảnh chân thực của Ted Cruz hít cocaine, Kamala Harris cầm dao ở cửa hàng tạp hóa và Trump bắt tay với những người theo chủ nghĩa dân tộc da trắng.
• Các nhà làm phim The Dor Brothers đã tạo ra các đoạn video ngắn sử dụng hình ảnh deepfake từ Grok, cho thấy các quan chức như Harris, Trump và Obama đang cướp một cửa hàng tạp hóa.
• Trong khi đó, các công ty khác như OpenAI đang đặt ra các biện pháp bảo vệ để chặn việc tạo ra một số loại nội dung nhất định. Dall-E 3 của OpenAI sẽ từ chối tạo hình ảnh sử dụng tên của một nhân vật công cộng cụ thể.
• Trong chu kỳ bầu cử này, chiến dịch của Ron DeSantis đã sử dụng một loạt hình ảnh giả mạo cho thấy Anthony Fauci và Trump ôm nhau. Ủy ban Quốc gia Đảng Cộng hòa cũng đã sử dụng hình ảnh do AI tạo ra trong một quảng cáo.
• Trump đã đăng các hình ảnh giả mạo, bao gồm một hình ảnh cho thấy Harris nói chuyện với một nhóm người cộng sản tại Đại hội Đảng Dân chủ. Musk cũng đã đăng một hình ảnh do AI tạo ra về Harris đội mũ có biểu tượng cộng sản.
• Hiện không có luật liên bang cấm hoặc yêu cầu tiết lộ việc sử dụng AI trong quảng cáo chính trị. Trách nhiệm thuộc về các công ty mạng xã hội trong việc giám sát và gỡ bỏ deepfake trên nền tảng của họ.
• Các dự luật như Đạo luật Bảo vệ Bầu cử khỏi AI Lừa đảo và Đạo luật NO FAKES đang được đề xuất nhưng chưa rõ liệu chúng có được thông qua và trở thành luật kịp thời cho cuộc bầu cử 2024 hay không.
• Một số bang như Texas và Minnesota đã ban hành luật cấm sử dụng deepfake trong quảng cáo tranh cử, nhưng đây chỉ là một bức tranh manh mún với các quy định khác nhau giữa các bang.
📌 Công nghệ AI tạo sinh như Grok2AI đang làm trầm trọng thêm vấn nạn deepfake chính trị trước thềm bầu cử Mỹ 2024. Thiếu vắng luật liên bang, trách nhiệm chủ yếu thuộc về các nền tảng mạng xã hội trong việc kiểm soát nội dung. Tuy nhiên, việc phân biệt thật-giả ngày càng khó khăn, đe dọa đến sự thật và tiến trình dân chủ.
https://www.aljazeera.com/economy/2024/9/6/xs-grok2ai-chatbot-escalates-problem-of-deepfakes-ahead-of-us-elections
• Đạo luật Trí tuệ Nhân tạo (AI) của Liên minh Châu Âu (EU) được thông qua vào tháng 5/2024 và có hiệu lực từ ngày 1/8/2024, là luật ràng buộc pháp lý đầu tiên trên thế giới về sử dụng AI có đạo đức và hợp pháp.
• Luật áp dụng cho tất cả các sản phẩm AI được đưa ra thị trường, đưa vào sử dụng hoặc sử dụng trong EU, bất kể nhà cung cấp hay người dùng có trụ sở tại EU hay không.
• Đạo luật phân loại các hệ thống AI thành 3 mức độ rủi ro:
- Rủi ro không chấp nhận được: Bị cấm hoàn toàn
- Rủi ro cao: Phải tuân thủ các yêu cầu quy định cụ thể
- Rủi ro hạn chế/tối thiểu: Ít hoặc không có yêu cầu quy định
• Các hệ thống AI rủi ro cao bao gồm những ứng dụng trong y tế, giáo dục, quy trình bầu cử, sàng lọc việc làm và quản lý cơ sở hạ tầng quan trọng.
• Mức phạt cho việc không tuân thủ lên đến 15 triệu EUR hoặc 3% doanh thu hàng năm toàn cầu, tùy theo mức nào cao hơn. Có quy định riêng với mức phạt thấp hơn cho các công ty vừa và nhỏ và startup.
• Luật nhằm thúc đẩy đổi mới AI đồng thời bảo vệ người dân EU khỏi các tác hại tiềm ẩn, đảm bảo trách nhiệm giải trình và minh bạch.
• Tuy nhiên, định nghĩa AI trong luật được cho là quá đơn giản hóa, không phản ánh đầy đủ khả năng phức tạp và tiềm năng trong tương lai của công nghệ này.
• Có lo ngại rằng chi phí tuân thủ quy định có thể cản trở cạnh tranh và đổi mới, đặc biệt là đối với các công ty nhỏ và startup trong lĩnh vực AI tạo sinh.
• Việc miễn trừ cho AI phục vụ nghiên cứu, an ninh quốc gia và mục đích quân sự cũng gây tranh cãi, có thể tạo ra lỗ hổng để lạm dụng công nghệ này.
• Mặc dù có những hạn chế, Đạo luật AI của EU được coi là một bước tiến quan trọng trong việc điều chỉnh cảnh quan pháp lý AI toàn cầu, có thể tạo ra "hiệu ứng Brussels" tương tự như GDPR.
• Thách thức lớn nhất là làm thế nào để luật pháp theo kịp tốc độ phát triển nhanh chóng và khó đoán định của công nghệ AI.
📌 Đạo luật AI của EU là nỗ lực tiên phong nhằm cân bằng giữa đổi mới và quản lý AI, áp dụng cho 27 quốc gia thành viên với tổng dân số 448 triệu người. Mặc dù còn hạn chế, luật đặt ra tiêu chuẩn mới về quy định AI toàn cầu, hứa hẹn tác động sâu rộng đến ngành công nghiệp công nghệ trị giá 150 tỷ USD.
https://www.eurasiareview.com/07092024-the-eu-artificial-intelligence-act-ai-in-the-balance-analysis/
• Chính phủ Úc vừa công bố các tiêu chuẩn an toàn AI tự nguyện và đề xuất tăng cường quy định sử dụng AI trong các tình huống rủi ro cao. Bộ trưởng Công nghiệp và Khoa học Ed Husic nhấn mạnh cần có nhiều người sử dụng AI hơn và xây dựng lòng tin vào công nghệ này.
• Tuy nhiên, việc tin tưởng và sử dụng rộng rãi AI đang gặp nhiều thách thức:
- AI được đào tạo trên các bộ dữ liệu khổng lồ với toán học phức tạp mà hầu hết mọi người không hiểu
- Kết quả từ AI khó kiểm chứng
- Ngay cả các hệ thống AI hàng đầu vẫn tạo ra nhiều lỗi
- ChatGPT có vẻ đang trở nên kém chính xác hơn theo thời gian
- Google Gemini đưa ra những gợi ý vô lý như bôi keo lên pizza
• AI tiềm ẩn nhiều rủi ro và tác hại:
- Xe tự lái có thể gây tai nạn cho người đi bộ
- Hệ thống tuyển dụng AI có thể phân biệt đối xử với phụ nữ
- Công cụ AI trong hệ thống pháp luật có thể thiên vị chống lại người da màu
- Deepfake có thể được sử dụng để lừa đảo
- Báo cáo gần đây của chính phủ Úc cho thấy con người vẫn hiệu quả và năng suất hơn AI
• Thay vì khuyến khích sử dụng AI, chúng ta nên tìm hiểu kỹ về ứng dụng phù hợp và không phù hợp của AI. Việc sử dụng AI không phải lúc nào cũng là giải pháp tốt nhất.
• Việc thu thập dữ liệu cá nhân qua các công cụ AI như ChatGPT, Google Gemini là một rủi ro lớn. Nhiều dữ liệu không được xử lý tại Úc và khó kiểm soát việc sử dụng, bảo mật.
• Chương trình Trust Exchange được đề xuất gần đây cũng gây lo ngại về việc thu thập thêm dữ liệu công dân Úc. Nếu dữ liệu được tổng hợp qua các nền tảng công nghệ khác nhau, có thể dẫn đến giám sát hàng loạt.
• Tin tưởng quá mức vào AI có thể khiến người dùng bị ảnh hưởng mà không nhận ra, làm suy yếu lòng tin xã hội.
• Việc quy định sử dụng AI là cần thiết, nhưng không nên đi kèm với việc khuyến khích sử dụng mạnh mẽ. Cần tập trung vào bảo vệ người dân Úc thay vì bắt buộc họ phải sử dụng và tin tưởng vào AI.
📌 Chính phủ Úc đang thúc đẩy sử dụng AI rộng rãi hơn, nhưng điều này tiềm ẩn nhiều rủi ro về quyền riêng tư, phân biệt đối xử và giám sát. Thay vì khuyến khích sử dụng, cần tập trung vào quy định và giáo dục người dùng về ứng dụng phù hợp của AI.
https://theconversation.com/the-government-says-more-people-need-to-use-ai-heres-why-thats-wrong-238327
• Chính phủ Úc đã ban hành Tiêu chuẩn An toàn AI Tự nguyện nhằm hướng dẫn các tổ chức phát triển và triển khai AI an toàn và đáng tin cậy. Tiêu chuẩn này bao gồm 10 rào chắn tự nguyện áp dụng cho tất cả các tổ chức trong chuỗi cung ứng AI.
• Tiêu chuẩn được thiết kế để giúp các tổ chức:
- Nâng cao năng lực AI an toàn và có trách nhiệm trên toàn nước Úc
- Bảo vệ con người và cộng đồng khỏi tác hại
- Tránh rủi ro về danh tiếng và tài chính
- Tăng cường niềm tin vào hệ thống, dịch vụ và sản phẩm AI
- Tuân thủ nghĩa vụ pháp lý và kỳ vọng của người dân Úc
- Hoạt động liền mạch hơn trong nền kinh tế quốc tế
• 10 rào chắn tự nguyện bao gồm:
1. Thiết lập quy trình trách nhiệm giải trình
2. Thiết lập quy trình quản lý rủi ro
3. Bảo vệ hệ thống AI và thực hiện các biện pháp quản trị dữ liệu
4. Kiểm tra mô hình và hệ thống AI
5. Cho phép kiểm soát hoặc can thiệp của con người
6. Thông báo cho người dùng cuối về quyết định và tương tác với AI
7. Thiết lập quy trình để những người bị ảnh hưởng có thể phản đối
8. Minh bạch với các tổ chức khác trong chuỗi cung ứng AI
9. Lưu giữ và duy trì hồ sơ để đánh giá tuân thủ
10. Tương tác với các bên liên quan và đánh giá nhu cầu của họ
• Tiêu chuẩn áp dụng cách tiếp cận dựa trên rủi ro để quản lý các hệ thống AI. Nó hỗ trợ các tổ chức thực hiện các bước chủ động để xác định rủi ro và giảm thiểu tác hại tiềm ẩn do các hệ thống AI mà họ triển khai, sử dụng hoặc dựa vào.
• Tiêu chuẩn ưu tiên an toàn và giảm thiểu tác hại và rủi ro đối với con người và quyền của họ. Nó áp dụng cách tiếp cận lấy con người làm trung tâm, phù hợp với Nguyên tắc Đạo đức AI của Úc.
• Các quy trình và thực tiễn được khuyến nghị phù hợp với các tiêu chuẩn quốc tế hiện hành và thực tiễn tốt nhất. Điều này hỗ trợ các tổ chức Úc hoạt động quốc tế bằng cách phù hợp với kỳ vọng của các khu vực pháp lý khác.
• Tiêu chuẩn bổ sung cho chương trình nghị sự AI An toàn và Có trách nhiệm rộng lớn hơn của chính phủ, bao gồm phát triển các tùy chọn về rào chắn bắt buộc cho những người phát triển và triển khai AI ở Úc trong các môi trường rủi ro cao.
📌 Tiêu chuẩn An toàn AI Tự nguyện của Úc đưa ra 10 rào chắn để hướng dẫn các tổ chức sử dụng AI an toàn và có trách nhiệm. Nó áp dụng cách tiếp cận dựa trên rủi ro, ưu tiên bảo vệ con người và quyền của họ. Tiêu chuẩn này nhằm nâng cao năng lực AI, tăng cường niềm tin và tuân thủ nghĩa vụ pháp lý, đồng thời phù hợp với các thực tiễn quốc tế tốt nhất.
https://www.industry.gov.au/publications/voluntary-ai-safety-standard#about-the-standard-1
• Chính phủ liên bang Úc vừa công bố đề xuất bộ quy tắc bắt buộc đối với AI rủi ro cao cùng tiêu chuẩn an toàn tự nguyện cho các tổ chức sử dụng AI.
• Mỗi tài liệu đưa ra 10 biện pháp bảo vệ tương hỗ, đặt ra kỳ vọng rõ ràng cho các tổ chức trong chuỗi cung ứng AI.
• Các biện pháp bảo vệ liên quan đến trách nhiệm giải trình, minh bạch, lưu trữ hồ sơ và đảm bảo con người giám sát hệ thống AI một cách có ý nghĩa.
• Đề xuất phù hợp với các tiêu chuẩn quốc tế mới nổi như tiêu chuẩn ISO về quản lý AI và Đạo luật AI của Liên minh Châu Âu.
• Thị trường sản phẩm và dịch vụ AI hiện đang hỗn loạn do người dùng không hiểu cách thức hoạt động, thời điểm sử dụng và liệu đầu ra có hữu ích hay gây hại.
• Ước tính cho thấy AI và tự động hóa có thể mang lại lợi ích kinh tế lên tới 600 tỷ AUD mỗi năm cho Úc vào năm 2030.
• Tuy nhiên, tỷ lệ thất bại cao của các dự án AI (trên 80% theo một số ước tính) và niềm tin thấp của người dân đang đe dọa tiềm năng này.
• Bất cân xứng thông tin là một thách thức lớn trong lĩnh vực AI, khi người mua và người bán có kiến thức không đồng đều về sản phẩm hoặc dịch vụ.
• Các công ty bán AI hiện được hưởng lợi từ việc hạn chế thông tin để giao dịch với các đối tác thiếu hiểu biết.
• Doanh nghiệp có thể áp dụng Tiêu chuẩn An toàn AI Tự nguyện để thu thập và lưu trữ thông tin cần thiết, giúp ra quyết định tốt hơn về AI.
• Việc áp dụng rộng rãi tiêu chuẩn sẽ tạo áp lực thị trường buộc các nhà cung cấp và triển khai AI phải đảm bảo sản phẩm và dịch vụ phù hợp mục đích sử dụng.
• Chỉ số AI Có trách nhiệm của Trung tâm AI Quốc gia cho thấy 78% tổ chức tin rằng họ đang phát triển và triển khai AI có trách nhiệm, nhưng chỉ 29% thực sự áp dụng các thực hành hướng tới mục tiêu này.
📌 Úc đề xuất các biện pháp bảo vệ AI mới nhằm cải thiện thị trường đang hỗn loạn, giảm bất cân xứng thông tin và tăng cường minh bạch. Doanh nghiệp được khuyến khích áp dụng Tiêu chuẩn An toàn AI Tự nguyện để ra quyết định tốt hơn và tạo áp lực thị trường hướng tới AI có trách nhiệm.
https://theconversation.com/how-australias-new-ai-guardrails-can-clean-up-the-messy-market-for-artificial-intelligence-238307
• Dự luật có tên "Đạo luật Trách nhiệm Giải trình về Trí tuệ Nhân tạo Tạo sinh" được đề xuất tại California.
• Dự luật công nhận tiềm năng to lớn của AI trong cải thiện cuộc sống người dân và hoạt động của chính quyền, nhưng cũng nhấn mạnh việc sử dụng AI phải tuân theo các nguyên tắc công bằng, minh bạch, bảo vệ quyền riêng tư và trách nhiệm giải trình.
• AI tạo sinh (GenAI) được định nghĩa là hệ thống AI có thể tạo ra nội dung tổng hợp như văn bản, hình ảnh, video và âm thanh mô phỏng cấu trúc và đặc điểm của dữ liệu huấn luyện.
• Dự luật yêu cầu các cơ quan nhà nước sử dụng GenAI để giao tiếp trực tiếp với người dân phải có tuyên bố miễn trừ trách nhiệm rõ ràng cho biết thông tin được tạo bởi GenAI.
• Đối với giao tiếp bằng văn bản, tuyên bố miễn trừ phải xuất hiện nổi bật ở đầu mỗi thông tin liên lạc. Với tương tác trực tuyến liên tục như chatbot, tuyên bố phải được hiển thị nổi bật trong suốt quá trình tương tác.
• Đối với giao tiếp bằng âm thanh, tuyên bố miễn trừ phải được cung cấp bằng lời nói ở đầu và cuối tương tác. Với giao tiếp video, tuyên bố phải được hiển thị nổi bật trong suốt quá trình tương tác.
• Các cơ quan nhà nước cũng phải cung cấp thông tin hoặc liên kết đến trang web chứa thông tin về cách người dân có thể liên hệ với nhân viên con người của cơ quan.
• Dự luật nhấn mạnh không cá nhân hoặc nhóm nào bị phân biệt đối xử dựa trên chủng tộc, giới tính, tuổi tác, tôn giáo, khuynh hướng tình dục hoặc bất kỳ đặc điểm được bảo vệ nào khác trong thiết kế, phát triển, triển khai hoặc sử dụng hệ thống AI.
• Văn bản cũng yêu cầu xem xét tác động của GenAI đối với người dân California thuộc các vùng, thu nhập, chủng tộc, dân tộc, giới tính, độ tuổi, tôn giáo, khả năng và khuynh hướng tình dục khác nhau.
• Dự luật kêu gọi thiết lập quan hệ đối tác công-tư để đào tạo sinh viên đáp ứng nhu cầu phát triển lực lượng lao động GenAI của tiểu bang, bao gồm cả hướng dẫn về AI và các vấn đề đạo đức, quyền riêng tư và bảo mật liên quan.
• Văn bản yêu cầu Sở Công nghệ, dưới sự hướng dẫn của Cơ quan Hoạt động Chính phủ, Văn phòng Dữ liệu và Đổi mới, và Sở Nhân sự, cập nhật báo cáo khi cần thiết để đáp ứng các phát triển quan trọng.
• Văn phòng Dịch vụ Khẩn cấp được yêu cầu thực hiện phân tích rủi ro về các mối đe dọa tiềm ẩn do việc sử dụng GenAI đối với cơ sở hạ tầng quan trọng của California.
• Các cơ quan và phòng ban của tiểu bang được khuyến khích xem xét các cơ hội mua sắm và sử dụng doanh nghiệp trong đó GenAI có thể cải thiện hiệu quả, hiệu lực, khả năng tiếp cận và công bằng của hoạt động chính phủ.
📌 Dự luật California đề xuất quy định chặt chẽ việc sử dụng AI tạo sinh trong chính quyền, yêu cầu minh bạch khi giao tiếp với người dân, phân tích rủi ro và đào tạo lực lượng lao động. Mục tiêu là tận dụng lợi ích của AI đồng thời bảo vệ quyền công dân.
https://digitaldemocracy.calmatters.org/bills/ca_202320240sb896
• Cơ quan lập pháp California đã thông qua hơn 12 dự luật để kiểm soát AI, bao gồm kiểm tra các mối đe dọa đối với cơ sở hạ tầng quan trọng, hạn chế sử dụng thuật toán đối với trẻ em và giới hạn việc sử dụng deepfake.
• Dự luật Thượng viện 1047 (SB 1047) nhận được nhiều sự chú ý nhất, yêu cầu các nhà phát triển AI tiên tiến phải kiểm tra khả năng tấn công cơ sở hạ tầng kỹ thuật số và vật lý, cũng như giúp người không chuyên chế tạo vũ khí hóa học, sinh học, phóng xạ và hạt nhân.
• Tuy nhiên, một số chuyên gia cho rằng các dự luật này chưa đủ để ngăn chặn các tác hại phổ biến nhất của AI như phân biệt đối xử. Dự luật AB 2930 nhằm chống phân biệt đối xử AI đã bị loại bỏ.
• Ngành công nghiệp chỉ trích SB 1047 vì cho rằng nó sẽ cản trở sự đổi mới. Một số thành viên Quốc hội California đã kêu gọi Thống đốc Newsom phủ quyết dự luật này.
• Các dự luật khác được thông qua bao gồm: yêu cầu cung cấp công cụ phát hiện AI miễn phí (SB 942), đánh giá rủi ro khi cơ quan chính phủ sử dụng AI tạo sinh (SB 896), hạn chế sử dụng thuật toán với người dưới 18 tuổi trên mạng xã hội.
https://digitaldemocracy.calmatters.org/bills/ca_202320240sb896
• Ba dự luật nhằm bảo vệ cử tri khỏi nội dung deepfake lừa đảo cũng được thông qua, yêu cầu các nền tảng lớn gỡ bỏ hoặc gắn nhãn deepfake trong vòng 72 giờ sau khi được báo cáo.
• Một số dự luật quan trọng không được thông qua như AB 3211 yêu cầu dán nhãn nội dung do AI tạo ra, và AB 2930 chống phân biệt đối xử AI.
• Các chuyên gia cho rằng việc không thông qua dự luật chống phân biệt đối xử AI phản ánh sức mạnh của các công ty công nghệ trong chính trị California.
• Một số nhà phê bình lo ngại rằng California sẽ không trở thành người dẫn đầu trong việc kiểm soát AI tạo sinh do sức ảnh hưởng quá lớn của các công ty công nghệ.
📌 California đã thông qua hơn 12 dự luật kiểm soát AI trong năm 2024, tập trung vào bảo vệ cơ sở hạ tầng, hạn chế thuật toán với trẻ em và chống deepfake. Tuy nhiên, các chuyên gia chỉ trích rằng các biện pháp này chưa đủ mạnh để ngăn chặn phân biệt đối xử AI và các tác hại phổ biến khác.
https://calmatters.org/economy/technology/2024/09/california-ai-safety-regulations-bills/
• Ấn Độ đang nổi lên như một cường quốc AI toàn cầu, với ngành công nghiệp IT trị giá 250 tỷ USD và gần 5 triệu lập trình viên. Dự kiến dịch vụ AI của Ấn Độ có thể đạt giá trị 17 tỷ USD vào năm 2027.
• Mukesh Ambani, người giàu nhất châu Á, vừa ra mắt "JioBrain" - bộ công cụ và ứng dụng AI nhằm chuyển đổi nhiều lĩnh vực kinh doanh của tập đoàn Reliance Industries.
• Theo nghiên cứu của Microsoft, Ấn Độ có tỷ lệ áp dụng AI cao nhất trong số các nhân viên tri thức, với 92% sử dụng AI tạo sinh tại nơi làm việc - cao hơn đáng kể so với mức trung bình toàn cầu 75%.
• Chính phủ Ấn Độ đang thúc đẩy phát triển "AI chủ quyền" thông qua Sứ mệnh IndiaAI trị giá 1,25 tỷ USD, nhằm phát triển cơ sở hạ tầng điện toán, startup và ứng dụng AI trong khu vực công.
• Ấn Độ áp dụng phương pháp tiếp cận "từ dưới lên" bằng cách xây dựng cơ sở hạ tầng kỹ thuật số công cộng (DPI), kết hợp công nghệ, quản trị và xã hội dân sự. DPI bao gồm hệ thống nhận dạng sinh trắc học, hệ thống thanh toán nhanh và chia sẻ dữ liệu dựa trên sự đồng ý.
• Với 900 triệu người dùng internet, Ấn Độ được coi là "thủ đô dữ liệu của thế giới". Nhiều dữ liệu công khai có sẵn cho các công ty sử dụng để viết thuật toán AI riêng.
• Các startup Ấn Độ đang chạy đua phát triển mô hình ngôn ngữ lớn (LLM) đa ngôn ngữ. Krutrim trở thành kỳ lân AI đầu tiên của Ấn Độ sau khi huy động được 50 triệu USD. Sarvam ra mắt chatbot hỗ trợ hơn 10 ngôn ngữ Ấn Độ.
• Chính phủ đã mua 1.000 GPU để cung cấp năng lực điện toán cho các nhà phát triển AI. Nvidia đã hợp tác với công ty điện toán đám mây Yotta để cung cấp chip AI cho Ấn Độ.
• Các tập đoàn lớn như Tata Consultancy Services và Reliance Industries đang đầu tư mạnh vào AI. TCS có dự án AI tạo sinh trị giá hơn 1,5 tỷ USD. Reliance phát triển "Bharat GPT" - dịch vụ kiểu ChatGPT cho người dùng Ấn Độ.
• Môi trường đa dạng và đa ngôn ngữ của Ấn Độ tạo điều kiện lý tưởng để phát triển và hoàn thiện các giải pháp AI toàn cầu.
📌 Ấn Độ đang trở thành trung tâm AI toàn cầu với 5 triệu lập trình viên, 900 triệu người dùng internet và chiến lược phát triển từ dưới lên độc đáo. Chính phủ đầu tư 1,25 tỷ USD vào Sứ mệnh IndiaAI, trong khi các startup và tập đoàn lớn đua nhau phát triển LLM đa ngôn ngữ, hứa hẹn đưa ngành AI Ấn Độ đạt 17 tỷ USD vào năm 2027.
https://time.com/7018294/india-ai-artificial-intelligence-ambani/
#TIME
• 39 bang ở Mỹ đã đề xuất luật về deepfake khiêu dâm không đồng thuận, 23 bang đã thông qua, 4 đang chờ xét duyệt, 9 đã bác bỏ.
• Dân biểu Alexandria Ocasio-Cortez đã giới thiệu Đạo luật Defiance ở cấp liên bang, cho phép nạn nhân kiện những kẻ tạo deepfake không đồng thuận.
• Thượng nghị sĩ Ted Cruz cũng đề xuất Đạo luật Take It Down, yêu cầu các nền tảng gỡ bỏ cả nội dung trả thù khiêu dâm và deepfake khiêu dâm không đồng thuận.
• Luật sư thành phố San Francisco David Chiu đã khởi kiện 16 trang web phổ biến nhất cho phép tạo nội dung khiêu dâm bằng AI.
• Theo ước tính, 90% video deepfake là nội dung khiêu dâm, phần lớn là về phụ nữ không đồng thuận.
• Các nhà lập pháp tiểu bang đang tập trung nhiều hơn vào deepfake chính trị so với deepfake khiêu dâm.
• Michigan đang dẫn đầu khu vực Trung Tây trong việc đề xuất luật về deepfake không đồng thuận.
• Hình phạt và đối tượng được bảo vệ khác nhau giữa các bang. Một số bang cho phép khởi kiện dân sự và hình sự, số khác chỉ cho phép một trong hai.
• Luật ở Mississippi tập trung vào bảo vệ trẻ vị thành niên khỏi deepfake khiêu dâm.
• Nhiều luật yêu cầu chứng minh ý định gây hại của người tạo deepfake, gây khó khăn trong thực thi.
• Luật tiểu bang có hạn chế trong việc điều tra và truy tố các vụ việc xuyên bang hoặc quốc tế.
• Các chuyên gia cho rằng cần có luật liên bang để giải quyết hiệu quả vấn đề deepfake khiêu dâm không đồng thuận.
📌 39 bang ở Mỹ đã đề xuất luật về deepfake khiêu dâm không đồng thuận, với 23 bang đã thông qua. Tuy nhiên, các luật này có sự khác biệt lớn giữa các bang và gặp khó khăn trong thực thi. Chuyên gia cho rằng cần có luật liên bang để giải quyết hiệu quả vấn đề này trên toàn quốc.
https://www.wired.com/story/deepfake-ai-porn-laws/
• Microsoft vừa công bố hợp tác với tổ chức StopNCII để cung cấp công cụ giúp nạn nhân loại bỏ hình ảnh khiêu dâm deepfake khỏi kết quả tìm kiếm trên Bing.
• Công cụ mới cho phép nạn nhân tạo "vân tay số" của những hình ảnh nhạy cảm trên thiết bị của họ. Các đối tác của StopNCII sau đó sử dụng vân tay số này để xóa hình ảnh khỏi nền tảng của họ.
• Bing của Microsoft tham gia cùng Facebook, Instagram, Threads, TikTok, Snapchat, Reddit, PornHub và OnlyFans trong việc hợp tác với StopNCII để ngăn chặn sự lan truyền của hình ảnh khiêu dâm trả thù.
• Trong giai đoạn thử nghiệm kết thúc vào tháng 8, Microsoft đã xử lý 268.000 hình ảnh nhạy cảm xuất hiện trong kết quả tìm kiếm hình ảnh của Bing bằng cách sử dụng cơ sở dữ liệu của StopNCII.
• Trước đây, Microsoft đã cung cấp công cụ báo cáo trực tiếp, nhưng công ty cho biết điều này không đủ hiệu quả để giải quyết vấn đề.
• Google Search cũng cung cấp công cụ riêng để báo cáo và xóa hình ảnh nhạy cảm khỏi kết quả tìm kiếm, nhưng đã phải đối mặt với chỉ trích vì không hợp tác với StopNCII.
• Vấn đề ảnh khỏa thân deepfake bằng AI đã lan rộng. Công cụ của StopNCII chỉ hoạt động cho người trên 18 tuổi, nhưng các trang web "cởi đồ" đã gây ra vấn đề cho học sinh trung học trên khắp nước Mỹ.
• Hoa Kỳ hiện không có luật liên bang về deepfake khiêu dâm bằng AI, nên phải dựa vào cách tiếp cận không đồng nhất của luật pháp tiểu bang và địa phương để giải quyết vấn đề này.
• Theo một bảng theo dõi do Wired tạo ra, 23 tiểu bang của Mỹ đã thông qua luật để giải quyết vấn đề deepfake không có sự đồng ý, trong khi 9 tiểu bang đã bác bỏ các đề xuất.
• Công tố viên San Francisco đã công bố một vụ kiện vào tháng 8 nhằm đóng cửa 16 trang web "cởi đồ" phổ biến nhất.
📌 Microsoft hợp tác với StopNCII để loại bỏ 268.000 hình ảnh khiêu dâm deepfake khỏi Bing. 23 tiểu bang Mỹ đã ban hành luật về deepfake không đồng thuận. Vấn đề ngày càng nghiêm trọng, đặc biệt ảnh hưởng đến học sinh trung học, nhưng Mỹ vẫn chưa có luật liên bang.
https://techcrunch.com/2024/09/05/microsoft-gives-deepfake-porn-victims-a-tool-to-scrub-images-from-bing-search/
• Mỹ, Anh và Liên minh Châu Âu cùng một số quốc gia khác đã ký kết Công ước khung về Trí tuệ nhân tạo và Quyền con người, Dân chủ và Pháp quyền của Hội đồng Châu Âu (COE) tại Vilnius, Lithuania vào ngày 05/09/2024.
• Đây được coi là hiệp ước quốc tế ràng buộc pháp lý đầu tiên nhằm đảm bảo việc sử dụng hệ thống AI phù hợp với quyền con người, dân chủ và pháp quyền.
• Hiệp ước tập trung vào 3 lĩnh vực chính: quyền con người (bảo vệ chống lạm dụng dữ liệu, phân biệt đối xử và đảm bảo quyền riêng tư), bảo vệ dân chủ và bảo vệ pháp quyền.
• Mục tiêu của hiệp ước là cung cấp khuôn khổ pháp lý cho toàn bộ vòng đời của hệ thống AI, thúc đẩy tiến bộ và đổi mới AI đồng thời quản lý rủi ro đối với quyền con người, dân chủ và pháp quyền.
• Các nước ký kết bao gồm Mỹ, Anh, EU và một số quốc gia châu Âu khác. Tuy nhiên, các nước châu Á, Trung Đông và Nga vẫn chưa tham gia.
• Hiệp ước sẽ chính thức có hiệu lực sau 3 tháng kể từ khi có 5 quốc gia ký kết (trong đó có ít nhất 3 thành viên COE) phê chuẩn.
• Việc ký kết hiệp ước diễn ra trong bối cảnh các cơ quan quản lý, công ty AI và chính trị gia đang nỗ lực tìm cách quản lý công nghệ AI một cách hiệu quả.
• Nhiều khuôn khổ và tuyên bố về an toàn AI đã được đưa ra trước đó như Hội nghị thượng đỉnh An toàn AI của Anh năm 2023, Quy trình AI Hiroshima của G7, nghị quyết của Liên Hợp Quốc...
• Hiệp ước của COE hy vọng sẽ tạo ra sự thống nhất giữa các nỗ lực quản lý AI hiện có.
• Anh cho biết sẽ tăng cường các luật và biện pháp hiện hành sau khi phê chuẩn hiệp ước, nhưng chưa đưa ra thời gian cụ thể cho việc thực hiện.
📌 Hiệp ước an toàn AI của Hội đồng Châu Âu đánh dấu bước tiến quan trọng trong nỗ lực quản lý công nghệ AI toàn cầu. Với sự tham gia của Mỹ, Anh và EU, hiệp ước hứa hẹn tạo ra khuôn khổ pháp lý toàn diện cho AI, bảo vệ quyền con người và dân chủ. Tuy nhiên, việc thực thi cụ thể vẫn cần thời gian và sự đồng thuận từ nhiều quốc gia hơn nữa.
https://techcrunch.com/2024/09/05/us-uk-and-eu-sign-on-to-the-council-of-europes-high-level-ai-safety-treaty/
• Chính phủ Úc vừa công bố các biện pháp mới nhằm tăng cường sử dụng và quản lý AI an toàn, sau một năm tham vấn công chúng và các bên liên quan trong ngành.
• Theo ước tính của Hội đồng Công nghệ Úc, riêng AI tạo sinh có thể đóng góp từ 45 tỷ AUD (30,27 tỷ USD) đến 115 tỷ AUD (77,36 tỷ USD) hàng năm cho nền kinh tế Úc vào năm 2030.
• Chính phủ đã bổ nhiệm một nhóm chuyên gia AI để đưa ra khuyến nghị, dẫn đến "Đề xuất Giới thiệu Các rào cản Bắt buộc cho AI trong Môi trường Rủi ro Cao".
• Tài liệu đề xuất định nghĩa về AI rủi ro cao, 10 rào cản bắt buộc và 3 phương án quy định để thực hiện các biện pháp này.
• Các phương án quy định bao gồm: tích hợp rào cản vào khung pháp lý hiện có, đưa ra luật khung mới để điều chỉnh quy định hiện hành, hoặc thiết lập luật mới cụ thể về AI trên toàn nền kinh tế.
• Chính phủ cũng giới thiệu Tiêu chuẩn An toàn AI Tự nguyện mới, có hiệu lực ngay lập tức, cung cấp hướng dẫn thực tế cho doanh nghiệp tham gia vào hoạt động AI rủi ro cao.
• Chỉ số AI Có trách nhiệm 2024 cho thấy khoảng cách đáng kể trong thực hành AI hiện tại của doanh nghiệp Úc. 78% doanh nghiệp tin rằng họ đang triển khai AI an toàn và có trách nhiệm, nhưng chỉ 29% thực sự tuân thủ.
• Chỉ số khảo sát 413 nhà ra quyết định điều hành trong nhiều lĩnh vực, đánh giá 38 thực hành AI có trách nhiệm trên 5 khía cạnh. Trung bình, tổ chức chỉ áp dụng 12 trong số các thực hành này.
• Bộ trưởng Ed Husic nhấn mạnh tầm quan trọng của việc sử dụng AI an toàn và có trách nhiệm, đồng thời dự đoán AI sẽ tạo ra tới 200.000 việc làm liên quan đến AI ở Úc vào năm 2030.
• AI dự kiến đóng góp từ 170 tỷ AUD (114,4 tỷ USD) đến 600 tỷ AUD (403,61 tỷ USD) vào GDP của Úc.
• Tiêu chuẩn An toàn AI Tự nguyện sẽ được cập nhật theo thời gian để phù hợp với thông lệ quốc tế tốt nhất, tương tự như các biện pháp của EU, Nhật Bản, Singapore và Mỹ.
• Thời gian tham vấn cho tài liệu đề xuất sẽ kết thúc vào ngày 4/10/2024.
📌 Úc đặt mục tiêu khai thác tiềm năng AI với khung pháp lý mới, dự kiến đóng góp tới 600 tỷ AUD cho GDP vào 2030. Tiêu chuẩn tự nguyện và đề xuất quy định bắt buộc nhằm cân bằng cơ hội kinh tế và quản lý rủi ro, đặc biệt trong lĩnh vực AI rủi ro cao.
https://www.techmonitor.ai/ai-and-automation/australia-unveils-new-regulatory-frameworks-to-ensure-safe-use-of-ai/
- Australia đã ban hành Luật hình sự hóa việc sử dụng công nghệ deepfake để tạo ra hoặc chia sẻ nội dung khiêu dâm không đồng thuận.
https://www.legislation.gov.au/C2024A00078/asmade/downloads
- Luật này (ngày 2/9/2024) được đánh giá cao nhưng cần nhiều hành động hơn để đối phó với các hình thức tội phạm mới dựa trên AI và công nghệ.
- Chính phủ nên thành lập một nhóm đại diện từ các cơ quan thực thi pháp luật và an ninh quốc gia để xác định các ứng dụng tội phạm tiềm tàng của công nghệ mới.
- Nhóm này sẽ tìm kiếm các dấu hiệu cảnh báo sớm và điều chỉnh chính sách trước khi các thách thức trở thành khủng hoảng.
- Các trường hợp gần đây cho thấy nhiều phụ nữ trẻ và trẻ em gái ở Australia đã bị tấn công qua deepfake.
- Các video deepfake không đồng thuận đã gia tăng, với 96% trong số đó là nội dung khiêu dâm không đồng thuận, theo báo cáo của nhóm giám sát AI Sensity.
- Deepfake không phải là vấn đề duy nhất; AI và công nghệ mới có thể bị lạm dụng cho các hành vi tội phạm như lừa đảo đầu tư và phát tán thông tin sai lệch.
- Sự chậm trễ giữa việc xác định mối đe dọa và việc tạo ra chính sách để giải quyết là một vấn đề lớn.
- Chính phủ cần thành lập một nhóm chuyên gia từ nhiều lĩnh vực để xem xét cách công nghệ mới có thể bị lạm dụng và cách bảo vệ người dân.
- Nhóm này nên họp định kỳ để đưa ra các đánh giá và khuyến nghị cho quyết định chiến lược.
- Cần có sự tham gia của các tổ chức xã hội và cá nhân để hiểu rõ hơn về các thách thức từ công nghệ mới.
- Tình trạng khiêu dâm deepfake không đồng thuận có thể dẫn đến tỷ lệ giam giữ trẻ em cao hơn nếu không có biện pháp ngăn chặn.
- Công nghệ AI tạo sinh cũng gây ra những tác hại nghiêm trọng dưới ngưỡng tội phạm, như việc tạo ra những nhân vật ảnh giả mạo trên mạng xã hội.
- Cần có một cách tiếp cận toàn xã hội để giải quyết các vấn đề này, với sự tham gia của các chuyên gia từ nhiều lĩnh vực khác nhau.
📌 Chính phủ Australia cần có hành động nhanh chóng và quyết liệt để đối phó với các mối đe dọa từ deepfake và công nghệ AI, bao gồm việc thành lập nhóm chuyên gia để phát hiện và ngăn chặn các hành vi tội phạm mới.
https://www.aspistrategist.org.au/countering-deepfakes-we-need-to-forecast-ai-threats/
- UAE đã gây chú ý toàn cầu với việc phát hành Falcon, mô hình ngôn ngữ lớn mã nguồn mở, vượt qua hoặc tương đương với các mô hình của Meta và Alphabet.
- UAE đã trở thành một trong những quốc gia dẫn đầu trong cuộc đua AI toàn cầu nhờ vào việc liên tục cập nhật mô hình Falcon.
- Microsoft đã đầu tư 1,5 tỷ USD vào G42, công ty AI hàng đầu của UAE, thể hiện sự gia tăng ảnh hưởng của quốc gia này.
- Các yếu tố chính giúp UAE nổi bật trong lĩnh vực AI bao gồm hỗ trợ nhà nước mạnh mẽ, vốn dồi dào và điện năng giá rẻ.
- Mô hình quản lý toàn trị của UAE cho phép chính phủ thúc đẩy đổi mới công nghệ một cách hiệu quả hơn.
- Trung Quốc cũng có lợi thế tương tự nhờ vào việc sử dụng công nghệ giám sát, tạo ra nhu cầu lớn cho các ứng dụng AI.
- Công nghệ nhận diện khuôn mặt ở Trung Quốc không chỉ phục vụ an ninh công cộng mà còn là công cụ giám sát thông tin.
- Ngược lại, ở phương Tây, công nghệ nhận diện khuôn mặt gặp phải nhiều tranh cãi và bị hạn chế sử dụng.
- Các công ty AI Trung Quốc thường thành công hơn nhờ vào các hợp đồng chính phủ, cho phép họ truy cập vào lượng dữ liệu khổng lồ để cải thiện mô hình.
- Các công ty UAE cũng được phép sử dụng dữ liệu y tế ẩn danh từ các bệnh viện và ngành công nghiệp nhà nước.
- Các công ty phương Tây phải đối mặt với nhiều rào cản pháp lý khi muốn truy cập vào dữ liệu tương tự.
- Người tiêu dùng ở các quốc gia toàn trị thường ủng hộ AI hơn, với Trung Quốc và Ả Rập Saudi đứng đầu trong bảng xếp hạng sự lạc quan về AI.
- Chính phủ toàn trị có khả năng phối hợp và chỉ đạo nguồn lực cho đổi mới, điều này giúp UAE và Trung Quốc xây dựng chiến lược quốc gia mạnh mẽ cho AI.
- UAE đã thành lập Đại học Mohamed bin Zayed về AI, trường đại học đầu tiên trên thế giới chuyên về AI.
- G42 đã ký hợp đồng 100 triệu USD với Cerebras để xây dựng siêu máy tính lớn nhất thế giới cho đào tạo AI.
- UAE có quyền truy cập không bị hạn chế vào các nguồn lực cần thiết cho công nghệ tiên tiến, điều này giúp họ phát triển nhanh chóng.
- Sam Altman, CEO của OpenAI, đã chỉ ra rằng UAE có thể dẫn dắt cuộc thảo luận về chính sách AI, nhưng điều này không thể sao chép trong môi trường dân chủ.
📌 UAE và Trung Quốc đang tận dụng mô hình quản lý toàn trị để phát triển công nghệ AI, với sự hỗ trợ từ chính phủ và quyền truy cập vào dữ liệu lớn. UAE đã đầu tư mạnh mẽ vào AI, bao gồm cả việc xây dựng siêu máy tính lớn nhất thế giới, cho thấy tiềm năng phát triển mạnh mẽ trong lĩnh vực này.
https://www.aspistrategist.org.au/authoritarian-countries-ai-advantage/
1. Meta descriptions:
Khám phá cách các quốc gia trên thế giới đang đầu tư vào AI để xây dựng năng lực chủ quyền. Từ Ấn Độ với Sứ mệnh AI trị giá 10.000 crore rupee đến các sáng kiến của Mỹ, Trung Quốc và châu Âu, bài viết phân tích xu hướng AI chủ quyền toàn cầu.
2. Meta keywords:
AI chủ quyền, đầu tư AI quốc gia, Sứ mệnh AI Ấn Độ, GPU, AI tạo sinh, năng lực AI, chính sách AI toàn cầu
3. sứ mệnh ai 10.000 crore rupee của ấn độ thu hút các ông lớn công nghệ toàn cầu
• Ấn Độ đã khởi động Sứ mệnh AI trị giá 10.000 crore rupee (khoảng 1,2 tỷ USD) nhằm phát triển cơ sở hạ tầng AI trong nước và thúc đẩy tăng trưởng ngành công nghiệp.
• Sứ mệnh này bắt đầu với một gói thầu mua sắm GPU được công bố vào tháng trước. Cuộc họp tiền đấu thầu do Bộ CNTT tổ chức đã thu hút sự tham gia của các "ông lớn" công nghệ như Nvidia, Intel, AMD, Qualcomm, Microsoft Azure, AWS, Google Cloud và Palo Alto Networks.
• Hoa Kỳ:
Hoa Kỳ đã có một kế hoạch để hình thành Chiến lược Quốc gia về Nghiên cứu và Phát triển AI của Hoa Kỳ. Được cập nhật vào năm 2023, nó phác thảo lộ trình của chính phủ liên bang cho việc nghiên cứu và phát triển AI.
3,3 tỷ đô la: Chi tiêu của chính phủ cho AI và Học máy trong năm tài chính 2023.
- Tăng từ 1,38 tỷ đô la chi tiêu trong năm 2018: Báo cáo của Đại học Stanford
- Điều này phản ánh mức tăng 140% trong giai đoạn này
75 tỷ đô la - Ngân sách Liên bang Hoa Kỳ đề xuất cho năm 2025
**Liên minh châu Âu**
EU đã công bố kế hoạch quốc gia cho đầu tư AI gọi là "Chiến lược Đổi mới AI". Bao gồm gói đầu tư công và tư khoảng 4 tỷ euro đến năm 2027.
- Dự định tạo ra "Nhà máy AI" trên khắp EU.
- EU đã ban hành Đạo luật AI để thiết lập khung pháp lý toàn diện cho AI.
**Vương quốc Anh**
Đại học Cambridge, Intel và Dell hợp tác xây dựng Dawn, siêu máy tính AI nhanh nhất của Vương quốc Anh.
- Vương quốc Anh đã công bố kế hoạch chi hơn 125 triệu đô la cho nghiên cứu và đào tạo AI.
- Chính phủ cho biết sẽ ra mắt các trung tâm nghiên cứu AI mới trên khắp Vương quốc Anh.
**Trung Quốc**
Quỹ đầu tư mạo hiểm của chính phủ Trung Quốc đã đầu tư vào 9.623 công ty khởi nghiệp trong lĩnh vực AI qua 20.000 giao dịch từ năm 2000-2023, tổng cộng 184 tỷ đô la: Cục Thống kê Quốc gia Trung Quốc.
- 117 sản phẩm GenAI được phê duyệt bởi Cục Quản lý Không gian mạng Trung Quốc tính đến tháng 3 năm 2024.
- Ít nhất, 262 công ty khởi nghiệp đang phát triển sản phẩm GenAI tại Trung Quốc.
**Canada**
Ngân sách 2024 của Canada đã công bố kế hoạch đầu tư 2,4 tỷ đô la trong 5 năm để triển khai:
- Quỹ Tiếp cận Máy tính AI
- Chiến lược Điện toán AI của Canada
Mục đích của khoản đầu tư này là cung cấp cho các công ty AI Canada những công cụ cần thiết để cạnh tranh trong bối cảnh toàn cầu đang phát triển nhanh chóng.
Ngoài ra, ngân sách cũng đề xuất 50 triệu đô la để thành lập Viện An toàn AI của Canada.
Những động thái này cho thấy Canada đang có những bước đi chiến lược để tăng cường vị thế trong lĩnh vực AI, tập trung vào việc phát triển cơ sở hạ tầng, tài trợ nghiên cứu, và đảm bảo an toàn trong ứng dụng AI.
Hàn Quốc
Chính phủ Hàn Quốc có kế hoạch đầu tư 6,4 tỷ đô la vào AI đến năm 2027
Điều này sẽ giúp đất nước duy trì lợi thế trong ngành công nghiệp bán dẫn và phát triển chip AI
Nhật Bản
Chính phủ Nhật Bản đã phân bổ khoảng 740 triệu đô la để trợ cấp cho ngành công nghiệp điện toán AI
Nhật Bản đang hợp tác với Nvidia để nâng cao kỹ năng lực lượng lao động, hỗ trợ phát triển mô hình ngôn ngữ tiếng Nhật và mở rộng việc áp dụng AI cho ứng phó thảm họa thiên nhiên
Trung Đông
Quỹ đầu tư quốc gia của Ả Rập Saudi đang đàm phán với các quỹ đầu tư mạo hiểm hàng đầu ở Thung lũng Silicon để tạo ra quỹ 40 tỷ đô la cho các startup AI
Qatar đã công bố 2,5 tỷ đô la ưu đãi để thúc đẩy tăng trưởng AI, công nghệ và đổi mới
G42 của UAE đã bảo đảm khoản đầu tư 1,5 tỷ đô la từ Microsoft
Dubai đã phê duyệt bổ nhiệm 22 giám đốc AI cho các bộ phận chính phủ chủ chốt để thúc đẩy tầm nhìn công nghệ cao cho tương lai
📌 Cuộc đua AI chủ quyền toàn cầu đang diễn ra mạnh mẽ với các quốc gia đầu tư hàng tỷ USD. Ấn Độ đã khởi động Sứ mệnh AI 1,2 tỷ USD, trong khi Mỹ, Trung Quốc và EU đang dẫn đầu với các sáng kiến đầy tham vọng. Xu hướng này nhấn mạnh tầm quan trọng chiến lược của AI đối với sự phát triển kinh tế và an ninh quốc gia.
https://economictimes.indiatimes.com/tech/artificial-intelligence/governments-say-aye-to-sovereign-ai/articleshow/113014070.cms
• Cơ quan bảo vệ dữ liệu Hà Lan (AP) đã phạt Clearview AI 30,5 triệu euro (khoảng 33,7 triệu USD) vì vi phạm nhiều quy định của GDPR.
• Đây là mức phạt lớn nhất mà Clearview AI phải đối mặt tại châu Âu, vượt qua các khoản phạt trước đó tại Pháp, Ý, Hy Lạp và Anh vào năm 2022.
• AP cảnh báo sẽ áp dụng thêm khoản phạt lên đến 5,1 triệu euro nếu Clearview tiếp tục không tuân thủ, nâng tổng mức phạt có thể lên tới 35,6 triệu euro.
• Cuộc điều tra bắt đầu vào tháng 3/2023 sau khi nhận được khiếu nại từ 3 cá nhân về việc Clearview không đáp ứng yêu cầu truy cập dữ liệu.
• Các vi phạm chính của Clearview bao gồm: xây dựng cơ sở dữ liệu sinh trắc học mà không có cơ sở pháp lý hợp lệ, không minh bạch và không thông báo cho các cá nhân có dữ liệu bị thu thập.
• Clearview AI đã xây dựng cơ sở dữ liệu 30 tỷ hình ảnh bằng cách thu thập ảnh selfie của người dùng trên internet mà không được sự đồng ý.
• Công ty không thể kháng cáo quyết định này vì đã không phản đối trong quá trình điều tra.
• AP cảnh báo sẽ xử phạt nặng bất kỳ tổ chức Hà Lan nào sử dụng dịch vụ của Clearview AI.
• Clearview AI vẫn tiếp tục vi phạm GDPR và chưa thay đổi hành vi bất chấp các khoản phạt trước đó tại châu Âu.
• AP đang xem xét khả năng truy cứu trách nhiệm cá nhân đối với lãnh đạo Clearview để buộc công ty tuân thủ luật pháp.
• Việc xử phạt cá nhân lãnh đạo có thể hiệu quả hơn trong việc thúc đẩy tuân thủ, vì họ có thể muốn đi lại tự do trong EU.
📌 Clearview AI bị phạt kỷ lục 30,5 triệu euro tại Hà Lan vì vi phạm GDPR nghiêm trọng. Cơ quan bảo vệ dữ liệu Hà Lan đang xem xét truy cứu trách nhiệm cá nhân lãnh đạo công ty để buộc tuân thủ, với tổng mức phạt có thể lên tới 35,6 triệu euro nếu tiếp tục vi phạm.
https://techcrunch.com/2024/09/03/clearview-ai-hit-with-its-largest-gdpr-fine-yet-as-dutch-regulator-considers-holding-execs-personally-liable/
• Các nhà lập pháp trên toàn cầu đang vật lộn để quản lý trí tuệ nhân tạo (AI). Nỗ lực ban đầu rất dài dòng nhưng không nhanh chóng. Đạo luật AI của EU dài tới 144 trang.
• Quy định luôn chậm hơn so với đổi mới công nghệ. EU buộc phải bổ sung một chương về AI tạo sinh giữa quá trình xây dựng luật.
• Khác với cách tiếp cận dựa trên nguyên tắc của GDPR, Đạo luật AI của EU áp dụng cách tiếp cận an toàn sản phẩm, tương tự như quy định về ô tô hoặc thiết bị y tế.
• EU xếp hạng các khả năng AI và yêu cầu tương ứng theo mức độ rủi ro. Cao nhất là các ứng dụng nguy hiểm như thao túng hành vi, chấm điểm xã hội - bị cấm hoàn toàn. Thấp nhất là các ứng dụng phổ biến như lọc spam, trò chơi AI - chỉ cần tuân thủ quy tắc tự nguyện.
• Các công ty tài chính và doanh nghiệp sử dụng AI để đánh giá tín dụng hoặc tuyển dụng sẽ thuộc nhóm rủi ro trung bình. Người dùng cũng chịu trách nhiệm nếu họ sửa đổi mô hình AI.
• Một kết quả có thể là việc sử dụng nhiều hợp đồng giữa các bên triển khai AI và các nhà cung cấp công nghệ lớn.
• Việc xác định rủi ro hệ thống trong AI tạo sinh rất khó khăn. EU và Mỹ đã sử dụng các chỉ số về sức mạnh tính toán làm ngưỡng quy định.
• Tuy nhiên, các chỉ số này chỉ liên quan đến công suất huấn luyện, có thể thay đổi khi triển khai. Còn nhiều yếu tố khác ảnh hưởng đến hiệu suất AI mà không cần tăng sức mạnh tính toán.
• Các quy định sẽ nhanh chóng lỗi thời: con số lớn hôm nay có thể trở nên phổ biến vào năm sau.
• Đạo luật AI của EU đang được triển khai theo từng giai đoạn. Nhiều vấn đề khác sẽ nảy sinh khi khả năng AI tiếp tục phát triển.
• Ngay cả khi các quy định tiếp tục phát triển, rủi ro là chúng vẫn luôn chậm hơn so với đường cong công nghệ.
📌 Quy định AI đang chạy đua với tốc độ phát triển công nghệ chóng mặt. EU phải bổ sung chương về AI tạo sinh giữa quá trình lập pháp. Các chỉ số như ngưỡng 10²⁵ FLOPS nhanh chóng lỗi thời. Dù nỗ lực, luật pháp vẫn khó theo kịp đổi mới AI.
https://www.ft.com/content/773eb147-0f38-48f3-a2cc-18166ab8e793
#FT
• Trong chuyến thăm Serbia, Tổng thống Pháp Emmanuel Macron đã kêu gọi châu Âu đầu tư vào mô hình AI riêng để bắt kịp Trung Quốc và Hoa Kỳ.
• Macron nhận định rằng người châu Âu đang "hơi tụt hậu" so với Mỹ và Trung Quốc trong lĩnh vực AI, hai quốc gia này đang đầu tư nhiều hơn đáng kể.
• Ông khuyến khích châu Âu "bắt kịp, đổi mới, đầu tư nhiều hơn nữa" để ngang tầm với Washington và Bắc Kinh, đồng thời nhấn mạnh rằng AI "nên phục vụ các mục tiêu tập thể".
• Tổng thống Pháp đề xuất châu Âu nên phát triển một mô hình đổi mới kết hợp giữa công và tư.
• Đối với Liên minh châu Âu, vốn đã thực hiện một khung pháp lý độc đáo nhằm kiểm soát các tiến bộ công nghệ của AI, "ưu tiên là đầu tư" theo lời Macron.
• Ông cho rằng khi đạt đến thời điểm trưởng thành, châu Âu có thể biến quy định thành lợi thế cạnh tranh.
• Belgrade sẽ dẫn đầu Đối tác Toàn cầu về Trí tuệ Nhân tạo, trong khi Pháp đang chuẩn bị tổ chức hội nghị thượng đỉnh AI vào tháng 2/2025.
• Trong chuyến thăm này, Pháp và Serbia đã ký kết thỏa thuận mua bán 12 máy bay chiến đấu Rafale, đánh dấu bước chuyển dịch của Serbia khỏi vũ khí Nga.
• Thỏa thuận này sẽ giúp Serbia hiện đại hóa lực lượng không quân và thay thế các máy bay chiến đấu thời Liên Xô đã lỗi thời.
• Serbia sẽ nhận được 9 máy bay một chỗ ngồi và 3 máy bay hai chỗ ngồi vào năm 2029, theo CEO của Dassault, Eric Trappier.
• Macron nhận định rằng hợp đồng này đánh dấu một "thay đổi chiến lược" can đảm của Serbia, một quốc gia vốn có quan hệ gần gũi với Nga và Trung Quốc, nhưng cũng đang nộp đơn xin gia nhập EU.
📌 Macron kêu gọi châu Âu đầu tư vào AI để bắt kịp Mỹ và Trung Quốc. Serbia ký thỏa thuận mua 12 máy bay Rafale từ Pháp, đánh dấu bước chuyển dịch khỏi vũ khí Nga. Hội nghị thượng đỉnh AI sẽ diễn ra tại Pháp vào tháng 2/2025.
https://ciso.economictimes.indiatimes.com/news/grc/macron-says-europe-needs-own-ai-model-to-catch-up/112981584
• Mark Zuckerberg (Meta) và Daniel Ek (Spotify) đã đưa ra tuyên bố chung chỉ trích quy định AI nghiêm ngặt của EU vào ngày 23/8/2024.
https://about.fb.com/news/2024/08/why-europe-should-embrace-open-source-ai-zuckerberg-ek/
• Họ cho rằng AI nguồn mở là cần thiết để "dân chủ hóa" quyền tiếp cận công nghệ và thu hẹp khoảng cách giữa các khu vực.
• Zuckerberg và Ek lập luận rằng AI nguồn mở sẽ cho phép các startup cạnh tranh bình đẳng với các công ty lớn, thúc đẩy đổi mới và tiến bộ.
• Họ chỉ trích "cấu trúc quy định phân mảnh" của châu Âu đang cản trở đổi mới không chỉ trong AI mà còn trong tăng trưởng kinh tế.
• Các CEO coi quy định của EU là biện pháp "phòng ngừa" nhắm vào "tác hại lý thuyết" của công nghệ mới nổi, có thể khiến châu Âu tụt hậu.
• Họ nhấn mạnh lợi ích kinh tế tiềm năng từ AI mà châu Âu có thể đạt được nếu nới lỏng quy định.
• Zuckerberg và Ek chỉ trích việc áp dụng GDPR, đặc biệt là lệnh tạm dừng đào tạo mô hình AI của Meta trên dữ liệu người dùng Facebook và Instagram.
• Việc trì hoãn chủ yếu ảnh hưởng đến mô hình AI Llama của Meta và phiên bản đa phương thức sắp tới có thể diễn giải hình ảnh.
• Các CEO cảnh báo rằng điều này có thể khiến người dân châu Âu phải sử dụng "AI được xây dựng cho người khác".
• Trước đó vào tháng 5/2024, Meta đã thông báo kế hoạch cập nhật chính sách quyền riêng tư để sử dụng bài đăng và ảnh công khai từ Facebook và Instagram cho việc đào tạo AI.
• Người dùng ở EU và UK có thể từ chối thông qua biểu mẫu, nhưng những người ở nơi khác không có lựa chọn ngăn chặn việc sử dụng dữ liệu của họ.
• Các nhóm quyền kỹ thuật số đã nhanh chóng lên án kế hoạch đào tạo AI của Meta.
• Trung tâm Quyền Kỹ thuật số Châu Âu (Noyb) đã đệ đơn khiếu nại để ngăn chặn sáng kiến này, cho rằng Meta đã vi phạm ít nhất 10 điều khoản của GDPR.
• Hiện tại, Meta đã bị yêu cầu trì hoãn việc đào tạo dữ liệu người dùng, nhưng tình hình vẫn chưa ngã ngũ.
📌 Zuckerberg và Ek chỉ trích quy định AI nghiêm ngặt của EU, coi đó là rào cản đối với đổi mới và tăng trưởng kinh tế. Họ ủng hộ AI nguồn mở và kêu gọi nới lỏng quy định để châu Âu không tụt hậu trong cuộc đua công nghệ. Tuy nhiên, các nhóm quyền kỹ thuật số phản đối kế hoạch sử dụng dữ liệu người dùng của Meta cho AI, dẫn đến việc trì hoãn đào tạo mô hình AI của công ty.
https://greekreporter.com/2024/09/01/meta-mark-zuckerberg-spotify-criticize-eu-ai-regulations/
• California đang chuẩn bị thông qua dự luật SB 1047 để quy định AI, nhưng dự luật này không định nghĩa rõ ràng AI là gì.
• Định nghĩa AI trong dự luật quá mơ hồ, có thể áp dụng cho hầu hết các chương trình máy tính:
- "Thay đổi mức độ tự chủ": đúng với mọi hệ thống/máy móc
- "Có thể suy luận từ đầu vào để tạo ra đầu ra": đúng với mọi chương trình máy tính
- "Đầu ra có thể ảnh hưởng đến môi trường vật lý hoặc ảo": phụ thuộc vào cách sử dụng
• Dự luật thu hẹp phạm vi điều chỉnh xuống "mô hình AI" nhưng vẫn mơ hồ. Tiêu chí dựa trên số lượng tính toán khi phát triển mô hình, có thể áp dụng cho nhiều chương trình không liên quan đến AI.
• Định nghĩa mơ hồ có thể khiến luật không áp dụng được ở nơi cần thiết, nhưng lại bị lạm dụng ở nơi khác.
• Ủy ban châu Âu cũng gặp vấn đề tương tự khi định nghĩa AI quá rộng.
• "AI" là một từ khóa mơ hồ, khó định nghĩa chính xác. Không nên cố gắng quy định "AI" mà nên tập trung vào các công nghệ cụ thể như học máy.
• Cần quy định công nghệ trong một số lĩnh vực như giải quyết vấn đề thiên vị trong ra quyết định thuật toán hay giám sát phát triển vũ khí tự động.
• Sử dụng thuật ngữ không chính xác "AI" sẽ ảnh hưởng nghiêm trọng đến hiệu quả và độ tin cậy của các sáng kiến quy định công nghệ.
📌 California đang chuẩn bị thông qua dự luật quy định AI nhưng định nghĩa AI quá mơ hồ, có thể áp dụng cho hầu hết chương trình máy tính. Điều này có thể gây khó khăn trong việc áp dụng luật hiệu quả và cần tập trung vào quy định các công nghệ cụ thể hơn là "AI" nói chung.
https://www.forbes.com/sites/ericsiegel/2024/09/01/california-wants-to-regulate-ai-but-cant-even-define-it/
• Dự luật Hội đồng 1836 (AB 1836) của California đã được Thượng viện tiểu bang thông qua vào ngày 31/8/2024, yêu cầu phải có sự đồng ý từ di sản của nghệ sĩ quá cố trước khi tạo bản sao kỹ thuật số bằng AI.
• Luật mới này sẽ áp dụng cho việc sử dụng hình ảnh của nghệ sĩ đã mất trong các chương trình truyền hình, trò chơi điện tử và các phương tiện truyền thông khác.
• Hiệp hội Diễn viên Màn ảnh-Liên đoàn Nghệ sĩ Truyền hình và Phát thanh Hoa Kỳ (SAG-AFTRA) đã ủng hộ mạnh mẽ AB 1836, coi đây là một bước tiến quan trọng trong việc bảo vệ quyền lợi của nghệ sĩ biểu diễn trong thời đại AI tạo sinh.
• AB 1836 được thông qua chỉ 4 ngày sau khi Dự luật Hội đồng 2602 (AB 2602) được phê duyệt, tăng cường yêu cầu về sự đồng ý đối với nghệ sĩ còn sống.
• Cả hai dự luật đều phản ánh nỗ lực của SAG-AFTRA nhằm tăng cường bảo vệ nghệ sĩ biểu diễn trong bối cảnh công nghệ số đang thay đổi nhanh chóng.
• Luật mới này sẽ bổ sung cho các biện pháp bảo vệ đã có trong hợp đồng chính của SAG-AFTRA về truyền hình và phim ảnh, được sửa đổi sau cuộc đình công kéo dài 4 tháng vào năm ngoái.
• Douglas Mirell, đối tác tại Greenberg Glusker, đã dẫn chứng một số trường hợp nổi tiếng sử dụng AI để tái tạo nghệ sĩ quá cố với sự cho phép của di sản của họ:
- Oliver Reed trong phim Gladiator (2000)
- Paul Walker trong Furious 7 (2015)
- Peter Cushing trong Rogue One: A Star Wars Story (2016)
- Carrie Fisher trong Star Wars: The Rise of Skywalker (2019)
• Mirell lập luận rằng những ví dụ này cho thấy tính khả thi và cần thiết của việc xin phép sử dụng hình ảnh nghệ sĩ quá cố.
• Dự luật AB 1836 hiện đang chờ chữ ký của Thống đốc Gavin Newsom để chính thức trở thành luật.
📌 California thông qua luật yêu cầu xin phép di sản nghệ sĩ quá cố trước khi tạo bản sao kỹ thuật số bằng AI. SAG-AFTRA ủng hộ mạnh mẽ, coi đây là bước tiến quan trọng bảo vệ quyền lợi nghệ sĩ. Luật áp dụng cho TV, game và các phương tiện truyền thông khác.
https://www.pinkvilla.com/entertainment/hollywood/is-legal-consent-needed-to-make-digital-replicas-of-dead-artists-all-we-know-about-californias-new-ai-law-1344968
• Dự luật SB 1047 của Thượng nghị sĩ Scott Wiener nhằm quản lý các mô hình AI tiên tiến tại California đã được Hạ viện thông qua với tỷ lệ 48-16 và Thượng viện thông qua với tỷ lệ 32-1.
• Dự luật được ủng hộ bởi nhiều nhóm an toàn AI và các chuyên gia hàng đầu như Geoffrey Hinton, Yoshua Bengio và Stuart Russell. Elon Musk cũng bất ngờ ủng hộ vào phút chót.
• Đối lập với dự luật là hầu hết ngành công nghệ, bao gồm OpenAI, Facebook, Y Combinator và Andreessen Horowitz. Anthropic ban đầu phản đối nhưng sau khi dự luật được sửa đổi đã ủng hộ.
• Theo khảo sát, 70% cư dân California ủng hộ dự luật, với tỷ lệ cao hơn ở những người làm trong lĩnh vực công nghệ.
• Dự luật yêu cầu các công ty AI chi hơn 100 triệu USD để đào tạo mô hình phải xây dựng kế hoạch an toàn. Nó cũng bảo vệ người tố giác và cho phép báo cáo hành vi rủi ro của các phòng thí nghiệm AI.
• Nhiều người chỉ trích dự luật dựa trên những tuyên bố sai lệch về nội dung của nó. Thực tế dự luật chỉ yêu cầu các công ty xem xét các thông lệ tốt nhất trong ngành, không bắt buộc tuân thủ.
• Dự luật thể hiện chính phủ đang lắng nghe những chuyên gia lo ngại về nguy cơ từ AI, điều này gây tranh cãi trong cộng đồng nghiên cứu AI.
• California là nơi đặt trụ sở của nhiều công ty AI hàng đầu thế giới. Dự luật này có thể định hướng cho cả nước Mỹ và thế giới về quản lý AI.
• Thống đốc Newsom đang chịu áp lực từ các nhà vận động hành lang công nghệ để phủ quyết dự luật. Tuy nhiên, 60% cử tri sẽ đổ lỗi cho ông nếu có sự cố liên quan đến AI trong tương lai nếu ông phủ quyết.
📌 Dự luật SB 1047 của California đánh dấu bước ngoặt trong quản lý AI, với sự ủng hộ của 70% cư dân. Thống đốc Newsom đối mặt với quyết định lịch sử: ký thông qua để thúc đẩy an toàn AI hay phủ quyết dưới áp lực từ ngành công nghệ, có thể ảnh hưởng đến tương lai chính trị của ông.
https://www.vox.com/future-perfect/369628/ai-safety-bill-sb-1047-gavin-newsom-california
• Theo phân tích của Arize AI, 137 trong số 500 công ty Fortune 500 đã đề cập đến quy định AI như một yếu tố rủi ro trong báo cáo thường niên, chiếm khoảng 27%.
• Mối quan ngại này phản ánh bối cảnh pháp lý không rõ ràng, với Đạo luật AI của EU ở một đầu và các sáng kiến của các bang Hoa Kỳ ở đầu còn lại. Chính phủ Mỹ vẫn chưa có quy định cụ thể về AI.
• George Kurian, CEO của NetApp, cho rằng cần có sự kết hợp giữa tự điều chỉnh của ngành và người tiêu dùng, cùng với quy định chính thức. Tuy nhiên, NetApp cũng cảnh báo nếu quy định "làm chậm hoặc cản trở đáng kể việc áp dụng AI", nhu cầu sản phẩm có thể không đạt kỳ vọng.
• Nhiều công ty lo ngại về chi phí tuân thủ cao hơn, các hình phạt, ảnh hưởng đến doanh thu và nguy cơ AI vi phạm quy định. Motorola Solutions cho rằng việc tuân thủ có thể "tốn kém và phức tạp".
• Visa nhấn mạnh sự không chắc chắn do thiếu một khuôn khổ pháp lý toàn cầu thống nhất cho AI.
• Tuy nhiên, nhiều tập đoàn vẫn tiếp tục triển khai các sáng kiến AI, đặc biệt khi đối thủ cạnh tranh đang đẩy mạnh công nghệ này.
• Dự luật SB 1047 của California được xem là chỉ báo cho cách AI sẽ được quản lý trên toàn quốc. Các nhà phát triển mô hình AI cho rằng dự luật sẽ làm chậm đổi mới và hạn chế chia sẻ công nghệ AI.
• Một số công ty như S&P Global đang cố gắng đi trước quy định bằng cách thiết lập hướng dẫn AI nội bộ riêng.
• Các công ty dịch vụ tài chính và bảo hiểm quen làm việc với cơ quan quản lý có thể dễ dàng hơn trong việc điều hướng luật AI.
• Nasdaq đã ra mắt loại lệnh cổ phiếu được hỗ trợ bởi AI được SEC phê duyệt, cung cấp khuôn mẫu cho công việc tương lai với cơ quan quản lý.
• Việc quản lý và tạo ra các biện pháp bảo vệ cho AI tạo sinh khác với các hình thức AI khác, đòi hỏi thiết kế các quy trình "cho phép chúng ta theo kịp quỹ đạo trí tuệ".
📌 27% công ty Fortune 500 coi quy định AI là rủi ro trong báo cáo thường niên. Dù lo ngại về chi phí tuân thủ và tác động đến doanh thu, nhiều doanh nghiệp vẫn tiếp tục triển khai AI. Một số công ty chủ động thiết lập hướng dẫn nội bộ để đón đầu quy định sắp tới.
https://www.wsj.com/articles/ai-regulation-is-coming-fortune-500-companies-are-bracing-for-impact-94bba201
#WSJ
• Hiện có hơn 25 vụ kiện bản quyền đang chờ xét xử chống lại các công ty AI.
• Vụ Thomson Reuters kiện ROSS Intelligence bị hoãn ngay trước ngày xét xử. Đây có thể là vụ kiện tiên phong tạo tiền lệ cho các vụ khác.
• Vụ kiện tập thể Sarah Andersen chống lại Stability AI cáo buộc công ty này sử dụng tác phẩm của nghệ sĩ mà không được phép để huấn luyện AI tạo hình ảnh.
• Getty Images kiện Stability AI vì sử dụng hơn 12 triệu ảnh trong thư viện của họ mà không có giấy phép để huấn luyện hệ thống AI Stable Diffusion.
• Vụ kiện Zhang chống Google cáo buộc công ty sử dụng tác phẩm có bản quyền để huấn luyện công cụ AI tạo hình ảnh từ văn bản.
• Meta bị kiện trong vụ Richard Kadrey vì cáo buộc vi phạm bản quyền khi sử dụng sách để huấn luyện mô hình LLaMa.
• OpenAI đối mặt với vụ kiện tương tự từ Sarah Silverman và các tác giả khác liên quan đến ChatGPT.
• Anthropic bị kiện bởi các nhà văn và nhà báo vì cáo buộc sử dụng tác phẩm của họ để huấn luyện chatbot Claude.
• Nvidia bị kiện vì cáo buộc sử dụng 196.640 cuốn sách để huấn luyện nền tảng AI NeMo.
• Các công ty âm nhạc lớn kiện Anthropic vì sử dụng lời bài hát trái phép để huấn luyện Claude.
• Tổ chức Authors Guild cùng các tác giả nổi tiếng như John Grisham, George R.R. Martin kiện OpenAI và Microsoft.
• New York Times kiện Microsoft và OpenAI vì sử dụng hàng triệu bài báo có bản quyền để huấn luyện mô hình GPT.
• Các vụ kiện về quyền riêng tư cáo buộc OpenAI và Google thu thập dữ liệu người dùng trái phép.
• Elon Musk kiện Sam Altman và OpenAI vì không giữ đúng lời hứa phát triển công nghệ nguồn mở.
📌 Hơn 25 vụ kiện bản quyền và quyền riêng tư đang chờ xét xử chống lại các công ty AI lớn như OpenAI, Meta và Google. Các vụ kiện tập trung vào việc sử dụng nội dung có bản quyền để huấn luyện AI và thu thập dữ liệu người dùng trái phép, với sự tham gia của nhiều tổ chức lớn như Getty Images, New York Times và Authors Guild.
https://www.fastcompany.com/91179905/openai-anthropic-and-meta-tracking-the-lawsuits-filed-against-the-major-ai-companies
• Các chuyên gia AI và kinh tế có quan điểm khác nhau về thời điểm xuất hiện và tác động của trí tuệ nhân tạo tổng quát (AGI). Tuy nhiên, hầu hết đều đồng ý rằng tiến bộ công nghệ không đảm bảo mọi người đều được hưởng lợi.
• Đảm bảo AI tạo ra tương lai bao trùm vẫn là lĩnh vực ít được đầu tư nhất trong quản trị AI, mặc dù nhiều nỗ lực R&D AI hàng đầu tuyên bố đây là mục tiêu chính.
• Sự phát triển và sử dụng AI chủ yếu do khu vực tư nhân thúc đẩy, bị ảnh hưởng mạnh mẽ bởi cấu trúc khuyến khích của nền kinh tế thế giới.
• Có sự phân chia rõ rệt về nhân khẩu học giữa các nước thu nhập cao (dân số già hóa nhanh chóng và sẽ giảm nếu không có di cư) và các nước thu nhập thấp và trung bình thấp (dân số sẽ tiếp tục tăng trong thế kỷ này).
• Phát triển AI tập trung ở các nước già hóa, do đó sẽ theo đuổi nhu cầu và động lực của những nơi này như tìm cách mở rộng lực lượng lao động hiệu quả.
• Nếu chính sách nhập cư quá hạn chế ở các nước giàu không được nới lỏng, động lực kinh tế để lấp khoảng trống lao động bằng AI có thể tăng mạnh trong những thập kỷ tới.
• Ngay cả khi nỗ lực thay thế lao động bằng AI diễn ra tốt đẹp ở các nước giàu, nó vẫn có thể làm sâu sắc thêm bất bình đẳng giữa các quốc gia.
• Các nước thu nhập thấp hơn sẽ tiếp tục có dân số trẻ, đang phát triển cần việc làm chứ không phải công nghệ thay thế lao động.
• Nhiều ứng dụng AI có lợi có thể vẫn tương đối kém phát triển so với các ứng dụng chỉ tiết kiệm lao động.
• Cần có nỗ lực quy mô lớn có chủ đích từ chính phủ, ngân hàng phát triển và các tổ chức từ thiện để đảm bảo AI được sử dụng để giải quyết nhu cầu của các nước nghèo hơn.
• Chúng ta có thể chọn hướng nhiều nỗ lực R&D công cộng hơn vào các thách thức toàn cầu cấp bách như đẩy nhanh quá trình chuyển đổi xanh và cải thiện kết quả giáo dục.
• Đầu tư nhiều hơn vào việc tạo ra và hỗ trợ các trung tâm phát triển AI ở các nước có thu nhập thấp hơn.
• Các lựa chọn chính sách cho phép di động lao động lớn hơn sẽ giúp tạo ra sự phân bổ dân số trong độ tuổi lao động cân bằng hơn giữa các quốc gia.
📌 AI có thể làm trầm trọng thêm bất bình đẳng kinh tế toàn cầu nếu không được kiểm soát. Cần có các chính sách và đầu tư phù hợp để đảm bảo AI mang lại lợi ích cho tất cả mọi người, đặc biệt là các nước đang phát triển. Nếu không, AI có thể làm sâu sắc thêm khoảng cách giữa các nước giàu và nghèo.
https://www.technologyreview.com/2024/08/27/1096133/ai-economic-inequality-jobs-low-income/
#MIT
• Cảnh sát ở một số thành phố Mỹ đang thử nghiệm sử dụng chatbot AI để viết bản thảo đầu tiên của báo cáo sự cố.
• Công nghệ này do công ty Axon phát triển, sử dụng cùng mô hình AI với ChatGPT để phân tích âm thanh từ camera gắn thân của cảnh sát và tạo ra báo cáo trong vài giây.
• Tại Oklahoma City, công cụ AI có thể viết báo cáo chi tiết và chính xác trong 8 giây, thay vì mất 30-45 phút như cách viết thủ công trước đây.
• Nhiều cảnh sát đánh giá cao công nghệ này vì giúp tiết kiệm thời gian và tạo ra báo cáo chất lượng tốt hơn.
• Tuy nhiên, một số công tố viên, nhà giám sát và học giả pháp lý lo ngại về tác động của nó đến hệ thống tư pháp hình sự.
• Tại Oklahoma City, công cụ này chỉ được sử dụng cho các báo cáo sự cố nhỏ không dẫn đến bắt giữ. Nhưng ở Lafayette, Indiana, cảnh sát được phép dùng cho mọi loại vụ án.
• Các lo ngại bao gồm khả năng AI tạo ra thông tin sai lệch, thiếu sót trong báo cáo và tác động đến việc xác định tính hợp pháp của việc bắt giữ.
• Một số nhà hoạt động cộng đồng lo ngại công nghệ này có thể làm trầm trọng thêm vấn đề phân biệt chủng tộc trong hoạt động cảnh sát.
• Axon cho biết họ đã điều chỉnh mô hình AI để giảm thiểu sự sáng tạo và bám sát sự thật hơn.
• Các chuyên gia kêu gọi cần có thêm thảo luận công khai về lợi ích và rủi ro tiềm ẩn trước khi công nghệ này được áp dụng rộng rãi hơn.
• Việc sử dụng AI đang thay đổi cách cảnh sát ứng phó tại hiện trường, khiến họ mô tả bằng lời nhiều hơn để camera ghi lại tốt hơn.
• Các báo cáo được tạo bởi AI phải được đánh dấu rõ là sử dụng công nghệ này.
📌 Công nghệ AI đang được thử nghiệm để tự động hóa việc viết báo cáo của cảnh sát tại một số thành phố ở Mỹ. Mặc dù giúp tiết kiệm thời gian đáng kể, nhưng cũng gây ra nhiều lo ngại về độ chính xác và tác động đến hệ thống tư pháp. Cần có thêm thảo luận công khai trước khi áp dụng rộng rãi.
https://www.newsday.com/business/ai-writes-police-reports-axon-body-cameras-chatgpt-c58797
- Trung Quốc hiện đang dẫn đầu thế giới về số lượng công bố nghiên cứu AI, với khoảng 12.450 bài báo về AI tạo sinh vào năm 2023, gần bằng với 12.030 bài của Hoa Kỳ.
- Mặc dù Trung Quốc có nhiều công bố nghiên cứu, nhưng chất lượng nghiên cứu của họ thường thấp hơn so với Hoa Kỳ, với ít trích dẫn hơn và sự tham gia của khu vực tư nhân cũng hạn chế.
- Đại học Thanh Hoa ở Bắc Kinh là nơi khởi nguồn cho nhiều công ty khởi nghiệp AI hàng đầu của Trung Quốc, bao gồm "tứ hổ AI": Zhipu AI, Baichuan AI, Moonshot AI và MiniMax.
- Các mô hình ngôn ngữ lớn của Trung Quốc đang thu hẹp khoảng cách về hiệu suất so với các mô hình của Hoa Kỳ, một số mô hình của Trung Quốc thậm chí còn vượt trội hơn trong các bài kiểm tra song ngữ.
- Trung Quốc có ít đầu tư AI từ khu vực tư nhân hơn Hoa Kỳ, nhưng đầu tư nước ngoài vào lĩnh vực AI tạo sinh của Trung Quốc đang gia tăng, với Aramco của Ả Rập Saudi dẫn đầu.
- Chính phủ Trung Quốc đang cung cấp hỗ trợ tài chính cho các công ty AI trong nước, đặc biệt là ở những khu vực mà khu vực tư nhân thường không đầu tư.
- Hệ sinh thái mô hình ngôn ngữ mở của Trung Quốc đang phát triển nhanh chóng, với các mô hình như Qwen 1.5 của Alibaba và ChatGLM3 của Zhipu AI đã vượt qua một số đối thủ của Hoa Kỳ.
- Các nhà hoạch định chính sách Hoa Kỳ nên tập trung vào việc phát triển một chiến lược AI quốc gia toàn diện thay vì cố gắng kiềm chế sự phát triển của Trung Quốc.
- Trung Quốc đã phê duyệt ít nhất 117 sản phẩm AI tạo sinh tính đến tháng 3 năm 2024, cho thấy sự phát triển mạnh mẽ trong lĩnh vực này.
- Mặc dù gặp khó khăn trong việc tiếp cận công nghệ tiên tiến từ Hoa Kỳ, Trung Quốc đã nhanh chóng phát triển hệ sinh thái AI nội địa với sự hỗ trợ của chính phủ.
📌 Trung Quốc đang nhanh chóng thu hẹp khoảng cách về AI với Hoa Kỳ, với hơn 12.450 công bố nghiên cứu AI tạo sinh trong năm 2023. Các công ty khởi nghiệp như Zhipu AI và Baichuan AI đang dẫn đầu sự đổi mới, trong khi chính phủ cung cấp hỗ trợ tài chính mạnh mẽ cho lĩnh vực này.
https://itif.org/publications/2024/08/26/how-innovative-is-china-in-ai/
Giới thiệu:
1. **Định nghĩa Trí tuệ nhân tạo (AI)**: AI là sự mô phỏng trí thông minh của con người trong máy móc, cho phép thực hiện các nhiệm vụ như nhận diện hình ảnh, nhận diện giọng nói, ra quyết định và dịch ngôn ngữ.
2. **Thành tựu của Hoa Kỳ trong AI**: Hoa Kỳ dẫn đầu trong đổi mới AI nhờ vào các trường đại học nghiên cứu hàng đầu, lĩnh vực công nghệ mạnh mẽ và môi trường quy định hỗ trợ.
3. **Cạnh tranh từ Trung Quốc**: Trung Quốc đã nổi lên như một đối thủ đáng gờm trong lĩnh vực AI, với các trường đại học mạnh mẽ và nghiên cứu sáng tạo, đặc biệt là từ Đại học Thanh Hoa.
4. **Sự phát triển của các công ty khởi nghiệp AI tại Trung Quốc**: Các công ty khởi nghiệp AI hàng đầu của Trung Quốc, như Zhipu AI và Baichuan AI, chủ yếu được thành lập bởi giảng viên và cựu sinh viên của các trường đại học.
5. **Khả năng nghiên cứu của Trung Quốc**: Trung Quốc hiện sản xuất nhiều nghiên cứu AI hơn Hoa Kỳ và đang thu hẹp khoảng cách về hiệu suất với các mô hình ngôn ngữ lớn (LLMs) của Hoa Kỳ.
6. **Lợi thế của Hoa Kỳ trong chuyển giao công nghệ**: Hoa Kỳ vượt trội trong việc chuyển giao nghiên cứu tiên tiến thành sản phẩm thực tế, với nhiều mô hình máy học và mô hình nền tảng nổi bật hơn so với Trung Quốc.
7. **Cảnh quan tài chính của Trung Quốc**: Mặc dù Hoa Kỳ dẫn đầu về đầu tư AI tư nhân, đầu tư nước ngoài đang bắt đầu đổ vào lĩnh vực AI sáng tạo của Trung Quốc, như thỏa thuận 400 triệu USD với Zhipu AI.
8. **Hỗ trợ từ chính phủ Trung Quốc**: Chính phủ Trung Quốc đang hỗ trợ các công ty AI trong nước bằng vốn nhà nước và các khoản tài trợ tài chính, đặc biệt là ở những khu vực thường bị bỏ qua bởi khu vực tư nhân.
9. **Hạn chế từ Hoa Kỳ đối với Trung Quốc**: Các nỗ lực của Hoa Kỳ nhằm hạn chế tiếp cận công nghệ tiên tiến của Trung Quốc đã có hiệu quả hạn chế và thậm chí thúc đẩy Trung Quốc phát triển hệ sinh thái nội địa.
10. **Tương lai của AI giữa Hoa Kỳ và Trung Quốc**: Hoa Kỳ có thể khó giữ vững vị thế dẫn đầu trong lĩnh vực AI khi Trung Quốc đang tiến bộ nhanh chóng và có nền tảng học thuật vững chắc.
Đề xuất cho các nhà hoạch định chính sách Hoa Kỳ
11. **Khuyến khích đầu tư tư nhân vào R&D AI**: Tạo điều kiện thuận lợi cho các khoản đầu tư tư nhân vào nghiên cứu và phát triển AI.
12. **Cải cách quy trình tài trợ liên bang cho AI**: Đổi mới quy trình tài trợ để hỗ trợ nghiên cứu AI.
13. **Tránh các chính sách làm suy yếu vị thế AI của Hoa Kỳ**: Không áp dụng các chính sách có thể làm suy yếu vị thế của Hoa Kỳ và củng cố các đối thủ Trung Quốc.
14. **Phát triển chiến lược dữ liệu quốc gia**: Tạo ra một chiến lược dữ liệu quốc gia để mở rộng đáng kể khả năng tiếp cận dữ liệu cho việc đào tạo các mô hình AI.
15. **Lập kế hoạch quốc gia cho việc áp dụng AI**: Tạo ra một lộ trình quốc gia cho việc áp dụng AI.
16. **Ưu tiên áp dụng AI trong chính phủ liên bang**: Thúc đẩy việc áp dụng AI nhanh chóng trong các cơ quan chính phủ.
17. **Hỗ trợ chuyển đổi số**: Khuyến khích sự chuyển đổi số trong các lĩnh vực khác nhau.
18. **Khuyến khích đầu tư đào tạo lực lượng lao động AI**: Tạo động lực cho việc đầu tư vào đào tạo lực lượng lao động trong lĩnh vực AI.
Công nghiệp và thị trường AI Trung Quốc
1. Quy mô và Phạm vi Ngành AI
- **Số lượng công ty**: Hoa Kỳ có khoảng 9.500 công ty AI, gần gấp 5 lần so với Trung Quốc với 1.944 công ty.
- **Đầu tư vào AI**: Trong 10 năm qua, Hoa Kỳ ghi nhận gần 60.000 khoản đầu tư vào AI, trong khi Trung Quốc chỉ có khoảng 8.200 khoản. Tổng giá trị đầu tư vào AI tại Hoa Kỳ ước tính lên tới 605 tỷ USD, trong khi con số này ở Trung Quốc chỉ là 86 tỷ USD.
2. Hỗ trợ Tài chính từ Chính phủ Trung Quốc
- **Quỹ hỗ trợ chính phủ**: Chính phủ Trung Quốc cung cấp tài chính cho các công ty AI tiềm năng, đặc biệt ở những khu vực ít được chú ý. Quỹ này bao gồm cả quỹ hướng dẫn của nhà nước và các khoản trợ cấp.
- **Đầu tư vào công ty AI**: Từ năm 2000 đến 2023, các quỹ VC của chính phủ Trung Quốc đã đầu tư vào 9.623 công ty AI với tổng giá trị lên tới 184 tỷ USD.
3. Khởi nghiệp AI tại Trung Quốc
- **Khởi nghiệp nổi bật**: Nhiều công ty khởi nghiệp AI mới nổi tại Trung Quốc đang đẩy mạnh đổi mới sáng tạo, đặc biệt trong lĩnh vực AI tạo hình. Một số công ty như Zhipu AI và Baichuan AI đã trở thành những "kỳ lân" trong ngành công nghiệp AI của Trung Quốc.
- **Tác động của Đại học Thanh Hoa**: Đại học Thanh Hoa đóng vai trò quan trọng trong việc nuôi dưỡng các công ty khởi nghiệp AI, cung cấp tài năng và nguồn lực nghiên cứu.
4. Mô hình AI của Trung Quốc
- **Sự phát triển nhanh chóng**: Trong 2 năm qua, Trung Quốc đã chứng kiến sự gia tăng nhanh chóng về số lượng mô hình AI quy mô lớn từ các phòng thí nghiệm hàng đầu.
- **Cạnh tranh với Hoa Kỳ**: Mặc dù các mô hình AI của Hoa Kỳ hiện tại vẫn vượt trội hơn, nhưng khoảng cách về hiệu suất giữa các mô hình hàng đầu của Hoa Kỳ và Trung Quốc đang nhanh chóng thu hẹp.
5. Xu hướng và Thách thức
- **Cạnh tranh toàn cầu**: Các công ty AI của Trung Quốc đang cố gắng tạo ra các sản phẩm cạnh tranh với các mô hình của Hoa Kỳ, nhưng vẫn gặp khó khăn trong việc xác định ứng dụng nào là phổ biến nhất trong nước.
- **Tín hiệu tích cực**: Sự hỗ trợ từ chính phủ và sự phát triển của các công ty khởi nghiệp AI cho thấy tiềm năng lớn cho ngành công nghiệp AI của Trung Quốc trong tương lai.
Đổi mới sáng tạo AI của Trung Quốc
1. **Nghiên cứu AI**:
- Trung Quốc dẫn đầu về số lượng bài báo nghiên cứu AI, nhưng chất lượng (đo bằng số lần trích dẫn) thường thấp hơn so với Hoa Kỳ.
- Trong lĩnh vực AI tạo sinh, Trung Quốc và Hoa Kỳ có số lượng công bố tương đương, nhưng Hoa Kỳ chiếm ưu thế về số lượng bài báo được trích dẫn.
2. **Bằng sáng chế AI**:
- Trung Quốc có số lượng bằng sáng chế AI cao hơn, nhưng chất lượng bằng sáng chế của Hoa Kỳ tốt hơn.
- Từ 2013, Trung Quốc đã là quốc gia dẫn đầu về số lượng bằng sáng chế AI được cấp.
3. **Tài năng AI**:
- Trung Quốc sản xuất nhiều nhà nghiên cứu AI hàng đầu, nhưng vẫn còn thiếu trong việc nâng cao kỹ năng cho lực lượng lao động hiện tại.
- Một tỷ lệ lớn nhà nghiên cứu hàng đầu từ Trung Quốc chọn làm việc ở Hoa Kỳ, mặc dù ngày càng có nhiều nhà nghiên cứu quyết định ở lại Trung Quốc.
4. **Cơ sở hạ tầng dữ liệu**:
- Trung Quốc có lợi thế về số lượng dữ liệu, nhưng chất lượng và tính đa dạng của dữ liệu còn hạn chế.
- Dữ liệu từ các hợp đồng chính phủ đóng vai trò quan trọng trong sự phát triển của các công ty AI ở Trung Quốc.
5. **Truy cập vào công nghệ chip**:
- Trung Quốc phụ thuộc vào Hoa Kỳ cho chip AI, nhưng đang nỗ lực phát triển ngành công nghiệp bán dẫn nội địa.
- Các biện pháp kiểm soát xuất khẩu của Hoa Kỳ có thể ảnh hưởng ngắn hạn đến sự phát triển AI của Trung Quốc, nhưng quốc gia này đang tìm cách tự cung cấp chip.
6. **Sự tham gia của các công ty tư nhân**:
- Các công ty tư nhân ở Hoa Kỳ đóng vai trò quan trọng trong việc sản xuất nghiên cứu AI chất lượng cao và nhanh chóng chuyển đổi thành công nghệ ứng dụng.
- Trung Quốc chủ yếu dựa vào các tổ chức học thuật để sản xuất nghiên cứu AI hàng đầu.
7. **Xu hướng toàn cầu**:
- Các quốc gia khác như Canada, Úc, và Vương quốc Anh đang thu hút tài năng AI quốc tế, làm giảm số lượng tài năng hàng đầu từ Trung Quốc đến Hoa Kỳ.
- Sự cạnh tranh quốc tế về tài năng AI đang gia tăng, với nhiều quốc gia tạo ra các chính sách visa thuận lợi để thu hút nhân tài.
Case study 2 công ty hàng đầu
1. Zhipu AI
- **Thông tin chung**: Zhipu AI là một trong những công ty khởi nghiệp AI lớn nhất tại Trung Quốc, với 800 nhân viên và định giá khoảng 3 tỷ USD tính đến tháng 5 năm 2024. Công ty được sáng lập bởi các giáo sư Tang Jie và Li Juanzi từ Đại học Thanh Hoa.
- **Nghiên cứu và phát triển**: Zhipu AI bắt đầu đầu tư vào các mô hình ngôn ngữ lớn (LLMs) từ năm 2020. Mô hình GLM (General Language Model) của họ kết hợp các yếu tố của BERT và GPT, cho phép nó hiểu và tạo ra văn bản một cách chính xác cho cả tiếng Trung và tiếng Anh.
- **Sản phẩm**: Công ty phát triển nhiều sản phẩm như ChatGLM, WebGLM, VisualGLM và CogVLM, với mục tiêu đạt được trí tuệ nhân tạo tổng quát (AGI). CEO Zhang Peng nhấn mạnh rằng công ty đang hướng tới những đột phá lớn thay vì cải tiến dần dần.
- **Đầu tư và đối thủ**: Zhipu AI thu hút sự quan tâm từ các nhà đầu tư nước ngoài, bao gồm cả quỹ đầu tư Prosperity7 từ Ả Rập Saudi, cho thấy sự cạnh tranh với các công ty như OpenAI và Google DeepMind.
2. Moonshot AI
- **Thông tin chung**: Moonshot AI được thành lập vào tháng 3 năm 2023, tập trung vào phát triển các mô hình ngôn ngữ lớn với khả năng xử lý văn bản dài, một yếu tố quan trọng trong việc cải thiện tương tác và dịch vụ khách hàng.
- **Nền tảng kỹ thuật**: Công ty được sáng lập bởi 3 người có nền tảng kỹ thuật vững chắc, bao gồm Yang Zhilin, người đã có những đóng góp quan trọng trong việc mở rộng độ dài ngữ cảnh trong các mô hình transformer.
- **Công nghệ độc đáo**: Moonshot AI phát triển công nghệ "lossless long-context", cho phép xử lý các chuỗi văn bản dài mà không mất thông tin quan trọng. Chatbot Kimi của họ, ra mắt vào tháng 10 năm 2023, có khả năng xử lý 200.000 ký tự tiếng Trung, và đã nâng cấp lên 2 triệu ký tự chỉ trong 6 tháng.
- **Cạnh tranh**: Mặc dù Moonshot AI đang dẫn đầu trong lĩnh vực này, nhưng các công ty đối thủ như Baichuan cũng đang phát triển nhanh chóng, cho thấy sự cạnh tranh khốc liệt trong ngành công nghiệp AI.
Chính sách của Chính phủ Trung Quốc hỗ trợ lĩnh vực AI
1. **Sự kiện "Hai phiên" (Two Sessions)**:
- Diễn ra từ ngày 4 đến 11 tháng 3 năm 2024, sự kiện này quy tụ hàng ngàn đại diện từ nhiều lĩnh vực xã hội để thảo luận về các vấn đề quốc gia.
- Trong sự kiện, báo cáo công việc của chính phủ đã nhấn mạnh rằng một trong những ưu tiên hàng đầu của Trung Quốc trong năm tới là thúc đẩy chuyển đổi số bằng cách tích hợp AI vào tất cả các lĩnh vực kinh tế thông qua sáng kiến "AI+".
2. **Sáng kiến "AI+"**:
- Mục tiêu của sáng kiến này là phát triển ngành công nghiệp số và cải cách các ngành truyền thống bằng công nghệ số.
- Mặc dù chi tiết cụ thể về sáng kiến này chưa được công bố, nhưng các đại diện đã đưa ra nhiều đề xuất quan trọng trong các phiên họp.
3. **Phát triển mô hình AI**:
- Một số đại diện kêu gọi Trung Quốc tập trung vào việc xây dựng các mô hình AI tiên tiến để cạnh tranh với các đối thủ quốc tế như OpenAI.
- Zhou Hongyi (Chu Hồng Y), CEO của 360 Group, đã đề xuất 2 hướng phát triển: hợp tác giữa các công ty công nghệ lớn và các tổ chức nghiên cứu, và xây dựng một dự án AI mã nguồn mở quốc gia.
4. **Cải thiện chia sẻ dữ liệu**:
- Liu Qingfeng, chủ tịch iFlytek, đã kêu gọi mở rộng chia sẻ dữ liệu chất lượng cao từ các lĩnh vực khác nhau để phát triển ngành công nghiệp AI.
- Cao Fei, CFO của Weibo, đã đề xuất phát triển một thị trường giao dịch dữ liệu AI để các công ty dễ dàng mua bán dữ liệu cần thiết.
5. **Đào tạo nhân tài AI**:
- Lei Jun (Lôi Quân), CEO của Xiaomi, nhấn mạnh rằng sự phát triển nhanh chóng của công nghệ AI tạo ra nhu cầu lớn về nhân lực AI.
- Ông đề xuất đưa các lớp học về AI vào chương trình học K-12 và mở rộng các chuyên ngành liên quan đến AI tại các trường đại học.
6. **An toàn và giám sát AI**:
- Zhou Hongyi đã chỉ ra rằng các công ty và chính quyền địa phương cần chú ý đến các rủi ro tiềm ẩn từ AI.
- Các đại diện khác đã đề xuất xây dựng luật AI mới để phân loại các thuật toán AI theo mức độ rủi ro và áp dụng các biện pháp quản lý tương ứng.
7. **Chiến lược AI công nghiệp của Trung Quốc**:
- Trung Quốc đang tập trung vào ứng dụng AI trong sản xuất và các ngành công nghiệp khác để nâng cao hiệu quả kinh tế.
- Chính phủ đã kêu gọi các công ty hợp tác với các trường đại học để thúc đẩy đổi mới công nghệ.
8. **Tăng cường tài nguyên AI**:
- Chính phủ đang triển khai hệ thống máy tính thống nhất để đảm bảo truy cập đủ tài nguyên tính toán cho các doanh nghiệp.
- Đề xuất cải thiện hệ thống dữ liệu cơ bản và thúc đẩy phát triển, phân phối và sử dụng dữ liệu.
9. **Chính sách dữ liệu sinh học**:
- Các chính sách hiện tại hỗ trợ phát triển dữ liệu sinh học để phục vụ cho đổi mới AI.
- Các công ty Trung Quốc được hưởng lợi từ việc tiếp cận rộng rãi với dữ liệu sinh học, giúp phát triển công nghệ AI.
Đề xuất cho chính phủ Mỹ
1. **Lãnh đạo toàn cầu trong phát triển AI**: Hoa Kỳ là quốc gia dẫn đầu trong phát triển AI, nhưng đang phải đối mặt với sự cạnh tranh ngày càng tăng từ Trung Quốc. Thay vì chỉ tập trung vào việc ngăn chặn sự phát triển của Trung Quốc, Mỹ cần duy trì và mở rộng vị thế dẫn đầu của mình.
2. **Thúc đẩy đầu tư tư nhân vào R&D AI**: Chính sách cần khuyến khích đầu tư tư nhân vào nghiên cứu và phát triển AI, bằng cách tăng gấp đôi tín dụng thuế R&D và khôi phục việc chi tiêu ngay trong năm đầu tiên.
3. **Cải cách quy trình tài trợ liên bang cho AI**: Cần có các mô hình tài trợ linh hoạt hơn, cho phép giải ngân dựa trên các mục tiêu cụ thể, nhằm đảm bảo đầu tư liên bang có thể phản ứng nhanh với sự phát triển của AI.
4. **Phát triển chiến lược dữ liệu quốc gia**: Hoa Kỳ cần xây dựng một chiến lược dữ liệu mạnh mẽ để mở rộng khả năng truy cập dữ liệu cho việc đào tạo các mô hình AI, học hỏi từ mô hình của Trung Quốc trong việc sử dụng dữ liệu như một nguồn lực kinh tế chiến lược.
5. **Xây dựng lộ trình quốc gia cho việc áp dụng AI**: Cần có một lộ trình quốc gia rõ ràng cho việc áp dụng AI, đặc biệt trong các lĩnh vực như giáo dục, giao thông, chính phủ và y tế, nơi cần sự hợp tác giữa khu vực công và tư.
6. **Ưu tiên áp dụng AI trong chính phủ liên bang**: Chính phủ liên bang cần trở thành người áp dụng mạnh mẽ công nghệ AI để tăng năng suất, giảm chi phí và cải thiện dịch vụ công.
7. **Hỗ trợ chuyển đổi số**: Đầu tư vào cơ sở hạ tầng kỹ thuật số như băng thông rộng, an ninh mạng và thành phố thông minh là cần thiết để nâng cao khả năng áp dụng AI trong các doanh nghiệp Mỹ.
8. **Khuyến khích đầu tư vào đào tạo lực lượng lao động AI**: Cần có các biện pháp khuyến khích, như tín dụng thuế cho các khoản chi đào tạo, để thúc đẩy các doanh nghiệp đầu tư vào phát triển nguồn nhân lực AI.
• Tháng 7/2023, Henry Kissinger cảnh báo Chủ tịch Trung Quốc Tập Cận Bình về rủi ro thảm khốc của AI. Sau đó, các cuộc đối thoại không chính thức giữa lãnh đạo công nghệ và cựu quan chức Mỹ-Trung đã diễn ra, tập trung vào cách bảo vệ thế giới khỏi nguy cơ từ AI.
• Tranh luận về AI ở phương Tây chia thành hai phe: "doomers" lo ngại AI có thể gây ra rủi ro sinh tồn cho nhân loại và ủng hộ quy định chặt chẽ hơn; "accelerationists" nhấn mạnh tiềm năng có lợi của AI và muốn đẩy nhanh phát triển.
• Trái với nhận định rằng Trung Quốc chỉ có phe ủng hộ phát triển nhanh, thực tế nước này cũng có những người lo ngại về AI và họ ngày càng có ảnh hưởng.
• Các nhà khoa học hàng đầu như Andrew Chi-Chih Yao, Zhang Ya-Qin, Xue Lan và Yi Zeng đã cảnh báo về mối đe dọa tiềm tàng của AI đối với nhân loại.
• Tranh luận về cách tiếp cận AI đã dẫn đến cuộc chiến giành quyền lực giữa các cơ quan quản lý Trung Quốc. Bộ Công nghiệp chú ý đến các vấn đề an toàn, trong khi các cơ quan an ninh và kinh tế ưu tiên phát triển nhanh hơn.
• Tập Cận Bình dường như ngày càng coi trọng những lo ngại về an toàn AI. Trong một cuộc họp Trung ương Đảng gần đây, ông đã kêu gọi giám sát an toàn AI và từ bỏ tăng trưởng không kiểm soát.
• Trung Quốc có thể thành lập một viện nghiên cứu an toàn AI để theo dõi nghiên cứu tiên tiến, tương tự như Mỹ và Anh.
• Nếu Trung Quốc tiến hành hạn chế nghiên cứu và phát triển AI tiên tiến nhất, họ sẽ đi xa hơn bất kỳ quốc gia lớn nào khác trong việc quản lý AI.
• Tập Cận Bình muốn tăng cường quản trị AI trong khuôn khổ Liên Hợp Quốc, nhưng điều này đòi hỏi hợp tác chặt chẽ hơn với các nước khác.
📌 Trung Quốc đang phân hóa về cách tiếp cận AI, với phe ủng hộ phát triển nhanh đối đầu phe lo ngại rủi ro. Tập Cận Bình dường như ngày càng coi trọng an toàn AI, kêu gọi giám sát và từ bỏ tăng trưởng không kiểm soát. Trung Quốc có thể sẽ thành lập viện nghiên cứu an toàn AI và tăng cường quản lý, nhưng vẫn cần hợp tác quốc tế để quản trị AI hiệu quả.
https://www.economist.com/china/2024/08/25/is-xi-jinping-an-ai-doomer
• AI trong tay cảnh sát và các cơ quan tư pháp hình sự có thể dẫn đến bất công. Ví dụ như trường hợp Robert Williams ở Detroit bị bắt giữ sai lầm do hệ thống nhận diện khuôn mặt AI cho kết quả dương tính giả.
• Nghiên cứu cho thấy hệ thống nhận diện khuôn mặt AI không thể phân biệt được hầu hết người da màu. Tỷ lệ lỗi cao nhất là với phụ nữ da đen, lên tới 35%.
• Canada đang xem xét 2 dự luật mới có ảnh hưởng lớn đến việc sử dụng AI trong những năm tới: Dự luật 194 ở Ontario và Dự luật C-27 liên bang. Tuy nhiên, cả hai đều thiếu các biện pháp bảo vệ công chúng khi cảnh sát sử dụng AI.
• Cảnh sát có thể sử dụng AI trực tiếp hoặc thông qua hợp đồng với các công ty tư nhân. Do đó, ngay cả luật điều chỉnh việc sử dụng AI trong khu vực tư nhân cũng cần có quy định cho các cơ quan tư pháp hình sự.
• Việc sử dụng AI của cảnh sát có thể làm tăng việc phân biệt chủng tộc và triển khai cảnh sát không cần thiết. RCMP và các cơ quan cảnh sát khác ở Canada đã bị chỉ trích vì sử dụng công nghệ Clearview AI để giám sát hàng loạt, vi phạm luật bảo mật Canada.
• Luật AI của EU được đánh giá là tốt nhất thế giới trong việc bảo vệ quyền riêng tư và tự do dân sự của công dân. Ngược lại, luật Canada và Mỹ đặt quyền của công dân đối lập với mong muốn hiệu quả và cạnh tranh của doanh nghiệp.
• Ủy ban Luật Ontario đã chỉ trích Dự luật 194 vì không thúc đẩy nhân quyền hay quyền riêng tư, cho phép các cơ quan công quyền sử dụng AI một cách bí mật.
• Hiệp hội Tự do Dân sự Canada đã kêu gọi rút lại Dự luật C-27, cho rằng nó tập trung vào tăng năng suất khu vực tư nhân hơn là bảo vệ quyền riêng tư của công dân.
• Các chuyên gia khuyến nghị cần sửa đổi cả hai dự luật để bảo vệ công dân Canada khỏi việc lạm dụng sức mạnh của AI, đặc biệt là trong lĩnh vực tư pháp hình sự.
📌 Canada đang xem xét 2 dự luật AI quan trọng nhưng thiếu quy định về việc cảnh sát sử dụng AI, có thể dẫn đến phân biệt chủng tộc và giám sát hàng loạt. Các chuyên gia kêu gọi sửa đổi khẩn cấp để bảo vệ quyền riêng tư và tự do dân sự của công dân, lấy Luật AI của EU làm hình mẫu.
https://theconversation.com/ai-used-by-police-cannot-tell-black-people-apart-and-other-reasons-canadas-ai-laws-need-urgent-attention-236752
- Trung Quốc đang tích cực sử dụng các công nghệ AI hiện có, bao gồm cả giám sát, trong khi Mỹ vẫn dẫn đầu về nghiên cứu và đổi mới cơ bản về AI
- Chính phủ Trung Quốc đang tập trung vào việc điều chỉnh và ứng dụng các công nghệ AI hiện có để phục vụ các mục tiêu kinh tế, chính trị và xã hội của nhà nước, thay vì tập trung vào việc khai phá các công nghệ mới
- Chiến lược AI của Trung Quốc gắn liền với nỗ lực nhúng công nghệ này vào máy móc kiểm soát ý thức hệ của chính phủ, chẳng hạn như chatbot Xue Xi được đào tạo dựa trên "Tư tưởng Tập Cận Bình" để cung cấp thông tin tuyên truyền cho các thành viên đảng
- Hệ thống tín dụng xã hội của Trung Quốc, sử dụng AI để theo dõi và ảnh hưởng đến hành vi của công dân trên quy mô lớn, là một ví dụ về cách Trung Quốc sử dụng AI để tăng cường kiểm soát nhà nước
- Trung Quốc đang xuất khẩu các công nghệ AI của mình, đặc biệt là các hệ thống giám sát, để mở rộng ảnh hưởng của mình trên trường quốc tế, đồng thời thúc đẩy mô hình quản trị nhà nước của mình như một lựa chọn thay thế cho nền dân chủ phương Tây
📌 Mặc dù Trung Quốc không phải là người tiên phong về đổi mới công nghệ AI, nhưng họ đang thành thạo trong việc sử dụng các công nghệ hiện có để phục vụ các mục tiêu chiến lược của nhà nước, từ kiểm soát ý thức hệ đến lợi thế quân sự. Điều này cho thấy tầm quan trọng của việc sử dụng các công cụ công nghệ như thế nào, ngang với việc phát triển các công nghệ mới.
https://www.nextgov.com/ideas/2024/08/china-leans-using-ai-even-us-leads-developing-it/398953/?oref=ng-skybox-post
- Các quốc gia đang có những cách tiếp cận khác nhau trong việc điều chỉnh trí tuệ nhân tạo (AI), từ tự điều chỉnh đến quy định nghiêm ngặt.
- Trong suốt nhiều thập kỷ, lĩnh vực AI từng bị chế giễu vì sự phát triển chậm chạp, nhưng trong thập kỷ qua, sự tiến bộ đã diễn ra nhanh chóng và gây ra lo ngại về những rủi ro tiềm ẩn.
- Rủi ro nổi bật nhất liên quan đến AI là khả năng các hệ thống AI có thể tự cải thiện và dẫn đến sự ra đời của "siêu trí tuệ", có thể vượt qua khả năng của con người.
- Nhiều nhà đầu tư và nhà tư tưởng, như Elon Musk và Nick Bostrom, đã cảnh báo về những rủi ro tồn tại, từ việc gây ra các cuộc tấn công mạng đến việc hỗ trợ tạo ra vũ khí sinh học.
- Sau sự ra mắt của ChatGPT vào tháng 11 năm 2022, cuộc tranh luận công khai về an toàn AI đã gia tăng, dẫn đến lời kêu gọi tạm dừng phát triển AI từ một nhóm các nhân vật công nghệ nổi bật.
- Tuy nhiên, một số nhà phê bình cho rằng các rủi ro tiềm ẩn vẫn chủ yếu là giả thuyết, và rằng cần tập trung vào các rủi ro thực tế hiện tại như thiên lệch, thông tin sai lệch và vi phạm quyền sở hữu trí tuệ.
- Các ví dụ về rủi ro thực tế bao gồm việc các hệ thống AI phân biệt chủng tộc trong tuyển dụng và nhận diện khuôn mặt.
- Các nhà lãnh đạo thế giới đã gặp nhau tại nhiều hội nghị AI, trong đó có một hội nghị tại Seoul vào tháng 5 năm 2024, tập trung vào các vấn đề hiện tại thay vì các rủi ro xa xôi.
- Mỹ đang áp dụng quy định tự nguyện cho hầu hết các mô hình AI, trong khi Trung Quốc đang áp dụng các quy định nghiêm ngặt hơn nhằm kiểm soát thông tin.
- Liên minh châu Âu đã thông qua Luật AI đầu tiên trên thế giới, yêu cầu các ứng dụng AI phải tuân thủ quy định dựa trên mức độ rủi ro của chúng.
- Các sáng kiến toàn cầu đang được phát triển để tạo ra quy định và cơ quan giám sát cho AI, bao gồm các hội nghị và quy trình Hiroshima.
- Các tiểu bang của Mỹ, đặc biệt là California, đang thúc đẩy các dự luật điều chỉnh AI, trong bối cảnh lo ngại về việc chính quyền liên bang không đủ mạnh mẽ trong việc quản lý công nghệ này.
📌 Các quốc gia đang điều chỉnh AI theo nhiều cách khác nhau, từ tự điều chỉnh đến quy định nghiêm ngặt. Trong khi Mỹ chủ yếu dựa vào tự điều chỉnh, Trung Quốc áp dụng quy định nghiêm ngặt hơn. Liên minh châu Âu đã ban hành Luật AI đầu tiên, yêu cầu các ứng dụng AI phải tuân thủ quy định dựa trên mức độ rủi ro.
https://www.economist.com/schools-brief/2024/08/20/ai-needs-regulation-but-what-kind-and-how-much
- Trung Quốc đang triển khai một chương trình kiểm duyệt nghiêm ngặt nhằm đảm bảo các mô hình ngôn ngữ lớn (LLM) của các công ty AI phản ánh các giá trị cốt lõi của chủ nghĩa xã hội.
- Cơ quan Quản lý Không gian Mạng Trung Quốc (CAC) đã yêu cầu các công ty công nghệ lớn như ByteDance, Alibaba và các công ty khởi nghiệp AI tham gia vào một cuộc kiểm tra bắt buộc về các mô hình AI của họ.
- Quá trình kiểm tra bao gồm việc đánh giá phản hồi của các mô hình LLM đối với nhiều câu hỏi, trong đó nhiều câu hỏi liên quan đến các vấn đề nhạy cảm chính trị và Chủ tịch Tập Cận Bình.
- Các công ty AI phải điều chỉnh dữ liệu đào tạo và quy trình an toàn để phù hợp với các yêu cầu kiểm duyệt của chính phủ.
- Chương trình kiểm duyệt này được coi là một phần trong nỗ lực của Trung Quốc để thiết lập một chế độ quản lý AI nghiêm ngặt nhất thế giới.
- Nhân viên từ CAC đã đến trực tiếp văn phòng của các công ty để thực hiện kiểm tra, và nhiều công ty phải thực hiện nhiều lần kiểm tra để đạt yêu cầu.
- Các công ty AI phải xây dựng một cơ sở dữ liệu từ khóa nhạy cảm và loại bỏ thông tin không phù hợp từ dữ liệu đào tạo.
- Các chatbot AI ở Trung Quốc thường từ chối trả lời các câu hỏi liên quan đến các sự kiện nhạy cảm như vụ thảm sát Thiên An Môn năm 1989.
- Trung Quốc đã phát triển một chatbot AI dựa trên "Tư tưởng Tập Cận Bình về Chủ nghĩa xã hội với đặc sắc Trung Quốc trong thời đại mới".
- CAC đã đặt ra giới hạn về số lượng câu hỏi mà các mô hình LLM có thể từ chối trong quá trình kiểm tra an toàn.
- Các kỹ sư Trung Quốc đang gặp khó khăn trong việc đảm bảo rằng các mô hình LLM tạo ra các câu trả lời chính trị đúng đắn cho các câu hỏi như "Trung Quốc có nhân quyền không?".
- ByteDance được cho là đã phát triển một mô hình LLM có khả năng phản ánh tốt các quan điểm của Bắc Kinh, đạt tỷ lệ tuân thủ an toàn cao nhất trong các thử nghiệm.
- Các chuyên gia cho rằng cần có một hệ thống giám sát an toàn trực tuyến cho các mô hình dự đoán lớn để đảm bảo rằng chúng tuân thủ các quy định của chính phủ.
📌 Trung Quốc đang kiểm soát chặt chẽ AI để đảm bảo các mô hình ngôn ngữ lớn phản ánh giá trị xã hội chủ nghĩa, với CAC yêu cầu các công ty điều chỉnh dữ liệu và quy trình an toàn. Các chatbot từ chối câu hỏi nhạy cảm, trong khi ByteDance dẫn đầu về tuân thủ an toàn.
https://www.ft.com/content/10975044-f194-4513-857b-e17491d2a9e9
#FT
- Vào ngày 20 tháng 6 năm 2024, Tòa án Internet Bắc Kinh đã xét xử vụ án đầu tiên liên quan đến ứng dụng hoán đổi khuôn mặt bằng AI, xác định rằng việc này xâm phạm quyền thông tin cá nhân nhưng không vi phạm quyền chân dung.
- Các nguyên đơn trong vụ án là những người mẫu video ngắn, hình ảnh của họ đã bị sử dụng mà không có sự cho phép để tạo ra các mẫu hoán đổi khuôn mặt cho mục đích thương mại.
- Tòa án đã xem xét 2 vấn đề chính: liệu các mẫu hình ảnh được sử dụng có đủ tiêu chuẩn là chân dung có thể nhận diện hay không, và liệu việc sử dụng công nghệ hoán đổi khuôn mặt từ bên thứ ba có làm cho bị cáo không phải chịu trách nhiệm về việc xử lý thông tin cá nhân hay không.
- Tòa án kết luận rằng mặc dù các mẫu hình ảnh do AI tạo ra có thể sao chép chuyển động và đặc điểm của nguyên đơn, nhưng những khác biệt về đặc điểm khuôn mặt khiến chúng không thể nhận diện được.
- Tuy nhiên, video của nguyên đơn chứa thông tin cá nhân như đặc điểm khuôn mặt, được định nghĩa là "thông tin cá nhân" theo Luật Bảo vệ Thông tin Cá nhân của Trung Quốc.
- Việc bị cáo thu thập và sử dụng video này mà không có sự cho phép đã vi phạm quyền thông tin cá nhân của nguyên đơn.
- Mặc dù bị cáo đã ủy thác cho bên thứ ba cung cấp công nghệ hoán đổi khuôn mặt, nhưng họ vẫn phải chịu trách nhiệm về cách thức và phạm vi xử lý thông tin.
- Video của nguyên đơn, mặc dù có sẵn công khai, nhưng rõ ràng không được cấp phép cho bất kỳ phần mềm thương mại nào.
- Việc sử dụng thương mại không có sự cho phép của bị cáo đã xâm phạm quyền và lợi ích của nguyên đơn.
- Luật pháp hiện hành bảo vệ thông tin cá nhân thông qua quyền biết và quyền quyết định nhằm ngăn chặn việc rò rỉ và lạm dụng thông tin cá nhân.
- Bị cáo không chứng minh được rằng họ đã nhận được sự đồng ý của nguyên đơn, do đó đã vi phạm quyền và lợi ích của họ.
📌 Vụ án này nhấn mạnh rằng việc ủy thác cho bên thứ ba không miễn trừ trách nhiệm cho nhà cung cấp dịch vụ, và việc sử dụng công nghệ AI phải có sự đồng ý của chủ sở hữu quyền gốc để tránh vi phạm quyền thông tin cá nhân.
https://www.lexology.com/library/detail.aspx?g=72a42603-289a-4fd6-93b4-61ea3d9789f5
• OpenAI đã công khai phản đối dự luật SB 1047 của California nhằm đảm bảo triển khai AI mạnh mẽ một cách an toàn, cho rằng nó sẽ đe dọa sự phát triển của công ty tại bang này.
• Jason Kwon, Giám đốc chiến lược của OpenAI, viết thư cho Thượng nghị sĩ Scott Wiener rằng dự luật có thể "làm chậm tốc độ đổi mới và khiến các kỹ sư và doanh nhân hàng đầu của California rời khỏi bang để tìm kiếm cơ hội lớn hơn ở nơi khác".
• OpenAI ủng hộ các biện pháp đảm bảo an toàn cho AI nhưng cho rằng luật pháp nên đến từ chính phủ liên bang, không phải từng bang riêng lẻ.
• Dự luật SB 1047 đã chia rẽ Thung lũng Silicon. Mặc dù có sự đồng thuận rộng rãi về việc cần kiểm soát rủi ro của các mô hình AI siêu mạnh mới, nhưng các nhà phê bình cho rằng đề xuất của Wiener sẽ bóp nghẹt các startup.
• Các nhóm công nghệ và nhà đầu tư ở Thung lũng Silicon như Anthropic, Andreessen Horowitz và YCombinator đã đẩy mạnh chiến dịch vận động hành lang chống lại đề xuất của Wiener về một khung an toàn nghiêm ngặt.
• Cựu Chủ tịch Hạ viện Nancy Pelosi cũng phản đối dự luật, gọi nó là "có ý định tốt nhưng thiếu hiểu biết".
• Các yếu tố gây tranh cãi nhất trong đề xuất ban đầu của Wiener bao gồm yêu cầu các công ty AI đảm bảo với cơ quan mới của bang rằng họ sẽ không phát triển các mô hình có "khả năng nguy hiểm", và tạo ra một "công tắc tắt" để tắt các mô hình mạnh mẽ của họ.
• Dự luật đã được sửa đổi để giảm bớt một số yêu cầu đó vào tuần trước - ví dụ, hạn chế trách nhiệm dân sự mà nó ban đầu đặt lên các nhà phát triển AI và thu hẹp phạm vi những người cần tuân thủ các quy tắc.
• Tuy nhiên, các nhà phê bình cho rằng dự luật vẫn đặt gánh nặng lên các startup với những yêu cầu nặng nề và đôi khi không thực tế.
• Một số "cha đẻ của AI" như Geoffrey Hinton và Yoshua Bengio ủng hộ dự luật, trong khi các học giả AI hàng đầu khác như Fei-Fei Li và Andrew Ng phản đối.
• Thượng nghị sĩ Wiener bảo vệ dự luật, gọi nó là "hợp lý" và chỉ yêu cầu các phòng thí nghiệm AI lớn làm những gì họ đã cam kết, đó là kiểm tra các mô hình lớn của họ về rủi ro an toàn thảm khốc.
📌 Dự luật an toàn AI của California gây tranh cãi lớn tại Thung lũng Silicon. OpenAI và nhiều công ty công nghệ phản đối, cho rằng nó sẽ cản trở đổi mới. Tuy đã được sửa đổi, dự luật vẫn gây lo ngại về tác động đến các startup. Cuộc tranh luận phản ánh thách thức trong việc cân bằng giữa an toàn AI và đổi mới.
https://www.ft.com/content/bdba5c71-d4fe-4d1f-b4ab-d964963375c6
#FT
• Chính phủ New Zealand đề xuất cách tiếp cận chiến lược toàn diện đối với AI nhằm tạo niềm tin cho khu vực công và nền kinh tế rộng lớn hơn để phát triển, đổi mới và sử dụng công nghệ này một cách an toàn.
• Đề xuất nhấn mạnh việc sử dụng AI có trách nhiệm để thúc đẩy đổi mới, tăng năng suất và cải thiện kết quả cho người dân New Zealand.
• Cách tiếp cận quy định được đề xuất là nhẹ nhàng, tương xứng và dựa trên rủi ro đối với AI, ưu tiên sử dụng các cơ chế hiện có thay vì phát triển một đạo luật AI độc lập.
• New Zealand sẽ áp dụng Nguyên tắc AI của OECD làm hướng dẫn chính cho cách tiếp cận AI có trách nhiệm của quốc gia.
• Một cuộc khảo sát năm 2023 cho thấy hơn 66% người dân New Zealand rất lo ngại về việc sử dụng AI cho mục đích độc hại, thiếu quy định và có thể gây hại cho con người.
• Chỉ 49% lãnh đạo doanh nghiệp đã áp dụng AI trong tổ chức của họ. Các rào cản bao gồm thiếu kỹ năng AI, tầm nhìn chiến lược, khả năng tiếp cận dữ liệu và chi phí giải pháp AI.
• Trong khu vực công, hầu hết các cơ quan đang ở giai đoạn đầu áp dụng AI và đang tìm kiếm hỗ trợ để quản lý các vấn đề về quyền riêng tư, bảo mật và đạo đức/thiên vị.
• Đề xuất tập trung vào 5 miền (domain) chính:
1. Thiết lập cách tiếp cận chiến lược:
- Khuyến khích sử dụng AI để mang lại kết quả tốt hơn cho người dân New Zealand
- Áp dụng cách tiếp cận quy định tương xứng và dựa trên rủi ro đối với AI
- Thực hiện Nguyên tắc AI của OECD
2. Cho phép đổi mới AI an toàn trong dịch vụ công:
- Giám đốc Kỹ thuật số Chính phủ (GCDO) sẽ hỗ trợ các cơ quan áp dụng AI an toàn
- Phát triển chương trình làm việc để thúc đẩy đổi mới AI an toàn trong dịch vụ công
3. Khai thác AI trong nền kinh tế New Zealand:
- Phát triển hướng dẫn quản lý rủi ro cho doanh nghiệp
- Xây dựng Lộ trình AI để hỗ trợ áp dụng AI trong khu vực tư nhân
- Xác định các lĩnh vực trọng tâm để khai thác tiềm năng AI
4. Ưu tiên tham gia vào các quy tắc và chuẩn mực quốc tế:
- Bộ Ngoại giao và Thương mại sẽ đưa ra lời khuyên về việc ưu tiên tham gia các sáng kiến AI quốc tế
5. Phối hợp với công việc về an ninh quốc gia:
- Điều phối với chương trình làm việc của Thủ tướng và Nội các về các công nghệ mới nổi, quan trọng và nhạy cảm
• Bộ trưởng Khoa học, Đổi mới và Công nghệ sẽ báo cáo vào tháng 9/2024 với một chương trình làm việc tích hợp liên ngành về AI.
• Chính phủ sẽ xem xét tiến độ trên tất cả các lĩnh vực vào giữa năm 2025.
📌 New Zealand đề xuất cách tiếp cận chiến lược toàn diện đối với AI, tập trung vào 5 lĩnh vực chính: thiết lập cách tiếp cận chiến lược, thúc đẩy đổi mới AI an toàn trong dịch vụ công, khai thác AI trong nền kinh tế, ưu tiên tham gia vào các quy tắc quốc tế, và phối hợp với công việc về an ninh quốc gia. Mục tiêu là tăng cường áp dụng AI có trách nhiệm để thúc đẩy đổi mới, năng suất và cải thiện dịch vụ công, đồng thời quản lý rủi ro và xây dựng niềm tin.
https://www.mbie.govt.nz/dmsdocument/28913-approach-to-work-on-artificial-intelligence-proactiverelease-pdf
• AI tạo sinh (GenAI) đang tác động mạnh mẽ đến ngành luật, nhưng chưa thể thay thế hoàn toàn vai trò của luật sư.
• Theo các nhà phân tích, công nghệ GenAI có thể tự động hóa gần 25% công việc trong mọi ngành, khiến nhiều người lo ngại về tương lai nghề nghiệp.
• Gordon Calhoun, chuyên gia e-discovery với hơn 45 năm kinh nghiệm, cho rằng AI đã cách mạng hóa cách tiếp cận dữ liệu phức tạp trong thời gian ngắn.
• Công cụ AI có thể tóm tắt tài liệu 50 trang chỉ trong vòng 30 giây, thay vì mất 15 phút như trước đây.
• AI giúp "dân chủ hóa" quy trình tố tụng, cho phép những người không có kỹ năng chuyên môn vẫn có thể tham gia vào quá trình xem xét tài liệu.
• Greg McCullough, chuyên gia tư vấn tranh tụng độc lập, sử dụng công cụ e-discovery hỗ trợ AI trong các vụ kiện liên quan đến cháy rừng lớn.
• Phân tích tình cảm là một trong những công cụ hữu ích nhất, giúp tìm kiếm bằng chứng về trách nhiệm pháp lý và sự bất cẩn trong hàng triệu tài liệu.
• AI hỗ trợ tìm kiếm thông tin quan trọng trong khối lượng tài liệu lớn, đồng thời cung cấp bối cảnh và tóm tắt các phần hữu ích nhất.
• Hiện tại chưa có hệ thống AI duy nhất nào có thể giải quyết mọi vấn đề pháp lý. Thay vào đó, AI được tích hợp vào các quy trình làm việc hiện có để giải quyết các vấn đề cụ thể.
• Các nhà cung cấp công nghệ cần tập trung vào các trường hợp sử dụng cụ thể, minh bạch về nguồn thông tin và hướng dẫn người dùng sử dụng GenAI hiệu quả hơn.
• Sử dụng AI có trách nhiệm là trách nhiệm của tất cả mọi người. Mặc dù vai trò cuối cùng của GenAI trong lĩnh vực pháp luật vẫn chưa rõ ràng, nhưng tiềm năng của nó rất đáng kỳ vọng.
📌 AI tạo sinh đang cách mạng hóa ngành luật, giúp tăng hiệu quả và dân chủ hóa quy trình tố tụng. Công cụ AI có thể tóm tắt 50 trang trong 30 giây, phân tích tình cảm trong hàng triệu tài liệu. Tuy nhiên, AI chưa thể thay thế hoàn toàn luật sư mà đóng vai trò hỗ trợ quan trọng.
https://www.fastcompany.com/91173708/is-the-lawyer-of-the-future-a-genai-bot
• Cơ quan quản lý tiền tệ Hong Kong (HKMA) vừa ban hành bộ hướng dẫn mới về việc sử dụng AI tạo sinh trong các ứng dụng tiếp xúc với khách hàng của ngân hàng.
• Các nguyên tắc chính bao gồm: cho phép khách hàng lựa chọn không sử dụng công nghệ AI, đảm bảo mô hình AI không gây bất lợi hoặc phân biệt đối xử với một số nhóm người tiêu dùng.
• Ban lãnh đạo và quản lý cấp cao của ngân hàng phải chịu trách nhiệm về mọi quyết định và quy trình do AI tạo sinh đưa ra.
• Theo khảo sát của HKMA, 39% các tổ chức được cấp phép ở Hong Kong đã hoặc đang có kế hoạch áp dụng AI tạo sinh.
• Hiện tại, hầu hết các ngân hàng đang sử dụng giải pháp AI tạo sinh của bên thứ ba cho các chức năng nội bộ như tóm tắt, dịch thuật, lập trình và chatbot nội bộ.
• Trong tương lai, AI tạo sinh có thể được mở rộng sang chatbot tiếp xúc khách hàng và tư vấn viên robot trong quản lý tài sản và bảo hiểm.
• Một số công ty tài chính ngoài phạm vi quản lý của HKMA đã có ứng dụng AI tiếp xúc khách hàng. Ví dụ Tiger Brokers có chatbot tư vấn cổ phiếu, FWD Group ký thỏa thuận 4 năm sử dụng dịch vụ AI của Microsoft.
• Hong Kong hiện chưa có luật hoặc quy định cụ thể về AI tạo sinh. Các cơ quan quản lý đang cố gắng theo kịp xu hướng bằng cách ban hành các hướng dẫn không bắt buộc.
• Tháng 6/2024, Văn phòng Ủy viên Bảo vệ Dữ liệu Cá nhân Hong Kong đã ban hành bộ hướng dẫn đầu tiên về bảo vệ dữ liệu cá nhân khi doanh nghiệp sử dụng dịch vụ AI tạo sinh.
• HKMA vừa ra mắt sandbox AI tạo sinh phối hợp với vườn ươm Cyberport, nhằm cho phép các tổ chức tài chính thử nghiệm các trường hợp sử dụng "trong khuôn khổ quản lý rủi ro" và được hỗ trợ kỹ thuật.
• Các hướng dẫn mới của HKMA được đưa ra trong bối cảnh ngành ngân hàng ngày càng quan tâm đến AI tạo sinh, đặc biệt sau sự nổi tiếng của ChatGPT.
• Mục đích chính là đảm bảo việc sử dụng AI tạo sinh trong ngân hàng không gây bất lợi cho người tiêu dùng, đồng thời thúc đẩy đổi mới công nghệ một cách có trách nhiệm trong lĩnh vực tài chính.
📌 HKMA ban hành hướng dẫn AI tạo sinh cho ngân hàng Hong Kong, yêu cầu tuân thủ các nguyên tắc bảo vệ người tiêu dùng. 39% tổ chức được khảo sát đã/đang áp dụng AI tạo sinh. Sandbox AI mới được ra mắt để thử nghiệm ứng dụng an toàn trong lĩnh vực tài chính.
https://www.bangkokpost.com/business/general/2850382/hong-kong-issues-generative-ai-guidelines-to-banks-to-avoid-bias-against-consumers
https://www.hkma.gov.hk/media/eng/doc/key-information/guidelines-and-circular/2024/20240819e1.pdf
• HKMA đã ban hành một bộ nguyên tắc hướng dẫn cho các tổ chức được ủy quyền về việc sử dụng AI tạo sinh (GenAI) trong các ứng dụng tiếp xúc với khách hàng từ góc độ bảo vệ người tiêu dùng.
• Bộ nguyên tắc này dựa trên các nguyên tắc hướng dẫn BDAI 2019, tập trung vào 4 lĩnh vực chính: quản trị và trách nhiệm giải trình, công bằng, minh bạch và công bố thông tin, quyền riêng tư và bảo vệ dữ liệu.
• HKMA nhận thấy ngành ngân hàng ngày càng quan tâm đến việc áp dụng GenAI trong hoạt động. Hiện tại, việc áp dụng GenAI trong ngành ngân hàng vẫn ở giai đoạn đầu, chủ yếu tập trung vào cải thiện hiệu quả hoạt động nội bộ.
• Các ứng dụng tiềm năng trong tương lai bao gồm chatbot khách hàng, phát triển và cung cấp sản phẩm dịch vụ tùy chỉnh, bán hàng và tiếp thị có mục tiêu, cố vấn robot trong quản lý tài sản và bảo hiểm.
• HKMA yêu cầu các tổ chức được ủy quyền áp dụng và mở rộng các Nguyên tắc Hướng dẫn BDAI 2019 cho việc sử dụng GenAI và tiếp tục áp dụng phương pháp tiếp cận dựa trên rủi ro tương xứng với các rủi ro liên quan.
• Các nguyên tắc bổ sung được đưa ra trong 4 lĩnh vực chính:
1. Quản trị và trách nhiệm giải trình: Hội đồng quản trị và ban lãnh đạo cấp cao phải chịu trách nhiệm về các quyết định và quy trình do GenAI thúc đẩy.
2. Công bằng: Đảm bảo các mô hình GenAI tạo ra kết quả khách quan, nhất quán, đạo đức và công bằng cho khách hàng.
3. Minh bạch và công bố thông tin: Cung cấp mức độ minh bạch phù hợp cho khách hàng về các ứng dụng GenAI thông qua việc công bố thông tin phù hợp, chính xác và dễ hiểu.
4. Quyền riêng tư và bảo vệ dữ liệu: Thực hiện các biện pháp bảo vệ hiệu quả để bảo vệ dữ liệu khách hàng.
• HKMA khuyến khích các tổ chức được ủy quyền khám phá việc sử dụng BDAI, bao gồm cả GenAI, để tăng cường bảo vệ người tiêu dùng.
• Một cuộc khảo sát được thực hiện vào tháng 5/2024 cho thấy 75% tổ chức được khảo sát đã áp dụng hoặc có kế hoạch áp dụng BDAI, trong khi 39% đã áp dụng hoặc có kế hoạch áp dụng GenAI.
• Các trường hợp sử dụng BDAI bao gồm các hoạt động tiếp xúc với khách hàng, chức năng văn phòng trung gian và chức năng văn phòng hỗ trợ.
• Việc áp dụng công nghệ GenAI trong các hoạt động tiếp xúc với khách hàng vẫn đang ở giai đoạn đầu, chủ yếu giới hạn trong việc soạn thảo phản hồi khách hàng và hỗ trợ chuẩn bị tài liệu bán hàng và tiếp thị.
• ArabLegalEval là bộ dữ liệu chuẩn đa nhiệm vụ đầu tiên để đánh giá kiến thức pháp lý tiếng Ả Rập của các mô hình ngôn ngữ lớn (LLM).
• Nghiên cứu này nhằm khắc phục hạn chế của các bộ dữ liệu đánh giá pháp lý hiện có chủ yếu tập trung vào tiếng Anh như MMLU và LegalBench.
• ArabLegalEval sử dụng các tài liệu pháp lý của Saudi Arabia làm nguồn dữ liệu, tạo ra bối cảnh phù hợp hơn cho người dùng nói tiếng Ả Rập.
• Bộ dữ liệu gồm 10.583 câu hỏi trắc nghiệm được tạo ra bằng 3 phương pháp: Chuyển đổi QA thành MCQ, Chuỗi suy luận và Học trong ngữ cảnh dựa trên truy xuất.
• Quá trình tạo câu hỏi được thực hiện với sự tham vấn của các chuyên gia pháp lý để đảm bảo chất lượng và độ chính xác.
• Phương pháp đánh giá bao gồm các chỉ số Rouge cho chất lượng dịch thuật và đánh giá khả năng suy luận của mô hình.
• Kết quả cho thấy việc tối ưu hóa prompt few-shot và sử dụng chuỗi suy luận cải thiện đáng kể hiệu suất của LLM trên các câu hỏi MCQ.
• Các mô hình nhỏ hơn thể hiện hiệu suất tốt hơn khi sử dụng mô hình giáo viên tự nhân bản trong kịch bản few-shot.
• Nghiên cứu nhấn mạnh tầm quan trọng của việc phát triển các phương pháp đánh giá chuyên biệt cho kiến thức pháp lý tiếng Ả Rập trong LLM.
• Các phát hiện chỉ ra nhu cầu cần có các phương pháp đánh giá tinh vi hơn để nắm bắt chính xác khả năng xử lý ngôn ngữ pháp lý phức tạp của LLM.
• Nghiên cứu đề xuất mở rộng phạm vi của bộ dữ liệu trong tương lai bằng cách bổ sung thêm các tài liệu pháp lý của Saudi Arabia.
📌 ArabLegalEval là bộ dữ liệu chuẩn 10.583 câu hỏi MCQ đầu tiên đánh giá kiến thức pháp lý tiếng Ả Rập của LLM. Kết quả cho thấy tầm quan trọng của việc tối ưu hóa prompt và suy luận chuỗi, đồng thời nhấn mạnh nhu cầu phát triển phương pháp đánh giá chuyên biệt cho lĩnh vực này.
https://www.marktechpost.com/2024/08/19/arablegaleval-a-multitask-ai-benchmark-dataset-for-assessing-the-arabic-legal-knowledge-of-llms/
- Sự phát triển nhanh chóng của AI, đặc biệt là AI tạo sinh, đang tạo ra một "thời kỳ vàng" cho các luật sư công nghệ, với nhu cầu tư vấn pháp lý tăng cao.
- Các công ty đang tìm kiếm sự hỗ trợ pháp lý khi họ áp dụng các công cụ AI vào hoạt động kinh doanh của mình, dẫn đến sự gia tăng cuộc gọi từ khách hàng cho các luật sư chuyên về công nghệ.
- Frank Pasquale, giáo sư luật tại Cornell, cho biết đây là cơ hội chưa từng có cho các luật sư, khi mà nhiều công ty đang tìm kiếm cách tích hợp công nghệ AI vào mô hình kinh doanh của họ.
- Dự đoán rằng sẽ có ít nhất 10 năm bùng nổ trong lĩnh vực này, với nhiều câu hỏi pháp lý chưa được giải đáp và các luật mới đang được đề xuất.
- Các luật sư cho biết họ đang nhận được nhiều cuộc gọi từ khách hàng về cách tích hợp AI và các vấn đề pháp lý liên quan đến quyền sở hữu trí tuệ, bảo mật dữ liệu và trách nhiệm pháp lý.
- Chi phí cho việc tư vấn pháp lý liên quan đến AI có thể lên tới hơn 100.000 USD, tùy thuộc vào quy mô và độ phức tạp của dự án.
- Các công ty đang xây dựng các ủy ban quản trị AI và đào tạo nhân viên về các vấn đề pháp lý chính để đảm bảo tuân thủ quy định.
- Các vấn đề pháp lý liên quan đến AI bao gồm quyền sở hữu trí tuệ, bảo mật dữ liệu, trách nhiệm pháp lý và các vấn đề nhân quyền như phân biệt đối xử.
- Các công ty AI đã phải đối mặt với nhiều vụ kiện bản quyền từ các tác giả và nghệ sĩ vì sử dụng tác phẩm của họ mà không có sự cho phép.
- Các luật sư dự đoán rằng vai trò của họ sẽ mở rộng khi các công ty tìm hiểu cách AI có thể ảnh hưởng đến hoạt động kinh doanh của họ.
- Sự gia tăng của AI cũng đặt ra thách thức cho các công ty luật, yêu cầu họ phải thay đổi mô hình kinh doanh để thích ứng với công nghệ mới.
📌 AI đang tạo ra một thời kỳ vàng cho các luật sư công nghệ, với sự gia tăng nhu cầu tư vấn pháp lý lên tới 100.000 USD cho các công ty trong việc tích hợp công nghệ này vào hoạt động kinh doanh. Các vấn đề pháp lý liên quan đến AI cũng đang trở nên phức tạp hơn bao giờ hết.
https://www.businessinsider.com/artifical-intelligence-golden-age-technology-lawyers-legal-issues-2024-8
• Eric Schmidt, cựu CEO Google, gây tranh cãi với phát ngôn tại Đại học Stanford về chiến lược phát triển của các startup AI.
• Schmidt khuyên các startup AI rằng việc "ăn cắp" nội dung là chấp nhận được nếu họ thành công, vì sau đó có thể thuê luật sư để "dọn dẹp".
• Ông nói: "Nếu không ai sử dụng sản phẩm của bạn, việc bạn ăn cắp tất cả nội dung cũng không quan trọng."
• Phát ngôn này phản ánh chiến lược mà nhiều công ty công nghệ lớn đã áp dụng trong quá khứ.
• YouTube, thuộc sở hữu của Google, từng phát triển nhờ các video vi phạm bản quyền trong giai đoạn đầu.
• Google Search cũng được cho là đã tận dụng kẽ hở pháp lý để phát triển nhanh chóng.
• Schmidt có kinh nghiệm trong việc xử lý các vấn đề pháp lý khi điều hành Google từ 2001 đến 2011.
• Phát ngôn của Schmidt gây chú ý hơn so với nhận xét trước đó của ông về việc Google chậm chạp trong cạnh tranh với OpenAI.
• Điều này cho thấy tư duy "phát triển trước, xin lỗi sau" vẫn tồn tại trong ngành công nghệ.
• Các công ty AI đang đối mặt với nhiều vụ kiện liên quan đến việc sử dụng dữ liệu để huấn luyện mô hình AI.
• Nhiều nghệ sĩ và nhà sáng tạo nội dung đã kiện các công ty AI vì sử dụng tác phẩm của họ mà không được phép.
• Phát ngôn của Schmidt có thể làm tăng thêm lo ngại về cách thức hoạt động của các công ty AI.
• Điều này cũng phản ánh sự thiếu minh bạch trong cách các công ty công nghệ lớn vận hành.
• Các lãnh đạo công nghệ ngày càng thận trọng hơn trong phát ngôn công khai do áp lực từ đội ngũ PR và pháp lý.
• Sự cố này cho thấy đôi khi vẫn có những "sơ suất" trong phát ngôn của các lãnh đạo công nghệ hàng đầu.
📌 Eric Schmidt, cựu CEO Google, gây tranh cãi khi khuyên startup AI có thể "ăn cắp" nội dung nếu thành công. Phát ngôn này phản ánh chiến lược "phát triển trước, xin lỗi sau" từng được áp dụng bởi nhiều công ty công nghệ lớn như Google và YouTube. Điều này làm dấy lên lo ngại về cách thức hoạt động của ngành AI và tính minh bạch trong lĩnh vực công nghệ.
https://www.theverge.com/2024/8/16/24221353/eric-schmidt-says-the-quiet-part-out-loud
• Ủy ban Phân bổ Ngân sách California đã thông qua Đạo luật Đổi mới An toàn và Bảo mật cho Mô hình AI Tiên tiến (SB-1047) vào ngày 16/8/2024.
• SB-1047 đặt ra các quy tắc cho các nhà phát triển AI:
- Tạo các giao thức an toàn và bảo mật cho các mô hình AI được bao gồm
- Đảm bảo có thể tắt hoàn toàn các mô hình đó
- Ngăn chặn phân phối các mô hình có khả năng gây "tổn hại nghiêm trọng"
- Thuê kiểm toán viên để đảm bảo tuân thủ đạo luật
• Đạo luật định nghĩa "mô hình được bao gồm" là những mô hình sử dụng sức mạnh tính toán lớn hơn 10^26 phép toán số nguyên hoặc dấu phẩy động, với chi phí đào tạo vượt quá 100 triệu USD.
• Phiên bản mới nhất của dự luật có một số thay đổi theo đề xuất của Anthropic:
- Loại bỏ ngôn ngữ cho phép tổng chưởng lý tiểu bang khởi kiện các công ty vi phạm
- Bỏ yêu cầu công bố kết quả kiểm tra an toàn dưới hình phạt khai man
- Thay đổi từ "đảm bảo hợp lý" thành "chăm sóc hợp lý" về an toàn
- Ngoại lệ cho các nhà nghiên cứu AI chi dưới 10 triệu USD để tinh chỉnh mô hình nguồn mở
• Dự luật gây tranh cãi vì:
- Một số lo ngại nó sẽ hạn chế đổi mới và gây khó khăn cho việc làm việc với mô hình AI nguồn mở
- Google, Meta và Andreessen Horowitz phản đối
- 8/52 thành viên Quốc hội California ký thư phản đối, cho rằng quá sớm để tạo ra các đánh giá tiêu chuẩn hóa cho AI
• Các nhà nghiên cứu Geoffrey Hinton và Yoshua Bengio ủng hộ dự luật, cho rằng nó sẽ "bảo vệ công chúng".
• Dự luật bao gồm bảo vệ cụ thể cho người tố giác trong các công ty AI theo Đạo luật Bảo vệ Người tố giác California.
• Tiếp theo, dự luật cần được Hạ viện và Thượng viện thông qua. Nếu được chấp thuận, Thống đốc Gavin Newsom sẽ xem xét, có thể vào cuối tháng 8.
📌 SB-1047 đặt ra khuôn khổ quy định AI tạo sinh ở California, với sự ủng hộ của 70% người dân và các chuyên gia hàng đầu. Tuy nhiên, dự luật vẫn gây tranh cãi giữa các công ty công nghệ lớn và các nhà lập pháp về cân bằng giữa quy định và đổi mới trong lĩnh vực AI đang phát triển nhanh chóng.
https://www.techrepublic.com/article/california-ai-bill-2014/
• Dự luật Safe and Secure Innovation for Frontier Artificial Intelligence Models Act (SB 1047) của California đang gây tranh cãi lớn trong ngành công nghệ.
• Meta, Google và hơn 130 nhà sáng lập startup phản đối dự luật, cho rằng nó sẽ cản trở đổi mới AI ở California.
• Dự luật yêu cầu các nhà phát triển AI mạnh phải kiểm tra khả năng gây hại của công cụ, thành lập CalCompute - một "đám mây" công cộng để phát triển AI, và bảo vệ người tố giác.
• Daniel Kokotajlo, cựu nhân viên OpenAI, ủng hộ dự luật vì nó tăng cường tính minh bạch và quản trị dân chủ đối với AI.
• Các công ty công nghệ lớn phản đối các yêu cầu kiểm tra AI và các quy định an toàn, cho rằng chi phí tuân thủ sẽ ảnh hưởng đến các startup.
• Dự luật giới hạn các hạn chế đối với hệ thống AI có chi phí trên 100 triệu USD hoặc yêu cầu sức mạnh tính toán lớn.
• Các đối thủ lo ngại dự luật sẽ hạn chế phát triển mã nguồn mở AI, vốn quan trọng đối với các startup.
• Những người ủng hộ cho rằng dự luật buộc các công ty công nghệ phải chịu trách nhiệm về tác động của sản phẩm.
• Thượng nghị sĩ Scott Wiener, người đề xuất dự luật, nói rằng đã có nhiều sửa đổi để đảm bảo luật chỉ áp dụng cho các phòng thí nghiệm AI lớn.
• Wiener cho rằng cần hành động ngay vì chính quyền liên bang chưa có động thái quy định AI.
• Một số chuyên gia AI ủng hộ dự luật, trong khi một số khác phản đối.
• Dự luật cần được thông qua trước ngày 31/8 để đến được bàn của Thống đốc Gavin Newsom trong năm nay.
📌 Dự luật AI của California gây tranh cãi lớn giữa các công ty công nghệ và startup. Nó đặt ra các yêu cầu kiểm tra đối với AI mạnh, bảo vệ người tố giác và thành lập CalCompute. Các đối thủ lo ngại về chi phí tuân thủ và tác động đến mã nguồn mở, trong khi người ủng hộ cho rằng cần quy định để đảm bảo an toàn.
https://www.times-standard.com/2024/08/12/why-silicon-valley-wants-to-kill-this-ai-bill/
- Tòa án Trung Quốc đã đưa ra nhiều phán quyết quan trọng liên quan đến trí tuệ nhân tạo (AI), cho thấy sự quyết tâm của Bắc Kinh trong việc thiết lập tiêu chuẩn cho công nghệ này.
- Vào tháng 4, một tòa án tại Bắc Kinh đã đưa ra phán quyết đầu tiên về quyền lợi giọng nói của cá nhân, yêu cầu các công ty vi phạm phải bồi thường 250.000 nhân dân tệ (35.000 USD) cho một diễn viên lồng ghép.
- Phán quyết này là lần đầu tiên áp dụng các quy định về quyền lợi giọng nói trong bối cảnh AI, mặc dù Bộ luật Dân sự của Trung Quốc đã có những quy định bảo vệ quyền lợi này.
- Tại Mỹ, diễn viên Scarlett Johansson đã phàn nàn về việc giọng nói của ChatGPT nghe giống như của cô, dẫn đến việc OpenAI ngừng sử dụng giọng nói đó.
- Tại Nhật Bản, việc tạo ra các phiên bản giọng nói của diễn viên mà không có sự cho phép đang trở nên phổ biến, và chính phủ đang bắt đầu xây dựng các quy định liên quan.
- Vào tháng 2, một tòa án ở Quảng Châu đã xác định rằng một dịch vụ AI tạo ra hình ảnh giống nhân vật Ultraman đã vi phạm bản quyền và không thực hiện nghĩa vụ chăm sóc.
- Phán quyết này dựa trên các biện pháp tạm thời quản lý dịch vụ AI tạo sinh, có hiệu lực từ tháng 8 năm 2023, đánh dấu luật đầu tiên trên thế giới điều chỉnh toàn diện về AI tạo sinh.
- Một vụ án quan trọng khác vào tháng 11 năm 2023 tại Bắc Kinh đã công nhận bản quyền cho hình ảnh do AI tạo ra, khi một cá nhân đã đăng tải hình ảnh mà không có sự cho phép của người sáng tạo.
- Tòa án đã quyết định người sáng tạo có quyền sở hữu bản quyền hình ảnh và yêu cầu người vi phạm bồi thường 500 nhân dân tệ.
- Trong khi đó, một tòa án ở Mỹ đã tuyên bố rằng tác phẩm nghệ thuật do AI tạo ra không đủ điều kiện đăng ký bản quyền, cho thấy sự khác biệt trong cách tiếp cận toàn cầu về vấn đề này.
- Theo tổ chức Hợp tác và Phát triển Kinh tế (OECD), hiện có hơn 1.000 quy định liên quan đến AI trên toàn thế giới, nhưng nhiều cuộc thảo luận vẫn còn ở giai đoạn đầu.
- Trung Quốc đang quyết tâm dẫn đầu trong cuộc đua AI, với các công ty và chính phủ hợp tác phát triển công nghệ này.
- Theo một khảo sát của Đại học Stanford, vào năm 2022, các công ty Trung Quốc nắm giữ 61,1% số bằng sáng chế AI trên toàn cầu, trong khi Mỹ chỉ có 20,9%.
- Kế hoạch 5 năm lần thứ 14 của chính phủ Trung Quốc từ 2021 đến 2025 nhấn mạnh việc "tích hợp" công nghệ số như AI vào xã hội.
- AI tạo sinh đang được áp dụng rộng rãi trong nhiều lĩnh vực, từ kiểm tra linh kiện ô tô đến việc tạo kế hoạch học tập cho các trường học.
📌 Trung Quốc đang tích cực thiết lập tiêu chuẩn cho trí tuệ nhân tạo với các phán quyết quan trọng về quyền lợi giọng nói và bản quyền hình ảnh. Các công ty Trung Quốc đang dẫn đầu thế giới với 61,1% số bằng sáng chế AI, cho thấy sự quyết tâm trong cuộc đua công nghệ này.
https://asia.nikkei.com/Business/Technology/Artificial-intelligence/China-court-rulings-on-AI-accelerate-race-to-set-standards2
• Đạo luật AI của Liên minh Châu Âu (EU) có hiệu lực từ ngày 1/8/2024, nhằm đảm bảo các hệ thống AI đạo đức, minh bạch và tôn trọng quyền cơ bản.
• Đạo luật áp dụng cho tất cả ứng dụng AI chuyên nghiệp trong EU, ngoại trừ quân sự, an ninh quốc gia, nghiên cứu và sử dụng không chuyên.
• Các bước chính để tuân thủ Đạo luật AI:
- Tiến hành kiểm toán AI: Xác định các ứng dụng AI thuộc phạm vi điều chỉnh của Đạo luật.
- Hiểu rõ phân loại rủi ro: AI được chia thành 4 mức độ rủi ro - tối thiểu, hạn chế, cao và không chấp nhận được.
- Thực hiện các biện pháp tuân thủ: Đầu tư vào bảo mật và minh bạch cho các ứng dụng rủi ro cao.
- Thành lập nhóm tuân thủ: Giám sát việc tuân thủ AI, cập nhật quy trình và đào tạo nhân viên.
• Tận dụng Đạo luật AI để tạo lợi thế cạnh tranh:
- Minh bạch: Truyền đạt rõ ràng cách thức hoạt động của hệ thống AI và sử dụng dữ liệu.
- Bảo mật: Áp dụng các biện pháp an ninh mạng mạnh mẽ cho ứng dụng rủi ro cao.
- Giáo dục: Đào tạo nhân viên và khách hàng về AI để xây dựng mối quan hệ hiểu biết hơn.
• Các bước chi tiết để tăng cường tuân thủ:
- Tổ chức chương trình đào tạo thường xuyên về quy định AI mới nhất.
- Phát triển tài liệu rõ ràng về quy trình và quyết định AI.
- Tham gia các nhóm ngành để chia sẻ kinh nghiệm và học hỏi từ các công ty khác.
• Các cơ quan quản lý mới được thành lập:
- Văn phòng AI: Điều phối việc thực hiện Đạo luật AI.
- Hội đồng AI Châu Âu: Tư vấn và thúc đẩy áp dụng nhất quán.
- Diễn đàn Cố vấn: Đại diện các bên liên quan từ ngành công nghiệp, startup, xã hội dân sự và học viện.
- Hội đồng Khoa học Chuyên gia Độc lập: Cung cấp tư vấn kỹ thuật.
📌 Đạo luật AI của EU đặt ra các tiêu chuẩn mới cho việc sử dụng AI an toàn và minh bạch. Doanh nghiệp cần hiểu rõ phân loại rủi ro, thực hiện các biện pháp tuân thủ và tận dụng quy định để xây dựng lòng tin với khách hàng. Việc tuân thủ không chỉ tránh phạt mà còn tạo lợi thế cạnh tranh trong dài hạn.
https://www.inc.com/benjamin-laker/your-guide-to-understanding-eus-ai-act.html
• Trung Quốc đặt mục tiêu trở thành nhà lãnh đạo toàn cầu về AI vào năm 2030 thông qua kế hoạch "Phát triển AI thế hệ tiếp theo" được công bố năm 2017.
• Các công ty Trung Quốc đã phát triển nhiều công cụ AI nội địa cạnh tranh với phương Tây như:
- Vidu: công cụ text-to-video của Shengshu AI có thể tạo video 4 giây trong 35 giây
- 500 robotaxi tự lái đang hoạt động ở Vũ Hán
- Trailer phim AI 5 tập dựa trên văn học cổ Trung Quốc được trình chiếu tại Hội nghị AI Thế giới ở Thượng Hải
• Ngành công nghiệp AI cốt lõi của Trung Quốc đạt giá trị 578,4 tỷ nhân dân tệ (80,98 tỷ USD) vào cuối năm 2023, tăng trưởng 13,9% so với cùng kỳ năm trước.
• Chính phủ Trung Quốc đẩy mạnh phát triển nền kinh tế số dựa trên AI. Dự kiến giá trị nền kinh tế số có thể đạt 70,8 nghìn tỷ nhân dân tệ vào năm 2025.
• Các công ty công nghệ lớn như Baidu, Alibaba, Tencent đã thành lập các viện nghiên cứu AI, thu hút nhân tài và thúc đẩy đổi mới.
• Trung Quốc đã ban hành luật điều chỉnh AI tạo sinh vào tháng 8/2023, đặt ra các hạn chế đối với các dịch vụ AI tạo sinh để giảm thiểu rủi ro lừa đảo và bảo vệ quyền riêng tư người dùng.
• Thách thức chính là hạn chế tiếp cận chip AI tiên tiến từ Mỹ do căng thẳng địa chính trị. Tuy nhiên, điều này có thể thúc đẩy Trung Quốc phát triển chip nội địa.
• Tranh luận giữa mô hình AI nguồn mở và nguồn đóng đang diễn ra ở Trung Quốc và toàn cầu, có thể ảnh hưởng đến quỹ đạo phát triển AI.
📌 Trung Quốc đã đạt được những tiến bộ đáng kể trong phát triển AI, với các công cụ nội địa cạnh tranh được với phương Tây. Tuy nhiên, căng thẳng địa chính trị và hạn chế tiếp cận chip tiên tiến là thách thức lớn. Việc tập trung vào nền kinh tế số và quy định AI cho thấy cam kết mạnh mẽ của Trung Quốc trong việc dẫn đầu cuộc đua AI toàn cầu.
https://www.channelnewsasia.com/east-asia/china-ai-world-leader-2030-vidu-kling-openai-sora-geopolitical-tensions-4532816
• Xác định và bao gồm tất cả các bên liên quan: Thành lập nhóm làm việc gồm đại diện của mọi nhóm bị ảnh hưởng bởi AI, bao gồm lãnh đạo, chuyên gia kỹ thuật, chuyên gia pháp lý, nhóm thiểu số và nhân viên tuyến đầu.
• Giải thích mục đích của chính sách: Nêu rõ ý định đằng sau việc xây dựng chính sách AI, truyền đạt rủi ro của việc sử dụng AI không được kiểm soát và lợi ích của việc xây dựng văn hóa sử dụng AI có trách nhiệm, đạo đức và minh bạch.
• Thiết lập trách nhiệm giải trình: Xác định người chịu trách nhiệm đảm bảo AI được sử dụng an toàn, đạo đức và công bằng. Đảm bảo mọi người sử dụng AI hiểu rằng họ chịu trách nhiệm về kết quả.
• Kiểm toán việc sử dụng AI hiện tại: Lập danh sách tất cả các trường hợp sử dụng AI hiện tại trong tổ chức, từ nhỏ đến lớn. Gán mức độ rủi ro cho từng trường hợp sử dụng.
• Đánh giá nghĩa vụ tuân thủ và quy định: Đánh giá kỹ lưỡng các luật và quy định mà tổ chức phải tuân thủ liên quan đến AI.
• Quy trình áp dụng công cụ và ứng dụng AI mới: Thiết lập quy trình để áp dụng và triển khai các công cụ, quy trình và ứng dụng AI mới.
• Xác định hướng dẫn cụ thể: Đặt ra các quy tắc cụ thể về công cụ hoặc dữ liệu được chấp nhận hoặc không được chấp nhận dựa trên yêu cầu kinh doanh, nhu cầu thúc đẩy đổi mới và nghĩa vụ pháp lý.
• Giáo dục và tham gia: Đặt ra hướng dẫn và thực hành tốt nhất để đảm bảo tất cả nhân viên được giáo dục về rủi ro và cơ hội của AI.
• Truyền đạt chính sách: Soạn thảo chính sách một cách toàn diện nhưng rõ ràng và đảm bảo mọi người đều có thể tiếp cận được.
• Giám sát và đánh giá hiệu quả: Thiết lập các KPI để theo dõi hiệu quả của chính sách trong việc giảm thiểu rủi ro và thúc đẩy đổi mới.
📌 Xây dựng chính sách AI hiệu quả đòi hỏi 10 bước từ xác định các bên liên quan đến đánh giá hiệu quả. Chính sách cần liên tục cập nhật để phù hợp với sự phát triển nhanh chóng của công nghệ và quy định AI. Triển khai sớm sẽ giúp chiến lược AI phát triển trên nền tảng vững chắc.
https://www.forbes.com/sites/bernardmarr/2024/08/09/how-to-develop-an-effective-ai-policy/
• Dự luật SB 1047 tại California yêu cầu các công ty AI phải tiến hành kiểm tra an toàn để ngăn chặn "thiệt hại thảm khốc" từ AI.
• Mục tiêu là giảm thiểu rủi ro tấn công mạng gây thương vong hàng loạt hoặc thiệt hại ít nhất 500 triệu USD.
• Dự luật áp dụng cho các mô hình AI có ngưỡng năng lực tính toán nhất định và chi phí đào tạo trên 100 triệu USD, bao gồm GPT-4 của OpenAI.
• Các công ty AI phản đối dự luật, cho rằng nó sẽ gây tổn hại cho ngành công nghiệp của họ.
• Luther Lowe từ Y Combinator cho rằng dự luật sẽ có "tác động làm chùn bước đổi mới ở California".
• Meta và OpenAI bày tỏ lo ngại, trong khi Google, Anthropic và Microsoft đề xuất sửa đổi lớn.
• Ngành công nghiệp AI muốn quy định đến từ chính phủ liên bang thay vì cấp tiểu bang.
• Thượng nghị sĩ Scott Weiner, người soạn thảo dự luật, cho rằng đây là "quy định hợp lý và nhẹ nhàng".
• Ít nhất 16 công ty đã ký cam kết tự nguyện của Nhà Trắng về phát triển AI an toàn.
• Các cơ quan cạnh tranh của Mỹ, Anh và EU đã đưa ra tuyên bố chung về lo ngại tập trung thị trường trong lĩnh vực AI tạo sinh.
• Dự luật vẫn cần được Hội đồng California thông qua.
• Các công ty AI cho rằng yêu cầu trong dự luật quá mơ hồ và khó thực hiện.
• Ngoài kiểm tra an toàn, dự luật còn yêu cầu các công ty chứng minh khả năng tắt AI khi có hành vi nguy hiểm.
• Cuộc tranh luận phản ánh mâu thuẫn giữa nhu cầu đảm bảo an toàn và thúc đẩy đổi mới trong lĩnh vực AI.
📌 Dự luật an toàn AI ở California gây tranh cãi lớn, với các công ty công nghệ phản đối mạnh mẽ. Họ cho rằng yêu cầu kiểm tra an toàn với mô hình AI lớn sẽ cản trở đổi mới, trong khi chính quyền khẳng định đây là biện pháp cần thiết để ngăn ngừa rủi ro. Cuộc tranh luận phản ánh thách thức trong việc cân bằng giữa an toàn và phát triển AI.
https://www.pymnts.com/news/artificial-intelligence/2024/ai-sector-takes-aim-california-safety-bill/
• UNESCO đang xây dựng hướng dẫn sử dụng AI trong hệ thống tòa án và tư pháp, nhằm đảm bảo việc áp dụng công nghệ này phù hợp với các nguyên tắc cơ bản về công lý, quyền con người và pháp quyền.
• Nhiều tòa án, thẩm phán và công ty luật trên toàn cầu đã bắt đầu áp dụng AI tạo sinh mà không có tiêu chuẩn hay hướng dẫn cụ thể. Ví dụ: Brazil sử dụng ChatGPT để phân tích các vụ án đang diễn ra, Argentina dùng mô hình ngôn ngữ lớn để tóm tắt quyết định của thẩm phán, Tòa án Tối cao Ấn Độ dùng AI để dịch tài liệu pháp lý.
• Theo khảo sát của UNESCO năm 2023, 44% nhân viên tư pháp đã sử dụng các công cụ AI như ChatGPT cho công việc, nhưng chỉ 9% cho biết tổ chức của họ có hướng dẫn hoặc đào tạo liên quan đến AI.
• UNESCO cảnh báo việc sử dụng AI không đúng cách có thể làm suy yếu quyền con người như xét xử công bằng, tiếp cận công lý, quyền riêng tư và bảo vệ dữ liệu, bình đẳng trước pháp luật và không phân biệt đối xử.
• Hướng dẫn của UNESCO đề xuất các tổ chức tư pháp cần đánh giá sự cần thiết và phù hợp khi áp dụng AI, đánh giá tác động đến quyền con người, chọn hệ thống AI minh bạch về dữ liệu huấn luyện, yêu cầu can thiệp của con người và kiểm toán thuật toán.
• Đối với cá nhân, UNESCO khuyến nghị cần nhận thức rõ công dụng và hạn chế của công cụ AI, tránh phụ thuộc quá mức, xác minh độ chính xác của kết quả AI và công khai thông tin về việc sử dụng AI.
• UNESCO cũng đề xuất cấm sử dụng AI trong một số lĩnh vực nhạy cảm như đưa ra quyết định pháp lý ràng buộc đơn phương.
• Nhiều công ty công nghệ lớn như Palantir, Microsoft, ByteDance đang phát triển và triển khai các công cụ AI cho lĩnh vực pháp lý và quốc phòng, gây lo ngại về quyền riêng tư và tự do dân sự.
• Chính phủ Mỹ đang thúc đẩy nghiên cứu và ứng dụng AI trong khu vực công, với mục tiêu tuyển dụng 500 nhân sự AI vào chính phủ liên bang đến cuối năm tài chính 2025.
📌 UNESCO cảnh báo việc sử dụng AI trong hệ thống tư pháp toàn cầu đang diễn ra mà không có hướng dẫn cụ thể, có thể gây rủi ro về quyền con người và công lý. Tổ chức này đề xuất hướng dẫn toàn diện để đảm bảo AI được áp dụng minh bạch, có trách nhiệm trong lĩnh vực pháp lý, với sự giám sát của con người.
https://fortune.com/2024/08/08/ai-guidelines-unesco-un-legal-law-judges-courts/
• LG AI Research đã ra mắt Exaone 3.0, mô hình AI nguồn mở đầu tiên của Hàn Quốc với 7,8 tỷ tham số, đánh dấu sự gia nhập của quốc gia này vào lĩnh vực AI toàn cầu.
• Exaone 3.0 xuất sắc trong các tác vụ ngôn ngữ tiếng Hàn và tiếng Anh, nhằm thúc đẩy nghiên cứu AI và xây dựng hệ sinh thái AI mạnh mẽ tại Hàn Quốc.
• Động thái này thể hiện sự chuyển hướng chiến lược của LG, từ một công ty điện tử tiêu dùng truyền thống sang lĩnh vực đổi mới AI.
• Bằng cách mở nguồn Exaone 3.0, LG không chỉ thể hiện năng lực công nghệ mà còn tạo tiền đề cho nguồn doanh thu mới từ điện toán đám mây và dịch vụ AI.
• Exaone 3.0 gia nhập vào một lĩnh vực đông đúc các mô hình AI nguồn mở, bao gồm Qwen của Alibaba (Trung Quốc) và Falcon của UAE.
• Qwen đã thu hút hơn 90.000 khách hàng doanh nghiệp và vượt qua Meta's Llama 3.1 và Microsoft's Phi-3 trong các bảng xếp hạng hiệu suất.
• Falcon 2 của UAE, với 11 tỷ tham số, tuyên bố vượt trội hơn Meta's Llama 3 trong nhiều tiêu chuẩn đánh giá.
• Chiến lược nguồn mở của LG phản ánh cách tiếp cận của các công ty Trung Quốc như Alibaba, sử dụng AI nguồn mở để phát triển dịch vụ đám mây và đẩy nhanh thương mại hóa.
• LG tuyên bố Exaone 3.0 có hiệu quả cải thiện đáng kể: giảm 56% thời gian suy luận, giảm 35% sử dụng bộ nhớ và giảm 72% chi phí vận hành so với phiên bản trước.
• Mô hình đã được đào tạo trên 60 triệu trường hợp dữ liệu chuyên nghiệp liên quan đến bằng sáng chế, mã, toán học và hóa học, với kế hoạch mở rộng lên 100 triệu trường hợp vào cuối năm.
• Sự thành công của Exaone 3.0 có thể có tác động sâu rộng: đối với LG, nó có thể mở ra nguồn doanh thu mới từ AI và dịch vụ đám mây; đối với Hàn Quốc, nó đại diện cho một bước tiến mạnh mẽ trên sân khấu AI toàn cầu.
• Sự phổ biến của các mô hình nguồn mở như Exaone 3.0 có thể dân chủ hóa quyền truy cập vào công nghệ AI tiên tiến, thúc đẩy đổi mới trong nhiều ngành công nghiệp và khu vực địa lý.
📌 LG ra mắt Exaone 3.0 - mô hình AI nguồn mở 7,8 tỷ tham số đầu tiên của Hàn Quốc, cạnh tranh với các đối thủ toàn cầu. Mô hình có hiệu suất cao trong tiếng Hàn và Anh, giảm 56% thời gian suy luận, 35% sử dụng bộ nhớ so với phiên bản trước, đánh dấu bước tiến quan trọng của Hàn Quốc trong lĩnh vực AI toàn cầu.
https://venturebeat.com/ai/lg-unleashes-south-koreas-first-open-source-ai-challenging-global-tech-giants/
• Ứng dụng mạng xã hội Koo của Ấn Độ, được coi là "Twitter theo chủ nghĩa dân tộc", đã sụp đổ sau khi không thể tái tạo được hiệu ứng mạng lưới như đối thủ Big Tech.
• Sự thất bại của Koo cho thấy nỗ lực thay thế các công ty mạng xã hội Mỹ tại Ấn Độ đã không thành công. Tuy nhiên, chính phủ Modi hiện đang có chiến lược hiệu quả hơn: Kiểm soát.
• Kể từ năm 2021, Ấn Độ đã thắt chặt các quy định, bao gồm trách nhiệm hình sự đối với các giám đốc điều hành mạng xã hội. Điều này buộc các công ty công nghệ nước ngoài phải tuân thủ.
• Chính phủ Modi đang chuẩn bị một loạt luật mới, bao gồm Đạo luật Ấn Độ Số để cải tổ luật công nghệ thông tin hiện có, và một dự luật chống độc quyền kỹ thuật số.
• Cách tiếp cận của Ấn Độ tương tự xu hướng toàn cầu về nhiều mặt, nhưng nổi bật ở việc tạo ra "con đường thứ tư" để quản lý internet - ít can thiệp hơn châu Âu, bảo vệ người tiêu dùng nghiêm túc hơn Mỹ, nhưng cũng tạo quyền rộng rãi cho nhà nước kiểm soát ngôn luận trực tuyến.
• Đạo luật bảo vệ dữ liệu cá nhân được thông qua năm ngoái đưa ra một số quy chuẩn bảo vệ người tiêu dùng mạnh mẽ, đồng thời cũng cho phép các cơ quan chức năng được miễn trừ với lý do rộng rãi như "duy trì trật tự công cộng" và "quan hệ hữu nghị với nước ngoài".
• Các công ty công nghệ nước ngoài đã có những nỗ lực hạn chế để phản đối, nhưng họ nhận ra rằng việc bỏ lỡ thị trường Ấn Độ đang phát triển nhanh chóng là không thể.
• Facebook và YouTube có nhiều người dùng ở Ấn Độ hơn bất kỳ nơi nào khác - lần lượt hơn 375 triệu và 475 triệu người dùng.
• AI sẽ là thử thách lớn tiếp theo đối với chính sách công nghệ của Ấn Độ. Mặc dù các công ty Mỹ như Meta và OpenAI hiện đang dẫn đầu trong nghiên cứu tiên tiến và phát triển mô hình ngôn ngữ lớn, nhưng vẫn cần rất nhiều công việc bổ sung để đào tạo AI cho các ngôn ngữ Ấn Độ.
• Đây là cơ hội để Ấn Độ tạo ra các công cụ AI của riêng mình, thay vì chỉ nhập khẩu công nghệ Mỹ.
📌 Ấn Độ đang chuyển hướng từ việc khuyến khích các bản sao mạng xã hội trong nước sang kiểm soát chặt chẽ hơn các công ty công nghệ nước ngoài lớn. Chính phủ Modi đang chuẩn bị các luật mới để quản lý internet và chống độc quyền kỹ thuật số, với mục tiêu tạo ra "con đường thứ tư" trong quản lý internet toàn cầu. AI được xem là thử thách và cơ hội tiếp theo cho Ấn Độ trong việc phát triển công nghệ nội địa.
https://www.ft.com/content/3400d1d3-7fce-4932-b4d3-17a98323f3df
#FT
• EU thông qua Đạo luật AI đầu tiên trên thế giới, có hiệu lực từ tháng 8/2024 và sẽ được thực thi theo từng giai đoạn trong 2 năm tới. Mục tiêu là bảo vệ con người khỏi các mối nguy từ AI và biến EU thành "trung tâm toàn cầu về AI đáng tin cậy".
• Đạo luật phân loại các hệ thống AI theo mức độ rủi ro:
- Rủi ro tối thiểu (như bộ lọc spam): không bị điều chỉnh
- Rủi ro hạn chế (như chatbot): phải tuân thủ một số nghĩa vụ minh bạch
- Rủi ro cao (như hệ thống xử lý dữ liệu cá nhân): phải tuân thủ các quy định nghiêm ngặt về minh bạch, chất lượng dữ liệu, giám sát con người...
• Nhiều startup công nghệ lo ngại chi phí tuân thủ cao (có thể lên tới 6 con số với công ty 50 nhân viên) sẽ trở thành gánh nặng cho doanh nghiệp nhỏ ở EU.
• Các nhà phê bình cho rằng luật còn mơ hồ, thiếu chi tiết cần thiết về quyền sở hữu trí tuệ, quy tắc thực hành cho doanh nghiệp... EU cần ban hành thêm 60-70 văn bản pháp lý thứ cấp để hỗ trợ thực thi.
• Một số lo ngại luật sẽ cản trở khả năng cạnh tranh của châu Âu với Mỹ trong lĩnh vực AI. Cecilia Bonefeld-Dahl của DigitalEurope cảnh báo: "Chúng ta sẽ thuê luật sư trong khi phần còn lại của thế giới thuê lập trình viên."
• EU đang gấp rút bổ sung các chi tiết còn thiếu trước khi luật có hiệu lực, như quy định về bản quyền đối với dữ liệu huấn luyện AI, trách nhiệm đối với nội dung do AI tạo ra...
• Việc thực thi luật ở các quốc gia thành viên cũng là thách thức do chưa rõ cơ quan nào sẽ chịu trách nhiệm giám sát.
• EU cần tuyển dụng 140 nhân sự cho Văn phòng AI mới, nhưng gặp khó khăn trong việc thu hút chuyên gia kỹ thuật do cạnh tranh với các công ty công nghệ lớn.
• Một số quan chức EU bác bỏ quan điểm cho rằng luật sẽ cản trở đổi mới, khẳng định luật chỉ áp dụng cho các hệ thống rủi ro cao và vẫn cho phép thử nghiệm, đổi mới.
📌 EU tiên phong ban hành Đạo luật AI toàn diện đầu tiên trên thế giới, nhằm bảo vệ người dân và thúc đẩy AI đáng tin cậy. Tuy nhiên, luật vấp phải nhiều chỉ trích về tính khả thi và lo ngại sẽ cản trở đổi mới, khiến châu Âu tụt hậu trong cuộc đua AI toàn cầu. EU cần nhanh chóng hoàn thiện các chi tiết còn thiếu và cân bằng giữa bảo vệ và thúc đẩy đổi mới.
https://www.ft.com/content/6cc7847a-2fc5-4df0-b113-a435d6426c81
#FT
• Yoshua Bengio, người đoạt giải Turing và được coi là "cha đẻ" của AI hiện đại, đã tham gia dự án Safeguarded AI do chính phủ Anh tài trợ với vai trò giám đốc khoa học.
• Dự án Safeguarded AI nhận được 59 triệu bảng Anh trong 4 năm tới từ Cơ quan Nghiên cứu và Phát minh Tiên tiến (ARIA) của Anh.
• Mục tiêu của dự án là xây dựng một hệ thống AI có thể kiểm tra tính an toàn của các hệ thống AI khác được triển khai trong các lĩnh vực quan trọng.
• Dự án kết hợp các mô hình khoa học thế giới (mô phỏng thế giới) với chứng minh toán học để xây dựng cơ chế an toàn AI.
• Bengio cho rằng việc sử dụng AI để bảo vệ AI là cách duy nhất do sự phức tạp của các hệ thống tiên tiến.
• ARIA cung cấp tài trợ cho các tổ chức trong các lĩnh vực rủi ro cao như giao thông, viễn thông, chuỗi cung ứng và nghiên cứu y tế để phát triển ứng dụng có thể hưởng lợi từ cơ chế an toàn AI.
• Tổng cộng 5,4 triệu bảng Anh sẽ được cấp trong năm đầu tiên và 8,2 triệu bảng Anh trong năm tiếp theo cho các ứng viên. Hạn chót nộp đơn là ngày 2/10.
• ARIA dự kiến cung cấp tới 18 triệu bảng Anh để thành lập một tổ chức phi lợi nhuận xây dựng cơ chế an toàn của Safeguarded AI.
• Dự án là một phần trong sứ mệnh của Anh nhằm trở thành quốc gia tiên phong về an toàn AI. Nước này đã tổ chức Hội nghị Thượng đỉnh An toàn AI đầu tiên vào tháng 11/2023.
• Mặc dù ưu tiên các ứng viên tại Anh, ARIA cũng tìm kiếm nhân tài toàn cầu quan tâm đến việc đến Anh làm việc.
• Bengio tham gia dự án để thúc đẩy hợp tác quốc tế về an toàn AI. Ông là chủ tịch Báo cáo Khoa học Quốc tế về an toàn của AI tiên tiến, liên quan đến 30 quốc gia cùng EU và LHQ.
📌 Dự án Safeguarded AI với sự tham gia của Yoshua Bengio nhận 59 triệu bảng Anh từ chính phủ Anh, nhằm xây dựng hệ thống AI an toàn để kiểm tra các hệ thống AI khác. Dự án kết hợp mô hình khoa học và chứng minh toán học, tập trung vào việc sử dụng AI để bảo vệ AI trong các lĩnh vực quan trọng.
https://www.technologyreview.com/2024/08/07/1095879/ai-godfather-yoshua-bengio-joins-uk-project-to-prevent-ai-catastrophes/
#MIT
• Theo nghiên cứu Trends in AI for CRM của Salesforce, IDC ước tính các công ty đã đầu tư 16 tỷ USD vào giải pháp AI tạo sinh năm 2023 và sẽ đầu tư 140 tỷ USD vào năm 2027, với tốc độ tăng trưởng kép hàng năm (CAGR) là 70%.
• 92% các nhóm bán hàng, dịch vụ, tiếp thị hoặc thương mại đang xem xét đầu tư vào AI. AI là ưu tiên hàng đầu của các CEO và thường xuyên được thảo luận trong phòng họp hội đồng quản trị, Ban GĐ
• 56% nhân viên văn phòng tin rằng AI tạo sinh sẽ biến đổi vai trò của họ, nhưng chỉ 21% nói rằng công ty họ đã đưa ra chính sách rõ ràng về việc sử dụng AI.
• Miriam Vogel, Chủ tịch và CEO của Equal AI, nhấn mạnh tầm quan trọng của tính toàn diện và công bằng trong phát triển và triển khai AI. Bà kêu gọi nâng cao kiến thức về AI và sự tham gia của các cộng đồng đa dạng trong phát triển AI.
• Teresa Carlson, nhà đầu tư mạo hiểm tại General Catalyst, nhấn mạnh cần có cách tiếp cận dựa trên rủi ro đối với AI, đồng thời công nhận tiềm năng về các mối đe dọa an ninh mạng. Bà nhấn mạnh tốc độ đổi mới công nghệ nhanh chóng và nhu cầu về các công nghệ có thể theo kịp các mối đe dọa đang phát triển.
• Tiến sĩ David Bray nhấn mạnh sự cần thiết của cách tiếp cận thực tế đối với AI, kêu gọi các công ty và chính phủ ưu tiên trường hợp kinh doanh trước khi triển khai công nghệ AI. Ông cảnh báo về những rủi ro mà các tổ chức phải đối mặt khi áp dụng AI mà không hiểu đầy đủ về tác động của nó.
• Các chuyên gia nhấn mạnh tầm quan trọng của sự hợp tác giữa ngành công nghiệp, chính phủ và các tổ chức phi lợi nhuận trong việc định hình tương lai của AI. Họ nhấn mạnh sự cần thiết của quan hệ đối tác công-tư, tài trợ của chính phủ và đầu tư vốn mạo hiểm để thúc đẩy đổi mới AI có trách nhiệm.
• Các diễn giả nhấn mạnh nhu cầu tiếp tục giáo dục và đào tạo để chuẩn bị lực lượng lao động cho một thế giới ngày càng bị định hình bởi AI. Họ nhấn mạnh tầm quan trọng của kiến thức về AI, đặc biệt là đối với thế hệ trẻ, để đảm bảo AI được sử dụng một cách có trách nhiệm và hiệu quả.
• Các chuyên gia đồng ý về sự cần thiết của cách tiếp cận thực tế, toàn diện và có trách nhiệm đối với AI, đảm bảo rằng lợi ích của nó được chia sẻ cho tất cả mọi người. Họ cũng nhất trí về tầm quan trọng của sự hợp tác, giáo dục và đầu tư trong việc định hình một tương lai nơi AI đóng vai trò là một lực lượng tích cực.
📌 Các chuyên gia AI hàng đầu nhấn mạnh tầm quan trọng của quản trị AI có trách nhiệm trong phòng họp hội đồng quản trị, Họ kêu gọi cách tiếp cận thực tế, toàn diện và có trách nhiệm, với sự hợp tác giữa ngành công nghiệp, chính phủ và xã hội. Đầu tư vào AI dự kiến tăng từ 16 tỷ USD năm 2023 lên 140 tỷ USD vào năm 2027.
https://www.zdnet.com/article/your-board-needs-no-nonsense-ai-leadership-these-experts-explain-why/
• Các chính phủ đang cố gắng cân bằng giữa việc quản lý AI tạo sinh: quy định quá chặt có thể cản trở đổi mới, trong khi quá lỏng lẻo có thể mở đường cho các mối đe dọa như deepfake và thông tin sai lệch.
• Tại phiên thảo luận về đổi mới AI có trách nhiệm tại Fortune Brainstorm AI Singapore, các diễn giả thừa nhận khó có thể đạt được một bộ quy tắc AI toàn cầu áp dụng cho tất cả.
• Các chính phủ có cách tiếp cận khác nhau về mức độ quản lý. EU có bộ quy tắc toàn diện, trong khi Mỹ đang phát triển "hướng dẫn khung" - không có luật cứng nhắc mà chỉ định hướng.
• Sheena Jacob, Trưởng bộ phận sở hữu trí tuệ tại CMS Holborn Asia, cảnh báo "Quá nhiều quy định sẽ bóp nghẹt đổi mới AI".
• Singapore được đưa ra làm ví dụ về nơi đổi mới đang diễn ra, bên ngoài Mỹ và Trung Quốc. Singapore có chiến lược AI quốc gia nhưng không có luật trực tiếp quản lý AI.
• Các diễn giả thừa nhận các nước nhỏ hơn vẫn có thể cạnh tranh với các nước lớn trong phát triển AI. Phoram Mehta của PayPal nói "Điểm mấu chốt của AI là tạo sân chơi bình đẳng".
• Tuy nhiên, các chuyên gia cũng cảnh báo về nguy cơ bỏ qua rủi ro của AI. Ayesha Khanna của Addo AI cho rằng tấn công mạng bằng AI là rủi ro an ninh mạng lớn nhất ở cấp hội đồng quản trị.
• Microsoft đã phát hiện ra cách phá vỡ một mô hình AI tạo sinh, khiến nó bỏ qua các biện pháp bảo vệ chống lại việc tạo ra nội dung có hại.
• Khi được hỏi làm thế nào công ty có thể chặn các tác nhân độc hại, Mehta gợi ý rằng AI cũng có thể giúp "phe tốt". AI đang giúp "phe tốt" tạo sân chơi bình đẳng, tốt hơn là chuẩn bị và sử dụng AI trong phòng thủ thay vì chờ đợi.
📌 Chính phủ cần cân nhắc cẩn thận khi quản lý AI để không cản trở đổi mới. Các nước nhỏ vẫn có cơ hội cạnh tranh trong lĩnh vực AI. Tuy nhiên, cần đề phòng rủi ro an ninh mạng nghiêm trọng từ AI. Việc sử dụng AI trong phòng thủ được khuyến khích.
https://fortune.com/asia/2024/08/07/framework-guidance-regulate-ai-paypal-brainstorm-ai-singapore/
• Châu Á đang phát triển nhanh chóng năng lực AI để bắt kịp các tiêu chuẩn phương Tây, nhưng phải đối mặt với thách thức trong việc điều chỉnh những phát triển này cho phù hợp với đặc thù văn hóa và chính trị của mình.
• Do thiếu cơ cấu quản trị khu vực như EU, các quốc gia châu Á sẽ phát triển cách tiếp cận riêng về quản trị AI, có thể dẫn đến việc kiểm soát AI nghiêm ngặt và ưu tiên lợi ích quốc gia hơn các nguyên tắc phổ quát như tính minh bạch.
• Singapore đã ra mắt Sea-Lion, một mô hình ngôn ngữ lớn đặc trưng cho ngôn ngữ Đông Nam Á. Trung Quốc cũng đã giới thiệu nền tảng AI riêng tích hợp tư tưởng của Chủ tịch Tập Cận Bình.
• Các mô hình AI địa phương có thể vô tình đưa ra thông tin thiên vị hoặc không chính xác. Nếu nhiều quốc gia châu Á tạo ra các hệ thống AI khép kín, không minh bạch, điều này có thể gây căng thẳng về khái niệm sự thật khách quan.
"Theo Laurence Liew , giám đốc đổi mới AI của AI Singapore (AISG), khi phát triển mô hình ngôn ngữ Sea-Lion, AISG đã tránh một số tập dữ liệu đáng lo ngại để ngăn ngừa sự thiên vị.
Nói một cách ngắn gọn, điều này có nghĩa là tránh dữ liệu đào tạo thiên về quan điểm từ các xã hội phương Tây, có học thức, công nghiệp hóa, giàu có và dân chủ (WEIRD), thay vào đó là các tập dữ liệu đa ngôn ngữ đa dạng có khả năng đại diện tốt hơn cho dân số Đông Nam Á.
Kết quả là, mô hình kém chính xác hơn so với mô hình thương mại được đào tạo trên tất cả dữ liệu có sẵn. Điều này đặt ra câu hỏi: Liệu ngành AI có nên xây dựng các sản phẩm minh bạch nhưng phải hy sinh hiệu suất không?"
"Cách tiếp cận của New Zealand minh họa cho những tình huống khó khăn cụ thể mà nhiều cơ quan chức năng Châu Á - Thái Bình Dương phải đối mặt. Hiến chương thuật toán (https://www.data.govt.nz/toolkit/data-ethics/government-algorithm-transparency-and-accountability/algorithm-charter/) của nước này thừa nhận quyền dữ liệu bản địa, tìm hiểu cách các quyền này giao thoa với các hướng dẫn cho thuật toán. Điều này cho thấy việc hoạch định chính sách AI hiệu quả đòi hỏi sự tinh tế vượt ra ngoài chuẩn mực chung chung."
• Tính minh bạch là một nguyên tắc quan trọng trong phát triển AI có đạo đức, nhưng việc duy trì nó có thể khiến các công ty phải chịu chi phí giám sát lớn.
• Một số hệ thống AI tiên tiến như mạng nơ-ron sâu có thể tạo ra các mô hình AI phức tạp đến mức ngay cả người tạo ra chúng cũng không thể hiểu đầy đủ quá trình ra quyết định.
• Việc đạt được các hệ thống AI hoàn toàn minh bạch có thể dẫn đến việc sử dụng các thuật toán đơn giản hơn, đánh đổi hiệu suất lấy tính minh bạch.
• Theo Chỉ số sẵn sàng AI của chính phủ năm 2023, Singapore dẫn đầu về quản trị toàn diện, trong khi Hàn Quốc, Nhật Bản và Úc cũng đạt điểm cao. Tuy nhiên, các quốc gia khác như Campuchia và Myanmar có khung quản lý kém phát triển hơn.
• Cách tiếp cận của New Zealand minh họa những thách thức cụ thể mà nhiều cơ quan chức năng châu Á-Thái Bình Dương phải đối mặt, như việc xem xét quyền dữ liệu bản địa trong hướng dẫn về thuật toán.
• Khái niệm về tính minh bạch và tin cậy trong AI vẫn chưa được phát triển đầy đủ. Không rõ việc tiết lộ thông tin nào sẽ giúp các hệ thống phức tạp dễ hiểu đối với người dùng cuối.
• Các nhà nghiên cứu ở Hàn Quốc và Hong Kong nhận thấy mọi người thường phản đối việc trao quyền và tư cách pháp nhân cho máy móc, cho rằng điều này sẽ làm phức tạp hóa vấn đề trách nhiệm giải trình.
• Trong khi các mô hình phương Tây ủng hộ việc công khai đầy đủ, các chiến lược của châu Á được điều chỉnh bởi các giá trị địa phương và chính trị thực dụng.
"Sự năng động chính trị và văn hóa đa dạng của khu vực cũng có thể khiến nó đi chệch khỏi các nhạy cảm chính thống của phương Tây. Cách tiếp cận thận trọng của Châu Á đối với sự phát triển AI có thể trở thành mô hình thống trị định hình các chuẩn mực của khu vực."
📌 Châu Á đang phát triển AI theo cách riêng, ưu tiên lợi ích quốc gia hơn tính minh bạch. Singapore dẫn đầu với mô hình Sea-Lion, trong khi nhiều nước khác còn thiếu khung quản lý. Thách thức lớn là cân bằng giữa hiệu suất AI và tính minh bạch, giải trình.
https://www.techinasia.com/national-interests-trump-ai-transparency-asia
National interests trump AI transparency in Asia
When philosopher Michael Polanyi coined his famous paradox “We can know more than we can tell,” he could hardly imagine its prescience almost 60 years later. Yet, his maxim predicted the complexity of the AI tech that is rapidly changing the world. Today’s developers, drawing predictive insights from vast data pools, have created systems that resist straightforward explanations. Polanyi’s paradox has new significance as society grapples with building trust in AI technologies we cannot fully understand. In Asia, this paradox deepens further. Singapore and China are rapidly improving their AI prowess to match Western standards, yet they face the challenges of aligning these developments with their unique cultural and political mores. The recent passage of the European Union’s AI Act has intensified pressure on Asian nations to either align with the act’s provisions or develop their own regulatory frameworks. As Asia lacks a regional governance structure like the EU, consistent rules and oversight are difficult. Individual nations will develop their own approaches to AI governance, which will vary widely due to differences in economic development, infrastructure, education levels, and digital literacy. These individual approaches could lead to a world where Asian nations control AI strictly and prioritize national interests over universal principles like transparency. Double-edged sword Taming AI’s far-reaching implications is tricky. Precedents like the EU’s General Data Protection Regulation (GDPR) establish universal ground rules around privacy, but such precedents can’t be easily applied to AI. At its core, privacy revolves around two central tenets: non-disclosure and non-interference. Essentially, non-disclosure is about protecting information, while non-interference is about protecting freedom and autonomy. In contrast, AI presents interconnected issues like accountability, transparency, bias, and security, which are not easily solved. While countries are on the same page on the need to regulate AI, they conflict on how to put rules in place. This divergence reflects the intricate tapestry of ideological nuances and cultural contexts. Take Singapore, for example. The city-state has unleashed Sea-Lion, a large language model steeped in the linguistic spice of Southeast Asia. Meanwhile, China has also unveiled its own AI platform infused with President Xi Jinping’s thoughts and other themes championed by the ruling party. While localized AI models tailored to domestic perspectives could inadvertently introduce bias or inaccurate information, this risk applies broadly. If several Asian countries create insular, opaque AI systems that cement internal storylines, it could strain the notion of objective truth. Such a development would challenge a key principle of ethical AI development: transparency. Will this localized approach improve or hinder transparency, or will countries prioritize their ideologies over open scrutiny? To be or not to be transparent? In broad strokes, AI transparency involves providing a clear view into the inner workings of AI models, making the decision-making processes accessible and comprehensible to users, developers, and other stakeholders. Looking at the seminal AI Act of the EU, it lays down transparency as a general principle. Users must be informed when interacting with AI, including its capabilities and limitations. In the EU legislation, high-risk AI – such as those that are used as safety components in products like medical devices, industrial machinery, toys, or vehicles – faces more stringent standards. These must be transparent enough that providers and users can reasonably understand the system’s functioning. This includes providing comprehensive information on data sources, decision-making processes, and potential impacts. The act also requires transparency for certain AI systems that are not high-risk but still present notable dangers, such as chatbots and deepfake systems. These must disclose that the content has been artificially generated. However, maintaining AI transparency can saddle companies with large oversight expenses as keeping systems compliant and explainable requires a lot of effort. This may explain why a Stanford study grading prominent models on their transparency level found that even popular platforms like ChatGPT only scored 49 out of 100. There is also a technical side to the story. Some AI systems like decision trees have transparent and explainable logic programmed into how they reach conclusions. But other advanced AI systems are far messier. Machine learning techniques like deep neural networks can create AI models so complex that even their creators cannot fully comprehend their decision-making, let alone explain it. At its core, the problem of AI transparency is an ontological one. While rule-based AIs offer glimpses into the reasoning behind their choices, the black-box nature of certain models cloaks their operation in mystery. The more advanced the network, the harder it becomes to explain, just as Polanyi foretold. Trade-offs Innovators may also bristle at laws like the EU’s AI Act, arguing that many advanced machine learning systems are inherently hard to understand. Simplifying complex neural networks is challenging, and efforts to make them transparent could compromise data privacy by exposing sensitive information or cause copyright issues. Besides technical challenges, AI systems are trained on real-world data filled with prejudices and inequities, so they reflect existing biases. However, training an AI model on datasets with less bias can compromise accuracy compared to models trained on more data. According to Laurence Liew, director of AI innovation for AI Singapore (AISG), when developing the Sea-Lion language model, AISG avoided certain concerning datasets to prevent biases. In a nutshell, this meant avoiding training data skewed toward perspectives from Western, educated, industrialized, rich, and democratic (WEIRD) societies, in favor of diverse multilingual datasets that better represent Southeast Asian populations. As a result, the model is less accurate than commercial ones trained on all available data. This begs the question: Should the AI sector build transparent products but sacrifice performance? Achieving fully transparent AI systems could also lead to the use of simpler algorithms. While transparency has merits, revealing these hidden algorithms also risks compromising security and trade secrets. Given these multifaceted issues, the global landscape of AI governance reveals stark contrasts, particularly when comparing Western and Asian approaches to transparency and regulation. Divergences will likely persist between Western calls for illuminating AI’s black boxes and Asia’s preference for less linear routes. According to the 2023 Government AI Readiness Index, Singapore leads in comprehensive governance, while South Korea, Japan, and Australia also score highly. However, other nations like Cambodia and Myanmar have less developed frameworks. New Zealand’s approach exemplifies the particular predicaments many Asia-Pacific authorities face. Its algorithm charter acknowledges indigenous data rights, probing how these rights crosscut with guidelines for algorithms. This shows that effective AI policymaking requires nuance beyond broadbrush standardization. An existential issue It’s still tough to define what transparent AI means in practice because, as previously mentioned, explaining many AI models’ reasoning isn’t practical. Further, the concepts of transparency and trust in AI have yet to be fully developed. What does transparent AI really mean in practice? Is it realistic to expect developers to explain every causal chain within an AI model’s reasoning? The AI Act doesn’t specifically define interpretability, so it’s unclear what type of information disclosure makes complex systems understandable to end users. Another factor is the rapid development of AI , so naturally, regulation like the AI Act will have to develop alongside it rather than staying static. Then there is the fear that continued progress could spawn sentient AI. Would such machines accept the human control that a regulatory framework brings? While this possibility may seem remote today, it does elevate transparency from a matter of ethics to one of potential existential significance. In a controversial resolution in 2017, the European Parliament suggested giving the most advanced autonomous robots the status of electronic persons, although the idea was not taken up by the European Commission. There was also the famous case of Sophia, a robot granted “citizenship” by Saudi Arabia in 2017. Researchers in South Korea and Hong Kong found that people are generally against granting rights and personhood to machines, arguing it would complicate accountability. Such instances raise questions about the shifting moral status of advanced AI. Tale of two approaches There should be no illusions now that AI is easy to control or contain. It is a technology that is constantly evolving and is interpreted and adopted differently across cultures. Advances in AI capabilities and governance happen in fits and starts, involving trial and error. While some consensus exists around responsible development, pesky differences remain, defying catch-all correctives. Neither technological nor ethical progress is linear. It’s unclear if universal transparency principles can be applied to AI development across cultures. While Western models advocate for full disclosure, Asian strategies are tempered by local values and realpolitik. The AI narrative continues, still mid-arc, just as the evolution and experimentation around balancing progress and principles remains unfinished. The stakes are raised as AI advances, and the temptation might grow to not just influence these technologies but control them in ways that override universal principles. Rather than granting unchecked rights to advanced AI entities, Asian nations might choose to constrain capacities. The region’s varied political and cultural dynamics may also tilt it away from mainstream Western sensibilities. Asia’s guarded approach to AI development could become the dominant model shaping regional norms.
• Oracle đã khai trương vùng điện toán đám mây thứ hai tại Ả Rập Saudi, nhằm thúc đẩy chiến lược chuyển đổi số và khai thác tiềm năng AI của vương quốc này.
• Dự án này là một phần trong cam kết đầu tư 1,5 tỷ USD của Oracle tại nền kinh tế lớn nhất thế giới Ả Rập. Mục tiêu là hỗ trợ các tổ chức công và tư chuyển lên đám mây.
• Vùng đám mây mới bổ sung cho vùng đang hoạt động ở Jeddah. Oracle còn có kế hoạch mở thêm 2 vùng nữa tại Riyadh và Neom - siêu thành phố công nghệ cao trị giá 500 tỷ USD dọc Biển Đỏ.
• Theo Bộ trưởng Bộ Truyền thông và Công nghệ Thông tin Ả Rập Saudi, dự án mới phản ánh nỗ lực liên tục của vương quốc trong việc thúc đẩy nền kinh tế số dựa trên công nghệ và đổi mới hiện đại.
• Vùng đám mây mới sẽ thúc đẩy chủ quyền dữ liệu - bảo vệ dữ liệu theo luật pháp và quy định của khu vực tài phán, là yếu tố then chốt đối với an ninh và độ tin cậy.
• Việc mở rộng hạ tầng đám mây tại Ả Rập Saudi rất quan trọng đối với các công ty trong quá trình chuyển đổi số, đặc biệt là với sự xuất hiện của AI tạo sinh.
• Cơ sở hạ tầng đám mây địa phương giúp tổ chức đảm bảo xử lý dữ liệu nhanh hơn, tăng cường bảo mật và tuân thủ quy định quốc gia, từ đó đổi mới hiệu quả hơn.
• Oracle hiện có 8 vùng đám mây tại Trung Đông và châu Phi, bao gồm 5 vùng đang hoạt động và 2 vùng dự kiến tại Morocco.
• Trên toàn cầu, Oracle quản lý 75 vùng đám mây trên 26 quốc gia. Tuy nhiên, công ty không cung cấp số liệu thị phần cụ thể.
• Theo Statista, Amazon Web Services dẫn đầu thị trường dịch vụ hạ tầng đám mây toàn cầu với 31% thị phần, tiếp theo là Microsoft Azure (25%) và Google Cloud (10%).
• IDC dự báo chi tiêu toàn cầu cho dịch vụ đám mây công cộng sẽ vượt 1,6 nghìn tỷ USD vào năm 2028, gấp đôi ước tính 805 tỷ USD năm 2024.
• Tại khu vực GCC, doanh thu thị trường đám mây công cộng dự kiến đạt hơn 5 tỷ USD trong năm nay.
📌 Oracle mở rộng vùng đám mây thứ 2 tại Ả Rập Saudi, cam kết đầu tư 1,5 tỷ USD. Dự án thúc đẩy chuyển đổi số, AI và chủ quyền dữ liệu, hỗ trợ tầm nhìn của vương quốc. Vùng đám mây mới sẽ thúc đẩy chủ quyền dữ liệu - bảo vệ dữ liệu theo luật pháp và quy định của khu vực tài phán, là yếu tố then chốt đối với an ninh và độ tin cậy. Đám mây công cộng toàn cầu dự kiến đạt 1,6 nghìn tỷ USD vào 2028.
https://www.thenationalnews.com/future/technology/2024/08/06/oracle-saudi-ai/
• Chuck Schumer, lãnh đạo đa số Thượng viện Mỹ, đang tích cực thúc đẩy thông qua các dự luật về deepfake và AI trước thềm bầu cử 2024.
• Ông đề xuất gắn các dự luật về deepfake vào dự luật tài trợ cần thông qua để tránh đóng cửa chính phủ vào cuối tháng 9/2024.
• Các dự luật liên quan đến an ninh quốc gia về AI có thể được đưa vào gói chính sách quốc phòng lớn NDAA (National Defense Authorization Act) cần thông qua trước 31/12/2024.
• Schumer cảnh báo deepfake là mối đe dọa nghiêm trọng đối với nền dân chủ, có thể làm suy giảm niềm tin của cử tri vào ứng viên và cuộc bầu cử.
• Hai dự luật về deepfake sẽ cấm sử dụng AI tạo ra âm thanh hoặc hình ảnh gây hiểu nhầm về ứng viên liên bang nhằm tác động đến bầu cử hoặc gây quỹ tranh cử.
• Các dự luật này đã được thông qua ở Ủy ban Quy tắc nhưng bị đảng Cộng hòa chặn tại phiên họp toàn thể Thượng viện vào tuần trước.
• Đảng Cộng hòa cũng đã chặn một dự luật cấm hình ảnh khiêu dâm deepfake vào tháng 6/2024, đề xuất dự luật riêng của họ.
• Schumer cho rằng đảng Cộng hòa đang cản trở vì "Donald Trump và nhiều người theo ông ấy không thực sự thích dân chủ".
• Thượng viện chỉ có 3 tuần làm việc sau kỳ nghỉ hè, trong đó 2 tuần dành cho việc tài trợ chính phủ.
• Schumer đang xem xét đưa các dự luật này vào "dự luật bắt buộc phải thông qua" hoặc đề nghị đảng Cộng hòa đẩy nhanh tiến độ.
• Một số đề xuất liên quan đến AI đã được đưa vào dự luật chính sách quốc phòng NDAA, bao gồm yêu cầu bảo mật đối với trung tâm dữ liệu lưu trữ mô hình AI tiên tiến.
• Schumer đã tổ chức 9 diễn đàn AI với sự tham gia của các chuyên gia và thành lập nhóm làm việc lưỡng đảng về AI.
• Chiến lược là đưa ra các dự luật AI riêng lẻ thay vì một gói lớn, để các ủy ban có thể đóng góp ý kiến.
• Một số dự luật AI đã được thông qua ở cấp ủy ban, bao gồm Future of AI Innovation Act về thiết lập cơ sở dữ liệu công cộng lớn về AI và tiêu chuẩn an toàn AI.
• Dự luật PREPARED for AI Act yêu cầu các cơ quan liên bang đánh giá rủi ro tiềm ẩn trước khi mua hoặc triển khai hệ thống AI.
• Schumer nhấn mạnh tiềm năng to lớn của AI trong việc chữa bệnh ung thư, giải quyết biến đổi khí hậu, nhưng cũng cảnh báo về những vấn đề thực tế cần được giải quyết.
📌 Chuck Schumer đang nỗ lực thúc đẩy các dự luật về deepfake và AI trước bầu cử 2024, coi đây là mối đe dọa nghiêm trọng đối với dân chủ. Ông đề xuất gắn chúng vào các dự luật quan trọng như NDAA và dự luật tài trợ chính phủ để tăng cơ hội thông qua, đối mặt với sự phản đối từ đảng Cộng hòa. Các dự luật như Future of AI Innovation Act và PREPARED for AI Act đang được xem xét.
https://www.nbcnews.com/politics/congress/chuck-schumer-eyes-opportunities-pass-deepfake-ai-bills-2024-elections-rcna164915
• Văn phòng Tổng chưởng lý New York tổ chức hội thảo "Thập kỷ tới của AI tạo sinh: Thúc đẩy cơ hội và quản lý rủi ro" với sự tham gia của các chuyên gia hàng đầu để thảo luận về cơ hội và rủi ro của công nghệ AI trong thập kỷ tới.
• Trong lĩnh vực y tế, AI có tiềm năng cải thiện chăm sóc sức khỏe thông qua phát hiện bệnh sớm, nghiên cứu thuốc, giám sát xu hướng sức khỏe cộng đồng và giảm gánh nặng hành chính cho bác sĩ. Ví dụ: một công cụ AI có thể xem xét ảnh chụp X-quang vú và phát hiện các bất thường có thể báo hiệu nguy cơ ung thư vú trước 5 năm, cho phép can thiệp sớm hơn. Tuy nhiên, cần cân nhắc vấn đề quyền riêng tư và tiếp cận công bằng.
• AI có thể giúp tìm kiếm thông tin dễ dàng hơn thông qua chatbot, dịch thuật tự động. Tuy nhiên, AI tạo sinh dễ tạo ra thông tin sai lệch, deepfake gây hại cho danh tiếng cá nhân và ảnh hưởng bầu cử. Ví dụ như các cuộc gọi tự động giả mạo ứng cử viên tổng thống khuyến khích mọi người không đi bỏ phiếu trong các cuộc bầu cử sơ bộ.
• Trong lĩnh vực hành chính, AI giúp tự động hóa nhiều tác vụ như tính thuế, xét duyệt hồ sơ, tạo tài liệu giáo dục công cộng. Tuy nhiên, việc sử dụng AI trong tuyển dụng có thể làm trầm trọng thêm vấn đề phân biệt đối xử do thuật toán có thể khuếch đại thành kiến con người.
• Dữ liệu đào tạo AI tạo sinh gây lo ngại về bản quyền, thiếu đại diện nhóm thiểu số, tập trung thị trường. Việc sử dụng dữ liệu tổng hợp có thể làm trầm trọng thêm vấn đề sai sót. Các chuyên gia cảnh báo về việc sử dụng dữ liệu không chính xác, không phù hợp hoặc bí mật trong quá trình đào tạo mô hình.
• Các chiến lược giảm thiểu rủi ro bao gồm: giáo dục công chúng về cách nhận biết nội dung do AI tạo ra, minh bạch và kiểm toán AI, bảo vệ quyền người tiêu dùng, quy định và giám sát. Nhiều chuyên gia kêu gọi xây dựng khung thủy vân mạnh mẽ cho nội dung AI và tiêu chuẩn kiểm toán thuật toán rõ ràng.
• Cần có thêm nghiên cứu về tiêu chuẩn kiểm toán thuật toán, khung thủy vân mạnh mẽ cho nội dung AI, và mô hình quản lý phù hợp. Các chuyên gia không đồng thuận về việc nên áp dụng khung quản lý tập trung như Đạo luật AI của EU hay phân tán theo từng lĩnh vực.
• Gần đây đã có một số tiến triển trong quản lý AI như Đạo luật SAFE for Kids của New York, Đạo luật AI Colorado, lộ trình chính sách AI của Thượng viện Mỹ. Văn phòng Tổng chưởng lý New York đang tích cực theo dõi hiệu quả của các khung quản lý khác nhau để đưa ra các đề xuất lập pháp và quy định trong tương lai.
📌 Báo cáo tổng hợp ý kiến chuyên gia về cơ hội và thách thức của AI tạo sinh trong thập kỷ tới, đặc biệt trong y tế, thông tin và hành chính. Các chiến lược giảm thiểu rủi ro được đề xuất bao gồm giáo dục công chúng, minh bạch và kiểm toán AI, bảo vệ quyền người tiêu dùng và quy định phù hợp. Cần nghiên cứu thêm về tiêu chuẩn kiểm toán, khung thủy vân và mô hình quản lý AI hiệu quả.
https://www.news10.com/news/ny-news/ag-releases-ai-report/
• Chính phủ Trung Quốc đã triển khai nhiều chính sách hỗ trợ phát triển ngành AI từ đầu năm 2024.
• Tháng 1/2024, Bộ Công nghiệp và Công nghệ Thông tin cùng 6 bộ ngành khác ban hành hướng dẫn phát triển các ngành công nghiệp tương lai, tích hợp công nghệ tiên tiến như metaverse, robot hình người, giao diện não-máy tính và thông tin lượng tử.
• Tháng 3/2024, Bộ Giáo dục phát động chiến dịch Trao quyền AI trên toàn quốc nhằm nâng cao kiến thức và kỹ năng AI cho giáo viên và học sinh, thúc đẩy ứng dụng hệ thống giáo dục hỗ trợ AI.
• Ngày 2/7/2024, Bộ Công nghiệp và Công nghệ Thông tin cùng 3 cơ quan chính phủ khác công bố hướng dẫn xác định 7 lĩnh vực trọng điểm phát triển hệ thống tiêu chuẩn AI, bao gồm tiêu chuẩn cho công nghệ chủ chốt, sản phẩm và dịch vụ thông minh, ứng dụng công nghiệp.
• Mục tiêu xây dựng hơn 50 tiêu chuẩn quốc gia và ngành về AI đến năm 2026, phát triển hệ thống tiêu chuẩn hướng dẫn phát triển chất lượng cao cho ngành.
• Trung Quốc hiện có hơn 4.500 công ty AI. Quy mô ngành công nghiệp AI cốt lõi đạt hơn 578 tỷ nhân dân tệ (khoảng 81 tỷ USD) trong năm 2023, tăng 13,9% so với cùng kỳ năm trước.
• Trong báo cáo công tác chính phủ năm nay, Trung Quốc công bố sáng kiến AI Plus, một bước đi chiến lược nhằm thúc đẩy mở rộng nền kinh tế số và dẫn đầu quá trình chuyển đổi, hiện đại hóa các ngành sản xuất.
• Wei Kai, Viện trưởng Viện Nghiên cứu Trí tuệ Nhân tạo thuộc Học viện Công nghệ Thông tin và Truyền thông Trung Quốc nhấn mạnh cần giải quyết các vấn đề trong triển khai công nghiệp của các mô hình lớn như quản trị dữ liệu, xây dựng nền tảng và bố trí năng lực tính toán.
📌 Trung Quốc đặt mục tiêu phát triển toàn diện ngành AI với hơn 4.500 công ty, quy mô 81 tỷ USD năm 2023. Chính phủ ban hành nhiều chính sách hỗ trợ, đặt mục tiêu 50+ tiêu chuẩn AI quốc gia đến 2026 nhằm dẫn đầu chuyển đổi số và hiện đại hóa sản xuất.
https://news.cgtn.com/news/2024-08-03/China-steps-up-policy-support-for-AI-development-1vL4Lr2zh6w/p.html
• Singapore, một quốc gia có diện tích chỉ bằng thành phố New York và dân số tương đương Minnesota, đang nổi lên như một đối thủ đáng gờm trong cuộc đua AI toàn cầu.
• Năm 2019, Singapore là một trong những quốc gia đầu tiên trên thế giới áp dụng chiến lược AI quốc gia. Tháng 12/2023, chính phủ cam kết đầu tư hơn 700 triệu USD cho AI trong 5 năm tới.
• Các nhà sáng lập bị thu hút bởi kết nối quốc tế tốt, quy định đơn giản và chính phủ năng động của Singapore. Ước tính có khoảng 1.100 startup AI tại đây vào cuối năm 2023.
• Singapore cạnh tranh bằng chất lượng thay vì quy mô. Vị thế trung tâm thương mại và dịch vụ giúp nước này có lượng dữ liệu lớn hơn nhiều so với quy mô thực tế.
• Singapore đóng vai trò trung lập trong lĩnh vực công nghệ toàn cầu đang bị chính trị hóa. Các startup Trung Quốc đang chuyển một số văn phòng sang Singapore để mở rộng ra toàn cầu.
• Điều này cho phép các công ty Singapore tiếp cận nhiều nguồn nhân tài và chuyên môn. Singapore được đánh giá là có sự kết hợp tốt nhất giữa văn hóa Trung Quốc và Mỹ.
• Tuy nhiên, Singapore cũng phải đối mặt với một số thách thức. Đất đai, điện và nhân công ở đây đắt đỏ hơn so với các nước láng giềng. Malaysia đang trở thành thị trường trung tâm dữ liệu phát triển nhanh nhất Đông Nam Á.
• Singapore cần tiếp tục giữ vị thế trung lập giữa Mỹ và Trung Quốc khi Washington siết chặt lĩnh vực công nghệ Trung Quốc.
• Một mối lo ngại lớn hơn là khu vực Đông Nam Á có thể bị bỏ qua trong không gian kỹ thuật số do các công ty công nghệ lớn của Mỹ và Trung Quốc thống trị. Dự án SEA-LION của chính phủ Singapore nhằm xây dựng mô hình ngôn ngữ lớn phản ánh văn hóa và ngôn ngữ Đông Nam Á.
• Dù vậy, việc Singapore được coi là một nhà lãnh đạo trong lĩnh vực AI đã là một thành tựu đáng kể. Nước này không cần phải trở thành siêu cường AI, mà chỉ cần duy trì vị thế cạnh tranh của mình.
📌 Singapore đang nổi lên như một đối thủ bất ngờ trong cuộc đua AI toàn cầu nhờ chiến lược đầu tư thông minh và vị thế trung lập. Với 1.100 startup AI và khoản đầu tư 700 triệu USD, quốc gia nhỏ bé này đang chứng minh rằng chất lượng có thể vượt qua quy mô trong lĩnh vực công nghệ tiên tiến.
https://fortune.com/2024/08/02/singapore-ai-startups-us-china-arms-race/
- Nhà Trắng kêu gọi các công ty công nghệ hỗ trợ chống lại nạn lạm dụng tình dục bằng AI đang gia tăng, ảnh hưởng từ học sinh đến các nhân vật công chúng như Taylor Swift và AOC.
- Để ngăn chặn, cần hành động từ cả chính phủ và các công ty công nghệ.
- Vấn đề này ảnh hưởng tới mọi người, từ người nổi tiếng đến nữ sinh trung học.
- Đáp lại lời kêu gọi, một số tổ chức đã thành lập nhóm công tác để chống lại việc phát tán và kiếm tiền từ nạn lạm dụng tình dục bằng hình ảnh.
- Meta đã gỡ bỏ 63.000 tài khoản liên quan đến "tống tiền tình dục" trẻ em và thanh thiếu niên.
- Hình thức lạm dụng mới bao gồm hoán đổi khuôn mặt, đặt đầu của một người lên cơ thể khỏa thân của người khác. Taylor Swift và AOC từng là nạn nhân.
- Dự luật DEFIANCE Act 2024 của AOC quy định biện pháp khắc phục cho những người bị lạm dụng "giả mạo kỹ thuật số".
- Các quy định "Khoản IX" mới của luật cấm các tổ chức giáo dục nhận tiền liên bang tham gia phân biệt giới tính (www2.ed.gov/about/offices/list/ocr/docs/t9-unofficial-final-rule-2024.pdf), coi quấy rối tình dục bao gồm cả hình ảnh deepfake khiêu dâm nếu tạo ra môi trường học đường thù địch.
- 20 bang đã thông qua luật hình sự hóa việc phổ biến tài liệu khiêu dâm do AI tạo ra mà không có sự đồng ý.
- Nghị sĩ California Marc Berman đề xuất nhiều dự luật liên quan đến giả mạo kỹ thuật số và AI.
- Dự luật AB 1831 cấm deepfake lạm dụng tình dục trẻ em, AB 2876 yêu cầu đưa nội dung đào tạo về AI vào chương trình giảng dạy.
- Nhiều trường học ở California chấn động bởi các vụ bê bối deepfake liên quan đến học sinh.
- Luật SHIELD sẽ coi việc chia sẻ hình ảnh riêng tư mà không có sự đồng ý là tội liên bang.
- Luật KOSA yêu cầu các công ty mạng xã hội ngăn chặn trẻ em và thanh thiếu niên bị lạm dụng tình dục trực tuyến.
- Nạn lạm dụng tình dục bằng hình ảnh do AI tạo ra cũng ảnh hưởng đến sinh viên đại học, nhiều trường chưa sẵn sàng để điều tra và xử lý.
📌 Nạn lạm dụng tình dục bằng hình ảnh do AI tạo ra đang gia tăng nhanh chóng, ảnh hưởng tới mọi tầng lớp từ học sinh đến người nổi tiếng. Nhà Trắng kêu gọi sự chung tay của các công ty công nghệ cùng với nỗ lực lập pháp ở cấp bang và liên bang. Nhiều bang như California đang tích cực đưa ra các dự luật để đối phó. Tuy nhiên, các trường học vẫn chưa sẵn sàng ứng phó và cần thêm hướng dẫn cụ thể.
https://19thnews.org/2024/08/white-house-big-tech-ai-sexual-abuse-prevention-efforts/
• Sam Altman, CEO OpenAI, tuyên bố mô hình AI tạo sinh tiếp theo của công ty sẽ được chính phủ Mỹ kiểm tra an toàn trước khi ra mắt.
• OpenAI đang làm việc với Viện An toàn AI Hoa Kỳ để cung cấp quyền truy cập sớm vào mô hình nền tảng tiếp theo và hợp tác thúc đẩy khoa học đánh giá AI.
• Công ty đã thay đổi chính sách không nói xấu, cho phép nhân viên hiện tại và cũ tự do nêu lên các mối quan ngại về công ty và công việc của họ.
• OpenAI cam kết phân bổ ít nhất 20% tài nguyên tính toán cho nghiên cứu an toàn AI.
• Gần đây, 5 thượng nghị sĩ Mỹ đã gửi thư cho Altman đặt câu hỏi về cam kết an toàn của OpenAI và các trường hợp có thể trả đũa nhân viên cũ.
• Jason Kwon, Giám đốc chiến lược OpenAI, đã phản hồi bằng thư khẳng định cam kết phát triển AI có lợi cho toàn nhân loại và thực hiện các quy trình an toàn nghiêm ngặt.
• Ngoài chính phủ Mỹ, OpenAI cũng có thỏa thuận tương tự với chính phủ Anh về kiểm tra an toàn mô hình.
• Mối quan ngại về an toàn của OpenAI bắt đầu tăng cao vào tháng 5 khi hai lãnh đạo nhóm siêu liên kết là Ilya Sutskever và Jan Leike từ chức.
• Leike đã công khai chỉ trích rằng "văn hóa và quy trình an toàn đã bị xếp sau các sản phẩm hào nhoáng".
• OpenAI vẫn tiếp tục ra mắt nhiều sản phẩm mới, đồng thời chia sẻ nghiên cứu nội bộ về tin cậy và an toàn.
• Công ty đã thành lập một ủy ban an toàn và bảo mật mới, do Bret Taylor, Adam D'Angelo, Nicole Seligman và Sam Altman lãnh đạo.
• Ủy ban này đang trong quá trình xem xét các quy trình và biện pháp bảo vệ của công ty.
📌 OpenAI cam kết tăng cường an toàn AI bằng cách hợp tác với chính phủ Mỹ và Anh kiểm tra mô hình mới, phân bổ 20% tài nguyên cho nghiên cứu an toàn, thay đổi chính sách nhân viên và thành lập ủy ban an toàn mới. Tuy nhiên, vẫn còn những lo ngại về cách tiếp cận phát triển AI nhanh chóng của công ty.
https://venturebeat.com/ai/sam-altman-next-openai-model-will-first-undergo-safety-checks-by-u-s-government/
• Văn phòng Bản quyền Hoa Kỳ vừa công bố phần 1 của báo cáo toàn diện về tác động của AI, tập trung vào vấn đề "bản sao kỹ thuật số" hay còn gọi là deepfake.
• Báo cáo nhấn mạnh sự cần thiết của luật liên bang mới để đối phó với sự phát triển nhanh chóng của AI tạo sinh và các mối đe dọa từ việc sử dụng trái phép deepfake.
• Dự luật NO FAKES Act (Nuôi dưỡng Bản gốc, Thúc đẩy Nghệ thuật và Giữ an toàn Giải trí) đã được đưa ra Thượng viện, nhằm cung cấp quyền mới để ủy quyền sử dụng hình ảnh, giọng nói hoặc diện mạo của cá nhân trong bản sao kỹ thuật số.
• Báo cáo khuyến nghị luật liên bang mới cần ưu tiên bảo vệ sinh kế của nghệ sĩ, nhân phẩm của người sống và an ninh công cộng trước gian lận và thông tin sai lệch.
• Maria Pallante, Chủ tịch và CEO của AAP, đánh giá NO FAKES Act là "chiến thắng lớn cho công chúng".
• Đây là phần đầu tiên trong một loạt báo cáo về AI. Các phần tiếp theo sẽ đề cập đến các vấn đề khác như bản quyền của tác phẩm tạo ra bằng AI, đào tạo mô hình AI trên tác phẩm có bản quyền, cấp phép và phân bổ trách nhiệm pháp lý.
• Shira Perlmutter, Giám đốc Văn phòng Bản quyền Hoa Kỳ, nhấn mạnh AI là "chương mới nhất" trong mối quan hệ cộng sinh giữa bản quyền và công nghệ.
• Perlmutter đặt ra nhiều câu hỏi cơ bản về tác động của AI đối với luật và chính sách bản quyền, bao gồm: mức độ thay thế sáng tạo của con người, sự khác biệt giữa sáng tạo của con người và AI, tác động đến nền tảng khuyến khích của hệ thống bản quyền Hoa Kỳ.
• Báo cáo cũng đề cập đến tiềm năng của AI như một công cụ hữu ích để tăng cường sáng tạo của con người và thúc đẩy khoa học và nghệ thuật.
• Vấn đề cân bằng giữa tôn trọng, khen thưởng các nhà sáng tạo và không cản trở tiến bộ công nghệ cũng được đặt ra.
📌 Văn phòng Bản quyền Hoa Kỳ kêu gọi luật mới về deepfake trong báo cáo AI. Dự luật NO FAKES Act được đề xuất để bảo vệ quyền sử dụng hình ảnh cá nhân. Báo cáo nhấn mạnh cần cân bằng giữa bảo vệ nghệ sĩ và thúc đẩy đổi mới AI.
https://www.publishersweekly.com/pw/by-topic/industry-news/publisher-news/article/95621-u-s-copyright-office-releases-part-one-of-ai-report-calls-for-new-legislation.html
• Bộ trưởng Công nghệ Anh Peter Kyle đã trấn an các công ty công nghệ lớn rằng dự luật AI sắp tới sẽ chỉ tập trung vào hai vấn đề:
- Biến các thỏa thuận tự nguyện hiện có giữa các công ty và chính phủ thành ràng buộc pháp lý
- Chuyển đổi Viện An toàn AI mới của Anh thành một cơ quan độc lập của chính phủ
• Kyle khẳng định dự luật sẽ không trở thành một "dự luật cây thông Noel" với quá nhiều quy định bổ sung trong quá trình lập pháp.
• Dự luật dự kiến sẽ chỉ tập trung vào các mô hình nền tảng kiểu ChatGPT - các mô hình AI lớn có thể phân tích và tạo ra văn bản và đa phương tiện.
• Đây là sự thay đổi so với chiến lược của cựu Thủ tướng Rishi Sunak, người miễn cưỡng can thiệp pháp lý quá sớm vào việc phát triển AI.
• Cuối năm ngoái, chính phủ Anh đã ra mắt Viện An toàn AI để đánh giá rủi ro và lỗ hổng của các mô hình AI.
• Tại Hội nghị An toàn AI ở Anh tháng 11/2023, các công ty hàng đầu như OpenAI, Google DeepMind, Microsoft đã ký thỏa thuận "bước ngoặt" nhưng không ràng buộc pháp lý với các chính phủ.
• Các quan chức cấp cao Anh tin rằng cần gấp rút biến các thỏa thuận tự nguyện này thành ràng buộc pháp lý.
• Một cuộc tham vấn về nội dung dự luật dự kiến sẽ được khởi động trong vài tuần tới và kéo dài khoảng 2 tháng.
• Việc biến Viện An toàn AI thành cơ quan độc lập sẽ củng cố vai trò của nó và trấn an các công ty rằng chính phủ không "thở vào gáy" họ.
• Chính phủ Starmer muốn Viện An toàn AI đóng vai trò dẫn đầu trong việc thiết lập tiêu chuẩn toàn cầu cho phát triển AI.
• Các quy định khác về AI, như sử dụng sở hữu trí tuệ để đào tạo mô hình mà không có sự cho phép, sẽ được xem xét riêng biệt với dự luật này.
📌 Chính phủ Anh cam kết dự luật AI sẽ tập trung hẹp vào mô hình nền tảng như ChatGPT, biến thỏa thuận tự nguyện thành ràng buộc pháp lý và tăng cường vai trò của Viện An toàn AI. Dự luật dự kiến sẽ được đọc lần đầu vào cuối năm nay sau khi tham vấn trong 2 tháng.
https://www.ft.com/content/ce53d233-073e-4b95-8579-e80d960377a4
#FT
• Số lượng nhóm vận động hành lang chính phủ liên bang Mỹ về các vấn đề liên quan đến AI đã tăng từ 459 năm 2023 lên 556 trong nửa đầu năm 2024.
• OpenAI đã tăng mạnh chi tiêu cho vận động hành lang, từ 260.000 USD cả năm 2023 lên 800.000 USD chỉ trong 6 tháng đầu năm 2024. Công ty cũng mở rộng đội ngũ vận động viên bên ngoài từ 3 lên khoảng 15 người.
• OpenAI đã thuê cựu Thượng nghị sĩ Đảng Cộng hòa Norm Coleman để vận động về các vấn đề nghiên cứu và phát triển. Các công ty luật nổi tiếng như Akin Gump Strauss Hauer & Feld và DLA Piper cũng đã đăng ký vận động viên cho OpenAI.
• Đội ngũ chính sách nội bộ của OpenAI cũng được tăng cường, với việc tuyển dụng Chan Park, cựu giám đốc cấp cao về các vấn đề quốc hội tại Microsoft. Số lượng nhân viên trong bộ phận toàn cầu của OpenAI đã tăng gấp 4 lần so với năm ngoái lên 35 người tại 8 quốc gia.
• Đối thủ của OpenAI là Anthropic dự kiến sẽ chi nửa triệu USD cho vận động hành lang trong vài tháng tới. Trong năm 2024, Anthropic đã đầu tư 250.000 USD cho đội ngũ 5 vận động viên.
• Ngay cả các công ty AI nhỏ hơn cũng đang cam kết chi hàng chục nghìn USD cho nỗ lực vận động hành lang. Cohere đã tăng chi tiêu từ 70.000 USD năm ngoái lên 120.000 USD trong nửa đầu năm nay.
• Đây là năm bầu cử và các ứng cử viên tổng thống hàng đầu có quan điểm khác biệt về quy định AI. Phó Tổng thống Kamala Harris ủng hộ quan điểm của Tổng thống Biden rằng AI nên chịu một số hình thức giám sát liên bang. Trong khi đó, cựu Tổng thống Donald Trump ủng hộ việc dỡ bỏ các chính sách AI của Nhà Trắng và phi quy định hóa nói chung.
• Bộ Thương mại Hoa Kỳ vừa công bố một báo cáo ủng hộ việc phát hành các mô hình AI tạo sinh mới, đặc biệt là các mô hình "mở trọng số" như Llama 3.1 của Meta, nhưng khuyến nghị chính phủ phát triển "năng lực mới" để giám sát các mô hình này về rủi ro.
• Quốc hội Mỹ vẫn chưa thông qua luật toàn diện về AI. Điều này dẫn đến việc các chính quyền tiểu bang và địa phương đang vội vàng lấp đầy khoảng trống, với gần 400 luật AI cấp tiểu bang được đề xuất trong năm nay.
• OpenAI đang ủng hộ các dự luật Thượng viện nhằm thành lập cơ quan hoạch định quy tắc liên bang về AI, cung cấp học bổng liên bang cho R&D về AI và thiết lập nguồn lực giáo dục AI tại các trường đại học và K-12.
• Các công ty AI đang đối mặt với các vụ kiện chống độc quyền tiềm năng từ các cơ quan quản lý Mỹ như Bộ Tư pháp và Ủy ban Thương mại Liên bang (FTC). FTC đang tìm kiếm thêm thông tin về quan hệ đối tác mới công bố giữa Amazon và startup AI Adept.
📌 Các công ty AI đang tăng cường vận động hành lang tại Mỹ, với OpenAI chi 800.000 USD trong 6 tháng đầu 2024. Đây là năm bầu cử quan trọng, với các ứng cử viên có quan điểm trái ngược về quy định AI. Quốc hội vẫn chưa thông qua luật toàn diện, trong khi các cơ quan quản lý đang xem xét các vấn đề chống độc quyền tiềm ẩn.
https://techcrunch.com/2024/07/31/ai-startups-ramp-up-federal-lobbying-efforts/
• Các nhà mạng viễn thông đang tăng cường hợp tác AI, nhấn mạnh tầm quan trọng của việc đáp ứng yêu cầu bảo mật dữ liệu quốc gia từ các cơ quan quản lý.
• Orange đã công bố mở rộng quan hệ đối tác với Google Distributed Cloud (GDC). Điều này cho phép Orange chạy các khối lượng công việc dữ liệu mạng nhạy cảm và AI tại chỗ hoặc cục bộ, phù hợp với yêu cầu quy định của quốc gia.
• Orange kỳ vọng cải thiện đáng kể trong việc lập kế hoạch và thiết kế mạng thông qua tự động hóa báo cáo, phân loại và phân tích. Họ cũng hy vọng nâng cao hiệu quả hoạt động bằng cách chạy các mô hình AI tạo sinh tại chỗ.
• Tuy nhiên, Orange cùng với 14 công ty châu Âu khác đã chỉ trích dự thảo đề xuất của EU cho phép các công ty công nghệ Mỹ như Google hoặc AWS đấu thầu các hợp đồng điện toán đám mây nhạy cảm ở khu vực này mà không cần đối tác châu Âu.
• Deutsche Telekom cũng phản đối dự thảo này. Họ đã giành được hợp đồng B2B cung cấp quyền truy cập vào công cụ AI tạo sinh an toàn, cho phép khách hàng kiểm soát dữ liệu theo luật bảo vệ dữ liệu của Đức.
• Tại Indonesia, Indosat Ooredoo Hutchison (IOH) đã sẵn sàng sử dụng cơ sở hạ tầng của Nvidia để phát triển khả năng AI quốc gia. Chính phủ Indonesia cho biết Nvidia và IOH có kế hoạch xây dựng trung tâm AI trị giá 200 triệu USD ở Java Trung vào năm 2024.
• IOH sẽ sử dụng cơ sở hạ tầng của Nvidia để hỗ trợ "tăng tốc mạng đám mây, lưu trữ có thể tổng hợp, bảo mật zero-trust và tính đàn hồi tính toán GPU trong các đám mây AI siêu quy mô".
• Các nhà mạng khác như Reliance Industries (công ty mẹ của Jio), Swisscom, Singtel và Iliad của Pháp cũng đang kết hợp công nghệ của Nvidia vào kế hoạch AI có chủ quyền của họ.
• Microsoft đã công bố sẽ chi 2,9 tỷ USD cho cơ sở hạ tầng AI và đám mây ở Nhật Bản, bao gồm đào tạo AI cho hơn 3 triệu người trong 3 năm tới.
📌 Các nhà mạng lớn như Orange, Deutsche Telekom và Indosat Ooredoo Hutchison đang tăng cường hợp tác AI với các gã khổng lồ công nghệ như Google và Nvidia, nhưng vẫn ưu tiên bảo mật dữ liệu quốc gia. Xu hướng này phản ánh tầm quan trọng ngày càng tăng của AI có chủ quyền trong ngành viễn thông toàn cầu.
https://inform.tmforum.org/features-and-opinion/telco-ai-partnerships-point-to-importance-of-national-data-security
• AWS đã triển khai Chương trình Hỗ trợ Phát triển LLM tại Nhật Bản, thu hút 15 tổ chức tham gia phát triển các mô hình ngôn ngữ lớn (LLM) và mô hình nền tảng (FM) tiên tiến.
• 12/15 tổ chức đã sử dụng AWS Trainium để huấn luyện mô hình và đang khám phá AWS Inferentia cho suy luận.
• Chương trình cung cấp hỗ trợ toàn diện về cơ sở hạ tầng tính toán hiệu năng cao, hỗ trợ kỹ thuật, tín dụng đám mây và hỗ trợ thương mại hóa.
• Ricoh đã phát triển LLM song ngữ Nhật-Anh 13 tỷ tham số sử dụng phương pháp học theo chương trình (curriculum learning) trên cụm 64 máy chủ trn1.32xlarge (1.024 chip Trainium).
• Stockmark đã huấn luyện trước LLM tiếng Nhật 13 tỷ tham số từ đầu với 220 tỷ token dữ liệu văn bản tiếng Nhật trong 30 ngày, sử dụng 16 máy chủ Trn1.
• NTT đang phát triển LLM tsuzumi nhẹ, hiệu suất cao với khả năng xử lý tiếng Nhật tốt và đa phương thức, sử dụng cụm 96 GPU NVIDIA H100 trên AWS.
• KARAKURI xây dựng LLM để tạo chatbot hỗ trợ khách hàng thân thiện bằng tiếng Nhật.
• Watashiha phát triển mô hình nền tảng OGIRI tập trung vào hài hước.
• Poetics tạo LLM phân tích cuộc họp trực tuyến cho công cụ Jamroll.
• Viện Matsuo huấn luyện trước LLM để phát triển hệ thống đề xuất thông minh cho bán lẻ và du lịch.
• Lightblue phát triển LLM nhỏ gọn để giảm chi phí suy luận.
• Recruit xây dựng LLM thông qua huấn luyện trước liên tục và điều chỉnh hướng dẫn trên các mô hình có sẵn.
• Sparticle và Turing đang phát triển mô hình đa phương thức kết hợp ngôn ngữ và hình ảnh.
• Preferred Networks đang phát triển mô hình nền tảng thị giác đa năng có thể xử lý cả thông tin văn bản và hình ảnh.
• CyberAgent đánh giá hiệu suất LLM khi thay đổi tỷ lệ tiếng Nhật và tiếng Anh trong dữ liệu huấn luyện.
• Rinna xây dựng Nekomata 14B dựa trên mô hình Qwen bằng cách huấn luyện trước liên tục với 66 tỷ token dữ liệu tiếng Nhật trong 6,5 ngày.
• Ubitus phát triển và phát hành Taiwan LLM 13B thông qua nghiên cứu chung với Đại học Quốc gia Đài Loan.
📌 AWS đã hỗ trợ thành công 15 tổ chức Nhật Bản phát triển các mô hình AI tạo sinh tiên tiến thông qua Chương trình LLM. Với AWS Trainium, các công ty đã xây dựng được nhiều LLM đa dạng về quy mô và ứng dụng, từ chatbot thông minh đến mô hình đa phương thức, mở ra tiềm năng to lớn cho đổi mới AI tại Nhật Bản.
https://aws.amazon.com/blogs/machine-learning/unlocking-japanese-llms-with-aws-trainium-innovators-showcase-from-the-aws-llm-development-support-program/
• Các công ty công nghệ hàng đầu như OpenAI và Google đã loại Hong Kong khỏi danh sách thị trường cung cấp dịch vụ AI tạo sinh tiên tiến như ChatGPT. Quyết định này do chính các công ty đưa ra, không phải do chính phủ Hong Kong.
• Việc hạn chế có thể do thiếu giao tiếp và hiểu lầm giữa khu vực tư nhân và chính phủ Hong Kong.
• Ngoài Hong Kong, OpenAI cũng hạn chế dịch vụ ở một số thị trường khác như Trung Quốc đại lục, Iran và Bắc Triều Tiên.
• Việc các dịch vụ AI nước ngoài như ChatGPT không có mặt ở Trung Quốc đại lục là dễ hiểu, do kiểm soát internet nghiêm ngặt của Bắc Kinh. Tuy nhiên, Hong Kong vẫn được hưởng chế độ "một quốc gia, hai chế độ" với quyền truy cập internet tự do.
• Dòng chảy tự do của dữ liệu và thông tin rất quan trọng đối với Hong Kong - một trong những trung tâm tài chính hàng đầu thế giới. Các dịch vụ AI tạo sinh như ChatGPT hay Gemini của Google đã trở nên thiết yếu trong hoạt động kinh doanh và cuộc sống hàng ngày.
• Các ngân hàng lớn như JPMorgan và Citigroup đã bắt đầu sử dụng AI tạo sinh để giao dịch hiệu quả hơn. Nếu Hong Kong bị cô lập trong kỷ nguyên AI tạo sinh do thiếu quyền truy cập, điều này sẽ ảnh hưởng lâu dài đến vị thế trung tâm tài chính của thành phố.
• Chính phủ Hong Kong đã phát triển một công cụ kiểu ChatGPT nội địa để hỗ trợ công việc hàng ngày của các viên chức chính phủ. Tuy nhiên, việc đầu tư hàng năm để đạt được trình độ AI tạo sinh tiên tiến như OpenAI và Google có thể là một thách thức.
• Chính phủ cần chủ động tiếp cận các công ty như OpenAI và Google để trao đổi quan điểm về việc đưa Hong Kong vào phạm vi dịch vụ của họ. Nếu có hiểu lầm về luật pháp và quy định của Hong Kong, chính phủ cần làm rõ.
• Hong Kong nên chào đón cả các nhà phát triển AI Trung Quốc như Alibaba, Baidu và Tencent đưa thị trường Hong Kong vào thử nghiệm và ra mắt sản phẩm của họ.
• Kịch bản tồi tệ nhất là Hong Kong nằm ngoài phạm vi dịch vụ của cả ChatGPT của OpenAI và Ernie Bot của Baidu.
• Về lâu dài, việc tiếp cận hoặc thiếu tiếp cận các dịch vụ AI này sẽ là vấn đề nghiêm trọng đối với khả năng cạnh tranh và sự liên quan của Hong Kong với thế giới.
📌 Hong Kong đang đối mặt với nguy cơ tụt hậu trong cuộc đua AI tạo sinh toàn cầu. Để duy trì vị thế trung tâm tài chính hàng đầu, chính phủ cần chủ động kết nối với các công ty công nghệ lớn, đảm bảo người dân được tiếp cận các dịch vụ AI tiên tiến. Nếu không, Hong Kong có thể mất lợi thế cạnh tranh so với các trung tâm tài chính khác như Singapore.
https://www.scmp.com/opinion/china-opinion/article/3272443/hong-kong-cant-afford-lose-out-generative-ai
• Luật AI của Liên minh Châu Âu (EU) chính thức có hiệu lực từ ngày 1/8/2024, bắt đầu áp dụng các hạn chót tuân thủ theo từng giai đoạn.
• Hầu hết các quy định sẽ được áp dụng đầy đủ vào giữa năm 2026. Tuy nhiên, lệnh cấm một số ứng dụng AI cụ thể như sử dụng sinh trắc học từ xa ở nơi công cộng sẽ có hiệu lực sau 6 tháng.
• Luật phân loại ứng dụng AI thành các mức độ rủi ro:
- Đa số ứng dụng được coi là rủi ro thấp/không có rủi ro và không thuộc phạm vi điều chỉnh.
- Một số ứng dụng được phân loại rủi ro cao như nhận dạng sinh trắc học, phần mềm y tế dựa trên AI, AI trong giáo dục và việc làm. Các nhà phát triển cần tuân thủ các nghĩa vụ quản lý rủi ro và chất lượng.
- Mức "rủi ro hạn chế" áp dụng cho chatbot hoặc công cụ tạo deepfake, yêu cầu minh bạch để không đánh lừa người dùng.
• Mức phạt được chia thành các cấp độ, cao nhất lên tới 7% doanh thu hàng năm toàn cầu cho vi phạm các ứng dụng AI bị cấm.
• Đối với AI mục đích chung (GPAI), hầu hết nhà phát triển chỉ phải đáp ứng yêu cầu minh bạch nhẹ. Chỉ một số mô hình mạnh nhất mới cần đánh giá và giảm thiểu rủi ro.
• OpenAI, công ty phát triển ChatGPT, dự kiến sẽ làm việc chặt chẽ với Văn phòng AI của EU để triển khai luật mới trong những tháng tới.
• Các yêu cầu cụ thể cho hệ thống AI rủi ro cao vẫn đang được các cơ quan tiêu chuẩn châu Âu xây dựng, dự kiến hoàn thành vào tháng 4/2025.
• Các doanh nghiệp cần xác định và phân loại các hệ thống AI họ sử dụng, xác định vai trò là nhà cung cấp hay triển khai, và tham khảo ý kiến pháp lý nếu có thắc mắc về việc tuân thủ.
📌 Luật AI của EU có hiệu lực từ 1/8/2024, áp dụng quy định theo mức độ rủi ro. Hầu hết quy định sẽ được thực thi đầy đủ vào giữa năm 2026. OpenAI và các công ty AI lớn cần chuẩn bị tuân thủ, với mức phạt có thể lên tới 7% doanh thu toàn cầu cho vi phạm nghiêm trọng.
https://techcrunch.com/2024/08/01/the-eus-ai-act-is-now-in-force/
• EU đã bắt đầu một cuộc tham vấn về các quy tắc sẽ áp dụng cho các nhà cung cấp mô hình AI đa năng (GPAI) như Anthropic, Google, Microsoft và OpenAI theo Luật AI của EU.
• Mục tiêu là xây dựng một Bộ quy tắc ứng xử để đảm bảo các GPAI đáng tin cậy bằng cách hướng dẫn các nhà phát triển tuân thủ nghĩa vụ pháp lý của họ.
• Luật AI của EU sẽ có hiệu lực từ ngày 1/8/2024, nhưng Bộ quy tắc ứng xử sẽ được áp dụng sau 9 tháng, vào tháng 4/2025.
• Ủy ban châu Âu mời các phản hồi từ các nhà cung cấp GPAI hoạt động tại EU, doanh nghiệp, đại diện xã hội dân sự, chủ sở hữu quyền và chuyên gia học thuật.
• Cuộc tham vấn bao gồm một bảng câu hỏi chia thành 3 phần: minh bạch và các quy định liên quan đến bản quyền; quy tắc về phân loại, đánh giá và giảm thiểu rủi ro; và việc xem xét, giám sát Bộ quy tắc ứng xử.
• Hạn chót nộp ý kiến là ngày 10/9/2024 lúc 18h CET.
• EU cũng kêu gọi bày tỏ quan tâm tham gia xây dựng Bộ quy tắc thông qua các cuộc họp ảo chia thành 4 nhóm làm việc. Hạn chót là 25/8/2024 lúc 18h CET.
• Văn phòng AI sẽ bổ nhiệm chủ tọa và phó chủ tọa cuộc họp, đang nhận đơn từ "các chuyên gia độc lập quan tâm" cho các vai trò chỉ đạo chính này.
• Động thái này diễn ra sau những lo ngại rằng các tổ chức xã hội dân sự có thể bị loại khỏi quá trình soạn thảo. Ủy ban nhấn mạnh rằng họ khuyến khích tất cả các bên quan tâm tham gia.
• Các nhà cung cấp GPAI sẽ có cơ hội tham dự các hội thảo với chủ tọa và phó chủ tọa phiên họp toàn thể để đóng góp cho mỗi vòng soạn thảo lặp lại.
• Văn phòng AI sẽ đảm bảo tính minh bạch trong các cuộc thảo luận này bằng cách lập biên bản cuộc họp và cung cấp cho tất cả người tham gia phiên họp toàn thể.
📌 EU khởi động tham vấn về quy tắc cho AI đa năng, hạn chót 10/9/2024. Mục tiêu xây dựng Bộ quy tắc ứng xử đảm bảo AI đáng tin cậy, áp dụng từ 4/2025. Kêu gọi đóng góp rộng rãi từ các bên liên quan, nhấn mạnh tính minh bạch và toàn diện trong quá trình soạn thảo.
https://techcrunch.com/2024/07/30/eu-calls-for-help-with-shaping-rules-for-general-purpose-ais/
• Josephine Teo, Bộ trưởng Phát triển Số và Thông tin Singapore, chia sẻ tại hội nghị Fortune Brainstorm AI Singapore về lý do quốc đảo này có vị thế tốt để tận dụng AI.
• Bà Teo phản bác quan điểm so sánh dữ liệu với dầu mỏ. Khác với dầu mỏ - nguồn tài nguyên hữu hạn, dữ liệu có thể được "kết hợp lại" nhiều lần và hữu ích hơn khi được tái sử dụng trong nhiều bối cảnh khác nhau.
• Singapore đã áp dụng chiến lược AI từ năm 2019, tận dụng thế mạnh sẵn có là trung tâm thương mại và du lịch để thúc đẩy phát triển công nghệ mới này.
• Bà Teo cho rằng nền kinh tế sôi động của Singapore là cách quốc gia này có thể tiếp cận dữ liệu cần thiết. Quy mô GDP lớn cho thấy mức độ rộng và sâu của các hoạt động tại Singapore, mỗi hoạt động đều tạo ra một điểm dữ liệu.
• Thách thức lớn nhất là nguồn nhân lực AI chưa đủ rộng và sâu.
• Singapore hiện có 70 trung tâm dữ liệu, một trong những nơi có "năng lực trung tâm dữ liệu dày đặc nhất" thế giới. So với quy mô GDP, năng lực này còn vượt xa Nhật Bản hay Trung Quốc.
• Thách thức là làm sao phát triển thêm trung tâm dữ liệu mà vẫn đáp ứng cam kết về lộ trình phát thải ròng bằng 0.
• Giải pháp là áp dụng "tiêu chuẩn trung tâm dữ liệu nhiệt đới", nghiên cứu khả năng vận hành ở nhiệt độ cao hơn 1 độ so với hiện tại.
• Năm 2019, Singapore tạm dừng phê duyệt trung tâm dữ liệu mới do lo ngại về sử dụng đất và tiêu thụ điện. Các nhà khai thác chuyển sang Malaysia, thu hút hàng tỷ USD đầu tư từ các công ty công nghệ lớn như Microsoft và Google.
📌 Singapore đặt mục tiêu trở thành trung tâm AI hàng đầu với 70 trung tâm dữ liệu, chiến lược AI từ 2019 và tận dụng thế mạnh kinh tế. Thách thức lớn là nhân lực AI và cân bằng phát triển với cam kết môi trường.
https://fortune.com/asia/2024/07/30/ai-vs-oil-singapore-minister-josephine-teo-interview/
• Cơ quan siêu máy tính châu Âu EuroHPC JU chính thức bổ sung mục tiêu phát triển và vận hành "Nhà máy AI" vào chiến lược của mình, nhằm thúc đẩy hệ sinh thái AI cạnh tranh và đổi mới hơn ở châu Âu.
• Quyết định này được đưa ra sau khi Quy định EU 2024/1732 có hiệu lực, mở rộng nhiệm vụ của EuroHPC JU trong việc mua sắm và vận hành các siêu máy tính tối ưu hóa cho AI.
• "Nhà máy AI" được coi là hệ sinh thái năng động, tập hợp các yếu tố cần thiết như sức mạnh tính toán, dữ liệu và nhân tài để tạo ra các mô hình AI tạo sinh tiên tiến.
• Mục tiêu cuối cùng là các Nhà máy AI sẽ trở thành trung tâm thúc đẩy tiến bộ AI trong nhiều lĩnh vực quan trọng như y tế, năng lượng, sản xuất và khí tượng học.
• EuroHPC JU sẽ triển khai cách tiếp cận hai hướng từ tháng 9:
- Kêu gọi thỏa thuận lưu trữ mới để mua sắm siêu máy tính AI mới hoặc nâng cấp siêu máy tính hiện có
- Dành cho các đơn vị đã lưu trữ siêu máy tính EuroHPC có khả năng đào tạo mô hình AI quy mô lớn
• Ngân sách dự kiến:
- 400 triệu euro cho năm 2024
- Lên đến 800 triệu euro đến năm 2027, tùy thuộc vào ngân sách từ chương trình Châu Âu Kỹ thuật số
• Nvidia cũng đang thúc đẩy khái niệm "Nhà máy AI":
- CEO Jensen Huang mô tả đây là các trung tâm dữ liệu được xây dựng đặc biệt để xử lý các tác vụ AI đòi hỏi tính toán cao nhất
- Huang cho rằng "Nhà máy AI sẽ trở thành nền tảng của nền kinh tế hiện đại trên toàn thế giới"
• Sáng kiến này nhằm tạo ra một cửa hàng một cửa cho các startup, doanh nghiệp vừa và nhỏ, và người dùng khoa học để dễ dàng tiếp cận dịch vụ cũng như phát triển kỹ năng và hỗ trợ.
• Các khoản tài trợ sẽ được cung cấp để trang trải chi phí vận hành siêu máy tính và hỗ trợ các hoạt động và dịch vụ của Nhà máy AI.
📌 EU đầu tư 400 triệu euro vào năm 2024 để phát triển "Nhà máy AI", nhằm cạnh tranh toàn cầu trong lĩnh vực AI. Sáng kiến này tập trung vào việc xây dựng siêu máy tính AI và hỗ trợ startup, doanh nghiệp vừa và nhỏ tiếp cận công nghệ AI tiên tiến, với mục tiêu thúc đẩy đổi mới sáng tạo trong nhiều lĩnh vực quan trọng.
https://www.theregister.com/2024/07/30/europe_ai_factories/
• Nếu hệ thống AI thay đổi nền kinh tế toàn cầu, các trung tâm dữ liệu đào tạo AI sẽ trở thành nhà máy của tương lai. Chính phủ các nước đang xem trung tâm dữ liệu AI là tài nguyên chiến lược và đang chạy đua để kiểm soát.
• Trong Chiến tranh Lạnh, Mỹ chỉ cho phép bán siêu máy tính cho Liên Xô nếu chúng được sử dụng để dự báo thời tiết, không phải mô phỏng hạt nhân. Các quy tắc này được thực thi bằng cách yêu cầu Liên Xô chấp nhận giám sát viên nước ngoài thường trực.
• Hệ thống AI hiện nay cũng có khả năng dân sự và quân sự. Chúng có thể tối ưu hóa ứng dụng giao đồ ăn nhưng cũng có thể phân tích ảnh vệ tinh và chỉ đạo tấn công bằng drone.
• Tất cả hệ thống AI tiên tiến đều được phát triển trong các trung tâm dữ liệu đầy chip cao cấp như GPU của Nvidia. Chip AI tiên tiến đã bị Mỹ kiểm soát xuất khẩu và chip bộ nhớ tiên tiến có thể sớm được thêm vào danh sách.
• Nhiều quốc gia muốn đảm bảo quyền truy cập vào công nghệ AI thông qua các trung tâm dữ liệu được xây dựng trên lãnh thổ của họ. Ả Rập Saudi và UAE tham vọng trở thành trung tâm AI bằng cách đầu tư vào cơ sở hạ tầng trung tâm dữ liệu khổng lồ. Kazakhstan muốn xây dựng trung tâm dữ liệu AI và đào tạo mô hình ngôn ngữ Kazakhstan. Malaysia đang trải qua sự bùng nổ trung tâm dữ liệu.
• Các công ty đám mây Mỹ nhìn thấy cơ hội béo bở. Họ lập luận rằng nếu không nhận hợp đồng từ chính phủ nước ngoài đang đổ hàng tỷ đô la vào cơ sở hạ tầng "AI có chủ quyền", thì Trung Quốc sẽ làm.
• Khi Tổng thống Biden tiếp đón Tổng thống Kenya William Ruto vào tháng 5, Nhà Trắng tự hào thông báo Microsoft sẽ xây dựng trung tâm dữ liệu lớn ở Kenya để cung cấp dịch vụ điện toán đám mây. Tuy nhiên, Microsoft sẽ phát triển trung tâm dữ liệu Kenya cùng với G42, công ty công nghệ thuộc sở hữu của UAE có lịch sử hợp tác công nghệ với các công ty Trung Quốc.
• Các nhà phân tích an ninh ở Washington lo ngại rằng những thỏa thuận như vậy có nguy cơ làm tổn hại quyền kiểm soát công nghệ AI của họ. Họ lưu ý mối quan hệ lâu dài giữa G42 và các công ty công nghệ Trung Quốc như Huawei.
• Bất kỳ biện pháp bảo vệ nào mà Washington yêu cầu đối với thỏa thuận Microsoft-G42 sẽ được coi là khuôn mẫu cho các dự án trung tâm dữ liệu quốc tế trong tương lai. Các biện pháp bảo vệ như vậy sẽ giải quyết các mối lo ngại về an ninh của Mỹ nhưng sẽ khiến các quốc gia vốn đã e ngại các hạn chế của Mỹ càng thêm lo lắng.
• Huawei đang tăng gấp đôi nỗ lực xây dựng dịch vụ điện toán đám mây của riêng mình cho khách hàng ở Trung Quốc và nước ngoài. Tuy nhiên, việc Trung Quốc đang nhập khẩu số lượng lớn chip H20 của Nvidia cho thấy họ sẽ không sớm xuất khẩu công nghệ AI của riêng mình.
📌 Cuộc cạnh tranh công nghệ bắt đầu từ chip silicon nay đã lan sang lĩnh vực điện toán đám mây. Các quốc gia đang chạy đua kiểm soát trung tâm dữ liệu AI, coi đó là tài nguyên chiến lược. Mỹ phải cân bằng giữa lợi ích kinh tế và an ninh quốc gia khi cho phép các công ty công nghệ của mình mở rộng ra thị trường quốc tế.
https://www.ft.com/content/202c3240-fa20-4081-a2a7-8470b7f12110
#FT
• Bộ Thương mại Hoa Kỳ vừa công bố báo cáo ủng hộ các mô hình AI tạo sinh "trọng số mở" như Llama 3.1 của Meta.
• Báo cáo do Cơ quan Quản lý Thông tin và Viễn thông Quốc gia (NTIA) thuộc Bộ Thương mại thực hiện.
• NTIA cho rằng mô hình mở giúp mở rộng khả năng tiếp cận AI tạo sinh cho các công ty nhỏ, nhà nghiên cứu, tổ chức phi lợi nhuận và các nhà phát triển cá nhân.
• Báo cáo đề xuất chính phủ không nên hạn chế quyền truy cập vào các mô hình mở trước khi điều tra liệu các hạn chế có thể gây hại cho thị trường hay không.
• Quan điểm này tương đồng với nhận xét gần đây của Chủ tịch Ủy ban Thương mại Liên bang Lina Khan, cho rằng mô hình mở có thể thúc đẩy cạnh tranh lành mạnh.
• Alan Davidson, Trợ lý Bộ trưởng Thương mại về Truyền thông và Thông tin, nhấn mạnh tầm quan trọng của các hệ thống AI mở và kêu gọi giám sát tích cực hơn đối với rủi ro từ việc công khai trọng số mô hình.
• Báo cáo được công bố trong bối cảnh các cơ quan quản lý trong và ngoài nước đang cân nhắc các quy định có thể hạn chế hoặc áp đặt yêu cầu mới đối với các công ty muốn phát hành mô hình trọng số mở.
• California sắp thông qua dự luật SB 1047, yêu cầu các công ty huấn luyện mô hình sử dụng hơn 10^26 FLOP phải tăng cường an ninh mạng và phát triển cách "tắt" các bản sao mô hình trong tầm kiểm soát của họ.
• EU gần đây đã ấn định thời hạn tuân thủ cho các công ty theo Đạo luật AI, áp đặt quy tắc mới về bản quyền, minh bạch và ứng dụng AI.
• Meta cho biết chính sách AI của EU sẽ ngăn họ phát hành một số mô hình mở trong tương lai. Nhiều startup và công ty công nghệ lớn phản đối luật của California, cho rằng quá khắt khe.
• NTIA đề xuất chính phủ phát triển chương trình thu thập bằng chứng về rủi ro và lợi ích của mô hình mở, đánh giá và hành động dựa trên những đánh giá đó.
• Báo cáo đề xuất chính phủ nghiên cứu về tính an toàn của các mô hình AI, hỗ trợ nghiên cứu giảm thiểu rủi ro và phát triển ngưỡng chỉ số "rủi ro cụ thể" để báo hiệu nếu cần thay đổi chính sách.
• Bộ trưởng Thương mại Gina Raimondo cho biết các bước này phù hợp với sắc lệnh hành pháp về AI của Tổng thống Joe Biden, kêu gọi các cơ quan chính phủ và công ty thiết lập tiêu chuẩn mới về việc tạo ra, triển khai và sử dụng AI.
📌 Báo cáo của Bộ Thương mại Mỹ ủng hộ mô hình AI mở, đề xuất giám sát rủi ro. NTIA khuyến nghị không hạn chế quyền truy cập, nhưng cần phát triển khả năng theo dõi và đánh giá an toàn. Báo cáo phù hợp với sắc lệnh AI của Tổng thống Biden, nhằm tối đa hóa tiềm năng và giảm thiểu rủi ro của AI.
https://techcrunch.com/2024/07/29/u-s-commerce-department-report-endorses-open-ai-models/
https://www.ntia.gov/sites/default/files/publications/ntia-ai-open-model-report.pdf
• Hai ngày sau khi Tổng thống Biden ký sắc lệnh hành pháp về AI vào tháng 10/2023, Phó Tổng thống Harris đã mang nó đến hội nghị thượng đỉnh AI toàn cầu ở London.
• Harris nhấn mạnh cần cân bằng giữa bảo vệ công chúng và thúc đẩy đổi mới, đồng thời mở rộng cuộc thảo luận về rủi ro tiềm ẩn của AI.
• Trump tuyên bố sẽ hủy bỏ sắc lệnh AI của Biden nếu tái đắc cử, cho rằng nó cản trở đổi mới và áp đặt ý tưởng cánh tả cực đoan.
• Cương lĩnh của Đảng Cộng hòa ủng hộ phát triển AI dựa trên tự do ngôn luận và sự phát triển của con người.
• Năm 2019, Trump là tổng thống đầu tiên ký sắc lệnh về AI, chỉ đạo các cơ quan liên bang ưu tiên nghiên cứu và phát triển trong lĩnh vực này.
• Harris đã tổ chức cuộc gặp với lãnh đạo Google, Microsoft và các công ty công nghệ khác tại Nhà Trắng để thảo luận về AI.
• Sắc lệnh AI của Biden sử dụng quyền hạn an ninh quốc gia thời Chiến tranh Triều Tiên để giám sát các hệ thống AI thương mại có rủi ro cao.
• JD Vance, ứng cử viên phó tổng thống của Trump, lo ngại về "nỗ lực quá mức quy định trước" có thể củng cố vị thế của các công ty công nghệ lớn hiện tại.
• Marc Andreessen, thành viên hội đồng quản trị Meta, chỉ trích điều khoản trong sắc lệnh của Biden yêu cầu chính phủ giám sát các hệ thống AI mạnh mẽ nhất.
• Một số chuyên gia cho rằng có nhiều điểm tương đồng giữa cách tiếp cận chính sách AI của chính quyền Trump và Biden.
• Cuộc bầu cử tổng thống 2024 có thể là lần đầu tiên các ứng cử viên đưa ra tầm nhìn cạnh tranh về cách định hướng vai trò lãnh đạo của Mỹ đối với công nghệ đang phát triển nhanh chóng này.
📌 Cuộc đua tổng thống Mỹ 2024 có thể là lần đầu tiên AI trở thành vấn đề tranh cử quan trọng. Trump và Harris có quan điểm trái ngược về quy định AI, phản ánh sự chia rẽ trong ngành công nghệ. Kết quả bầu cử có thể định hình chính sách AI của Mỹ trong những năm tới.
https://fortune.com/2024/07/30/trump-camp-repeal-biden-dangerous-ai-order-hinders-innovation/
1. Meta description (160 ký tự):
Châu Âu đang nỗ lực chống lại nạn khiêu dâm deepfake không đồng thuận bằng các quy định mới. Tuy nhiên, việc thực thi vẫn là một thách thức lớn.
2. Meta keywords:
deepfake không đồng thuận, quy định châu âu, khiêu dâm deepfake, thực thi pháp luật, gdpr, dsa, trí tuệ nhân tạo
3. SEO title (70 ký tự):
châu âu chống khiêu dâm deepfake: quy định mới liệu có đủ sức?
Tóm tắt chi tiết:
- Khiêu dâm deepfake không đồng thuận đang trở thành vấn nạn xã hội. Công nghệ AI giúp tạo ra nội dung này dễ dàng hơn, gây hại nghiêm trọng cho nạn nhân.
- Vương quốc Anh thông qua luật đầu tiên trực tiếp chống lại nạn khiêu dâm deepfake không đồng thuận thông qua sửa đổi Dự luật Tư pháp Hình sự.
- EU không có quy định cụ thể về vấn đề này nhưng có thể áp dụng các quy tắc hiện hành như GDPR, DSA và các đạo luật quốc gia để xử lý.
- EU thông qua chỉ thị về bạo lực trên cơ sở giới tính, quy định hành vi tạo và phát tán hình ảnh deepfake khiêu dâm mà không có sự đồng ý là phạm tội hình sự. Tuy nhiên, các quốc gia thành viên có đến 14/6/2027 để đưa vào luật hoặc chính sách quốc gia.
- Cần có quy tắc chung rõ ràng về khiêu dâm deepfake để ngăn chặn hành vi độc hại và đảm bảo nạn nhân có biện pháp pháp lý bảo vệ.
- Quá trình lập pháp của EU thường kéo dài do phải đi qua 27 quốc gia, 7 nhóm chính trị và Hội đồng châu Âu. Ngay cả khi có quy định trực tiếp, việc thực thi vẫn là thách thức do tính phân mảnh của EU.
- Các công cụ AI có thể giúp phát hiện nội dung deepfake để gỡ bỏ nhanh chóng. Tuy nhiên, cần nghiên cứu kỹ lưỡng để đảm bảo hiệu quả và công bằng.
- Bên cạnh các biện pháp kỹ thuật và pháp lý, cần nỗ lực nâng cao nhận thức xã hội rằng đây không phải hình ảnh thật để giảm bớt sự kỳ thị với nạn nhân.
- Quy định toàn châu Âu chống lại việc tạo ra khiêu dâm deepfake không đồng thuận là cần thiết, nhưng cần có khuôn khổ thực thi hiệu quả, kết hợp với nỗ lực văn hóa xã hội.
📌 Châu Âu đang tích cực chống lại nạn khiêu dâm deepfake không đồng thuận bằng các quy định mới như sửa đổi luật hình sự ở Anh và chỉ thị về bạo lực giới ở EU. Tuy nhiên, việc thực thi đồng bộ vẫn là thách thức lớn do tính chất phân mảnh của EU. Cần sự nỗ lực tổng thể từ kỹ thuật, pháp lý đến văn hóa xã hội mới có thể hạn chế tối đa tác hại của vấn nạn này.
https://thenextweb.com/news/nonconsensual-deepfake-pornography-europe-fighting-it
• Microsoft đang kêu gọi Quốc hội Mỹ thông qua một đạo luật toàn diện để kiểm soát các hình ảnh và âm thanh được tạo ra bởi trí tuệ nhân tạo (deepfake) nhằm can thiệp vào các cuộc bầu cử hoặc nhắm mục tiêu độc hại vào cá nhân.
• Brad Smith, Chủ tịch Microsoft, nhấn mạnh rằng mặc dù ngành công nghệ và các tổ chức phi lợi nhuận đã có những bước tiến trong việc giải quyết vấn đề này, nhưng luật pháp cũng cần phải phát triển để chống lại gian lận deepfake.
• Microsoft đề xuất ban hành một "đạo luật gian lận deepfake" để ngăn chặn tội phạm mạng sử dụng công nghệ này để đánh cắp từ người dân Mỹ bình thường.
• Công ty cũng thúc đẩy Quốc hội dán nhãn nội dung do AI tạo ra là nội dung tổng hợp và đề xuất các luật liên bang và tiểu bang trừng phạt việc tạo ra và phân phối các deepfake có tính chất bóc lột tình dục.
• Mục tiêu của những đề xuất này là bảo vệ các cuộc bầu cử, ngăn chặn lừa đảo và bảo vệ phụ nữ và trẻ em khỏi các hành vi lạm dụng trực tuyến.
• Brad Smith nhấn mạnh vai trò quan trọng của xã hội dân sự trong việc đảm bảo rằng cả quy định của chính phủ và hành động tự nguyện của ngành công nghiệp đều tôn trọng các quyền cơ bản của con người, bao gồm tự do ngôn luận và quyền riêng tư.
• Công nghệ âm thanh và video bị thao túng đã gây ra một số tranh cãi trong chiến dịch tranh cử tổng thống Mỹ năm nay.
• Một ví dụ gần đây là Elon Musk, chủ sở hữu nền tảng truyền thông xã hội X, đã chia sẻ một video vận động tranh cử đã được chỉnh sửa, có vẻ như cho thấy ứng cử viên tổng thống đảng Dân chủ, Phó Tổng thống Kamala Harris, chỉ trích Tổng thống Joe Biden và khả năng của chính bà.
• Musk không làm rõ rằng video đã được thao túng kỹ thuật số và sau đó gợi ý rằng nó được dùng như một sự châm biếm.
• Hiện tại, Quốc hội Mỹ đang xem xét một số dự luật đề xuất nhằm điều chỉnh việc phân phối các deepfake.
📌 Microsoft kêu gọi Quốc hội Mỹ ban hành luật toàn diện về deepfake để bảo vệ bầu cử và ngăn chặn lạm dụng. Brad Smith nhấn mạnh nhu cầu cập nhật luật pháp, dán nhãn nội dung AI và trừng phạt việc tạo và phân phối deepfake bóc lột tình dục. Vụ Elon Musk chia sẻ video giả mạo Kamala Harris làm nổi bật tầm quan trọng của vấn đề này.
https://www.bloomberg.com/news/articles/2024-07-30/microsoft-pushes-us-lawmakers-to-crack-down-on-deepfakes
• Singapore đang nỗ lực trở thành một cường quốc AI, cạnh tranh với Mỹ và Trung Quốc. Quốc đảo này xếp thứ 3 trong Chỉ số AI Toàn cầu của Tortoise Media, chỉ sau Mỹ và Trung Quốc.
• Chính phủ Singapore đã công bố Chiến lược AI Quốc gia từ năm 2019 và cập nhật vào tháng 12/2023. Họ đã phân bổ 743 triệu USD trong 5 năm tới để tăng cường năng lực AI.
• Singapore đang tận dụng vị thế là trung tâm tài chính, vận tải và du lịch toàn cầu để phát triển AI trong các lĩnh vực này:
- Sân bay Changi sử dụng AI để sàng lọc hành lý và nhận diện khuôn mặt tại cửa khẩu.
- Cảng container Singapore, lớn thứ 2 thế giới, ứng dụng AI để điều phối giao thông tàu thuyền, lập kế hoạch neo đậu, giao hàng đúng hẹn.
- Các ngân hàng lớn như DBS đã tăng số lượng chuyên gia dữ liệu từ 25 người năm 2017 lên gần 1.000 người hiện nay.
• Singapore đang phát triển mô hình ngôn ngữ lớn SEA-LION, được thiết kế riêng cho 11 ngôn ngữ chính ở Đông Nam Á. Dự án này được chính phủ tài trợ 52 triệu USD.
• Quốc đảo này đang đối mặt với thách thức về không gian và năng lượng cho các trung tâm dữ liệu. Họ đã ban hành lộ trình mới cho phép xây dựng thêm 530 megawatt công suất mới, với các tiêu chuẩn bền vững và năng lượng xanh nghiêm ngặt.
• Các công ty như Sustainable Metal Cloud đang phát triển công nghệ làm mát GPU bằng chất lỏng, giúp giảm 50% lượng điện năng tiêu thụ và khí thải carbon của trung tâm dữ liệu.
• Singapore đang tìm kiếm mô hình quản trị AI cân bằng giữa các cách tiếp cận của Mỹ, EU và Trung Quốc, nhằm tránh việc thiếu quy định hoặc quá nhiều quy định.
📌 Singapore, với dân số 5,6 triệu người trên diện tích chỉ bằng 1/4 Rhode Island, đang vươn lên thành cường quốc AI toàn cầu. Quốc đảo này xếp thứ 3 trong Chỉ số AI Toàn cầu, đầu tư 743 triệu USD cho AI trong 5 năm tới và phát triển mô hình ngôn ngữ riêng cho Đông Nam Á.
https://fortune.com/2024/07/29/singapore-artificial-intelligence-travel-shipping-banks-languages/
• Colorado vừa ban hành khung pháp lý toàn diện đầu tiên ở Mỹ để quản lý các hệ thống AI có rủi ro cao. Luật này yêu cầu cả nhà phát triển và công ty sử dụng AI phải thực hiện các biện pháp hợp lý để ngăn chặn phân biệt đối xử thuật toán dựa trên các yếu tố như tuổi tác, chủng tộc, giới tính, tình trạng khuyết tật...
• Nhiều tiểu bang khác cũng đã thông qua các quy định về việc sử dụng AI, đặc biệt là công nghệ nhận dạng khuôn mặt, trong thực thi pháp luật. Massachusetts yêu cầu cảnh sát phải có lệnh trước khi sử dụng công nghệ này. Maine, Alabama, Colorado và một số thành phố cũng đã ban hành các biện pháp tương tự.
• Trong lĩnh vực việc làm, Illinois đã thông qua Đạo luật Phỏng vấn Video Trí tuệ Nhân tạo, yêu cầu người sử dụng lao động phải thông báo và xin sự đồng ý của ứng viên trước khi sử dụng AI để phân tích câu trả lời phỏng vấn của họ. Maryland cũng đã thông qua luật tương tự.
• Về chăm sóc sức khỏe, New Jersey đã thông qua luật yêu cầu các nhà cung cấp dịch vụ y tế phải tiết lộ và xin sự đồng ý trước của bệnh nhân khi sử dụng AI trong việc ra quyết định y tế.
• Trong lĩnh vực bảo hiểm, New York gần đây đã thông qua luật cấm các công ty bảo hiểm sử dụng AI để đặt mức phí bảo hiểm ô tô dựa trên các yếu tố như trình độ học vấn hoặc nghề nghiệp.
• Về mạng xã hội, South Carolina đang xem xét dự luật cấm quảng cáo nhắm mục tiêu bằng hệ thống ra quyết định tự động đối với người dùng dưới 18 tuổi và yêu cầu các nền tảng trực tuyến phải xác minh độ tuổi.
• Nhiều tiểu bang cũng đã ban hành luật cấm tạo và phát tán deepfake chính trị nhằm ảnh hưởng đến các cuộc bầu cử sắp tới, cũng như deepfake khiêu dâm không có sự đồng ý.
• Ngoài ra, các luật bảo vệ dữ liệu người tiêu dùng gần đây ở nhiều tiểu bang cũng ảnh hưởng đến việc sử dụng công nghệ AI nói chung, bằng cách trao cho người tiêu dùng quyền kiểm soát thông tin cá nhân của họ.
• Vermont gần đây đã thông qua luật thành lập một cơ quan báo cáo hàng năm về các chính sách đảm bảo người dân không bị phân biệt đối xử do AI trong chính quyền tiểu bang.
📌 Các tiểu bang Mỹ đang dẫn đầu trong việc quy định AI, với Colorado ban hành khung pháp lý toàn diện đầu tiên. Nhiều tiểu bang khác cũng đã thông qua các quy định về AI trong thực thi pháp luật, việc làm, chăm sóc sức khỏe và mạng xã hội. Xu hướng này cho thấy nhu cầu cấp thiết về quản lý AI ở cấp tiểu bang trong bối cảnh thiếu vắng luật liên bang.
https://www.forbes.com/sites/forbesbusinesscouncil/2024/07/29/the-ai-landscape-is-shifting-amid-state-level-regulation/
• Tiềm năng kinh tế của AI tạo sinh có thể đóng góp từ 17 đến 26 nghìn tỷ USD cho nền kinh tế toàn cầu. Goldman Sachs dự đoán đầu tư vào AI có thể đạt 100 tỷ USD ở Mỹ và 200 tỷ USD trên toàn cầu vào năm 2025.
• Gartner cho rằng quản lý tin cậy, rủi ro và bảo mật AI là xu hướng chiến lược hàng đầu năm 2024. Đến năm 2026, các mô hình AI từ các tổ chức vận hành tính minh bạch, tin cậy và bảo mật AI sẽ tăng 50% về mức độ áp dụng và đạt mục tiêu kinh doanh.
• Databricks giới thiệu Nền tảng Data Intelligence để giúp khách hàng xây dựng AI có trách nhiệm, tập trung vào 3 thách thức chính: thiếu khả năng hiển thị chất lượng mô hình, biện pháp bảo mật không đầy đủ và quản trị phân tán.
• Nền tảng cung cấp giám sát chất lượng toàn diện cho dữ liệu và AI, bao gồm tính minh bạch (với tài liệu tự động bằng AI), hiệu quả (đánh giá mô hình tự động) và độ tin cậy (giám sát liên tục).
• Về bảo mật, Databricks đã phát triển danh sách 55 rủi ro tiềm ẩn và đề xuất giải pháp giảm thiểu thông qua Khung Bảo mật AI Databricks (DASF).
• Unity Catalog cung cấp giải pháp quản trị thống nhất và mở cho dữ liệu và AI, cho phép quản lý truy cập tập trung, bảo vệ quyền riêng tư và theo dõi nguồn gốc tự động.
• Các tính năng chính bao gồm: Delta Live Tables để theo dõi nguồn gốc dữ liệu, Feature Store để quản lý tính năng nhất quán, MLflow để theo dõi thí nghiệm, đánh giá mô hình tự động, giám sát mô hình liên tục và phục vụ mô hình linh hoạt.
• Nền tảng cũng cung cấp các công cụ đánh giá và bảo vệ cho mô hình ngôn ngữ lớn (LLM) như AI playground và AI guardrails.
• Databricks Clean Rooms tạo môi trường an toàn cho cộng tác về dữ liệu và AI giữa các tổ chức mà không ảnh hưởng đến quyền riêng tư.
📌 Nền tảng Data Intelligence của Databricks cung cấp giải pháp toàn diện để xây dựng AI có trách nhiệm, tập trung vào chất lượng, bảo mật và quản trị. Với các tính năng như Unity Catalog, MLflow và DASF, nền tảng giúp doanh nghiệp đáp ứng yêu cầu về AI đáng tin cậy và tuân thủ quy định mới nổi.
https://www.databricks.com/blog/responsible-ai-databricks-data-intelligence-platform
• Nghiên cứu mới phân tích 1.636 thương vụ xuất khẩu công nghệ nhận dạng khuôn mặt AI từ 36 nước xuất khẩu sang 136 nước nhập khẩu trong giai đoạn 2008-2021.
• Trung Quốc có lợi thế so sánh trong lĩnh vực AI nhận dạng khuôn mặt, xuất khẩu sang khoảng gấp đôi số quốc gia so với Mỹ (83 so với 57) và có nhiều hơn khoảng 10% số thương vụ (238 so với 211).
• Trong khi Mỹ chủ yếu xuất khẩu công nghệ này cho các nền dân chủ phát triển (chiếm khoảng 2/3 số liên kết hoặc 3/4 số thương vụ), Trung Quốc xuất khẩu với số lượng tương đương cho cả các nền dân chủ phát triển và các chế độ độc tài/dân chủ yếu.
• Các nước độc tài và dân chủ yếu có xu hướng nhập khẩu AI nhận dạng khuôn mặt từ Trung Quốc nhiều hơn trong những năm xảy ra bất ổn trong nước. Điều này không xảy ra với việc nhập khẩu từ Mỹ.
• Việc nhập khẩu AI giám sát của Trung Quốc trong thời kỳ bất ổn có liên quan đến việc các cuộc bầu cử ở những nước này trở nên kém công bằng, kém hòa bình và kém đáng tin cậy hơn. Mô hình tương tự cũng xảy ra với việc nhập khẩu AI giám sát của Mỹ, mặc dù kết quả này ít chính xác hơn.
• Các nước độc tài và dân chủ yếu nhập khẩu nhiều AI giám sát của Trung Quốc trong thời kỳ bất ổn có xu hướng ít phát triển thành các nền dân chủ trưởng thành hơn so với các nước tương đồng nhập khẩu ít AI giám sát.
• Nghiên cứu cho thấy việc thương mại không phải lúc nào cũng thúc đẩy dân chủ hoặc tự do hóa các chế độ. Ngược lại, sự hội nhập lớn hơn của Trung Quốc với các nước đang phát triển có thể làm điều ngược lại.
• Các tác giả đề xuất cần có quy định chặt chẽ hơn về thương mại AI, tương tự như quy định đối với các hàng hóa gây tác động tiêu cực như sản phẩm từ lao động trẻ em hoặc gây ô nhiễm.
• Mặc dù AI nhận dạng khuôn mặt có tiềm năng mang lại lợi ích cho người tiêu dùng và doanh nghiệp, các quy định cần được thiết kế cẩn thận để đảm bảo công nghệ tiên tiến này được phổ biến trên toàn cầu mà không tạo điều kiện cho sự độc tài hóa.
📌 Trung Quốc đang xuất khẩu công nghệ AI giám sát sang 83 quốc gia, gấp đôi Mỹ. Các nước độc tài và dân chủ yếu nhập khẩu AI này từ Trung Quốc nhiều hơn trong thời kỳ bất ổn, dẫn đến suy giảm chất lượng bầu cử và dân chủ. Cần quy định chặt chẽ hơn về thương mại AI để ngăn chặn xu hướng này.
https://www.taipeitimes.com/News/editorials/archives/2024/07/29/2003821454
• Trung Quốc tiếp tục mở rộng chính sách kiểm duyệt và giám sát đối với các mô hình AI, trong khi vẫn đang chạy đua phát triển công nghệ này.
• Đảng Cộng sản Trung Quốc (CCP) đã đưa ra thêm các biện pháp quản lý để đảm bảo các công ty công nghệ trong nước tuân thủ các quy tắc ý thức hệ của đảng.
• Tất cả các công ty AI phải tham gia đánh giá của chính phủ, phân tích các mô hình ngôn ngữ lớn (LLM) để đảm bảo chúng "thể hiện các giá trị xã hội chủ nghĩa cốt lõi".
• Cục Quản lý Không gian mạng Trung Quốc (CAC) yêu cầu các công ty như ByteDance, Moonshot và 01.AI tham gia quy trình đánh giá hiệu quả kiểm duyệt nội dung của các chương trình LLM.
• Các hệ thống chatbot đang được phát triển để chặn thông tin về các chủ đề bị cấm, đặc biệt là các câu hỏi liên quan đến nhân quyền.
• CAC quy định các LLM không được từ chối quá 5% tổng số câu hỏi để tránh chặn quá nhiều.
• Các câu trả lời chung được coi là chính trị đúng đắn đã được tạo ra để trả lời các loại câu hỏi cụ thể.
• Chuyên gia AI Arthur Herman cảnh báo việc Trung Quốc kiểm soát thông tin không chỉ ảnh hưởng đến người dân trong nước mà còn là mối đe dọa lớn hơn đối với thế giới.
• Herman chỉ ra mối quan hệ ngày càng phát triển của Trung Quốc với các nước phía Nam toàn cầu, nơi các nền tảng mạng xã hội như WeChat đang phát triển mạnh mẽ.
• Ông cảnh báo rằng các chiến lược này không chỉ diễn ra trên các nền tảng internet ở các quốc gia độc tài, mà còn ở bất cứ nơi nào có thể truy cập các nền tảng đó, bao gồm cả Mỹ.
• Herman cho rằng Trung Quốc đã "thành thạo nghệ thuật tẩy não" thông qua TikTok, tạo ra một nền tảng mạng xã hội gây nghiện cao và hướng người dùng nhìn thế giới theo một cách nhất định.
• Ông cảnh báo việc Trung Quốc sử dụng công nghệ TikTok chỉ là "báo hiệu" cho cách Bắc Kinh có thể sử dụng các ứng dụng AI để thao túng dân số bên ngoài biên giới.
• Herman nhấn mạnh Trung Quốc coi AI là phương tiện để thay đổi suy nghĩ của mọi người, với khả năng tăng cường các ứng dụng tẩy não và kiểm soát tâm trí mạnh mẽ.
📌 Trung Quốc đang tăng cường kiểm soát AI để thúc đẩy các giá trị xã hội chủ nghĩa. Chuyên gia cảnh báo về nguy cơ "tẩy não" toàn cầu thông qua các nền tảng như TikTok, với khả năng AI có thể thao túng tâm trí người dùng một cách tinh vi hơn trong cuộc sống hàng ngày.
https://www.foxnews.com/world/mastering-art-brainwashing-china-intensifies-ai-censorship
• Công nghệ deepfake đang tạo ra làn sóng nội dung độc hại trên mạng, khiến việc phân biệt thật-giả trở nên khó khăn hơn bao giờ hết.
• Franziska Benning từ tổ chức phi lợi nhuận HateAid cảnh báo mối đe dọa cực kỳ lớn của deepfake đối với xã hội dân chủ.
• Tại Đức, các nhà lập pháp đang thảo luận về dự thảo luật mới nhằm tăng cường hình phạt và bổ sung điều khoản về "vi phạm quyền cá nhân thông qua giả mạo kỹ thuật số".
• Georg Eisenreich, Bộ trưởng Tư pháp bang Bavaria, cho rằng việc bổ sung tội danh mới vào Bộ luật Hình sự sẽ tạo ra "sự rõ ràng hơn" trong tình hình pháp lý hiện tại.
• Tuy nhiên, các nhà hoạt động dân quyền cảnh báo rằng quy định quá hạn chế có thể cản trở việc sử dụng hợp pháp công nghệ này.
• Benjamin Lück từ Hiệp hội vì Quyền Công dân lo ngại việc hình sự hóa quá mức có thể ảnh hưởng đến việc sử dụng deepfake cho mục đích châm biếm hoặc nghệ thuật.
• Công nghệ deepfake đã phát triển nhanh chóng kể từ giữa những năm 2010, cho phép bất kỳ ai có kỹ năng kỹ thuật cơ bản đều có thể tạo ra nội dung giả mạo.
• Phần lớn các trường hợp lạm dụng liên quan đến deepfake khiêu dâm không được sự đồng ý, chủ yếu nhắm vào phụ nữ.
• HateAid ủng hộ việc hình sự hóa cả việc sản xuất deepfake khiêu dâm không được sự đồng ý, ngay cả khi chúng không được chia sẻ.
• Các nhà hoạt động dân quyền cảnh báo rằng luật chặt chẽ hơn sẽ không giải quyết được mối đe dọa từ các chiến dịch thông tin sai lệch do nhà nước tổ chức.
• Thay vào đó, cần nâng cao nhận thức trong toàn xã hội rằng bất cứ điều gì nhìn thấy hoặc nghe thấy trên mạng đều có thể là giả mạo.
• Việc sử dụng deepfake trong châm biếm hoặc nghệ thuật có thể đóng vai trò quan trọng trong việc thúc đẩy "kiến thức truyền thông" này.
📌 Đức đang cân nhắc luật mới về deepfake nhằm bảo vệ quyền cá nhân và ngăn chặn lạm dụng. Tuy nhiên, các nhà hoạt động cảnh báo cần cân bằng giữa kiểm soát và tự do biểu đạt. Thay vì chỉ dựa vào luật pháp, việc nâng cao nhận thức xã hội về rủi ro của deepfake được xem là quan trọng hơn.
https://www.dw.com/en/fighting-deepfakes-can-laws-be-good-weapons/a-69753383
• Sam Altman, CEO của OpenAI, đã kêu gọi khu vực tư nhân và công cộng thực hiện các bước để đảm bảo mô hình "AI dân chủ" sẽ chiến thắng mô hình "AI độc tài".
• Trong một bài viết trên Washington Post, Altman cho rằng kiểm soát trí tuệ nhân tạo là "câu hỏi cấp bách của thời đại chúng ta" và thế giới phải đối mặt với một lựa chọn chiến lược.
• Altman cảnh báo rằng không có lựa chọn thứ ba - hoặc là Mỹ và các đồng minh thúc đẩy AI toàn cầu mang lại lợi ích và mở rộng quyền truy cập, hoặc là các chế độ độc tài sử dụng AI để củng cố và mở rộng quyền lực của họ.
• Ông lưu ý rằng Tổng thống Nga Putin đã nói người chiến thắng trong cuộc đua AI sẽ "trở thành người cai trị thế giới" và Trung Quốc có kế hoạch dẫn đầu thế giới về AI vào năm 2030.
• Altman cảnh báo các chế độ độc tài không chỉ sử dụng AI để duy trì quyền lực mà còn có thể sử dụng công nghệ này để đe dọa các quốc gia khác.
• Ông đề xuất 4 bước quan trọng để ngăn chặn điều này:
1. Phát triển các biện pháp an ninh mạnh mẽ
2. Xây dựng cơ sở hạ tầng AI lớn hơn đáng kể
3. Tạo ra chính sách "ngoại giao thương mại" về kiểm soát xuất khẩu AI
4. Thiết lập các mô hình toàn cầu để đặt ra tiêu chuẩn phát triển và triển khai AI
• Altman nhấn mạnh rằng AI dân chủ đang dẫn đầu vì hệ thống chính trị của Mỹ đã trao quyền cho các công ty, doanh nhân và học giả nghiên cứu, đổi mới và xây dựng.
• Bài viết của Altman xuất hiện vài tuần sau khi OpenAI bổ nhiệm cựu tướng quân đội Mỹ Paul Nakasone vào ủy ban an toàn và an ninh mới của hội đồng quản trị.
• Quyết định này đã vấp phải chỉ trích gay gắt từ Edward Snowden, người cảnh báo "Đừng bao giờ tin tưởng OpenAI hoặc các sản phẩm của họ".
• Trong khi đó, Elon Musk cho rằng OpenAI đã từ bỏ mục đích ban đầu là phát triển AI có lợi cho toàn nhân loại để theo đuổi thành công thương mại.
• Gần đây, OpenAI cũng vướng vào tranh cãi khi phát hành GPT-4 với tùy chọn giọng nói giống diễn viên Scarlett Johansson, mặc dù cô đã từ chối cho phép sử dụng giọng nói của mình.
📌 Sam Altman kêu gọi hành động khẩn cấp để đảm bảo AI dân chủ chiến thắng AI độc tài. Ông đề xuất 4 bước quan trọng, nhấn mạnh vai trò lãnh đạo của Mỹ trong cuộc đua AI toàn cầu. Tuy nhiên, OpenAI cũng đối mặt với nhiều chỉ trích về định hướng thương mại và các vấn đề đạo đức.
https://fortune.com/2024/07/27/sam-altman-openai-democratic-authoritarian-ai-china-russia-us-coalition/
• Apple Inc. đã cam kết tuân thủ các biện pháp bảo vệ AI tự nguyện do chính quyền Tổng thống Joe Biden đề ra.
• Ngoài Apple, các công ty công nghệ lớn khác như OpenAI Inc., Amazon.com Inc., Alphabet Inc., Meta Platforms Inc. và Microsoft Corp. cũng đã cam kết tương tự.
• Các công ty này sẽ kiểm tra hệ thống AI của họ để phát hiện các xu hướng phân biệt đối xử tiềm ẩn, lỗ hổng bảo mật hoặc rủi ro an ninh quốc gia.
• Cam kết của Apple diễn ra trong bối cảnh công ty đang chuẩn bị tích hợp ứng dụng chatbot ChatGPT của OpenAI vào trợ lý điều khiển bằng giọng nói trên iPhone.
• Quyết định này đã gây ra tranh cãi với CEO Tesla Elon Musk, người đã bày tỏ lo ngại về bảo mật và đe dọa cấm các thiết bị Apple trong các công ty của ông nếu phần mềm AI được tích hợp ở cấp độ hệ điều hành.
• Các tính năng AI của Apple, bao gồm cả tích hợp ChatGPT, dự kiến sẽ được triển khai dần dần, với một số tính năng có thể phải đến năm 2025 mới ra mắt.
• Apple có kế hoạch tích hợp chip A18 vào các mẫu iPhone và iPad cấp thấp sắp tới để cho phép chúng chạy Apple Intelligence - bộ tính năng AI của công ty.
• Động thái này cho thấy Apple đang tích cực tham gia vào cuộc đua AI, cạnh tranh với các đối thủ lớn trong ngành công nghệ.
• Việc cam kết tuân thủ quy định AI tự nguyện thể hiện nỗ lực của các công ty công nghệ lớn trong việc đảm bảo phát triển AI có trách nhiệm và an toàn.
• Tuy nhiên, vẫn còn những lo ngại về tác động tiềm tàng của AI đối với quyền riêng tư và an ninh, như được thể hiện qua phản ứng của Elon Musk.
📌 Apple và các gã khổng lồ công nghệ cam kết tuân thủ quy định AI tự nguyện của chính quyền Biden, kiểm tra hệ thống AI để phát hiện rủi ro. Apple chuẩn bị tích hợp ChatGPT vào iPhone, dự kiến ra mắt dần đến 2025, bất chấp lo ngại từ Elon Musk về bảo mật.
https://www.benzinga.com/news/24/07/39984404/apple-joins-meta-and-google-pledges-support-for-bidens-ai-regulations
• Bốn cơ quan quản lý từ EU, Anh và Mỹ đã đưa ra tuyên bố chung về việc nghiên cứu mức độ cạnh tranh trong ngành công nghiệp AI. Các cơ quan này bao gồm Ủy ban châu Âu, Cơ quan Cạnh tranh và Thị trường Anh, Bộ Tư pháp Mỹ và Ủy ban Thương mại Liên bang Mỹ.
• Tuyên bố không đề xuất bất kỳ quy định chung nào hay việc thành lập một cơ quan quản lý mới. Các tổ chức khẳng định quyết định của họ vẫn sẽ "độc lập và có chủ quyền".
• Mục đích của tuyên bố là ngăn chặn các rủi ro đối với cạnh tranh như củng cố các công ty AI hiện có, tăng rào cản gia nhập thị trường hoặc thiếu sự lựa chọn cho người mua.
• Tuyên bố cũng đề cập đến các rủi ro tiềm ẩn như AI có thể được phát triển hoặc sử dụng theo cách gây hại cho người tiêu dùng, doanh nhân hoặc các bên tham gia thị trường khác.
• Các thách thức trong ngành AI bao gồm việc tiếp cận hạn chế với chip và sự hợp tác chặt chẽ giữa các công ty lớn. Cơ quan Cạnh tranh và Thị trường Anh có thời hạn đến tháng 9 để quyết định có điều tra việc chuyển giao nhân tài chủ chốt từ Inflection AI sang Microsoft hay không.
• Tuyên bố đề xuất các nguyên tắc để giải quyết những thách thức này, bao gồm: giao dịch công bằng, khả năng tương tác và lựa chọn.
• Sarah Cardell, Giám đốc điều hành Cơ quan Cạnh tranh và Thị trường Anh, nhấn mạnh tầm quan trọng của việc đảm bảo cạnh tranh công bằng, mở và hiệu quả trong lĩnh vực AI để thúc đẩy tăng trưởng và mang lại lợi ích cho xã hội.
• Tuyên bố chung là một phần trong nỗ lực liên tục của chính phủ để quản lý ngành công nghiệp AI đang bùng nổ. Meta đã tạm dừng phát hành các sản phẩm AI đa phương thức tại EU do thiếu rõ ràng về quy tắc bảo mật GDPR.
• Ủy ban châu Âu đang điều tra một số công ty công nghệ lớn nhất thế giới về việc "kiểm soát" phần mềm theo Đạo luật Thị trường Kỹ thuật số.
• Đạo luật AI của Liên minh châu Âu sẽ có hiệu lực từ ngày 1/8, cung cấp công cụ cho các startup và yêu cầu các công ty phân loại mức độ rủi ro của hệ thống AI cũng như công bố nội dung do AI tạo ra.
• Các doanh nghiệp có khả năng bị ảnh hưởng nhiều nhất là những doanh nghiệp trong EU sử dụng sản phẩm AI hoặc các nhà sản xuất AI lớn.
📌 Tuyên bố chung của Mỹ, Anh và EU nhằm thúc đẩy cạnh tranh trong lĩnh vực AI, đề ra các nguyên tắc như giao dịch công bằng và khả năng tương tác. Đạo luật AI của EU sẽ có hiệu lực từ 1/8, yêu cầu phân loại rủi ro hệ thống AI và công bố nội dung AI. Các doanh nghiệp EU sử dụng AI và nhà sản xuất AI lớn sẽ chịu tác động nhiều nhất.
https://www.techrepublic.com/article/ai-competition-joint-statement/
- Trung Quốc đang buộc các công ty trải qua các bài kiểm tra chính trị chuyên sâu khi phát triển chatbot, đảm bảo phù hợp với các giá trị cốt lõi của Đảng Cộng sản.
- Quá trình này gây khó khăn cho các công ty công nghệ và hạn chế tự do thử nghiệm, cản trở đổi mới.
- Trung Quốc đang gặp bất lợi do các nỗ lực của Mỹ nhằm hạn chế tiếp cận chip tiên tiến và thiết bị sản xuất chip.
- Lượng dữ liệu tiếng Anh trực tuyến để huấn luyện AI nhiều hơn hẳn so với tiếng Trung Quốc.
- Các công ty Trung Quốc đang xây dựng lớp riêng để thay thế các phản hồi có vấn đề trong thời gian thực.
- Tuy nhiên, không nên đánh giá thấp tiềm năng công nghệ của Trung Quốc trong dài hạn. Chính phủ cam kết phát triển ngành công nghiệp công nghệ cao.
- Các nhà phát triển Trung Quốc buộc phải tiếp cận LLM theo những cách mới, nghiên cứu của họ có thể cải thiện công cụ AI cho các tác vụ khó.
- Các công ty Mỹ vẫn đang tìm cách kiểm soát đầu ra từ mô hình AI, hạn chế sai lệch và cải thiện phản hồi tổng thể.
- Cả Trung Quốc và Mỹ đều cho thấy sự hiểu lầm sâu sắc về cách tiếp cận AI. Thay vì gán các giá trị con người cho chatbot, chúng ta nên tập trung vào cách chúng có thể hỗ trợ con người.
📌 Mặc dù kiểm duyệt của Trung Quốc đang cản trở sự phát triển AI ngắn hạn, nhưng với cam kết mạnh mẽ của chính phủ và cách tiếp cận mới của các nhà phát triển, không nên đánh giá thấp tiềm năng công nghệ dài hạn của họ. Cả Trung Quốc và Mỹ cần nhận ra rằng thay vì cố gắng nhân cách hóa chatbot, nên tập trung vào việc sử dụng AI để hỗ trợ con người.
https://www.taipeitimes.com/News/editorials/archives/2024/07/27/2003821371
• Thượng viện Mỹ vừa thông qua dự luật lưỡng đảng nhằm bảo vệ nạn nhân của deepfake khiêu dâm và hình ảnh khiêu dâm được tạo bằng AI mà không có sự đồng ý.
• Đạo luật có tên DEFIANCE (Disrupt Explicit Forged Images and Non-Consensual Edits) cho phép người dân kiện những ai sản xuất, phân phối hoặc nhận deepfake khiêu dâm nếu họ biết hoặc cố tình bỏ qua tính chất không đồng thuận của hình ảnh.
• Dự luật được đưa ra sau khi hình ảnh deepfake khiêu dâm của Taylor Swift lan truyền trên mạng X hồi tháng 1, gây chú ý đến vấn đề ngày càng nghiêm trọng này.
• Theo Alexandria Ocasio-Cortez, hơn 90% video deepfake được tạo ra là hình ảnh khiêu dâm không được sự đồng ý, và phụ nữ là mục tiêu trong 9/10 trường hợp.
• Tại Anh, Dự luật Tư pháp Hình sự đã được sửa đổi hồi tháng 4 để biến việc tạo ra deepfake khiêu dâm thành tội hình sự. Tuy nhiên luật chỉ tập trung vào ý định của thủ phạm, không xét đến việc nạn nhân có đồng ý hay không.
📌 Dự luật DEFIANCE mới được thông qua tại Mỹ cho phép nạn nhân kiện những người tạo và phát tán deepfake khiêu dâm không được sự đồng ý. Tại Anh, Dự luật Tư pháp Hình sự đã được sửa đổi hồi tháng 4 để biến việc tạo ra deepfake khiêu dâm thành tội hình sự. Tuy nhiên luật chỉ tập trung vào ý định của thủ phạm, không xét đến việc nạn nhân có đồng ý hay không.
https://www.dazeddigital.com/life-culture/article/63231/1/aoc-s-deepfake-ai-porn-bill-has-passed-us-senate-here-s-what-it-means
- AI chủ quyền là khả năng của một quốc gia xây dựng AI với nhân tài nội địa ở các cấp độ khác nhau, dựa trên chính sách địa phương hoặc chiến lược AI quốc gia.
- AI được định hướng bởi trí tuệ, không phải chính sách. Mỗi quốc gia phải có khả năng thích ứng AI với nhu cầu địa phương để bảo tồn giá trị và giám sát pháp lý.
- Chính phủ cần khởi động và nuôi dưỡng hệ sinh thái AI nội địa để thúc đẩy năng lực cạnh tranh kinh tế và bảo tồn giá trị riêng.
- Năm 2023, nhiều bang của Mỹ như New Jersey, New York, Massachusetts đã khởi động các trung tâm và quỹ đầu tư AI với sự hợp tác của các trường đại học hàng đầu.
- Theo Bảng xếp hạng AI toàn cầu 2023, top 5 quốc gia về AI là Mỹ, Trung Quốc, Singapore, Anh và Canada, dựa trên 7 trụ cột: nhân tài, cơ sở hạ tầng, môi trường hoạt động, nghiên cứu, phát triển, chiến lược chính phủ và thương mại.
- Mỗi khu vực cần xếp hạng 6 thuộc tính hàng đầu thúc đẩy sự sẵn sàng tham gia (WTP) của các bên liên quan trong hệ sinh thái AI địa phương, từ đó triển khai nguồn lực để thúc đẩy các thuộc tính này.
- Vốn không phải rào cản để xây dựng hệ sinh thái AI, mà chính nhân tài AI nội địa tạo ra lợi thế cạnh tranh. Khu vực tư nhân, doanh nghiệp vừa và nhỏ là động lực cho nhân tài và nghiên cứu phát triển AI.
- Các quốc gia chưa có chiến lược AI quốc gia cần khẩn trương xây dựng để không bị tụt hậu. Ả Rập Saudi xếp hạng 1 về chiến lược AI chính phủ năm 2023.
- Chính phủ cần tạo ra lộ trình vào AI bằng cách thiết kế lại ngưỡng gia nhập, đào tạo kỹ năng AI cho nhân viên, định hướng triển khai AI cho các tổ chức công.
📌 AI chủ quyền đòi hỏi mỗi quốc gia phải xây dựng được nhân tài và hệ sinh thái AI nội địa để giải quyết các vấn đề địa phương, bảo tồn giá trị riêng và tăng cường năng lực cạnh tranh kinh tế. Chính phủ cần đóng vai trò then chốt trong việc tạo lập chiến lược, chính sách và lộ trình phát triển AI quốc gia phù hợp.
https://www.weforum.org/agenda/2024/07/sovereign-ai-talent-improve-economic-competitiveness/
• Anthropic, một công ty AI hàng đầu, không ủng hộ dự luật quy định AI SB 1047 của California, nhưng đang đề xuất những thay đổi có thể dẫn đến sự thay đổi quan điểm.
• Dự luật SB 1047 do Thượng nghị sĩ tiểu bang California Scott Wiener đề xuất đã được thông qua tại Thượng viện California vào tháng 5 và có thể được bỏ phiếu tại Hạ viện California vào tháng tới.
• Nhiều công ty khởi nghiệp và công nghệ đã phản đối dự luật này, vì nó sẽ buộc các nhà phát triển AI chịu trách nhiệm pháp lý về cách người khác sử dụng mô hình của họ và đảm bảo các mô hình không thể được sử dụng theo cách nguy hiểm.
• Một phát ngôn viên của Anthropic cho biết dự luật hiện tại có những nhược điểm đáng kể có thể làm tổn hại đến khía cạnh an toàn và có thể làm giảm lợi thế cạnh tranh của Mỹ trong phát triển AI.
• Anthropic đề xuất chuyển trọng tâm của dự luật sang "răn đe dựa trên kết quả" thay vì "thực thi trước khi gây hại", cho phép các công ty AI phát triển và triển khai các giao thức an toàn và chịu trách nhiệm pháp lý cho bất kỳ thảm họa nào họ gây ra.
• Công ty cũng đề xuất điều chỉnh các quy định để tập trung hẹp hơn vào an toàn AI tiên tiến, tránh một số trùng lặp với các yêu cầu liên bang hiện có.
• Anthropic muốn loại bỏ việc tạo ra một cơ quan tiểu bang mới để quản lý các mô hình tiên tiến và thay vào đó giao quyền cho Cơ quan Hoạt động Chính phủ.
• Hank Dempsey, người đứng đầu chính sách tiểu bang và địa phương của Anthropic, bày tỏ lạc quan rằng nếu các đề xuất sửa đổi được thông qua, nó sẽ thúc đẩy một kỷ nguyên đổi mới và thử nghiệm trong các thực hành giảm thiểu rủi ro.
• Dự luật SB 1047 đã gây tranh cãi trong cộng đồng công nghệ, với nhiều công ty lo ngại về tác động tiềm tàng đối với đổi mới AI.
• Lá thư của Anthropic được gửi đến Buffy Wicks, chủ tịch Ủy ban Phân bổ Ngân sách Hạ viện California, đề xuất một loạt các sửa đổi cho dự luật.
📌 Anthropic đề xuất thay đổi lớn cho dự luật AI California SB 1047, tập trung vào an toàn AI tiên tiến và trách nhiệm pháp lý dựa trên kết quả. Công ty muốn loại bỏ cơ quan tiểu bang mới, giao quyền cho Cơ quan Hoạt động Chính phủ và khuyến khích đổi mới trong giảm thiểu rủi ro AI.
https://www.axios.com/2024/07/25/exclusive-anthropic-weighs-in-on-california-ai-bill
• Cơ quan Quản lý Không gian mạng Trung Quốc (CAC) và các cơ quan chức năng địa phương đã trừng phạt một số đơn vị vận hành trang web trong nửa đầu năm 2024 vì cung cấp truy cập trái phép vào các dịch vụ AI tạo sinh như ChatGPT tại Trung Quốc đại lục.
• Hành động này thể hiện quyết tâm thực thi các quy định về AI trong nước được ban hành vào tháng 8/2023, yêu cầu tất cả dịch vụ AI phải được kiểm duyệt và đăng ký với cơ quan chức năng trước khi cung cấp cho công chúng.
• Một số nhà phát triển và doanh nghiệp đã sử dụng mạng riêng ảo (VPN) để vượt qua các quy định này và truy cập các dịch vụ AI tạo sinh chưa đăng ký.
• OpenAI đã bắt đầu chặn truy cập vào API của mình từ ngày 9/7 tại các "quốc gia và vùng lãnh thổ không được hỗ trợ", bao gồm Trung Quốc đại lục, Hong Kong và Macau, cùng với các quốc gia bị Mỹ trừng phạt như Iran, Triều Tiên và Nga.
• Việc sử dụng ChatGPT và các mô hình ngôn ngữ lớn của OpenAI tại Trung Quốc đại lục vẫn bị cấm theo các quy định hiện hành.
• CAC đã công khai tên một số đơn vị vi phạm, bao gồm Nanchuan District Rongcheng Network Technology Studio (vận hành hơn 10 trang web), Yizigpt.com (nền tảng viết AI), Kukupao.com.cn (trang web game) và Lvshifuwuwang (nhà cung cấp dịch vụ pháp lý).
• Các vi phạm bao gồm cung cấp dịch vụ ChatGPT "mà không qua đánh giá an toàn" và không kiểm duyệt nội dung chứa thông tin bất hợp pháp được tạo ra từ các dịch vụ AI tạo sinh không công khai.
• Các đơn vị vi phạm đã bị "xử phạt hành chính", có thể dẫn đến phạt tiền, đóng cửa doanh nghiệp hoặc giam giữ người chịu trách nhiệm.
• Tại các thành phố khác, cảnh sát đã bắt giữ một người đàn ông vì tạo ra thông báo thưởng giả mạo cho nghi phạm bị truy nã bằng AI, và một người khác bị phạt vì đăng thông tin giả mạo được tạo bởi AI lên một trang web địa phương.
• Bắc Kinh giữ thái độ thận trọng đối với AI tạo sinh kể từ khi ChatGPT ra mắt vào tháng 11/2022.
• Quy định về AI tạo sinh có hiệu lực từ năm ngoái yêu cầu các nhà cung cấp dịch vụ "tuân thủ các giá trị xã hội chủ nghĩa cốt lõi" và không tạo ra nội dung "kích động lật đổ quyền lực nhà nước và chế độ xã hội chủ nghĩa, gây nguy hiểm cho an ninh và lợi ích quốc gia".
• Đã có 117 sản phẩm AI tạo sinh được đăng ký với CAC. Vào tháng 1/2024, tổng cộng 14 mô hình ngôn ngữ lớn và ứng dụng doanh nghiệp đã được cơ quan chức năng cho phép sử dụng thương mại.
📌 Trung Quốc kiên quyết kiểm soát AI tạo sinh, trừng phạt 117 đơn vị cung cấp truy cập trái phép vào ChatGPT. OpenAI chặn truy cập từ Trung Quốc, Hong Kong và Macau từ 9/7/2024. Bắc Kinh chỉ cho phép 14 mô hình ngôn ngữ lớn trong nước sử dụng thương mại, nhằm đảm bảo tuân thủ các giá trị xã hội chủ nghĩa.
https://www.scmp.com/tech/policy/article/3271751/china-names-and-shames-agents-offering-unauthorised-access-chatgpt-mainland
• Meta đã cảnh báo rằng cách tiếp cận của EU trong việc quản lý AI đang tạo ra "rủi ro" khiến lục địa này bị cắt đứt khỏi việc tiếp cận các dịch vụ tiên tiến nhất.
• Rob Sherman, Phó Giám đốc Quyền riêng tư của Meta, xác nhận công ty đã nhận được yêu cầu từ cơ quan giám sát quyền riêng tư của EU về việc tự nguyện tạm dừng huấn luyện các mô hình AI trong tương lai trên dữ liệu ở khu vực này.
• Mục đích là để cho phép các cơ quan quản lý địa phương có thời gian "nắm bắt vấn đề về AI tạo sinh".
• Meta đang tuân thủ yêu cầu này, nhưng Sherman cho rằng những động thái như vậy đang dẫn đến "khoảng cách về công nghệ có sẵn ở châu Âu so với" phần còn lại của thế giới.
• Sherman cảnh báo rằng với các phiên bản AI tiên tiến hơn trong tương lai, "khả năng có sẵn ở châu Âu có thể bị ảnh hưởng".
• Ông nói thêm rằng nếu các khu vực pháp lý không thể quản lý theo cách mang lại sự rõ ràng về những gì được mong đợi, sẽ khó khăn hơn cho Meta trong việc cung cấp các công nghệ tiên tiến nhất ở những nơi đó.
• Yêu cầu mới nhất của EU này xuất phát từ sự không chắc chắn về việc liệu việc huấn luyện các mô hình AI trên dữ liệu người tiêu dùng có được phép trong khuôn khổ quy định Bảo vệ dữ liệu chung (GDPR) của EU hay không.
• Sherman cho biết Meta sẽ không thể "phục vụ người tiêu dùng châu Âu đúng cách" nếu không có khả năng huấn luyện trên dữ liệu châu Âu, vì AI sẽ kém hiệu quả hơn và không thể đáp ứng các "khái niệm và bối cảnh văn hóa mà họ cần".
• Meta đã trì hoãn ra mắt trợ lý AI Meta và phiên bản mới của kính thông minh Ray-Ban Meta với trợ lý tích hợp do lo ngại về quy định và bảo vệ dữ liệu ở EU và Vương quốc Anh.
• Trợ lý này hiện có sẵn ở 22 quốc gia, bao gồm Mỹ, Úc và Argentina, và bằng các ngôn ngữ mới như tiếng Pháp, tiếng Tây Ban Nha và tiếng Hindi.
• Apple cũng cho biết sẽ không ra mắt một số tính năng thuộc thương hiệu Apple Intelligence do lo ngại liên quan đến Đạo luật Thị trường Kỹ thuật số của EU.
• Mặc dù tạm dừng huấn luyện các mô hình trong tương lai, Meta vẫn phát hành phiên bản cập nhật của các mô hình AI - Llama 3.1 - sẽ có sẵn ở châu Âu và toàn cầu.
• Phiên bản mới bao gồm mô hình tham số 405 tỷ, được Meta gọi là "mô hình nguồn mở lớn nhất và có khả năng nhất từng được tạo ra trong ngành".
📌 Meta cảnh báo quy định AI của EU có thể khiến châu Âu tụt hậu về công nghệ. Công ty đang tạm dừng huấn luyện AI trên dữ liệu châu Âu theo yêu cầu của cơ quan quản lý. Điều này có thể tạo ra khoảng cách công nghệ giữa châu Âu và phần còn lại của thế giới. Tuy nhiên, Meta vẫn phát hành mô hình Llama 3.1 với 405 tỷ tham số ở châu Âu và toàn cầu.
https://www.ft.com/content/3c9d4172-91c0-417a-b347-00b4a9aee892
#FT
• Một năm trước, vào ngày 21/7/2023, 7 công ty AI hàng đầu (Amazon, Anthropic, Google, Inflection, Meta, Microsoft và OpenAI) đã cam kết với Nhà Trắng 8 điểm về phát triển AI an toàn và đáng tin cậy.
• Các cam kết bao gồm cải thiện kiểm tra và minh bạch hệ thống AI, chia sẻ thông tin về rủi ro tiềm ẩn.
• Sau 1 năm, ngành công nghệ đã có một số tiến bộ đáng kể, nhưng vẫn còn nhiều hạn chế.
• Các công ty đã tăng cường thực hiện các biện pháp kỹ thuật như red-teaming (con người thử nghiệm mô hình AI để tìm lỗi) và thủy vân cho nội dung do AI tạo ra.
• Tuy nhiên, chưa rõ những cam kết này đã thay đổi gì và liệu các công ty có thực hiện các biện pháp này nếu không có cam kết hay không.
• Các chuyên gia cho rằng cần có luật liên bang toàn diện về AI, thay vì chỉ dựa vào cam kết tự nguyện.
• Về kiểm tra an ninh, các công ty đều nói đã thực hiện red-teaming với cả chuyên gia nội bộ và bên ngoài. OpenAI có đội ngũ riêng kiểm tra các mối đe dọa an ninh mạng, hóa học, sinh học, phóng xạ và hạt nhân.
• Về chia sẻ thông tin, các công ty đã thành lập Diễn đàn Mô hình Tiên tiến và tham gia các sáng kiến như Liên minh AI An toàn của NIST.
• Về bảo mật, nhiều công ty đã triển khai các biện pháp mới như mã hóa trọng số mô hình, kiểm soát truy cập chặt chẽ.
• Về phát hiện lỗ hổng, nhiều công ty đã triển khai chương trình thưởng lỗi cho hệ thống AI.
• Về thủy vân, hầu hết công ty đã phát triển công cụ thủy vân cho nội dung do AI tạo ra.
• Về báo cáo công khai, các công ty đã công bố thẻ mô hình (model cards) mô tả khả năng và hạn chế của hệ thống AI.
• Về nghiên cứu rủi ro xã hội, các công ty đã đầu tư nhiều vào lĩnh vực này.
• Về ứng dụng AI giải quyết thách thức xã hội, đã có một số tiến bộ trong y tế, khí hậu, toán học.
📌 Sau 1 năm cam kết, các công ty AI đã có tiến bộ về red-teaming, thủy vân và chia sẻ thông tin. Tuy nhiên, vẫn thiếu minh bạch và trách nhiệm giải trình đáng kể. Cần luật liên bang toàn diện thay vì chỉ dựa vào cam kết tự nguyện.
companies-promised-the-white-house-to-self-regulate-one-year-ago-whats-changed/
#MIT
• Ủy ban Thương mại Liên bang Mỹ (FTC) vừa thông báo yêu cầu 8 công ty cung cấp dịch vụ "định giá giám sát" dựa trên AI phải cung cấp thông tin về tác động tiềm ẩn của các sản phẩm này đối với quyền riêng tư, cạnh tranh và bảo vệ người tiêu dùng.
• Cuộc điều tra nhằm tìm hiểu thêm về cách trí tuệ nhân tạo và các công nghệ khác được sử dụng để thay đổi giá cả dựa trên hành vi, vị trí và dữ liệu cá nhân khác của người tiêu dùng. FTC cho biết thông lệ này cho phép các công ty tính giá khác nhau cho các khách hàng khác nhau.
• 8 công ty bị điều tra bao gồm: Mastercard, Revionics, Bloomreach, JPMorgan Chase, Task Software, PROS, Accenture và McKinsey & Co. FTC cho biết tất cả các công ty này đều cung cấp dịch vụ sử dụng AI để nhắm mục tiêu giá cho các khách hàng khác nhau.
• Cơ quan này đang tìm kiếm thông tin về các loại dịch vụ định giá giám sát mà mỗi công ty đã phát triển và có thể cấp phép cho bên thứ ba, cùng với các ứng dụng hiện tại của các dịch vụ này. FTC cũng đang tìm kiếm thông tin về cách các dịch vụ này ảnh hưởng đến giá cả tiêu dùng.
• Chủ tịch FTC Lina M. Khan cho biết: "Các công ty thu thập dữ liệu cá nhân của người Mỹ có thể đặt quyền riêng tư của mọi người vào rủi ro. Giờ đây, các công ty có thể đang khai thác kho dữ liệu cá nhân khổng lồ này để tính giá cao hơn cho mọi người."
• Khan nhấn mạnh người Mỹ xứng đáng được biết liệu các doanh nghiệp có đang sử dụng dữ liệu chi tiết về người tiêu dùng để triển khai định giá giám sát hay không, và cuộc điều tra của FTC sẽ làm sáng tỏ hệ sinh thái mờ ám của các trung gian định giá này.
• Mặc dù các nhà quảng cáo từ lâu đã sử dụng vị trí và lịch sử mua hàng để xác định loại quảng cáo mà người dùng nhìn thấy trực tuyến, cơ quan này lo ngại rằng những thông lệ này hiện có thể được sử dụng để thực hiện định giá giám sát.
📌 FTC điều tra 8 công ty lớn sử dụng AI để định giá dựa trên hành vi người tiêu dùng, bao gồm Mastercard và JPMorgan Chase. Cơ quan này lo ngại về tác động đến quyền riêng tư và bảo vệ người tiêu dùng, đặc biệt là việc sử dụng dữ liệu cá nhân để tính giá cao hơn.
https://techcrunch.com/2024/07/23/ftc-is-investigating-how-companies-are-using-ai-to-base-pricing-on-consumer-behavior/
- Báo cáo đánh giá cơ hội và thách thức khi triển khai AI tạo sinh trong doanh nghiệp. Cơ hội bao gồm cắt giảm chi phí, tự động hóa quy trình và tạo ra doanh thu mới thông qua các dịch vụ mới/tăng cường. Dự kiến AI tạo sinh sẽ mang lại giá trị hơn 400 tỷ USD cho các ngành dọc vào năm 2030.
- Tuy nhiên, việc triển khai AI tạo sinh trong doanh nghiệp gặp nhiều rào cản như thiếu nhân tài, chi phí cao, quản lý phức tạp, cấu trúc tổ chức chưa phù hợp, vấn đề sở hữu trí tuệ và dữ liệu, tiêu thụ năng lượng lớn.
- Các thách thức về công nghệ bao gồm tính minh bạch và khả năng giải thích của mô hình, độ tin cậy, tính sẵn có của dữ liệu huấn luyện, độ chính xác của mô hình.
- Các mô hình ngôn ngữ lớn (LLM) chưa sẵn sàng để triển khai ngay trong ứng dụng doanh nghiệp do các vấn đề về ảo giác, độ chính xác, hiệu suất, ngữ cảnh hóa và sử dụng tài nguyên tính toán.
- Các chiến lược triển khai AI tạo sinh trong doanh nghiệp bao gồm sử dụng dịch vụ API, dịch vụ quản lý của bên thứ ba, phát triển ứng dụng nội bộ, sử dụng nền tảng hoặc framework suy luận của bên thứ ba.
- Các mô hình ngôn ngữ nhỏ (SLM) đang nổi lên như một giải pháp thay thế phù hợp hơn cho các ứng dụng doanh nghiệp với chi phí thấp hơn, tính minh bạch cao hơn và khả năng triển khai linh hoạt hơn.
- Thị trường cung ứng AI rất rộng lớn và đang phát triển nhanh chóng với sự tham gia của nhiều bên như nhà sản xuất chip AI, nhà phát triển mô hình nền tảng, nhà cung cấp giải pháp MLOps, nhà phát triển ứng dụng, dịch vụ doanh nghiệp, dịch vụ đám mây.
- Các quy định về AI tạo sinh đang được phát triển ở các khu vực khác nhau trên thế giới với các cách tiếp cận khác nhau, từ tối thiểu đến hạn chế. Việc xây dựng một khuôn khổ quy định hiệu quả, cân bằng giữa đổi mới và rủi ro là một thách thức lớn.
📌 Mặc dù có nhiều cơ hội, việc triển khai AI tạo sinh trong doanh nghiệp vẫn đang ở giai đoạn đầu với giá trị tạo ra còn hạn chế, ước tính khoảng 36,7 tỷ USD vào năm 2024. Để đẩy nhanh quá trình này, cần có sự hợp tác giữa các bên liên quan nhằm giảm thiểu rủi ro, xây dựng khung quy định phù hợp và thúc đẩy đổi mới công nghệ.
Phân tích về các quy định AI tạo sinh đang được phát triển ở các khu vực trên thế giới như sau:
- Các quy định về AI tạo sinh đang được phát triển ở các khu vực khác nhau trên thế giới với các cách tiếp cận khác nhau, từ tối thiểu đến hạn chế. Việc xây dựng một khuôn khổ quy định hiệu quả, cân bằng giữa đổi mới và rủi ro là một thách thức lớn.
- Mỹ chủ trương tự quản lý, ít can thiệp trực tiếp vào quy định AI tạo sinh. Tuy nhiên, chính phủ Mỹ cũng đang quan tâm đến một số biện pháp kiểm soát như kiểm tra an toàn, tiêu chuẩn đáng tin cậy, giảm thiểu rủi ro, đổi mới công nghệ và giảm thiểu thiên vị kỹ thuật. Mỹ cũng đang hợp tác với Anh để phát triển các phương pháp đánh giá tính an toàn của các công cụ và hệ thống AI.
- EU xây dựng Đạo luật AI với khuôn khổ quy định dựa trên mức độ rủi ro, nhằm cung cấp cho nhà phát triển/triển khai các yêu cầu và nghĩa vụ rõ ràng liên quan đến việc sử dụng AI. Khuôn khổ này chia quy định thành rủi ro tối thiểu, hạn chế, cao và không thể chấp nhận được. Tuy nhiên, Đạo luật AI của EU đã bị chỉ trích rộng rãi vì được coi là "chống đổi mới".
- Trung Quốc duy trì sự kiểm soát của chính phủ, áp dụng các hướng dẫn bao gồm đánh giá an ninh, đăng ký, gắn nhãn nội dung được tạo ra, tiết lộ dữ liệu, minh bạch mô hình. Bất kỳ mô hình nào cũng phải được phê duyệt tập trung trước khi phát hành công khai. Điều này vừa hạn chế R&D mở, vừa cung cấp tài trợ để thúc đẩy đổi mới tiên tiến cho các công ty cụ thể.
- Anh đang xây dựng một khuôn khổ quy định dựa trên từng lĩnh vực cụ thể với sự quản lý trực tiếp hạn chế. Phụ thuộc vào tự quản lý của từng lĩnh vực để tạo ra một môi trường thúc đẩy đổi mới.
- Nhật Bản không áp đặt quy định trực tiếp, chỉ có các quy tắc mềm hạn chế nhằm tối đa hóa lợi ích xã hội và kinh tế từ AI.
📌Mỗi khu vực có cách tiếp cận riêng trong việc quản lý AI tạo sinh, từ nới lỏng đến kiểm soát chặt chẽ. Việc tìm ra một khuôn khổ quy định phù hợp, vừa khuyến khích đổi mới vừa hạn chế rủi ro là một thách thức lớn đối với các nhà hoạch định chính sách. Sự hợp tác quốc tế trong xây dựng các tiêu chuẩn và quy định chung là rất cần thiết để thúc đẩy sự phát triển lành mạnh và bền vững của công nghệ AI tạo sinh.
https://go.abiresearch.com/lp-assessing-enterprise-generative-ai-opportunities-and-challenges
- Ngày 17/01/2024, Bộ Công nghiệp và Công nghệ thông tin Trung Quốc (MIIT) công bố bản dự thảo "Hướng dẫn xây dựng hệ thống tiêu chuẩn hóa toàn diện cho ngành công nghiệp trí tuệ nhân tạo quốc gia" và lấy ý kiến đóng góp từ công chúng đến hết ngày 31/01/2024.
- Mục tiêu đến năm 2026 là xây dựng ít nhất 50 tiêu chuẩn quốc gia và ngành mới, hơn 1.000 doanh nghiệp tham gia tuyên truyền và thúc đẩy thực hiện tiêu chuẩn, tham gia xây dựng ít nhất 20 tiêu chuẩn quốc tế.
- Kiến trúc hệ thống tiêu chuẩn AI gồm 6 phần: tiêu chuẩn mục đích chung cơ bản, hỗ trợ cơ bản, công nghệ then chốt, sản phẩm và dịch vụ thông minh, ứng dụng ngành và tiêu chuẩn an ninh quản trị.
- Các định hướng trọng tâm bao gồm:
+ Tiêu chuẩn mục đích chung cơ bản: quy định về thuật ngữ AI, kiến trúc tham chiếu, thử nghiệm đánh giá, quản lý và tính bền vững.
+ Tiêu chuẩn hỗ trợ cơ bản: quy định các yêu cầu kỹ thuật về dịch vụ dữ liệu cơ bản, chip thông minh, cảm biến thông minh, thiết bị tính toán, trung tâm tính toán, phần mềm hệ thống, framework phát triển, phối hợp phần cứng phần mềm.
+ Tiêu chuẩn kỹ thuật chủ chốt: quy định các yêu cầu kỹ thuật và đánh giá cho học máy, đồ thị tri thức, mô hình lớn, xử lý ngôn ngữ tự nhiên, giọng nói thông minh, thị giác máy tính, nhận dạng đặc trưng sinh trắc học, trí tuệ tăng cường lai người-máy, tác tử thông minh, trí tuệ tập thể, trí tuệ đa phương tiện, trí tuệ thể hiện.
+ Tiêu chuẩn sản phẩm và dịch vụ thông minh: quy định các yêu cầu kỹ thuật cho robot thông minh, phương tiện thông minh, thiết bị di động thông minh, con người số, dịch vụ thông minh.
+ Tiêu chuẩn ứng dụng ngành: quy định các yêu cầu kỹ thuật thông minh cho các lĩnh vực ứng dụng chính của ngành AI như sản xuất thông minh, nhà thông minh, thành phố thông minh, tính toán thông minh khoa học. Xem xét yêu cầu ứng dụng công nghệ AI trong nông nghiệp, công nghiệp, dịch vụ, cần đẩy nhanh nghiên cứu tiêu chuẩn trong các lĩnh vực nông nghiệp thông minh, năng lượng thông minh, bảo vệ môi trường thông minh, tài chính thông minh, logistics thông minh, giáo dục thông minh, y tế thông minh, giao thông thông minh, văn hóa du lịch thông minh.
+ Tiêu chuẩn an ninh và quản trị: quy định các yêu cầu an ninh trong toàn bộ vòng đời của công nghệ, sản phẩm, hệ thống, ứng dụng và dịch vụ AI. Xem xét nhu cầu thực tế của quản trị AI, quy định các yêu cầu về nghiên cứu phát triển kỹ thuật và dịch vụ vận hành AI, bao gồm yêu cầu kỹ thuật và phương pháp đánh giá tính mạnh mẽ, đáng tin cậy, có thể truy xuất nguồn gốc của AI, công nghệ hỗ trợ quản trị AI và yêu cầu quản trị đạo đức cho toàn bộ vòng đời AI.
- Các biện pháp bảo đảm gồm:
+ Hoàn thiện xây dựng tổ chức: Tận dụng tốt hơn Tổ công tác chung về Tiêu chuẩn hóa Trí tuệ nhân tạo Quốc gia để hướng dẫn các doanh nghiệp và tổ chức nghiên cứu cùng xây dựng hệ thống tiêu chuẩn AI.
+ Xây dựng đội ngũ nhân tài: Khuyến khích các tổ chức nghiên cứu tiêu chuẩn đào tạo, tuyển dụng nhân tài tiêu chuẩn hóa và đào tạo đặc biệt cho những người làm công tác tiêu chuẩn hóa. Khuyến khích doanh nghiệp, trường đại học, viện nghiên cứu đưa nhân tài tiêu chuẩn hóa vào phạm vi đánh giá năng lực chuyên môn và khuyến khích, xây dựng các tầng lớp nhân tài tiêu chuẩn hóa.
+ Tăng cường tuyên truyền quảng bá: Hướng dẫn các hiệp hội ngành, tổ chức kỹ thuật tiêu chuẩn hóa và các cơ sở đổi mới tiêu chuẩn kỹ thuật quốc gia tiến hành tuyên truyền, đào tạo về hệ thống tiêu chuẩn AI và các tiêu chuẩn chủ chốt cho các doanh nghiệp. Hướng dẫn doanh nghiệp tuân thủ các tiêu chuẩn liên quan trong các khâu nghiên cứu phát triển, thiết kế, sản xuất, quản lý, kiểm tra chất lượng và thử nghiệm, liên tục nâng cao hiệu quả của tiêu chuẩn trong việc thúc đẩy phát triển chất lượng cao của ngành.
📌 Bản dự thảo hướng dẫn xây dựng hệ thống tiêu chuẩn hóa toàn diện cho ngành công nghiệp trí tuệ nhân tạo quốc gia của Trung Quốc do Bộ Công nghiệp và Công nghệ thông tin công bố ngày 17/01/2024. Tài liệu đặt mục tiêu đến năm 2026 sẽ có ít nhất 50 tiêu chuẩn quốc gia và ngành mới, hơn 1.000 doanh nghiệp tham gia thực hiện, tham gia soạn thảo 20 tiêu chuẩn quốc tế. Kiến trúc hệ thống tiêu chuẩn AI gồm 6 phần, đưa ra 6 định hướng trọng tâm chi tiết cho từng phần và các biện pháp bảo đảm như hoàn thiện tổ chức, xây dựng nhân tài, tăng cường tuyên truyền để thúc đẩy phát triển chất lượng cao của ngành AI Trung Quốc.
https://cset.georgetown.edu/publication/china-ai-standards-system-guidelines-draft/
• Nhật Bản đang trở thành điểm đến hấp dẫn của các công ty AI toàn cầu nhờ luật bản quyền cho phép sử dụng rộng rãi tài liệu có bản quyền để huấn luyện mô hình AI mà không cần xin phép.
• Nhiều lãnh đạo công nghệ như Mark Zuckerberg (Meta) và Sam Altman (OpenAI) đã đến Tokyo gặp Thủ tướng Kishida. OpenAI sau đó chọn Tokyo làm văn phòng đầu tiên ở châu Á.
• Tuy nhiên, cách tiếp cận cởi mở của Nhật Bản với AI đang gây tranh cãi khi các nước khác như Mỹ, EU và Trung Quốc đang phát triển quy định chặt chẽ hơn về cách các công ty công nghệ huấn luyện mô hình AI.
• Hàng chục nghìn họa sĩ minh họa, nghệ sĩ và nhạc sĩ đã lên tiếng phản đối việc thiếu bảo vệ cho chủ sở hữu bản quyền. Họ lo ngại văn hóa sáng tạo sẽ bị mất đi.
• Cơ quan Văn hóa đã ban hành hướng dẫn mới vào tháng 3 nêu rõ các trường hợp công ty AI có thể bị coi là vi phạm bản quyền, nhưng chưa đề xuất sửa đổi luật.
• Hiệp hội Quyền tác giả, Nhạc sĩ và Nhà xuất bản Nhật Bản cho rằng Luật Bản quyền hiện hành không bảo vệ người sáng tạo mà tập trung hạn chế quyền của họ.
• Ngoài quy định bản quyền, Nhật Bản còn hấp dẫn các công ty AI vì cơ hội trong doanh nghiệp tư nhân và cơ quan công, sự hỗ trợ từ chính phủ và khả năng nổi bật so với thị trường Mỹ đông đúc.
• Chính phủ Kishida đang sử dụng trợ cấp như cung cấp năng lực tính toán do chính phủ tài trợ để thu hút các startup công nghệ.
• Tuy nhiên, việc thu hút các công ty AI vào Nhật Bản đã gây lo ngại. Một số người hy vọng Nhật Bản sẽ có hệ thống pháp lý để bảo vệ ngành công nghiệp sáng tạo và chủ sở hữu bản quyền.
• Họ cho rằng có thể bảo vệ tốt hơn thông qua việc diễn giải chặt chẽ hơn một số điều khoản, như quy định việc khai thác tác phẩm để phát triển AI là không được phép nếu "gây tổn hại bất hợp lý đến lợi ích của chủ sở hữu bản quyền".
📌 Nhật Bản đang đối mặt với thách thức cân bằng giữa thu hút đầu tư AI và bảo vệ ngành công nghiệp sáng tạo. Luật bản quyền lỏng lẻo thu hút các công ty như OpenAI, nhưng gây lo ngại cho hơn 10.000 nghệ sĩ. Chính phủ cần cân nhắc sửa đổi luật để bảo vệ tác giả trong kỷ nguyên AI.
https://www.ft.com/content/f9e7f628-4048-457e-b064-68e0eeea1e39
#FT
• Sau khi Tổng thống Biden rút lui khỏi cuộc đua, Phó Tổng thống Kamala Harris có thể trở thành ứng cử viên mới của đảng Dân chủ trong cuộc bầu cử tổng thống Mỹ sắp tới.
• Harris có mối quan hệ lâu dài với ngành công nghệ, sinh ra ở Oakland và từng là Tổng chưởng lý California trước khi trở thành Thượng nghị sĩ năm 2016.
• Nhiều nhà đầu tư mạo hiểm như John Doerr và Ron Conway đã ủng hộ Harris từ sớm. Đồng sáng lập LinkedIn Reid Hoffman cũng nhanh chóng ủng hộ bà khi tranh cử tổng thống.
• Tuy nhiên, một số người chỉ trích cho rằng Harris đã không làm đủ để kiềm chế quyền lực của các gã khổng lồ công nghệ khi còn là Tổng chưởng lý.
• Trong chiến dịch tranh cử tổng thống 2020, Harris không ủng hộ việc chia tách các công ty công nghệ lớn như Amazon, Google và Facebook, mà thay vào đó kêu gọi quy định về quyền riêng tư.
• Là Thượng nghị sĩ, Harris đã gây áp lực lên các mạng xã hội lớn về vấn đề thông tin sai lệch. Bà cũng tuyên bố các công ty công nghệ cần được quản lý để đảm bảo quyền riêng tư của người tiêu dùng.
• Với tư cách Phó Tổng thống, Harris ủng hộ việc quản lý AI, nói rằng chính quyền Biden "bác bỏ lựa chọn sai lầm cho rằng chúng ta chỉ có thể bảo vệ công chúng hoặc thúc đẩy đổi mới".
• Harris cho rằng các cam kết tự nguyện của các công ty công nghệ về AI chỉ là bước đầu, và cần có thêm quy định và giám sát chặt chẽ từ chính phủ.
• Về vấn đề TikTok, Harris nói rằng chính quyền lo ngại về chủ sở hữu của ứng dụng này vì lý do an ninh quốc gia, nhưng không có ý định cấm TikTok.
• Harris ít phát biểu về các vấn đề liên quan đến tiền điện tử, nhưng có thể sẽ ủng hộ các quy định về tiền điện tử của chính quyền Biden.
📌 Kamala Harris, ứng cử viên tiềm năng của đảng Dân chủ, có quan điểm cân bằng về công nghệ: ủng hộ đổi mới nhưng cũng kêu gọi tăng cường quản lý, đặc biệt trong lĩnh vực AI, quyền riêng tư và an ninh mạng. Lập trường của bà có thể ảnh hưởng lớn đến chính sách công nghệ của Mỹ trong tương lai.
https://techcrunch.com/2024/07/21/what-kamala-harris-has-said-about-ai-tech-regulation-and-more/
• Joe Biden đã quyết định không tái tranh cử sau một cuộc tranh luận thất bại, để lại một di sản công nghệ đáng chú ý.
• Đạo luật CHIPS là một trong những sáng kiến công nghệ lớn nhất của Biden, nhằm đưa sản xuất chất bán dẫn trở lại Mỹ. Đạo luật này đã thu hút 272 tỷ USD đầu tư và tạo ra 36.300 việc làm.
• Theo một cuộc thăm dò của Morning Consult/Politico, hai phần ba công chúng Mỹ ủng hộ Đạo luật CHIPS.
• Đạo luật CHIPS giúp Mỹ duy trì vị thế dẫn đầu trong cuộc đua công nghệ toàn cầu với Trung Quốc và bảo vệ việc làm khỏi bị mất sang nước này.
• Biden đã áp đặt thuế bảo hộ đối với xe nhập khẩu từ Trung Quốc để bảo vệ ngành công nghiệp nội địa.
• Chương trình Kết nối Giá cả phải chăng đã giúp giảm bớt bất bình đẳng trong tiếp cận internet ở Mỹ.
• Về chống độc quyền, Biden đã cố gắng kiềm chế các công ty như Meta, Google và Apple. Việc bổ nhiệm Lina Khan làm chủ tịch Ủy ban Thương mại Liên bang (FTC) năm 2021 được coi là một quyết định sáng suốt.
• Biden đã ban hành các sắc lệnh hành pháp về AI, yêu cầu phát triển AI "an toàn, bảo mật và đáng tin cậy".
• Chính quyền Biden đã thuyết phục Microsoft và các công ty khác ký vào bộ quy tắc tự nguyện nhằm bảo vệ người lao động khỏi sự tiến bộ của AI.
• Một số người cho rằng cách tiếp cận của Biden trong việc quản lý AI bị chi phối bởi tiếng nói của ngành công nghiệp, dẫn đến các quy tắc có lợi cho họ.
• Nhiều chính sách của Biden gây khó khăn cho các lãnh đạo Thung lũng Silicon và Big Tech hơn so với thái độ ủng hộ doanh nghiệp của Trump.
• Tuy nhiên, một cuộc khảo sát gần đây của The Information cho thấy ngành công nghệ vẫn xem Biden là người được ưa thích hơn.
• Biden phải cân bằng giữa thúc đẩy đổi mới công nghệ của Mỹ và hạn chế tác hại của Big Tech đối với người Mỹ và cạnh tranh rộng hơn.
📌 Joe Biden để lại di sản công nghệ ấn tượng với Đạo luật CHIPS thu hút 272 tỷ USD đầu tư, tạo 36.300 việc làm. Ông đã thúc đẩy chống độc quyền, ban hành sắc lệnh về AI an toàn, và cân bằng giữa đổi mới và kiểm soát Big Tech, bất chấp sự bế tắc của Quốc hội.
https://www.fastcompany.com/91160246/joe-biden-tech-legacy-2024-election
• Trung Quốc đang yêu cầu các mô hình AI tạo sinh phải được Cục Quản lý Không gian mạng Trung Quốc phê duyệt trước khi phát hành công khai.
• Các công ty phải chuẩn bị 20.000-70.000 câu hỏi để kiểm tra xem mô hình có tạo ra câu trả lời an toàn hay không, cũng như 5.000-10.000 câu hỏi mà mô hình sẽ từ chối trả lời.
• Các nhà điều hành AI tạo sinh phải dừng dịch vụ đối với người dùng đặt câu hỏi không phù hợp 3 lần liên tiếp hoặc 5 lần trong một ngày.
• Tại Mỹ, các nhà sản xuất AI hiện có thể phát hành AI tạo sinh theo ý muốn, không có luật liên bang cụ thể nào quy định nội dung AI được phép tạo ra.
• Các nhà sản xuất AI ở Mỹ đã tự điều chỉnh để tạo ra AI lịch sự và văn minh theo nhu cầu thị trường, sử dụng các kỹ thuật như học tăng cường thông qua phản hồi của con người (RLHF).
• Một số người lo ngại việc lọc nội dung AI có thể dẫn đến thiên vị chính trị hoặc nhân khẩu học tiềm ẩn.
• Câu hỏi đặt ra là liệu Mỹ có nên áp dụng cách tiếp cận tương tự như Trung Quốc hay không, với 5 yếu tố chính:
1. Quyền lực của chính phủ trong việc phê duyệt phát hành AI
2. Thiết lập câu hỏi phải trả lời chính xác
3. Thiết lập câu hỏi phải từ chối trả lời
4. Giám sát việc sử dụng và hạn chế truy cập nếu vi phạm
5. Cơ chế thực thi của chính phủ
• Những người ủng hộ cho rằng điều này sẽ bảo vệ công chúng khỏi AI độc hại, trong khi những người phản đối lo ngại về việc hạn chế đổi mới và tự do ngôn luận.
• Câu hỏi quan trọng đặt ra là vai trò phù hợp của chính phủ Mỹ trong việc đánh giá, kiểm tra và xác nhận các ứng dụng AI tạo sinh trước khi phát hành.
📌 Bài viết đặt ra câu hỏi về vai trò của chính phủ Mỹ trong việc kiểm soát AI tạo sinh, so sánh với cách tiếp cận của Trung Quốc. Nó phân tích 5 yếu tố chính của quy định AI và đưa ra những quan điểm trái chiều về lợi ích và rủi ro của sự can thiệp của chính phủ trong lĩnh vực này.
https://www.forbes.com/sites/lanceeliot/2024/07/20/what-if-america-opted-to-validate-or-pre-test-generative-ai-before-public-release-as-china-does/
• Thượng nghị sĩ Scott Wiener của California đã đề xuất dự luật "Đổi mới An toàn và Bảo mật cho Các Mô hình AI Tiên tiến" (SB 1047), yêu cầu các công ty huấn luyện mô hình AI tiên tiến trị giá trên 100 triệu USD phải thực hiện kiểm tra an toàn và có khả năng tắt mô hình trong trường hợp xảy ra sự cố an toàn.
• Dự luật đã gây ra phản ứng dữ dội từ ngành công nghiệp, với các nhà đầu tư mạo hiểm lớn như Andreessen-Horowitz và Y Combinator công khai lên án.
• Wiener cho rằng đây là một dự luật "nhẹ nhàng" so với các đề xuất khác như yêu cầu cấp phép hoặc trách nhiệm pháp lý nghiêm ngặt. Dự luật chỉ yêu cầu kiểm tra an toàn và giảm thiểu rủi ro nếu phát hiện nguy cơ nghiêm trọng.
• Ông lập luận rằng các công ty AI đã phải chịu trách nhiệm pháp lý rộng hơn nhiều theo luật hiện hành so với dự luật này.
• Để đáp ứng lo ngại của cộng đồng mã nguồn mở, dự luật đã được sửa đổi để làm rõ rằng nhà phát triển không chịu trách nhiệm tắt mô hình sau khi phát hành và không chịu trách nhiệm cho các thay đổi đáng kể sau đó.
• Wiener nhấn mạnh mục tiêu của dự luật là thúc đẩy đổi mới có trách nhiệm, không phải ngăn cản sự phát triển của AI.
• Dự luật được ủng hộ rộng rãi bên ngoài Thung lũng Silicon, đã được thông qua tại Thượng viện tiểu bang với tỷ lệ 32-1 và được 77% người dân California ủng hộ theo một cuộc thăm dò.
• Wiener cho rằng ông là tác giả phù hợp cho dự luật này vì có mối quan hệ gần gũi với cộng đồng AI ở San Francisco, mặc dù điều này cũng khiến ông phải đối mặt với nhiều chỉ trích từ ngành công nghiệp địa phương.
• Ông nhấn mạnh tiềm năng to lớn của AI trong các lĩnh vực như y tế và năng lượng sạch, đồng thời khẳng định dự luật nhằm mục đích giảm thiểu rủi ro mà không loại bỏ hoàn toàn chúng.
📌 Dự luật AI mới của California do Thượng nghị sĩ Scott Wiener đề xuất nhằm cân bằng giữa đổi mới và an toàn, yêu cầu kiểm tra an toàn đối với mô hình AI lớn trị giá trên 100 triệu USD. Mặc dù gây tranh cãi trong ngành công nghệ, dự luật được ủng hộ rộng rãi với 77% người dân California tán thành và đã được thông qua tại Thượng viện tiểu bang với tỷ lệ áp đảo 32-1.
https://www.vox.com/future-perfect/361562/california-ai-bill-scott-wiener-sb-1047
• Sự khác biệt về ý thức hệ chính trị và giá trị giữa Trung Quốc và phương Tây có thể cản trở tiến trình xây dựng khung quản trị AI toàn cầu.
• Tại phương Tây, công nghệ AI chủ yếu được phát triển bởi các công ty tư nhân nhằm mục đích thương mại. Ngược lại, chính phủ Trung Quốc tham gia trực tiếp vào quá trình phát triển AI với mục tiêu giám sát và giảm phụ thuộc vào công nghệ phương Tây.
• Các quốc gia phương Tây ưu tiên bảo vệ quyền riêng tư và tự do cá nhân khi phát triển AI. Trung Quốc tập trung vào việc sử dụng AI để phục vụ lợi ích tập thể và tăng cường kiểm soát.
• Liên minh Châu Âu đã thông qua Đạo luật AI nghiêm cấm các ứng dụng nguy hiểm như thao túng ý chí tự do hoặc giám sát xã hội. Tuy nhiên, Trung Quốc cho rằng một số rủi ro được nhấn mạnh ở châu Âu lại có thể chấp nhận được ở Trung Quốc.
• Sự khác biệt về văn hóa và cách tiếp cận quyền con người giữa Trung Quốc và phương Tây có thể gây khó khăn khi thảo luận về quy tắc toàn cầu liên quan đến công nghệ nhận dạng khuôn mặt hoặc giám sát.
• Chính phủ Trung Quốc quan tâm đến việc kiểm soát nội dung trực tuyến thông qua AI, trong khi phương Tây lo ngại về quyền riêng tư, tính minh bạch và công bằng.
• Mặc dù có nhiều khác biệt, vẫn có cơ hội hợp tác trong một số lĩnh vực như đảm bảo các nước đang phát triển được tiếp cận công bằng với AI, quản lý nguồn năng lượng cần thiết cho AI, và giảm thiểu rủi ro hiện hữu từ AI tiên tiến.
• Liên Hợp Quốc đã thông qua một nghị quyết do Trung Quốc đề xuất, kêu gọi cộng đồng quốc tế đảm bảo các nước đang phát triển có cơ hội bình đẳng để hưởng lợi từ AI.
• Các chuyên gia cho rằng việc tập trung vào một số vấn đề cụ thể mà mọi quốc gia đều quan tâm, như ngăn chặn sự phổ biến của hệ thống AI mạnh mẽ tới các tác nhân phi nhà nước, có thể là cơ sở để xây dựng quản trị AI toàn cầu.
• Dù khó có thể đạt được đồng thuận toàn diện, các cuộc đối thoại giữa Trung Quốc và phương Tây vẫn cần thiết để tìm kiếm điểm chung, dù nhỏ, trong quản trị AI toàn cầu.
📌 Mặc dù tồn tại nhiều khác biệt, Trung Quốc và phương Tây vẫn có cơ hội hợp tác trong quản trị AI toàn cầu. Các lĩnh vực tiềm năng bao gồm đảm bảo tiếp cận công bằng cho các nước đang phát triển, quản lý nguồn năng lượng và giảm thiểu rủi ro từ AI tiên tiến. Duy trì đối thoại là cần thiết để tìm kiếm điểm chung.
https://www.scmp.com/news/china/diplomacy/article/3271294/can-china-and-west-agree-global-ai-rules-amid-existential-risks
• Dubai đang nhanh chóng trở thành trung tâm AI toàn cầu với Chiến lược AI UAE 2031 nhằm đưa UAE trở thành quốc gia dẫn đầu về AI vào năm 2031.
• Lộ trình AI Dubai tập trung vào các lĩnh vực chính: AI trong dịch vụ chính phủ, giao thông, y tế, giáo dục và an toàn công cộng.
• Smart Dubai, nay là một phần của Cơ quan Số hóa Dubai, đang dẫn đầu các sáng kiến AI với Phòng thí nghiệm AI hợp tác cùng IBM.
• Ngành y tế Dubai đang áp dụng AI để phát hiện sớm bệnh tật, lập kế hoạch điều trị cá nhân hóa và thậm chí cả phẫu thuật có sự hỗ trợ của robot.
• Cơ quan Đường bộ và Giao thông vận tải (RTA) đang sử dụng AI để quản lý giao thông và phát triển xe tự lái. Taxi tự lái đã được thử nghiệm tại Dubai.
• Quỹ Kiến thức Mohammed Bin Rashid Al Maktoum đã triển khai nhiều sáng kiến thúc đẩy giáo dục AI, bao gồm các trại lập trình cho trẻ em.
• Dubai đang trở thành điểm đến hấp dẫn cho các startup AI nhờ hệ sinh thái hỗ trợ và cơ hội tài trợ dồi dào. AREA 2071 là trung tâm đổi mới sáng tạo nơi các startup, doanh nghiệp và cơ quan chính phủ hợp tác.
• Chương trình Dubai Future Accelerators kết nối các startup sáng tạo với các cơ quan chính phủ để giải quyết các thách thức thực tế bằng AI và công nghệ mới nổi khác.
• Dubai đang đối mặt với những thách thức về quyền riêng tư dữ liệu, bảo mật và đạo đức AI. Thành phố đã ban hành luật bảo vệ dữ liệu nghiêm ngặt và Hướng dẫn Đạo đức AI Dubai.
• Chính phủ đang triển khai các chương trình đào tạo lại và sáng kiến tạo việc làm mới liên quan đến AI để giải quyết tác động của AI đến việc làm và xã hội.
• Các dự án tham vọng trong tương lai bao gồm dịch vụ chính phủ sử dụng AI và taxi bay tự lái, cho thấy cam kết mạnh mẽ của Dubai đối với sự phát triển AI.
📌 Dubai đang nhanh chóng trở thành trung tâm AI toàn cầu với chiến lược phát triển tham vọng, ứng dụng AI vào nhiều lĩnh vực như giao thông, y tế, giáo dục. Thành phố đang thu hút các startup AI và đầu tư mạnh mẽ vào công nghệ này, hứa hẹn một tương lai đầy hứa hẹn cho sự phát triển AI tại Dubai.
https://ipsnews.net/business/2024/07/20/dubais-ai-revolution-from-sand-to-silicon/
• Liên Hợp Quốc (LHQ) đang đề xuất thành lập một diễn đàn AI toàn cầu nhằm thống nhất quản trị AI trên toàn thế giới.
• Một báo cáo sắp được công bố từ nhóm cố vấn của LHQ, bao gồm các chuyên gia như cựu Bộ trưởng AI Tây Ban Nha Carme Artigas và Giám đốc công nghệ OpenAI Mira Murati, đề xuất các sáng kiến AI do LHQ hậu thuẫn.
• Báo cáo đề xuất thành lập một Văn phòng AI toàn cầu để "lấp đầy khoảng trống và mang lại sự gắn kết cho hệ sinh thái đang nổi lên nhanh chóng của các phản ứng quản trị AI quốc tế".
• Kể từ khi ChatGPT ra mắt vào tháng 11/2022, đã có rất nhiều hội nghị thượng đỉnh, cam kết và nguyên tắc không ràng buộc về AI được đưa ra.
• EU đã vội vàng thông qua Đạo luật AI, cấm một số công cụ và áp đặt giới hạn đối với AI được coi là "rủi ro cao". Mỹ cũng đã ban hành sắc lệnh hành pháp kết hợp các tiêu chí an toàn AI với chương trình nghị sự thúc đẩy đổi mới.
• Trên trường quốc tế, các nỗ lực chính sách tập trung vào AI đã bùng nổ, tạo ra các hướng dẫn không ràng buộc và nguyên tắc cao cả về phát triển AI có trách nhiệm.
• G7 đã tạo ra "Quy trình AI Hiroshima" với các nguyên tắc hướng dẫn tự nguyện về AI tạo sinh. Các Hội nghị thượng đỉnh An toàn AI ở Anh và Hàn Quốc thúc đẩy các chính phủ và công ty AI đối phó với rủi ro.
• Tuy nhiên, báo cáo của LHQ cho rằng vẫn còn sự phân biệt giữa các nước có và không có AI. 118 quốc gia ở Nam bán cầu không tham gia vào bất kỳ sáng kiến AI quốc tế nào.
• Đề xuất của LHQ có thể sẽ không được hoan nghênh ở các thủ đô phương Tây. Một nhà ngoại giao G7 cho rằng báo cáo này làm suy yếu công việc của G7 về AI và ngầm thúc đẩy chương trình nghị sự của Trung Quốc.
• Một quan chức cấp cao của EU cũng chỉ trích báo cáo, nói rằng không có đề xuất nào của Ủy ban châu Âu được đưa vào bản dự thảo cuối cùng.
• Một số chuyên gia cho rằng sự bùng nổ các hội nghị thượng đỉnh và diễn đàn AI sẽ chậm lại, trong khi những người khác tin rằng đối thoại về AI sẽ tiếp tục diễn ra trong nhiều diễn đàn khác nhau.
📌 LHQ đề xuất thành lập diễn đàn AI toàn cầu để thống nhất quản trị, nhưng gặp phải phản đối từ phương Tây. 118 nước đang phát triển chưa tham gia bất kỳ sáng kiến AI quốc tế nào. Tương lai quản trị AI toàn cầu vẫn còn nhiều tranh cãi.
https://www.politico.eu/article/united-nations-artificial-intelligence-policy-report-carme-artigas-paolo-benanti-mira-murati/
• Meta đã tạm ngưng các công cụ AI tạo sinh tại Brazil sau khi Cơ quan Bảo vệ Dữ liệu Quốc gia (ANPD) phản đối một phần trong chính sách quyền riêng tư của công ty.
• ANPD đã đình chỉ hiệu lực của chính sách quyền riêng tư mới của Meta vào đầu tháng 7, yêu cầu loại bỏ phần về xử lý dữ liệu cá nhân để huấn luyện AI tạo sinh.
• Meta cho biết sẽ tạm dừng các công cụ AI ở Brazil trong khi thảo luận với ANPD về vấn đề này.
• Động thái này diễn ra khoảng 1 tháng sau khi Meta tạm hoãn ra mắt trợ lý AI Meta AI tại châu Âu theo yêu cầu của Ủy ban Bảo vệ Dữ liệu Ireland (DPC).
• DPC đại diện cho các cơ quan bảo vệ dữ liệu châu Âu yêu cầu Meta trì hoãn việc huấn luyện mô hình ngôn ngữ lớn (LLM) bằng nội dung người dùng trưởng thành chia sẻ trên Facebook và Instagram.
• Meta cho biết không thể cung cấp trải nghiệm chất lượng cho người dùng châu Âu nếu không sử dụng thông tin địa phương để huấn luyện AI.
• Ngày 6/6, tổ chức bảo vệ quyền riêng tư NOYB đã gửi đơn khiếu nại tới 11 quốc gia châu Âu, cho rằng việc Meta sử dụng dữ liệu người dùng trong các hoạt động AI vi phạm Quy định Bảo vệ Dữ liệu Chung (GDPR) của EU.
• Người sáng lập NOYB Max Schrems chỉ trích Meta về cơ bản đang nói rằng họ có thể sử dụng "bất kỳ dữ liệu nào từ bất kỳ nguồn nào cho bất kỳ mục đích nào và cung cấp cho bất kỳ ai trên thế giới" miễn là thông qua "công nghệ AI".
• Meta phản hồi rằng cách tiếp cận của họ "nhất quán với cách các công ty công nghệ khác đang phát triển và cải thiện trải nghiệm AI tại châu Âu".
• Việc đình chỉ các công cụ AI tại Brazil cho thấy Meta đang gặp khó khăn trong việc triển khai công nghệ AI tạo sinh tại các thị trường quốc tế do các quy định bảo vệ dữ liệu và quyền riêng tư ngày càng chặt chẽ.
📌 Meta đình chỉ công cụ AI tại Brazil và châu Âu do tranh chấp quyền riêng tư. ANPD Brazil yêu cầu loại bỏ xử lý dữ liệu cá nhân cho AI, trong khi EU lo ngại về việc sử dụng dữ liệu người dùng. Meta gặp thách thức trong việc triển khai AI tạo sinh toàn cầu.
https://www.pymnts.com/artificial-intelligence-2/2024/meta-suspends-ai-tools-in-brazil-amid-privacy-policy-dispute/
- Cơ quan Quản lý Không gian mạng Trung Quốc (CAC) đang buộc các công ty công nghệ lớn và các startup AI tham gia đánh giá bắt buộc của chính phủ về các mô hình AI của họ.
- Quá trình này liên quan đến việc kiểm tra hàng loạt phản hồi của LLM với nhiều câu hỏi, trong đó có nhiều câu liên quan đến các vấn đề chính trị nhạy cảm của Trung Quốc và Chủ tịch Tập Cận Bình.
- Trung Quốc đang xây dựng chế độ quản lý AI khắt khe nhất thế giới để quản lý nội dung do AI tạo ra.
- Các công ty AI Trung Quốc phải học cách kiểm duyệt các mô hình ngôn ngữ lớn, một nhiệm vụ khó khăn do cần huấn luyện LLM trên lượng lớn nội dung tiếng Anh.
- Quá trình lọc bắt đầu bằng việc loại bỏ thông tin có vấn đề khỏi dữ liệu huấn luyện và xây dựng cơ sở dữ liệu từ khóa nhạy cảm.
- Kết quả có thể thấy rõ ở các chatbot AI của Trung Quốc. Hầu hết từ chối trả lời các chủ đề nhạy cảm như thảm sát Thiên An Môn.
- Tuy nhiên, Bắc Kinh cũng tung ra chatbot AI dựa trên "Tư tưởng Tập Cận Bình về Chủ nghĩa xã hội đặc sắc Trung Quốc trong thời đại mới".
- CAC đã đặt giới hạn số câu hỏi mà LLM có thể từ chối trong quá trình kiểm tra an toàn, không quá 5%.
- ByteDance được cho là tiến xa nhất trong việc tạo ra LLM phản ánh khéo léo quan điểm của Bắc Kinh. Chatbot Doubao của họ đứng đầu với tỷ lệ "tuân thủ an toàn" 66,4% khi trả lời các câu hỏi khó về giá trị xã hội chủ nghĩa cốt lõi.
📌 Trung Quốc đang thắt chặt kiểm soát các mô hình ngôn ngữ AI lớn thông qua quá trình kiểm duyệt và đánh giá nghiêm ngặt của chính phủ, buộc các công ty phải lọc nội dung nhạy cảm và đưa ra câu trả lời phù hợp với giá trị xã hội chủ nghĩa. ByteDance dẫn đầu với chatbot Doubao tuân thủ 66,4% tiêu chuẩn an toàn, vượt xa GPT-4 của OpenAI chỉ đạt 7,1% trên cùng bài kiểm tra.
https://www.ft.com/content/10975044-f194-4513-857b-e17491d2a9e9
#FT
- Trung Quốc có thể gác lại nỗ lực soạn thảo luật AI thống nhất quốc gia do còn "nhiều bất đồng đáng kể" giữa giới công nghiệp và học thuật, theo chuyên gia pháp lý Trịnh Nga.
- Đa số chuyên gia cho rằng thời điểm chưa chín muồi để soạn luật AI thống nhất do công nghệ đang phát triển quá nhanh.
- Thay vào đó, các quy định sẽ được đưa ra theo từng lĩnh vực, ngành cụ thể.
- Dự thảo luật AI thống nhất đã được trình lên Ủy ban Thường vụ Quốc hội, nhưng mới ở giai đoạn rất sớm và chưa có lộ trình cụ thể.
- Trung Quốc muốn thúc đẩy phát triển AI nhưng cũng không muốn công nghệ này gây ra tác động tiêu cực quy mô lớn.
- Lệnh cấm của EU với công nghệ "thao túng nhận thức hành vi con người" sẽ rất khó thực tế với các công ty công nghệ Trung Quốc.
- Mỹ không có ý định ban hành luật AI vì xã hội khuyến khích đổi mới và tăng trưởng thị trường. EU áp đặt quy định chặt chẽ hơn để bảo vệ quyền cá nhân và hạn chế các công ty Mỹ thống trị.
- Trung Quốc, Mỹ và EU đã thảo luận về rủi ro của AI trong các cuộc gặp cấp cao.
- Trung Quốc kêu gọi mỗi quốc gia xây dựng luật/chính sách AI riêng phù hợp với điều kiện quốc gia và đề xuất ít nhất 50 bộ tiêu chuẩn AI vào năm 2026.
📌 Trung Quốc có thể tạm gác lại việc soạn thảo luật AI thống nhất do còn nhiều bất đồng giữa giới công nghiệp và học thuật. Thay vào đó, các quy định sẽ được đưa ra theo từng lĩnh vực cụ thể nhằm vừa thúc đẩy phát triển AI, vừa hạn chế rủi ro tiềm ẩn. Trung Quốc cũng kêu gọi mỗi quốc gia xây dựng khung pháp lý riêng và đặt mục tiêu có 50 bộ tiêu chuẩn AI vào năm 2026.
https://www.scmp.com/news/china/politics/article/3270544/china-likely-ditch-unified-ai-legislation-due-considerable-disagreement-timing
- Các khung và nguyên tắc an toàn sẽ giúp giảm thiểu rủi ro tiềm ẩn trong khi tận dụng cơ hội cho công nghệ mới nổi như AI tạo sinh (Gen AI).
- Các cuộc thảo luận về triển khai công nghệ trở nên phức tạp hơn với AI tạo sinh. Các tổ chức cần tìm hiểu công nghệ này mang lại điều gì, ý nghĩa với doanh nghiệp và các biện pháp bảo vệ cần thiết.
- Chính phủ Singapore sẽ tiếp tục hợp tác với các đối tác ngành công nghiệp để cung cấp các công cụ an toàn AI, bao gồm cả bộ công cụ nguồn mở.
- Singapore đã ký thỏa thuận với IBM và Google để thử nghiệm, đánh giá và tinh chỉnh mô hình ngôn ngữ lớn (LLM) SEA-LION của AI Singapore dành cho Đông Nam Á.
- Các doanh nghiệp phải nắm bắt cách thức hoạt động của các mô hình AI được đào tạo trước để xác định các rủi ro tiềm ẩn liên quan đến dữ liệu.
- 72% tổ chức triển khai AI gặp phải các vấn đề về chất lượng dữ liệu và không thể mở rộng thực tiễn dữ liệu.
- 77% tổ chức cho biết họ không có nguồn dữ liệu duy nhất đáng tin cậy. Chỉ 24% đã triển khai AI ở quy mô lớn.
- Singapore sẽ công bố hướng dẫn an toàn cho các nhà phát triển mô hình và ứng dụng AI tạo sinh, nằm trong khuôn khổ AI Verify của quốc gia.
- Ủy ban Bảo vệ Dữ liệu Cá nhân (PDPC) đã công bố hướng dẫn đề xuất về tạo dữ liệu tổng hợp, bao gồm hỗ trợ cho các công nghệ nâng cao quyền riêng tư (PET).
📌 Singapore đang nỗ lực xây dựng các hướng dẫn an toàn và khung quản trị AI để giúp doanh nghiệp giảm thiểu rủi ro khi thử nghiệm ứng dụng AI tạo sinh. Chính phủ cũng hợp tác với các đối tác ngành công nghiệp để cung cấp công cụ an toàn AI và thử nghiệm mô hình ngôn ngữ lớn SEA-LION. 72% tổ chức triển khai AI gặp khó khăn về chất lượng dữ liệu và mở rộng quy mô.
https://www.zdnet.com/article/safety-guidelines-provide-necessary-first-layer-of-data-protection-in-ai-gold-rush/
• Đồng minh của cựu Tổng thống Trump đang soạn thảo một sắc lệnh hành pháp toàn diện về AI, nhằm phát động một loạt "Dự án Manhattan" để phát triển công nghệ quân sự.
• Khuôn khổ này sẽ ngay lập tức xem xét lại các "quy định không cần thiết và gây gánh nặng", báo hiệu cách một chính quyền Trump tiềm năng có thể theo đuổi các chính sách AI có lợi cho các nhà đầu tư và công ty ở Thung lũng Silicon.
• Đề xuất bao gồm việc thành lập các cơ quan "do ngành dẫn đầu" để đánh giá các mô hình AI và bảo vệ hệ thống khỏi các đối thủ nước ngoài.
• Khuôn khổ có một phần có tiêu đề "Đưa Mỹ đứng đầu về AI", thể hiện chiến lược khác biệt so với chính quyền Biden, vốn đã ban hành một sắc lệnh hành pháp toàn diện yêu cầu kiểm tra an toàn đối với thế hệ AI tiếp theo.
• Nhân viên từ America First Policy Institute, một tổ chức phi lợi nhuận do cựu cố vấn kinh tế trưởng của Trump là Larry Kudlow và các cựu quan chức Trump khác lãnh đạo, đã tham gia vào nỗ lực này.
• Đảng Cộng hòa đã thông qua một cương lĩnh bao gồm việc bãi bỏ sắc lệnh hành pháp AI của Biden, mà một số nhà đầu tư và startup công nghệ cho rằng tạo ra gánh nặng quy định cản trở đổi mới.
• Cương lĩnh của đảng Cộng hòa ủng hộ "Phát triển AI bắt nguồn từ Tự do Ngôn luận và Sự phát triển của Con người".
• Đầu tư quân sự lớn hơn vào AI có thể mang lại lợi ích cho các công ty công nghệ đã ký hợp đồng với Lầu Năm Góc như Anduril, Palantir và Scale.
• Một số giám đốc điều hành công nghệ và nhà đầu tư hàng đầu như Elon Musk và Bill Ackman đã ủng hộ Trump tranh cử tổng thống.
• Trump gần đây đã tăng cường tiếp cận Thung lũng Silicon, xuất hiện trên podcast All-In và tham dự một buổi gây quỹ tại nhà của đồng chủ trì podcast và cựu giám đốc điều hành PayPal David Sacks.
• Trên podcast, Trump nói rằng ông đã nghe từ các "thiên tài" Thung lũng Silicon về nhu cầu cần thêm năng lượng để thúc đẩy phát triển AI nhằm cạnh tranh với Trung Quốc.
📌 Đồng minh Trump soạn thảo sắc lệnh AI táo bạo nhằm phát động các "Dự án Manhattan" quốc phòng và tạo môi trường thuận lợi cho Thung lũng Silicon. Kế hoạch bao gồm bãi bỏ sắc lệnh AI của Biden, thành lập cơ quan đánh giá AI do ngành dẫn đầu, và tăng cường đầu tư quân sự vào AI, thu hút sự ủng hộ từ các lãnh đạo công nghệ hàng đầu.
https://www.stripes.com/theaters/us/2024-07-16/trump-allies-draft-ai-order-manhattan-projects-14506387.htm
• Thomson Reuters đã khảo sát 2.205 chuyên gia trong các lĩnh vực pháp lý, thuế, rủi ro và tuân thủ trên toàn cầu về việc sử dụng AI trong công việc.
• 77% người được hỏi cho rằng AI sẽ có "tác động cao hoặc mang tính chuyển đổi đối với công việc của họ trong 5 năm tới", tăng 10% so với báo cáo năm ngoái.
• Sự quan tâm đến tầm quan trọng chiến lược của AI đã lan rộng từ các công ty luật sang hầu hết các ngành công nghiệp mà Thomson Reuters phục vụ.
• Có sự phân chia rõ rệt giữa những người rất thận trọng (13%) và những người rất tham vọng (19%) về AI tạo sinh. Nhóm thận trọng cho rằng chỉ một phần nhỏ công việc sẽ được thực hiện bởi trợ lý AI trong 5 năm tới, trong khi nhóm tham vọng dự đoán AI sẽ thực hiện phần lớn công việc của họ.
• AI rất giỏi trong các tác vụ có thể cung cấp hướng dẫn rõ ràng như nghiên cứu, tóm tắt tài liệu hoặc tìm hiểu các khái niệm cấp cao không yêu cầu trích dẫn pháp lý cụ thể.
• AI chưa thể tự đưa ra quyết định. 83% chuyên gia pháp lý, 43% chuyên gia rủi ro, gian lận và tuân thủ, và 35% chuyên gia thuế cho rằng "sử dụng AI để đưa ra lời khuyên hoặc khuyến nghị chiến lược" là "về mặt đạo đức ... đi quá xa".
• 95% người được hỏi trong lĩnh vực pháp lý và thuế cho rằng "cho phép AI đại diện cho khách hàng tại tòa án hoặc đưa ra quyết định cuối cùng về các vấn đề pháp lý, thuế, rủi ro, gian lận và tuân thủ phức tạp" là "đi quá xa".
• Thomson Reuters dự đoán rằng trong vòng 5 năm tới, tất cả các chuyên gia sẽ có một trợ lý AI tạo sinh hoạt động như một thành viên trong nhóm và thực hiện các tác vụ phức tạp.
• Hầu hết các lãnh đạo cấp cao thấy AI ảnh hưởng mạnh mẽ nhất đến chiến lược vận hành (59%) và chiến lược sản phẩm/dịch vụ (53%) của họ.
• Sử dụng AI có trách nhiệm trong môi trường chuyên nghiệp cần đảm bảo an ninh dữ liệu, xem xét bắt buộc kết quả bởi con người, cẩn trọng trong việc chọn tác vụ sử dụng AI và minh bạch về nguồn dữ liệu.
• Hệ thống AI có trách nhiệm cần dựa trên nội dung đã được xác thực, có thể đo lường được và có khả năng trích dẫn tài liệu tham khảo. Chúng cần được xây dựng với sự an toàn, đáng tin cậy và bảo mật.
📌 Báo cáo cho thấy sự lạc quan thận trọng về AI trong lĩnh vực luật, với 77% chuyên gia tin rằng AI sẽ có tác động lớn trong 5 năm tới. Tuy nhiên, vẫn còn những lo ngại về khả năng ra quyết định và đạo đức của AI. Các chuyên gia nhấn mạnh tầm quan trọng của việc sử dụng AI có trách nhiệm và minh bạch trong môi trường chuyên nghiệp.
https://www.techrepublic.com/article/thomson-reuters-ai-report/
• Trump cam kết sẽ hủy bỏ sắc lệnh hành pháp về AI của Biden nếu đắc cử tổng thống. Cương lĩnh mới thông qua của Đảng Cộng hòa gọi sắc lệnh này là "nguy hiểm".
• Sắc lệnh AI của Biden được ký vào mùa thu năm ngoái, đặt ra nhiều yêu cầu cho các cơ quan liên bang và nhà phát triển AI, bao gồm chia sẻ kết quả kiểm tra an toàn của các mô hình nền tảng lưỡng dụng.
• Sắc lệnh đã dẫn đến hướng dẫn cho các cơ quan liên bang thiết lập các biện pháp bảo vệ khi sử dụng AI trong các bối cảnh rủi ro cao như phúc lợi chính phủ.
• Cương lĩnh Đảng Cộng hòa 2024 tuyên bố sẽ "bãi bỏ Sắc lệnh Hành pháp nguy hiểm của Joe Biden cản trở đổi mới AI và áp đặt các ý tưởng cực tả lên sự phát triển của công nghệ này".
• Một số công ty công nghệ và đảng viên Cộng hòa đang tìm cách ngăn chặn việc sử dụng Đạo luật Sản xuất Quốc phòng trong sắc lệnh.
• Chuyên gia Divyansh Kaushik cho rằng sắc lệnh AI của Biden nhận được sự ủng hộ lưỡng đảng và chủ yếu tập trung vào "thu thập thông tin" hơn là tạo ra gánh nặng quy định mới.
• Khảo sát của Ipsos cho thấy hơn 70% đảng viên Dân chủ và Cộng hòa ủng hộ nhiều sáng kiến trong sắc lệnh, như phát triển tiêu chuẩn và kiểm tra để đảm bảo hệ thống AI an toán và đáng tin cậy.
• Adam Thierer từ Viện R Street chỉ trích Nhà Trắng đã không làm việc với Quốc hội về chính sách AI trước khi đưa ra sắc lệnh đơn phương.
• Việc hủy bỏ sắc lệnh có thể gây khó khăn vì nhiều thời hạn đã qua và các quy tắc cuối cùng đã được ban hành. Các cơ quan sẽ phải trải qua quá trình xây dựng quy tắc để thu hồi bất kỳ quy tắc cuối cùng nào.
• Các chuyên gia cảnh báo rằng việc hủy bỏ sắc lệnh có thể khiến các cơ quan "mù quáng" về việc liệu hệ thống thuật toán của họ có hoạt động như dự định hay không.
📌 Trump cam kết hủy bỏ sắc lệnh AI của Biden nếu đắc cử, gây tranh cãi về chính sách công nghệ. 70% cử tri ủng hộ các sáng kiến trong sắc lệnh. Chuyên gia cảnh báo việc hủy bỏ có thể gây khó khăn và ảnh hưởng tiêu cực đến quá trình hoạch định chính sách AI trong tương lai.
https://www.nextgov.com/artificial-intelligence/2024/07/trump-pledges-ax-bidens-ai-executive-order/397905/
• OpenAI thông báo sẽ chặn quyền truy cập vào các công cụ và phần mềm của mình tại Trung Quốc từ tháng 7/2024, ảnh hưởng đến nhiều startup Trung Quốc đang sử dụng công nghệ của OpenAI.
• Động thái này diễn ra sau khi chính quyền Biden tìm cách hạn chế các hệ thống AI tiên tiến của Mỹ khỏi Trung Quốc và Nga, cũng như báo cáo của OpenAI về việc các tổ chức ở hai nước này sử dụng công cụ của họ để thao túng dư luận và ảnh hưởng đến kết quả bầu cử.
• Sự rút lui của OpenAI được xem là cơ hội cho các gã khổng lồ công nghệ Trung Quốc như Baidu, công ty đã phát triển phiên bản ChatGPT riêng.
• Tuy nhiên, điều này cũng cho thấy bài học về "hội chứng Galapagos" - sự phát triển biệt lập của một sản phẩm toàn cầu, dẫn đến khó khăn khi mở rộng ra thị trường quốc tế.
• Các công ty công nghệ Trung Quốc thường hoạt động cục bộ trong nước do chính sách kiểm soát thông tin nghiêm ngặt, hạn chế khả năng cạnh tranh toàn cầu.
• Ví dụ: mô hình AI tạo sinh ERNIE của Baidu hoạt động kém hiệu quả so với ChatGPT do hạn chế về dữ liệu đào tạo.
• Một số công ty như ByteDance (TikTok) và Alibaba đã mở rộng tốt hơn ra thị trường quốc tế, nhưng vẫn gặp rào cản do phải tuân thủ luật pháp Trung Quốc.
• Bài học cho Ấn Độ: Dự thảo Luật Cạnh tranh Kỹ thuật số 2024 có thể vô tình cản trở khả năng cạnh tranh toàn cầu của các công ty công nghệ Ấn Độ.
• Ấn Độ cần tìm sự cân bằng giữa việc thu hút các công ty nước ngoài cung cấp công nghệ hàng đầu và khuyến khích đổi mới sáng tạo trong nước.
📌 OpenAI rút khỏi Trung Quốc cho thấy hạn chế của mô hình phát triển công nghệ biệt lập. Ấn Độ cần cân bằng giữa bảo hộ và mở cửa để duy trì tính cạnh tranh toàn cầu. Hệ sinh thái công nghệ năng động đòi hỏi sự kết hợp giữa đổi mới nội địa và tiếp cận công nghệ tiên tiến quốc tế.
Citations:
[1] https://indianexpress.com/article/opinion/columns/open-ai-china-departure-india-tech-ecosystem-lessons-9449266/
• LLM cục bộ có nhiều ưu điểm so với ChatGPT:
- Bảo mật dữ liệu: thông tin được lưu trữ trên máy cá nhân
- Tiết kiệm chi phí: miễn phí sử dụng, không tốn phí API
- Có thể tùy chỉnh: fine-tune mô hình theo nhu cầu cụ thể
- Hoạt động offline: không cần kết nối internet
- Sử dụng không giới hạn: không bị hạn chế bởi API bên ngoài
• Ollama là dự án nguồn mở cho phép chạy LLM cục bộ dễ dàng trên máy tính cá nhân:
- Nhẹ, thân thiện với người dùng
- Cung cấp nhiều mô hình được đào tạo sẵn như Llama 3 (Meta), Gemma 2 (Google)
• Các bước cài đặt Ollama và chạy Llama 3:
1. Tải Ollama từ ollama.com
2. Cài đặt ứng dụng
3. Chạy lệnh "ollama run llama3" trong terminal
• Một số lệnh hữu ích khi sử dụng Ollama:
- ollama run <tên_mô_hình>: chạy mô hình
- ollama list: liệt kê các mô hình đã cài đặt
- ollama pull <tên_mô_hình>: tải mô hình mới
- /clear: xóa ngữ cảnh phiên hiện tại
- /bye: thoát Ollama
• Sử dụng Llama 3 trong Jupyter Notebook:
- Cài đặt thư viện langchain_community
- Import package Ollama
- Tạo instance của mô hình và sử dụng với prompt
• Ví dụ ứng dụng: tạo tiểu sử ngắn cho nhiều người bằng cách:
- Tạo DataFrame chứa thông tin
- Viết hàm tạo tiểu sử sử dụng mô hình
- Áp dụng hàm cho từng dòng trong DataFrame
📌 LLM cục bộ như Llama 3 có nhiều ưu điểm về bảo mật, chi phí và tùy biến. Với Ollama, việc cài đặt và chạy mô hình chỉ mất vài phút. Kết hợp với Python mở ra nhiều khả năng ứng dụng phong phú.
https://towardsdatascience.com/running-local-llms-is-more-useful-and-easier-than-you-think-f735631272ad
• Một nhóm thượng nghị sĩ lưỡng đảng đã đề xuất dự luật COPIED (Content Origin Protection and Integrity from Edited and Deepfaked Media Act) nhằm bảo vệ nội dung gốc khỏi việc sử dụng không công bằng bởi các công ty AI.
• Mục đích chính của dự luật là chống lại sự gia tăng của deepfake có hại, đặc biệt sau khi các deepfake về Biden đã ảnh hưởng đến nỗ lực tranh cử gần đây.
• Dự luật yêu cầu các nhà sản xuất công cụ AI tạo sinh phải cho phép chủ sở hữu nội dung gốc đánh dấu thông tin nguồn gốc không thể xóa bỏ.
• Việc cấm xóa bỏ thủy vân nguồn gốc là quan trọng vì hiện tại không có luật nào cấm việc này.
• Ủy ban Thương mại Liên bang, tổng chưởng lý tiểu bang và chủ sở hữu nội dung có quyền kiện ra tòa nếu quy định bị vi phạm.
• Dự luật cấm "sử dụng trái phép" nội dung đã được đánh dấu nguồn gốc để "huấn luyện mô hình AI hoặc tạo ra nội dung AI".
• Viện Tiêu chuẩn và Công nghệ Quốc gia sẽ thiết lập tiêu chuẩn cho thông tin nguồn gốc nhằm xác định nội dung được tạo hoặc thao túng bởi AI.
• Dự luật được ủng hộ bởi nhiều tổ chức như công đoàn SAG-AFTRA, Hiệp hội Công nghiệp Ghi âm Hoa Kỳ và Hiệp hội Báo chí Quốc gia.
• Nó phản ánh mối quan ngại của ngành về sự trỗi dậy của AI tạo sinh và mối đe dọa đối với diễn viên, nhạc sĩ, nhà xuất bản.
• Dự luật có thể gây tranh cãi về khía cạnh kỹ thuật để thực thi và xung đột với học thuyết "sử dụng hợp lý" hiện có.
• Các công ty AI lớn có thể phản đối một số điều khoản, đặc biệt là Microsoft, công ty có quan hệ chặt chẽ với OpenAI.
• Mustafa Suleyman, giám đốc AI mới của Microsoft, gần đây gây tranh cãi khi cho rằng bất cứ thứ gì được công bố trên web đều có thể được sử dụng làm tài liệu huấn luyện AI.
📌 Dự luật COPIED đề xuất bảo vệ nội dung gốc khỏi AI bằng cách yêu cầu đánh dấu nguồn gốc và cấm sử dụng trái phép. Nó nhắm đến việc chống lại deepfake và bảo vệ quyền sở hữu trí tuệ, nhưng có thể gặp phải sự phản đối từ các công ty AI lớn.
https://www.inc.com/kit-eaton/new-act-aims-to-protect-creatives-content-from-unwanted-copying-by-ai-companies.html
• Đạo luật AI của EU là bộ quy tắc toàn diện đối với các công ty công nghệ hoạt động tại EU, cấm một số ứng dụng AI và yêu cầu minh bạch đối với các nhà phát triển.
• Luật chính thức thông qua vào tháng 3/2024 sau 2 năm thảo luận, bao gồm nhiều giai đoạn tuân thủ sẽ diễn ra theo từng đợt.
• Đạo luật AI sẽ có hiệu lực vào ngày 1/8/2024, các thời hạn tuân thủ trong tương lai sẽ được tính từ ngày này.
• Đến ngày 2/2/2025, các công ty công nghệ phải tuân thủ lệnh cấm đối với các ứng dụng AI được coi là có "rủi ro không thể chấp nhận được", bao gồm:
- Phân loại sinh trắc học để suy luận thông tin như xu hướng tính dục hoặc tôn giáo
- Thu thập hình ảnh khuôn mặt không mục tiêu từ internet hoặc camera an ninh
- Hệ thống đọc cảm xúc tại nơi làm việc và trường học
- Hệ thống chấm điểm xã hội
- Công cụ cảnh sát dự đoán trong một số trường hợp
• Đến ngày 2/5/2025, các nhà phát triển sẽ có bộ quy tắc thực hành, quy định chi tiết về việc tuân thủ pháp luật.
• Đến tháng 8/2025, các "hệ thống AI đa năng" như chatbot phải tuân thủ luật bản quyền và đáp ứng yêu cầu minh bạch như chia sẻ tóm tắt dữ liệu được sử dụng để đào tạo hệ thống.
• Đến tháng 8/2026, các quy tắc của Đạo luật AI sẽ áp dụng chung cho các công ty hoạt động tại EU.
• Đến tháng 8/2027, các nhà phát triển một số hệ thống AI "rủi ro cao" phải tuân thủ các quy tắc về đánh giá rủi ro và giám sát của con người.
• Hình phạt cho việc không tuân thủ sẽ là tiền phạt cho công ty vi phạm, hoặc tính theo phần trăm tổng doanh thu hoặc một số tiền cố định.
• Vi phạm các hệ thống bị cấm sẽ bị phạt cao nhất: 35 triệu euro (khoảng 38 triệu USD) hoặc 7% doanh thu hàng năm toàn cầu.
📌 Đạo luật AI EU đặt ra lộ trình tuân thủ từ 2024-2027 cho các công ty công nghệ, với các mốc quan trọng về cấm ứng dụng rủi ro cao (2/2025), quy tắc thực hành (5/2025), minh bạch AI đa năng (8/2025) và áp dụng toàn diện (8/2026). Vi phạm có thể bị phạt tới 35 triệu euro hoặc 7% doanh thu toàn cầu.
https://www.theverge.com/2024/7/12/24197058/eu-ai-act-regulations-bans-deadline
- Chánh án Tòa án tối cao Philippines Alexander Gesmundo tuyên bố sẽ ứng dụng AI để cải thiện hoạt động tư pháp, giải quyết tình trạng tồn đọng án và đẩy nhanh tiến độ xét xử.
- Khảo sát của Justice Reform Initiative (JRI) cho thấy tồn đọng án vẫn là vấn đề nghiêm trọng. Trung bình mất ít nhất 5 năm từ khi nộp đơn kiện đến khi có phán quyết. 96% người tham gia khảo sát cho rằng Tòa án tối cao cần áp dụng công nghệ.
- AI có thể được sử dụng để ghi chép, phiên dịch phiên tòa, giúp thẩm phán tập trung vào các khía cạnh quan trọng hơn.
- Mô hình dự đoán dựa trên AI có thể ưu tiên các vụ án dựa trên mức độ phức tạp, tính cấp bách. Estonia sử dụng AI để giải quyết tranh chấp nhỏ. Mỹ dùng AI học máy trong eDiscovery để trích xuất thông tin liên quan.
- Tuy nhiên, việc áp dụng AI trong tư pháp cần thận trọng. AI có thể tạo ra thông tin sai lệch hoặc thiên vị nếu không được quản lý đúng cách. Ví dụ như vụ luật sư ở New York và Colorado trích dẫn các phán quyết không có thật do AI tạo ra.
- Cần có các biện pháp bảo vệ, đảm bảo thuật toán AI minh bạch, được kiểm tra thường xuyên. Thẩm phán và nhân viên tòa án cần xem xét, xác thực thông tin do AI đưa ra, tránh phụ thuộc quá nhiều vào công nghệ.
- Sáng kiến của Tòa án tối cao trong việc ứng dụng AI thể hiện cách tiếp cận tiên phong nhằm giải quyết những bất cập lâu đời trong hệ thống tư pháp. Tận dụng đổi mới sáng tạo giúp tạo ra một hệ thống tư pháp hiệu quả, công bằng, dễ tiếp cận.
📌 Ứng dụng AI trong tư pháp là bước đi táo bạo và cần thiết của Tòa án tối cao Philippines. Mặc dù cần thận trọng, việc tận dụng công nghệ hứa hẹn cải thiện đáng kể hiệu quả hoạt động, rút ngắn thời gian xét xử xuống còn 5 năm, tăng niềm tin của 96% người dân vào hệ thống. Các biện pháp bảo vệ như đảm bảo tính minh bạch của thuật toán, kiểm tra thường xuyên và nâng cao năng lực cho cán bộ là rất quan trọng.
https://www.rappler.com/voices/thought-leaders/point-of-law-artificial-intelligence-philippine-court-system/
- Jensen Huang, CEO của NVIDIA, phát biểu tại Hội nghị Thượng đỉnh Chính phủ Thế giới ở Dubai về tầm quan trọng của AI chủ quyền.
- AI chủ quyền nhấn mạnh quyền sở hữu dữ liệu và trí tuệ do AI tạo ra của một quốc gia. Nó mã hóa văn hóa, xã hội, lịch sử của quốc gia đó.
- UAE đang tích cực phát triển các mô hình ngôn ngữ lớn và huy động sức mạnh tính toán để thúc đẩy AI.
- Trung Đông dự kiến sẽ thu được lợi ích 320 tỷ USD từ AI vào năm 2030 theo PwC.
- Huang kêu gọi các nhà lãnh đạo đầu tư vào cơ sở hạ tầng AI, đặc biệt là xây dựng các mô hình ngôn ngữ lớn với ngôn ngữ và chuyên môn địa phương.
- GPU của NVIDIA đã trở thành nền tảng cho nhiều đổi mới từ điện toán đám mây đến hệ thống tự trị.
- AI giúp mọi người trở thành lập trình viên bằng cách sử dụng ngôn ngữ tự nhiên thay vì lập trình.
- Moro Hub của Dubai đã đồng ý xây dựng trung tâm dữ liệu xanh với NVIDIA.
📌 Jensen Huang của NVIDIA nhấn mạnh tầm quan trọng của việc các quốc gia phát triển AI chủ quyền, đầu tư vào cơ sở hạ tầng và mô hình ngôn ngữ lớn. GPU của NVIDIA đã trở thành nền tảng cho nhiều đổi mới, giúp dân chúng hóa AI. UAE đang tích cực thúc đẩy AI với kỳ vọng mang lại lợi ích 320 tỷ USD vào năm 2030.
https://blogs.nvidia.com/blog/world-governments-summit/
- Sovereign AI đề cập đến khả năng của một quốc gia trong việc sản xuất AI bằng cơ sở hạ tầng, dữ liệu, lực lượng lao động và mạng lưới kinh doanh của riêng mình. Điều này trở nên quan trọng hơn kể từ khi AI tạo sinh xuất hiện.
- Sovereign AI bao gồm cả cơ sở hạ tầng vật lý và dữ liệu, trong đó có các mô hình nền tảng chủ quyền như mô hình ngôn ngữ lớn được phát triển bởi các đội ngũ địa phương và huấn luyện trên bộ dữ liệu địa phương.
- Các mô hình AI giọng nói có thể giúp bảo tồn và quảng bá các ngôn ngữ bản địa. Mô hình ngôn ngữ lớn còn được dùng để viết mã phần mềm, bảo vệ người tiêu dùng khỏi gian lận tài chính, dạy robot các kỹ năng vật lý, v.v.
- Sovereign AI đóng vai trò then chốt trong việc trang bị cho mọi quốc gia khả năng tăng cường nỗ lực bền vững, chống biến đổi khí hậu, tăng hiệu quả năng lượng và bảo vệ trước các mối đe dọa an ninh mạng.
- "Nhà máy AI", nơi dữ liệu đi vào và trí tuệ đi ra, là cơ sở hạ tầng mới và thiết yếu cho sản xuất AI. Đây là các trung tâm dữ liệu thế hệ tiếp theo lưu trữ các nền tảng điện toán tăng tốc full-stack tiên tiến.
- Các quốc gia đang xây dựng năng lực điện toán trong nước thông qua các mô hình khác nhau như mua và vận hành đám mây AI chủ quyền, tài trợ cho các đối tác đám mây địa phương cung cấp nền tảng điện toán AI dùng chung cho khu vực công và tư nhân.
- Nhiều quốc gia trên thế giới như Pháp, Ý, Ấn Độ, Nhật Bản, Singapore đang đầu tư vào Sovereign AI thông qua hợp tác với NVIDIA để xây dựng siêu máy tính AI mạnh nhất, phát triển mô hình ngôn ngữ lớn bản địa, nâng cao kỹ năng lực lượng lao động và mở rộng việc áp dụng AI.
📌 Sovereign AI đang trở thành xu hướng tất yếu khi các quốc gia đua nhau đầu tư xây dựng năng lực AI nội địa, từ cơ sở hạ tầng, dữ liệu, nhân lực đến mạng lưới doanh nghiệp, nhằm tận dụng tối đa tiềm năng to lớn của AI tạo sinh trong mọi lĩnh vực. Các nước đang hợp tác với những "ông lớn" như NVIDIA để triển khai các dự án Sovereign AI quy mô lớn trị giá hàng tỷ USD.
https://blogs.nvidia.com/blog/abci-aist/
- AIST, một trong những tổ chức nghiên cứu công lớn nhất Nhật Bản, sẽ nâng cấp siêu máy tính AI Bridging Cloud Infrastructure 3.0 (ABCI 3.0) với hàng nghìn GPU NVIDIA H200 và mạng NVIDIA Quantum-2 InfiniBand.
- ABCI 3.0 là phiên bản mới nhất của Cơ sở hạ tầng Điện toán AI Mở quy mô lớn của Nhật Bản, nhằm thúc đẩy R&D AI. Sự hợp tác này thể hiện cam kết của Nhật Bản trong việc nâng cao năng lực AI và củng cố độc lập công nghệ.
- Siêu máy tính ABCI 3.0 sẽ được đặt tại Kashiwa, do AIST, công ty con AIST Solutions và đối tác tích hợp hệ thống HPE xây dựng và vận hành.
- Dự án ABCI 3.0 nhận được sự hỗ trợ từ Bộ Kinh tế, Thương mại và Công nghiệp Nhật Bản (METI), nằm trong sáng kiến 1 tỷ USD rộng lớn hơn của METI bao gồm cả nỗ lực ABCI và đầu tư vào điện toán đám mây AI.
- NVIDIA đang hợp tác chặt chẽ với METI về nghiên cứu và giáo dục, sau chuyến thăm năm ngoái của người sáng lập kiêm CEO Jensen Huang.
- Cơ sở ABCI 3.0 sẽ cung cấp:
+ 6 exaflops AI, đo lường hiệu suất dành riêng cho AI
+ 410 petaflops chính xác kép, đo lường năng lực tính toán chung
+ Mỗi node được kết nối qua nền tảng Quantum-2 InfiniBand với băng thông 2 chiều 200GB/s.
- Công nghệ NVIDIA là nền tảng của sáng kiến này, với hàng trăm node được trang bị 8 GPU H200 kết nối NVLink, cung cấp hiệu suất và hiệu quả tính toán vượt trội.
- GPU NVIDIA H200 có bộ nhớ HBM3e trên 140GB ở tốc độ 4,8TB/s, tăng tốc AI tạo sinh và LLM, đồng thời thúc đẩy tính toán khoa học cho các khối lượng công việc HPC với hiệu quả năng lượng tốt hơn.
- Tích hợp NVIDIA Quantum-2 InfiniBand tiên tiến với tính toán In-Network đảm bảo truyền thông hiệu quả, tốc độ cao, độ trễ thấp.
📌 Với đầu tư đáng kể từ METI, Nhật Bản thể hiện tầm nhìn chiến lược nhằm tăng cường năng lực phát triển AI, đẩy nhanh việc sử dụng AI tạo sinh. Siêu máy tính ABCI 3.0 với 6 exaflops AI, 410 petaflops chính xác kép, GPU NVIDIA H200 và mạng NVIDIA Quantum-2 InfiniBand sẽ là nền tảng quan trọng thúc đẩy R&D AI chung với các ngành công nghiệp, học viện và chính phủ, giúp Nhật Bản định vị mình là quốc gia dẫn đầu trong lĩnh vực AI toàn cầu.
https://blogs.nvidia.com/blog/abci-aist/
• Các nhà lập pháp Cộng hòa Mỹ đã yêu cầu chính quyền Biden đánh giá tình báo về khoản đầu tư 1,5 tỷ USD của Microsoft vào công ty AI G42 của UAE.
• Lo ngại chính là về việc chuyển giao công nghệ nhạy cảm và mối quan hệ lịch sử của G42 với Trung Quốc.
• Yêu cầu được đưa ra trong một bức thư gửi cố vấn an ninh quốc gia Jake Sullivan, trước khi thỏa thuận chuyển sang giai đoạn 2 liên quan đến việc chuyển giao chip bán dẫn bị hạn chế xuất khẩu và trọng số mô hình AI.
• Các nhà lập pháp muốn đánh giá về mối quan hệ của G42 với Đảng Cộng sản, quân đội và chính phủ Trung Quốc trước khi thỏa thuận tiến triển.
• Họ dẫn chứng chuyến thăm gần đây của Tổng thống UAE tới Bắc Kinh để thảo luận về hợp tác AI.
• Microsoft cho biết đang làm việc chặt chẽ với chính phủ Mỹ và an ninh quốc gia Mỹ sẽ tiếp tục là ưu tiên hàng đầu.
• Các nhà lập pháp lo ngại về việc xuất khẩu chip AI bị hạn chế nghiêm ngặt để huấn luyện mô hình cũng như trọng số mô hình AI.
• Bức thư cũng đề cập đến công việc "giám sát kỹ thuật số" trước đây của G42 như một lĩnh vực có thể gây rủi ro.
• G42 đã tuyên bố rút các khoản đầu tư ở Trung Quốc vào tháng 2 và chấp nhận các hạn chế do Mỹ áp đặt.
• Bộ Thương mại Mỹ đang xem xét các quy định hạn chế xuất khẩu AI độc quyền hoặc mã nguồn đóng.
📌 Thỏa thuận 1,5 tỷ USD giữa Microsoft và G42 gây lo ngại về an ninh quốc gia Mỹ. Các nhà lập pháp yêu cầu đánh giá tình báo về mối quan hệ của G42 với Trung Quốc trước khi chuyển giao công nghệ AI nhạy cảm. Vấn đề nổi bật là thiếu quy định về xuất khẩu mô hình AI tiên tiến.
ters.com/technology/artificial-intelligence/republican-lawmakers-deeply-concerned-over-microsoft-g42-ai-deal-letter-says-2024-07-11/
• Hong Kong đang tìm kiếm ý kiến về việc tăng cường luật bản quyền để bảo vệ sự phát triển của trí tuệ nhân tạo (AI), bao gồm việc cho phép sử dụng cụ thể nội dung có bản quyền trực tuyến được xử lý bằng AI.
• Chính quyền hy vọng hiện đại hóa Pháp lệnh Bản quyền để theo kịp những phát triển AI mới nhất khi thành phố hướng tới mục tiêu trở thành trung tâm giao dịch sở hữu trí tuệ (IP) khu vực.
• Một cuộc tham vấn kéo dài 2 tháng đã được chính quyền khởi động, với tài liệu tham vấn dài 52 trang được công bố vào ngày 8/7/2024.
• Các chủ đề được đề cập trong tài liệu tham vấn bao gồm bảo vệ bản quyền cho các tác phẩm do AI tạo ra, trách nhiệm vi phạm bản quyền đối với những tác phẩm như vậy và khả năng đưa ra các ngoại lệ bản quyền cụ thể.
• Chính phủ cho rằng việc đưa ra ngoại lệ cho AI là hợp lý để thúc đẩy phát triển công nghệ và ngành công nghiệp AI. Ngoại lệ này không nên chỉ giới hạn ở "nghiên cứu và học tập phi thương mại" mà còn bao gồm "phân tích kinh doanh và các dự án R&D có thể được tài trợ tư nhân".
• Hiện tại, các tác phẩm có bản quyền ở Hong Kong thuộc sở hữu của một người - AI hoặc công nghệ máy tính khác không thể yêu cầu quyền đó. Đối với các tác phẩm được tạo ra hoàn toàn bởi máy tính, tác giả được coi là người thực hiện các sắp xếp cần thiết để tạo ra tác phẩm.
• Các chuyên gia pháp lý và công nghệ chỉ ra rằng khái niệm hiện tại có thể không phù hợp với AI tạo sinh, vì nó có thể tạo ra nội dung độc lập sau khi nhận được hướng dẫn.
• Họ đề xuất cần có định nghĩa rõ ràng hơn về vi phạm hoặc vai trò của AI như một tác giả để tránh vô tình vi phạm đạo văn hoặc ngăn cản việc sử dụng AI.
• Một chuyên gia đề xuất một chương trình tự động cho phép miễn trừ bản quyền đối với dữ liệu được AI phân tích và xử lý khi tạo ra nội dung, với tùy chọn cho phép chủ sở hữu bản quyền từ chối tham gia.
• Thời gian tham vấn công khai kết thúc vào ngày 8/9/2024. Một diễn đàn công khai kéo dài 1 giờ sẽ được tổ chức vào ngày 2/8 tại Bảo tàng Khoa học để công chúng bày tỏ quan điểm với các quan chức.
📌 Hong Kong đang sửa đổi luật bản quyền để thúc đẩy phát triển AI, cân bằng quyền lợi của chủ sở hữu và người dùng. Cuộc tham vấn 2 tháng nhằm hiện đại hóa luật, bao gồm bảo vệ tác phẩm AI và ngoại lệ bản quyền. Mục tiêu là trở thành trung tâm giao dịch IP khu vực theo kế hoạch 5 năm quốc gia.
https://www.scmp.com/news/hong-kong/law-and-crime/article/3269660/hong-kong-seeks-changes-copyright-law-bolster-ai-development
• OpenAI đã quyết định không cho phép Microsoft và Apple giữ vị trí quan sát viên trong hội đồng quản trị của mình.
• Microsoft đã từ bỏ vị trí quan sát viên "có hiệu lực ngay lập tức" theo một lá thư gửi tới OpenAI. Apple cũng sẽ không nhận vị trí này như dự kiến ban đầu.
• Thay vào đó, OpenAI sẽ tổ chức các cuộc họp thường xuyên với các đối tác như Microsoft, Apple và các nhà đầu tư như Thrive Capital, Khosla Ventures. Đây là một "cách tiếp cận mới để thông báo và tương tác với các đối tác chiến lược chủ chốt".
• Động thái này diễn ra trong bối cảnh các cơ quan quản lý cạnh tranh ở EU và Mỹ đang xem xét mối quan hệ đối tác giữa Microsoft và OpenAI, cũng như các khoản đầu tư của các công ty công nghệ lớn vào các startup AI tạo sinh.
• Microsoft đã đầu tư 13 tỷ USD vào OpenAI và đóng vai trò quan trọng trong cuộc khủng hoảng ban lãnh đạo của OpenAI vào tháng 11/2023.
• Mối quan hệ đối tác với Microsoft rất quan trọng đối với thành công của OpenAI. Startup này phụ thuộc vào Microsoft về sức mạnh tính toán và lưu trữ đám mây trị giá hàng tỷ USD.
• Microsoft không có cổ phần thông thường trong OpenAI mà có quyền nhận một phần lợi nhuận từ một công ty con của OpenAI, với một giới hạn nhất định.
• OpenAI tuyên bố vẫn "hoàn toàn là một công ty độc lập được quản lý bởi OpenAI Nonprofit".
• Ủy ban châu Âu đang xem xét khả năng điều tra chống độc quyền đối với mối quan hệ đối tác Microsoft-OpenAI. Ủy ban Thương mại Liên bang Mỹ cũng đang xem xét các khoản đầu tư của các công ty công nghệ lớn vào các startup AI tạo sinh.
• Hội đồng quản trị 8 thành viên của OpenAI bao gồm CEO Sam Altman, cựu Bộ trưởng Tài chính Mỹ Larry Summers và CEO Instacart Fidji Simo. Chủ tịch hội đồng là Bret Taylor, cựu đồng CEO của Salesforce.
📌 OpenAI từ chối Microsoft và Apple làm quan sát viên hội đồng quản trị, thay vào đó áp dụng chiến lược họp thường xuyên với đối tác chiến lược. Động thái này diễn ra trong bối cảnh gia tăng giám sát quy định, với EU và Mỹ đang xem xét mối quan hệ Microsoft-OpenAI trị giá 13 tỷ USD.
https://www.ft.com/content/ecfa69df-5d1c-4177-9b14-a3a73072db12
#FT
• AI đang mang lại những thay đổi lớn cho ngành luật, giúp luật sư làm việc hiệu quả hơn và giảm chi phí cho khách hàng.
• Trên 40 tiểu bang ở Mỹ yêu cầu luật sư phải tham gia khóa học về công nghệ và luật pháp, bao gồm cả AI.
• AI có khả năng quản lý lượng dữ liệu khổng lồ và "đọc" mọi cuốn sách trong thư viện luật. Nó có thể trở thành "huấn luyện viên kiện tụng" với khả năng nhớ hoàn hảo mọi tài liệu trong một vụ án.
• Trong quá trình lấy lời khai, AI có thể gợi ý những câu hỏi mà luật sư có thể chưa nghĩ tới dựa trên dữ liệu được cung cấp.
• Khi áp dụng cho hợp đồng thuê hoặc các loại hợp đồng khác, AI hoạt động như công cụ kiểm tra chính tả và ngữ pháp, giúp giảm thiểu rủi ro sai sót nghiêm trọng.
• AI có thể xem xét hàng trăm nghìn tài liệu trong thời gian ngắn, giúp phát hiện những sự thật quan trọng mà luật sư có thể bỏ sót.
• Công nghệ này giúp đạt được công lý nhanh hơn và ít tốn kém hơn, đặc biệt có lợi cho những người không đủ khả năng thuê luật sư hàng đầu.
• AI giúp tăng tốc quá trình nghiên cứu và soạn thảo văn bản pháp lý, giúp luật sư làm việc hiệu quả hơn với chi phí thấp hơn cho khách hàng.
• Trong việc xem xét tài liệu, AI có thể tìm kiếm thông tin quan trọng trong hàng trăm nghìn email hoặc tài liệu khác chỉ trong vài giờ, thay vì mất nhiều tuần hoặc tháng như trước đây.
• Các chuyên gia dự đoán trong tương lai, việc không sử dụng AI có thể bị coi là sơ suất nghề nghiệp, vì nó có khả năng phát hiện những điều con người bỏ sót.
• AI đang được áp dụng không chỉ ở các công ty luật lớn mà cả ở các văn phòng luật nhỏ.
• Tuy nhiên, việc sử dụng AI trong ngành luật cũng đặt ra những thách thức về đạo đức và cần có các hệ thống tự điều chỉnh để đảm bảo AI hoạt động một cách hợp pháp và công bằng.
• Một số chuyên gia cho rằng AI sẽ làm giảm số lượng người muốn tham gia ngành luật, vì sẽ cần ít người hơn ở các vị trí cấp thấp, cấp đầu vào.
📌 AI đang cách mạng hóa ngành luật, giúp tăng hiệu quả làm việc và giảm chi phí. Tuy nhiên, nó cũng đặt ra thách thức về đạo đức và có thể làm giảm nhu cầu nhân lực cấp thấp trong tương lai. Việc không sử dụng AI có thể bị coi là sơ suất nghề nghiệp.
https://www.kiplinger.com/personal-finance/how-ai-can-help-a-lawyer-work-faster-and-less-expensively
• Một nhóm nghiên cứu tại Singapore đã phát triển cánh tay robot hỗ trợ AI có thể nhận dạng và phân loại 7 loại nhựa khác nhau bằng cách sử dụng hình ảnh đa phổ.
• Dự án này được thực hiện bởi các nhà nghiên cứu từ A*Star và SUTD, phối hợp với SembWaste - công ty quản lý chất thải của Sembcorp.
• Ban đầu, việc huấn luyện AI chỉ bằng hình ảnh thông thường không đủ chính xác. Sau khi bổ sung dữ liệu hình ảnh hồng ngoại, độ chính xác trong phân loại rác nhựa đã tăng từ 85% lên 95%.
• Hệ thống mới chỉ cần 50 mẫu hình ảnh siêu phổ của 7 loại nhựa, thay vì 6.500 hình ảnh rác nhựa như trước đây.
• Dự án này nằm trong chương trình AI Singapore (AISG), nhằm thúc đẩy ứng dụng AI tại Singapore thông qua tài trợ và chuyên môn.
• Một trong những thách thức lớn nhất khi áp dụng AI là thiếu dữ liệu huấn luyện chất lượng cao. Nhiều công ty phải quay lại từ đầu để chuẩn bị dữ liệu tốt hơn.
• Chương trình 100 Experiments (100E) của AISG đã mở rộng mục tiêu hỗ trợ lên tới 200 công ty, cung cấp khoản tài trợ từ 180.000 đến 330.000 SGD để xây dựng và triển khai hệ thống AI.
• Đã có 118 dự án được phê duyệt phát triển và 90 dự án đã được triển khai trong khuôn khổ chương trình 100E.
• Một ví dụ thành công khác là hệ thống AI phân tích X-quang nha khoa của Q&M Dental Group, đạt độ chính xác 85-95% sau khi được huấn luyện trên 20.000 ảnh X-quang. Hệ thống này đã được triển khai tại 150 phòng khám ở Singapore và Malaysia.
• Theo khảo sát của Salesforce, lý do chính khiến người dân Singapore không tin tưởng AI là do thiếu chính xác. 80% người được hỏi cho rằng AI cần phải liên tục mang lại kết quả chính xác để họ tin tưởng.
• Các chuyên gia nhấn mạnh rằng việc tăng độ chính xác của mô hình AI không đơn giản chỉ là tăng khối lượng dữ liệu, mà cần có bộ dữ liệu phù hợp và chất lượng cao.
📌 Chương trình AISG đang thúc đẩy ứng dụng AI tại Singapore thông qua tài trợ và hỗ trợ kỹ thuật. Yếu tố then chốt là xây dựng bộ dữ liệu huấn luyện chất lượng cao. Chương trình 100 Experiments (100E) của AISG đã mở rộng mục tiêu hỗ trợ lên tới 200 công ty, cung cấp khoản tài trợ từ 180.000 đến 330.000 SGD để xây dựng và triển khai hệ thống AI. Đã có 118 dự án được phê duyệt phát triển và 90 dự án đã được triển khai trong khuôn khổ chương trình 100E.
https://www.straitstimes.com/tech/projects-funded-under-national-ai-programme-aisg-focus-on-good-training-datasets
• Chính quyền thành phố Bắc Kinh vừa công bố dự thảo quy định toàn diện nhằm hỗ trợ và quản lý sự phát triển của công nghệ lái xe tự động, đưa thủ đô Trung Quốc tiến gần hơn đến việc lấp đầy đường phố bằng xe không người lái.
• Quy định đề xuất hứa hẹn hỗ trợ "đột phá công nghệ" trong các "lĩnh vực cốt lõi" bao gồm cảm biến, chất bán dẫn, hệ điều hành và thuật toán. Nó cũng kêu gọi xây dựng nền tảng giám sát an toàn toàn thành phố cho xe không người lái.
• Chính phủ có kế hoạch hỗ trợ "truy cập có hệ thống, sử dụng được ủy quyền và lưu thông" dữ liệu do xe không người lái thu thập, đồng thời dành đủ không gian cho lái xe thông minh.
• Quy định cũng yêu cầu thiết lập một sandbox được quản lý để các công ty và tổ chức thử nghiệm các công nghệ, kịch bản và sản phẩm mới trong "môi trường quy định bao trùm và thận trọng".
• Bắc Kinh hiện cho phép Baidu, Pony.ai, WeRide và AutoX vận hành dịch vụ xe buýt tự động, với tài xế an toàn trên xe, giữa Sân bay Quốc tế Bắc Kinh Đại Hưng và khu công nghệ cao Yizhuang ở phía nam thành phố.
• Một số tổ chức cũng sẽ được phép thực hiện dịch vụ lập bản đồ bằng xe tự lái, bao gồm xem xét và cập nhật bản đồ, cũng như truyền dữ liệu bản đồ.
• Để đảm bảo an toàn, nền tảng giám sát được lên kế hoạch nhằm quản lý tốt hơn các vi phạm giao thông, điều tra tai nạn và ứng phó khẩn cấp. Kế hoạch của Bắc Kinh cũng bao gồm hệ thống chỉ huy dựa trên đám mây để kết nối dữ liệu xe với điều kiện đường và giao thông.
• Đây là bước tiến lớn nhất ở thủ đô Trung Quốc về lái xe tự động kể từ khi Bắc Kinh lần đầu tiên cho phép thử nghiệm đường bộ vào cuối năm 2019. Thành phố đã mở hơn 1.160 km đường công cộng để thử nghiệm, cho phép 384 xe từ 18 công ty tham gia tính đến tháng 2/2024.
• Các thành phố khác của Trung Quốc cũng đã đầu tư mạnh vào lĩnh vực này. Thâm Quyến đã mở 944 km đường công cộng để thử nghiệm, bao gồm 67 km đường cao tốc. Vũ Hán tuyên bố là "khu vực dịch vụ lái xe tự động lớn nhất thế giới", với gần 500 xe tự lái hoạt động thường xuyên trên đường.
📌 Bắc Kinh công bố quy định mới nhất về xe tự lái, hỗ trợ đột phá công nghệ và mở rộng sử dụng dữ liệu. Thành phố đã mở 1.160 km đường thử nghiệm cho 384 xe từ 18 công ty. Các thành phố khác như Thâm Quyến, Vũ Hán cũng đang đẩy mạnh phát triển lĩnh vực này.
https://www.scmp.com/tech/policy/article/3268726/green-light-autonomous-vehicles-beijing-unveils-biggest-regulation-five-years
- Cuộc đua giành vị trí thống trị trong lĩnh vực điện toán đám mây và AI giữa Mỹ và Trung Quốc đang nóng lên. Trung Quốc đang vượt lên với các chiến thuật quyết liệt.
- Điện toán đám mây là nền tảng cho sự phát triển của AI. Hơn 70% công ty đang áp dụng nền tảng AI và 85% phát triển ứng dụng AI trên đám mây.
- Chính phủ Mỹ cần đảm bảo chip hiệu năng cao được sản xuất bởi các đơn vị đáng tin cậy và AI được phát triển trên các đám mây an toàn.
- Các nhà cung cấp đám mây của Mỹ đang phải đối mặt với sự cạnh tranh không công bằng từ các công ty Trung Quốc được hỗ trợ bởi trợ cấp nhà nước và định giá thấp.
- Các gã khổng lồ đám mây Trung Quốc như Alibaba, Huawei, Tencent đang cung cấp dịch vụ với giá thấp hơn 20-40%, thậm chí 90% so với Mỹ. Điều này gây bất lợi cho các công ty Mỹ.
- Trung Quốc đã xây dựng hơn 100 trung tâm dữ liệu hiện đại trên toàn cầu. Thị trường đám mây của Trung Quốc tăng 16% trong năm 2023.
- Mỹ vẫn giữ lợi thế quan trọng trong điện toán đám mây nhờ các biện pháp bảo mật nghiêm ngặt và khả năng tiếp cận chip tiên tiến. Tuy nhiên, các công ty Trung Quốc đang bắt kịp.
- Mỹ cần thực hiện chiến lược đa diện: tăng cường liên minh chống lại công nghệ Trung Quốc, thách thức các chính sách bất bình đẳng, mở rộng chương trình hỗ trợ kỹ thuật số ở các thị trường đang phát triển.
- Trong nước, Mỹ cần đảm bảo các nhà cung cấp đám mây duy trì lợi thế cạnh tranh bằng cách tiếp cận chip bán dẫn cao cấp, hỗ trợ nghiên cứu và phát triển, tăng cường an ninh mạng.
📌Điện toán đám mây là nền tảng cho sự phát triển của AI. Hơn 70% công ty đang áp dụng nền tảng AI và 85% phát triển ứng dụng AI trên đám mây. Các gã khổng lồ đám mây Trung Quốc như Alibaba, Huawei, Tencent đang cung cấp dịch vụ với giá thấp hơn 20-40%, thậm chí 90% so với Mỹ. Trung Quốc đã xây dựng hơn 100 trung tâm dữ liệu hiện đại trên toàn cầu. Thị trường đám mây của Trung Quốc tăng 16% trong năm 2023.
https://thehill.com/opinion/technology/4756717-china-cloud-computing/
• Thượng Hải đã công bố hướng dẫn quản lý đầu tiên của Trung Quốc về robot hình người, kêu gọi kiểm soát rủi ro và hợp tác quốc tế.
• Hướng dẫn được công bố tại Hội nghị Trí tuệ Nhân tạo Thế giới (WAIC) ngày 6/7/2024.
• Các nhà sản xuất robot hình người cần đảm bảo sản phẩm "không đe dọa an ninh con người" và "bảo vệ hiệu quả phẩm giá con người".
• Hướng dẫn yêu cầu thiết lập quy trình cảnh báo rủi ro, hệ thống ứng phó khẩn cấp và đào tạo người dùng về sử dụng đạo đức và hợp pháp.
• Tài liệu được soạn thảo bởi 5 tổ chức ngành công nghiệp tại Thượng Hải, bao gồm Hiệp hội Luật Thượng Hải và Hiệp hội Công nghiệp Trí tuệ Nhân tạo Thượng Hải.
• Các nhóm này kêu gọi hợp tác toàn cầu trong lĩnh vực robot hình người, đề xuất thiết lập khung quản trị toàn cầu và thành lập think tank quốc tế.
• Nhiều công ty robot mới nổi đã trưng bày sản phẩm tại WAIC.
• Tesla giới thiệu thế hệ thứ hai của robot hình người Optimus, thu hút sự chú ý lớn dù chỉ được đặt sau kính và không di chuyển.
• 18 robot hình người được trưng bày tại hội nghị, phần lớn đến từ các công ty Trung Quốc.
• Leju Robot của Thâm Quyến giới thiệu robot Kuavo chạy trên hệ điều hành dựa trên OpenHarmony của Huawei.
• Trung Quốc đặt mục tiêu sản xuất hàng loạt robot hình người vào năm 2025 và dẫn đầu toàn cầu trong lĩnh vực này vào năm 2027.
• Đến năm 2027, robot hình người được kỳ vọng trở thành "động lực tăng trưởng kinh tế mới quan trọng" tại Trung Quốc, ứng dụng trong các ngành như y tế, dịch vụ gia đình, nông nghiệp và logistics.
• Các công ty Trung Quốc đang nỗ lực bắt kịp đối thủ Mỹ trong các lĩnh vực quan trọng như AI nhằm đạt được tự chủ công nghệ.
• Số lượng đơn đăng ký sáng chế AI tạo sinh của các công ty Trung Quốc trong thập kỷ 2014-2023 cao gấp 6 lần so với Mỹ, theo dữ liệu của Tổ chức Sở hữu Trí tuệ Thế giới.
📌 Thượng Hải công bố hướng dẫn quản lý robot hình người đầu tiên của Trung Quốc, nhấn mạnh an toàn và phẩm giá con người. Trung Quốc đặt mục tiêu sản xuất hàng loạt vào năm 2025, dẫn đầu toàn cầu năm 2027. Các công ty Trung Quốc đang nỗ lực bắt kịp Mỹ trong AI, với số lượng đơn sáng chế AI tạo sinh cao gấp 6 lần trong 10 năm qua.
https://www.scmp.com/tech/policy/article/3269500/chinas-laws-robotics-shanghai-publishes-first-humanoid-robot-guidelines
• Bộ Công nghiệp và Công nghệ Thông tin Trung Quốc đã công bố dự thảo kế hoạch tiêu chuẩn hóa ngành công nghiệp lần thứ 9 năm 2024, tập trung vào lĩnh vực trí tuệ nhân tạo.
• Kế hoạch đề xuất 12 dự án tiêu chuẩn mới về trí tuệ nhân tạo, bao gồm:
• Quy trình xử lý dữ liệu đào tạo và mô hình đánh giá chất lượng cho mô hình lớn AI
• Yêu cầu kỹ thuật cho hệ thống gán nhãn dữ liệu thị giác tự động
• Hướng dẫn chuyển đổi mô hình mạng nơ-ron
• Phương pháp kiểm tra hiệu suất nén mô hình mạng nơ-ron
• Thông số kỹ thuật hệ thống nhận dạng giọng nói giả mạo sâu
• Thông số kỹ thuật hệ thống phân tích camera tốc độ cao
• Thông số kỹ thuật hệ thống học tự chủ cho thị giác máy tính
• Thông số kỹ thuật nền tảng đào tạo và suy luận mô hình thị giác công nghiệp
• Yêu cầu kỹ thuật cho mô hình lớn ngành thép
• Yêu cầu kỹ thuật xây dựng đồ thị tri thức cho quy trình sản xuất thép
• Yêu cầu kỹ thuật xử lý dữ liệu và xây dựng mô hình ra quyết định thông minh cho quá trình luyện thép
• Yêu cầu kỹ thuật hệ thống mô hình lớn thị giác cho khu vực hậu cần
• Các dự án tiêu chuẩn này đều là tiêu chuẩn khuyến nghị và có thời gian thực hiện là 24 tháng.
• Nhiều tổ chức tham gia xây dựng tiêu chuẩn, bao gồm Viện Nghiên cứu Tiêu chuẩn hóa Công nghệ Điện tử Trung Quốc, các công ty công nghệ lớn như Ant Group, Tencent, Huawei, các trường đại học và viện nghiên cứu hàng đầu.
• Các tiêu chuẩn tập trung vào các lĩnh vực then chốt như xử lý dữ liệu lớn, thị giác máy tính, học sâu, và ứng dụng AI trong các ngành công nghiệp cụ thể như thép và hậu cần.
📌 Trung Quốc đẩy mạnh tiêu chuẩn hóa AI với 12 dự án mới trong năm 2024, tập trung vào mô hình lớn, thị giác máy tính và ứng dụng trong công nghiệp. Kế hoạch này thể hiện nỗ lực của Trung Quốc trong việc dẫn đầu phát triển và ứng dụng AI.
https://www.miit.gov.cn/gzcy/yjzj/art/2024/art_3248109ea5854d9394a73056c78bea5c.html
• Trung Quốc đã ban hành "Hướng dẫn xây dựng hệ thống tiêu chuẩn hóa toàn diện cho ngành công nghiệp AI quốc gia (phiên bản 2024)" nhằm thúc đẩy phát triển tiêu chuẩn AI.
• Mục tiêu đến năm 2026:
- Ban hành trên 50 tiêu chuẩn quốc gia và ngành mới
- Hơn 1.000 doanh nghiệp áp dụng và triển khai tiêu chuẩn
- Tham gia xây dựng trên 20 tiêu chuẩn quốc tế
• Hướng dẫn đề ra 4 nguyên tắc: đổi mới sáng tạo, ứng dụng dẫn dắt, hợp tác ngành, mở cửa hợp tác
• Cấu trúc hệ thống tiêu chuẩn AI gồm 7 phần:
1. Tiêu chuẩn chung cơ bản
2. Tiêu chuẩn hỗ trợ nền tảng
3. Tiêu chuẩn công nghệ then chốt
4. Tiêu chuẩn sản phẩm và dịch vụ thông minh
5. Tiêu chuẩn trao quyền công nghiệp hóa mới
6. Tiêu chuẩn ứng dụng ngành
7. Tiêu chuẩn an toàn/quản trị
• Các lĩnh vực trọng tâm:
- Tiêu chuẩn chung: thuật ngữ, kiến trúc tham chiếu, đánh giá, quản lý, bền vững
- Hỗ trợ nền tảng: dữ liệu, chip, cảm biến, thiết bị tính toán, trung tâm tính toán, phần mềm hệ thống, framework phát triển
- Công nghệ then chốt: học máy, đồ thị tri thức, mô hình lớn, xử lý ngôn ngữ tự nhiên, thị giác máy tính, trí tuệ tăng cường người-máy, agent thông minh, trí tuệ nhóm, trí tuệ đa phương tiện, trí tuệ hiện thân
- Sản phẩm và dịch vụ: robot, phương tiện thông minh, thiết bị di động, người số, dịch vụ thông minh
- Trao quyền công nghiệp hóa: R&D, thử nghiệm, sản xuất, marketing, quản lý vận hành
- Ứng dụng ngành: thành phố thông minh, nông nghiệp, năng lượng, môi trường, tài chính, logistics, giáo dục, y tế, giao thông, du lịch
- An toàn/quản trị: bảo mật, quản trị đạo đức AI
• Các biện pháp bảo đảm:
- Hoàn thiện tổ chức tiêu chuẩn hóa AI
- Xây dựng đội ngũ nhân tài
- Tăng cường tuyên truyền, phổ biến tiêu chuẩn
📌 Trung Quốc đặt mục tiêu tham gia xây dựng trên 20 tiêu chuẩn AI quốc tế đến năm 2026, thể hiện tham vọng dẫn dắt tiêu chuẩn AI toàn cầu. Kế hoạch 3 năm tập trung vào 7 lĩnh vực trọng tâm từ nền tảng đến ứng dụng, với các biện pháp cụ thể về tổ chức, nhân lực và triển khai. Điều này cho thấy quyết tâm của Trung Quốc trong việc thúc đẩy ngành công nghiệp AI và tăng cường ảnh hưởng quốc tế trong lĩnh vực này.
https://www.miit.gov.cn/zwgk/zcwj/wjfb/tz/art/2024/art_e8ebf5600ec24d3db644150873712c5f.html
• FedRAMP đang thiết lập một khung ưu tiên cho các công nghệ mới nổi (ET) trong quá trình cấp phép FedRAMP, đáp ứng Sắc lệnh 14110 của Tổng thống về phát triển và sử dụng AI an toàn, bảo mật và đáng tin cậy.
• Khung này sẽ cho phép ưu tiên thường xuyên và nhất quán các ET liên quan đến đám mây quan trọng nhất cần sử dụng bởi các cơ quan liên bang.
• Quy trình ưu tiên sẽ được tích hợp vào các con đường cấp phép FedRAMP hiện có và không tạo ra các con đường mới.
• Ban đầu, danh sách ưu tiên ET bao gồm ba khả năng AI tạo sinh: giao diện trò chuyện, công cụ tạo và gỡ lỗi mã, và trình tạo hình ảnh dựa trên lời nhắc.
• FedRAMP cũng sẽ ưu tiên mục tiêu khả năng thứ tư, đó là các API đa năng tạo điều kiện tích hợp ba khả năng AI tạo sinh này vào các hệ thống mới hoặc hiện có.
• Khung ưu tiên ET có hai phần chính:
1. Quá trình quản trị - Thiết lập các khả năng ưu tiên
2. Quy trình đánh giá - Đệ trình và xem xét của nhà cung cấp dịch vụ đám mây (CSP)
• Quá trình quản trị xác định tối đa ba khả năng ET sẽ được ưu tiên "bỏ qua hàng" để truy cập FedRAMP tại bất kỳ thời điểm nào.
• Quy trình đánh giá CSP xác định cách các nhà cung cấp dịch vụ đám mây mới sẽ có các CSO của họ đủ điều kiện để truy cập đánh giá nhanh.
• Các CSP hiện có phải làm việc với quan chức cấp phép của họ và sẽ tuân theo quy trình yêu cầu thay đổi đáng kể (SCR) để đưa các CSO ET mới vào cấp phép của họ.
• FedRAMP sẽ cập nhật và duy trì một danh sách các ET được ưu tiên ít nhất hàng năm với đầu vào từ các cơ quan và ngành công nghiệp, sau đó được Hội đồng FedRAMP phê duyệt.
• Ban đầu, FedRAMP dự kiến tối đa 12 CSO có các dịch vụ dựa trên AI sẽ được ưu tiên sử dụng khung này: tối đa ba CSO thực hiện mỗi khả năng AI tạo sinh được liệt kê trong EO 14110, và tối đa ba CSO cung cấp dịch vụ dựa trên API thực hiện bất kỳ khả năng nào trong số ba khả năng đó.
• Các CSO được ưu tiên đáp ứng các tiêu chí đủ điều kiện sẽ chuyển lên đầu quy trình xem xét cấp phép.
• FedRAMP sẽ liên tục đánh giá quy trình và thực hiện sửa đổi khi cần thiết.
• Các cơ quan sẽ cần ưu tiên tài trợ và cấp phép CSO trước khi FedRAMP ưu tiên cấp phép.
• Các nhà cung cấp dịch vụ đám mây (CSP) cần ưu tiên khắc phục mọi phát hiện được xác định bởi 3PAO, cơ quan và FedRAMP để đẩy nhanh toàn bộ quy trình cấp phép.
📌 FedRAMP thiết lập khung ưu tiên cho công nghệ mới nổi, tập trung vào AI tạo sinh với 3 khả năng chính. Quy trình gồm quản trị và đánh giá, cho phép tối đa 12 CSO được ưu tiên. Cập nhật hàng năm, đảm bảo linh hoạt và hiệu quả trong cấp phép dịch vụ đám mây liên bang.
https://www.fedramp.gov/et-framework/
• NEA (Hiệp hội Giáo dục Quốc gia Hoa Kỳ) đã thông qua một tuyên bố chính sách về việc sử dụng AI trong lớp học, nhằm đặt nền tảng cho việc ứng dụng AI an toàn và công bằng trong giáo dục.
• Tuyên bố nhấn mạnh tầm quan trọng của con người trong giảng dạy, khuyến cáo không nên sử dụng AI để thay thế giáo viên hoặc quá trình học tập.
• NEA cảnh báo không nên sử dụng AI cho các quyết định quan trọng như kỷ luật học sinh, xác định việc lên lớp, đánh giá học sinh hay đánh giá hiệu suất công việc của giáo viên.
• Chính sách kêu gọi sự tham gia của giáo viên trong các cuộc thảo luận về việc triển khai AI trong lớp học, đồng thời nhấn mạnh nhu cầu phát triển chuyên môn về AI cho giáo viên.
• Theo báo cáo, số lượng giáo viên sử dụng công cụ AI đã tăng 32% từ năm học 2022-2023 đến 2023-2024. Tuy nhiên, 71% giáo viên chưa được đào tạo về cách sử dụng AI trong lớp học.
• Tuyên bố chính sách đề cập đến các vấn đề về công bằng, bảo vệ dữ liệu và tác động môi trường của AI. Nó kêu gọi các nhà giáo dục phải "có chủ ý và chủ động" trong việc ngăn chặn sự thiên vị ảnh hưởng đến cách học sinh sử dụng công nghệ.
• Các thành viên của lực lượng đặc nhiệm NEA nhấn mạnh tiềm năng của AI trong việc hỗ trợ học sinh khuyết tật và những học sinh có phương pháp học tập khác biệt.
• Tuy nhiên, họ cũng cảnh báo về nguy cơ mở rộng khoảng cách số giữa các quận/huyện có điều kiện kinh tế khác nhau, khi các khu vực giàu có hơn có thể áp dụng công nghệ nhanh hơn và phát triển chương trình đào tạo hiệu quả hơn.
• Chính sách kêu gọi xem xét tác động môi trường của AI trong quá trình ra quyết định về phát triển và ứng dụng các công cụ AI. Việc tạo ra một hình ảnh bằng AI tiêu tốn lượng năng lượng tương đương với việc sạc đầy một chiếc điện thoại di động.
• NEA hy vọng chính sách này sẽ giúp khởi động các cuộc thảo luận ở những nơi chưa có chính sách về AI, hoặc thúc đẩy đánh giá các chính sách hiện có.
📌 NEA đã thông qua hướng dẫn về AI trong giáo dục, nhấn mạnh vai trò của giáo viên và mối quan hệ giáo viên-học sinh. Chính sách kêu gọi sử dụng AI an toàn, công bằng, đồng thời cảnh báo về các vấn đề như thiên vị, bảo mật dữ liệu và tác động môi trường. 71% giáo viên chưa được đào tạo về AI, trong khi việc sử dụng AI tăng 32%.
https://www.edweek.org/teaching-learning/nea-approves-ai-guidance-but-its-vital-for-educators-to-tread-carefully/2024/07
• Các nhà lập pháp California đã bỏ phiếu thông qua dự luật yêu cầu các công ty AI phải kiểm tra hệ thống và bổ sung các biện pháp an toàn để ngăn chặn việc lạm dụng AI gây hại nghiêm trọng.
• Dự luật nhằm giảm thiểu rủi ro từ các hệ thống AI cực kỳ mạnh mẽ trong tương lai, như khả năng phá hủy lưới điện hoặc hỗ trợ chế tạo vũ khí hóa học.
• Các yêu cầu chỉ áp dụng cho các hệ thống có chi phí đào tạo trên 100 triệu USD. Hiện chưa có mô hình AI nào đạt ngưỡng này tính đến tháng 7/2023.
• Dự luật do Thượng nghị sĩ Scott Wiener đề xuất, nhằm đưa ra các tiêu chuẩn an toàn hợp lý để ngăn chặn "tác hại thảm khốc" từ các mô hình AI cực kỳ mạnh mẽ trong tương lai.
• Các công ty công nghệ lớn như Meta và Google phản đối mạnh mẽ, cho rằng quy định nhắm vào các nhà phát triển thay vì những người sử dụng và khai thác AI gây hại.
• Wiener bác bỏ thông tin sai lệch rằng dự luật sẽ đưa các nhà phát triển AI vào tù. Chỉ có Tổng chưởng lý tiểu bang mới có thể theo đuổi các hành động pháp lý trong trường hợp vi phạm.
• Thống đốc Gavin Newsom ủng hộ California là nơi áp dụng và quản lý AI sớm, nhưng cảnh báo việc quá mức quy định có thể đặt tiểu bang vào "vị thế nguy hiểm".
• Các công ty công nghệ cho rằng yêu cầu sẽ làm nản lòng việc phát triển hệ thống AI lớn hoặc giữ công nghệ nguồn mở.
• Những người ủng hộ dự luật nói California không thể chờ đợi hướng dẫn từ chính phủ liên bang, viện dẫn bài học từ việc không kiểm soát kịp thời các công ty mạng xã hội.
• Dự luật cũng sẽ thành lập một cơ quan mới của tiểu bang để giám sát các nhà phát triển và đưa ra các thực hành tốt nhất.
• Các nhà lập pháp cũng đang xem xét hai biện pháp khác để bảo vệ người dân California khỏi tác hại tiềm tàng của AI, bao gồm chống phân biệt đối xử tự động hóa và bảo vệ dữ liệu của người dưới 18 tuổi.
📌 California đi đầu trong việc quản lý AI với dự luật yêu cầu kiểm tra an toàn cho các hệ thống trên 100 triệu USD. Dự luật gây tranh cãi giữa các nhà lập pháp và công ty công nghệ, đặt ra câu hỏi về cân bằng giữa đổi mới và an toàn trong lĩnh vực AI đang phát triển nhanh chóng.
https://www.stltoday.com/california-advances-ai-safety-bill/article_8ce134be-cb00-5d14-b2d8-b220d21782fa.html
• Nhật Bản sẽ hỗ trợ các nước Đông Nam Á đào tạo mô hình ngôn ngữ lớn (LLM) bằng ngôn ngữ địa phương, thúc đẩy sự phát triển của trí tuệ nhân tạo trong khu vực.
• Thủ tướng Fumio Kishida dự kiến sẽ công bố sáng kiến hợp tác công-tư này vào thứ Sáu tại Hội nghị Thượng đỉnh Kinh doanh Châu Á do Liên đoàn Doanh nghiệp Nhật Bản (Keidanren) tổ chức.
• Kishida xem AI và giảm phát thải carbon là những lĩnh vực mà Nhật Bản có thể hỗ trợ độc đáo cho Hiệp hội các quốc gia Đông Nam Á (ASEAN).
• Sáng kiến này nhằm thúc đẩy hợp tác giữa các công ty AI Nhật Bản và doanh nghiệp ở Singapore, Malaysia, Việt Nam và các nước khác trong khu vực, đặc biệt là về mô hình ngôn ngữ lớn.
• LLM là nền tảng cho các mô hình AI tạo sinh như ChatGPT. Tuy nhiên, do cần lượng dữ liệu đào tạo rất lớn, các tiến bộ chủ yếu tập trung vào các ngôn ngữ phổ biến như tiếng Anh và tiếng Trung.
• Nhật Bản và các nước ASEAN lo ngại rằng sự chậm trễ trong phát triển AI bằng ngôn ngữ của họ sẽ cản trở việc tạo ra các dịch vụ AI mới, tiện lợi và làm suy yếu đa dạng văn hóa.
• Việc phụ thuộc vào các công ty nước ngoài về công nghệ tiên tiến cũng đặt ra rủi ro về an ninh kinh tế.
• Nhật Bản dự kiến các nhà phát triển AI của mình sẽ làm việc với đối tác ở Đông Nam Á để đào tạo LLM phù hợp với ngôn ngữ và bối cảnh văn hóa địa phương, bao gồm việc biên soạn dữ liệu văn bản, giọng nói và thử nghiệm mô hình.
• Nhật Bản cũng có kế hoạch cung cấp tài nguyên tính toán, như các đơn vị xử lý đồ họa (GPU) cho các nước Đông Nam Á.
• Một số hợp tác đã bắt đầu, như Elyza của Tokyo đang phát triển LLM tiếng Thái và hợp tác với các doanh nghiệp Thái Lan và Nhật Bản.
• Singapore đã công bố sáng kiến phát triển LLM cho tiếng Indonesia, Malaysia và Thái vào tháng 12/2023. Nhật Bản sẽ tìm cách hợp tác trong nỗ lực này.
• Chính phủ Nhật Bản sẽ cung cấp trợ cấp cho các công ty mở rộng sang thị trường mới nổi và các nước đang phát triển thuộc Nam bán cầu, với ngân sách 140 tỷ yên (867 triệu USD).
• Chương trình Thách thức Tăng tốc AI Tạo sinh (GENIAC) của Nhật Bản sẽ cung cấp 29 tỷ yên hỗ trợ cho các startup kỹ thuật số đến cuối năm tài chính.
• Kishida cũng sẽ thảo luận về các sáng kiến trong kế hoạch xây dựng kỹ năng số nhằm đào tạo 100.000 người trong 5 năm, hợp tác với các thành viên ASEAN.
📌 Nhật Bản đang tiên phong trong việc hỗ trợ phát triển AI bằng ngôn ngữ địa phương ở Đông Nam Á thông qua sáng kiến công-tư trị giá 867 triệu USD. Mục tiêu là thúc đẩy an ninh kinh tế, bảo tồn đa dạng văn hóa và đào tạo 100.000 chuyên gia kỹ thuật số trong 5 năm tới.
https://asia.nikkei.com/Business/Technology/Artificial-intelligence/Japan-to-help-Southeast-Asia-develop-AI-in-local-languages
• AI chủ quyền là khả năng một quốc gia xây dựng AI với nhân tài nội địa ở các cấp độ khác nhau, dựa trên chính sách địa phương hoặc chiến lược AI quốc gia.
• AI được thúc đẩy bởi trí tuệ, không phải chính sách. Mỗi quốc gia cần có khả năng điều chỉnh AI cho phù hợp với nhu cầu địa phương để bảo tồn giá trị và quy định giám sát của mình.
• Các chính phủ nên nỗ lực xây dựng và nuôi dưỡng hệ sinh thái AI địa phương để thúc đẩy khả năng cạnh tranh kinh tế và bảo tồn giá trị riêng.
• Công nghệ và thuật toán trong AI đã trở nên phổ biến, nhưng hệ sinh thái AI chỉ hoạt động đầy đủ khi mọi bên liên quan đều hướng tới việc xây dựng thế hệ nhân tài AI tiếp theo.
• Nhiều bang ở Mỹ đã bắt đầu triển khai các sáng kiến AI, như New Jersey với NJ AI Hub, New York với Empire AI, và Massachusetts với quỹ 100 triệu USD để tạo ra trung tâm AI ứng dụng.
• Năm 2023 là năm AI bùng nổ trong nhận thức của công chúng toàn cầu. Theo Bảng xếp hạng AI toàn cầu 2023, 5 quốc gia hàng đầu về AI là Mỹ, Trung Quốc, Singapore, Anh và Canada.
• Để xây dựng AI chủ quyền, các khu vực cần đánh giá mức độ sẵn sàng tham gia (WTP) của hệ sinh thái AI. Ví dụ, 6 yếu tố hàng đầu thúc đẩy WTP ở Massachusetts bao gồm: liên kết với MIT/Harvard, số lượng lớn trung tâm xuất sắc AI, gần gũi với nghiên cứu AI, cơ hội giáo dục AI, nhóm sinh viên AI, và cơ hội khởi nghiệp AI sôi động.
• Vốn không phải rào cản để xây dựng hệ sinh thái AI chủ quyền. Thay vào đó, chính nhân tài AI trong hệ sinh thái địa phương tạo ra lợi thế cạnh tranh.
• Khu vực tư nhân, doanh nghiệp vừa và nhỏ đóng vai trò quan trọng trong việc thúc đẩy nhân tài AI và nghiên cứu phát triển theo định hướng thị trường.
• Các quốc gia cần sớm triển khai chiến lược AI quốc gia để không bị tụt hậu trong nền kinh tế AI tạo sinh.
• Trung tâm xuất sắc AI đóng vai trò quan trọng trong việc tạo ra cầu nối toàn cầu về AI và tạo lộ trình cho tất cả những ai muốn tham gia.
• Các bên liên quan của chính phủ cần tạo lộ trình vào AI bằng cách thiết kế lại lề vào, không phải loại bỏ rào cản, để duy trì giá trị giáo dục.
📌 AI chủ quyền là chìa khóa để các quốc gia xây dựng năng lực AI nội địa và tăng cường khả năng cạnh tranh kinh tế. Việc phát triển hệ sinh thái AI địa phương, đào tạo nhân tài và tạo lộ trình tham gia AI cho mọi đối tượng là những yếu tố then chốt. Các chính phủ cần ưu tiên triển khai chiến lược AI quốc gia và thúc đẩy sự tham gia của khu vực tư nhân.
https://www.weforum.org/agenda/2024/07/sovereign-ai-talent-improve-economic-competitiveness/
• Apple sẽ có vai trò quan sát viên trong hội đồng quản trị OpenAI, là một phần của thỏa thuận hợp tác AI được công bố vào tháng 6/2024.
• Phil Schiller, cựu giám đốc tiếp thị và hiện là người đứng đầu App Store của Apple, được chọn cho vị trí này.
• Vai trò quan sát viên sẽ cho phép Schiller tham dự các cuộc họp hội đồng quản trị nhưng không có quyền bỏ phiếu hay thực hiện các quyền hạn khác của giám đốc.
• Vị trí này tương đương với Microsoft, nhà đầu tư lớn nhất và là nhà cung cấp công nghệ AI chính cho OpenAI.
• Thỏa thuận này diễn ra sau khi Apple thông báo sẽ cung cấp ChatGPT trên iPhone, iPad và Mac như một phần của bộ tính năng AI.
• Vai trò quan sát viên sẽ có hiệu lực vào cuối năm nay, Schiller chưa tham dự bất kỳ cuộc họp nào.
• Việc Microsoft và Apple cùng tham dự các cuộc họp hội đồng quản trị có thể tạo ra những phức tạp do hai công ty vừa là đối thủ vừa là đối tác trong nhiều thập kỷ qua.
• Schiller, 64 tuổi, từng là giám đốc tiếp thị của Apple và hiện giữ chức danh Apple Fellow. Ông vẫn quản lý các sự kiện ra mắt sản phẩm của công ty.
• Hợp tác với OpenAI là một phần trong chiến lược AI tổng thể của Apple, bao gồm cả các tính năng tự phát triển như Apple Intelligence.
• Apple Intelligence có khả năng tóm tắt bài viết và thông báo, tạo emoji và hình ảnh tùy chỉnh, và chuyển đổi ghi âm thành văn bản.
• Apple đang trong quá trình đàm phán với Google, Anthropic, Baidu và Alibaba để mang các tính năng AI đến nhiều thiết bị hơn, bao gồm cả thị trường Trung Quốc.
• Thỏa thuận giữa Apple và OpenAI hiện không phải là một thỏa thuận tài chính. OpenAI sẽ tiếp cận được hàng trăm triệu người dùng tiềm năng, trong khi Apple có được tính năng chatbot mà nhiều người tiêu dùng đang mong muốn.
• Người dùng cũng sẽ có thể truy cập phiên bản trả phí của ChatGPT trên các thiết bị Apple, có thể tạo ra phí App Store cho Apple.
📌 Apple sắp có vai trò quan sát viên trong hội đồng quản trị OpenAI, với Phil Schiller được chọn cho vị trí này. Động thái này là một phần trong chiến lược AI của Apple, bao gồm tích hợp ChatGPT và phát triển Apple Intelligence. Hợp tác này mở ra cơ hội tiếp cận hàng trăm triệu người dùng cho OpenAI và cung cấp tính năng chatbot cho Apple.
https://www.bloomberg.com/news/articles/2024-07-02/apple-to-get-openai-board-observer-role-as-part-of-ai-agreement
• Ngôn ngữ đóng vai trò quan trọng trong lĩnh vực pháp lý. Một dấu phẩy sai vị trí hay một điều khoản được diễn đạt không chính xác trong hợp đồng có thể tạo ra sự mơ hồ hoặc thay đổi ý nghĩa của một tài liệu pháp lý.
• Nghiên cứu Stanford gần đây về độ chính xác của các dịch vụ nghiên cứu pháp lý và khả năng "ảo giác" đã gây xôn xao trong giới luật. Nghiên cứu tập trung vào khả năng cung cấp câu trả lời không có lỗi phản ánh tình trạng hiện tại của luật pháp trong nghiên cứu án lệ.
• Đã có nhiều tranh luận về việc một số câu trả lời do hệ thống cung cấp có thể hữu ích nhưng chứa thông tin không chính xác. Tuy nhiên, điều này cũng không khác gì một cộng sự thiếu kinh nghiệm nghiên cứu bằng các công cụ truyền thống.
• Kết quả đầu ra của hệ thống AI tạo sinh cuối cùng sẽ là thứ cộng đồng pháp lý đánh giá cao. Các hệ thống AI tạo sinh cần tiếp tục nâng cao tiêu chuẩn để tạo ra kết quả tốt hơn và chính xác hơn.
• Chất lượng đầu vào cũng rất quan trọng. Một hệ thống AI tạo sinh được thiết kế tốt và hoạt động hiệu quả sẽ chỉ tốt bằng đầu vào của người dùng. Cũng giống như lời khuyên của người giám sát nhà máy điện hạt nhân được diễn đạt kém, lời nhắc của luật sư cho hệ thống AI tạo sinh cũng có thể kém chất lượng.
• Các luật sư đôi khi gặp khó khăn khi hướng dẫn hệ thống AI tạo sinh, mặc dù họ được đào tạo để tạo ra lập luận thuyết phục hoặc điều khoản chặt chẽ trong hợp đồng. Công nghệ AI tạo sinh còn mới, với giao diện người dùng chưa khai thác được sự sáng tạo của luật sư khi tương tác với màn hình.
• Để cải thiện đầu vào và tạo ra lời nhắc tốt hơn, luật sư nên tiếp cận AI tạo sinh như đang hướng dẫn một luật sư có tiềm năng cao. Họ nên kiên nhẫn, giải thích chi tiết, cung cấp bối cảnh và hướng dẫn cụ thể.
• Thế giới AI tạo sinh đang thay đổi hàng ngày. Các hệ thống như Claude 3.5 Sonnet của Anthropic, GPT-4 và Gemini của Google đang cung cấp khả năng nhập lượng lớn văn bản (lên đến 200.000 token).
• Ngôn ngữ rất quan trọng đối với người dùng AI tạo sinh là luật sư. Bằng cách cung cấp thêm thông tin nền và hướng dẫn cụ thể, luật sư có thể cải thiện tính hữu ích và kết quả liên quan đến việc sử dụng AI tạo sinh.
📌 AI tạo sinh đang thay đổi nghiên cứu pháp lý, nhưng cần ngôn ngữ chính xác từ luật sư. Nghiên cứu Stanford cho thấy tiềm năng và thách thức. Cung cấp ngữ cảnh đầy đủ, hướng dẫn cụ thể giúp tối ưu kết quả AI. Công nghệ tiến bộ nhanh, luật sư cần thích nghi để tận dụng hiệu quả.
https://abovethelaw.com/2024/07/language-matters-with-ai-and-the-law/
• Cơ quan bảo vệ dữ liệu Brazil (ANPD) đã cấm Meta sử dụng dữ liệu cá nhân của người dùng Brazil để huấn luyện các mô hình AI của mình.
• Quyết định này được đưa ra sau khi Meta cập nhật chính sách quyền riêng tư vào tháng 5, cho phép công ty sử dụng dữ liệu công khai từ Facebook, Messenger và Instagram ở Brazil để huấn luyện AI.
• ANPD cho rằng chính sách này mang lại "rủi ro gây tổn hại nghiêm trọng và khó khăn cho người dùng".
• Một báo cáo của Human Rights Watch tháng trước cho thấy bộ dữ liệu LAION-5B, được sử dụng để huấn luyện các mô hình AI, chứa hình ảnh cá nhân có thể nhận dạng của trẻ em Brazil, đặt chúng vào nguy cơ bị khai thác.
• Brazil là một trong những thị trường lớn nhất của Meta, với 102 triệu tài khoản người dùng Facebook.
• Meta có 5 ngày làm việc để tuân thủ lệnh cấm, nếu không sẽ phải đối mặt với mức phạt hàng ngày 50.000 reais (khoảng 8.808 USD).
• Meta tuyên bố chính sách cập nhật của họ "tuân thủ luật pháp và quy định về quyền riêng tư ở Brazil" và cho rằng quyết định này là "một bước lùi đối với đổi mới và cạnh tranh trong phát triển AI".
• Mặc dù Meta nói rằng người dùng có thể từ chối cho phép sử dụng dữ liệu của họ để huấn luyện AI, ANPD cho biết có "những rào cản quá mức và không hợp lý" khiến việc này trở nên khó khăn.
• Meta cũng đã phải đối mặt với phản ứng tương tự từ các cơ quan quản lý ở EU, khiến công ty phải tạm dừng kế hoạch huấn luyện các mô hình AI trên dữ liệu Facebook và Instagram của châu Âu.
• Tuy nhiên, chính sách thu thập dữ liệu cập nhật của Meta đã có hiệu lực ở Mỹ, nơi thiếu các biện pháp bảo vệ quyền riêng tư người dùng tương đương.
📌 Meta bị cấm sử dụng dữ liệu cá nhân Brazil cho AI, đối mặt án phạt 8.808 USD/ngày nếu vi phạm. Quyết định nhằm bảo vệ 102 triệu người dùng Facebook Brazil khỏi rủi ro khai thác dữ liệu. Meta phản đối, cho rằng đây là bước lùi cho đổi mới AI.
https://www.theverge.com/2024/7/3/24191405/meta-anpd-stop-training-ai-on-brazilian-facebook-instagram-data
• Ủy ban châu Âu có kế hoạch cho phép các nhà cung cấp mô hình AI đa năng như ChatGPT tự xây dựng bộ quy tắc thực hành để xác định sự tuân thủ của họ trong ngắn và trung hạn.
• Xã hội dân sự sẽ chỉ đóng vai trò tham vấn trong quá trình này, gây lo ngại về việc các công ty công nghệ lớn có thể tự viết luật cho chính mình.
• Bộ quy tắc thực hành là một phần quan trọng của Đạo luật AI. Các nhà cung cấp AI đa năng có thể sử dụng nó để chứng minh sự tuân thủ cho đến khi có các tiêu chuẩn hài hòa.
• Ủy ban đang tìm kiếm các công ty tư vấn để soạn thảo các bộ quy tắc này trong vòng 9 tháng, với một lịch trình khá gấp rút.
• Quá trình soạn thảo sẽ được giám sát bởi Văn phòng AI mới thành lập của Ủy ban và Hội đồng AI gồm các chuyên gia từ các quốc gia thành viên.
• Nhiều tổ chức xã hội dân sự đã bày tỏ lo ngại về việc họ không được tham gia trực tiếp vào quá trình soạn thảo.
• Ủy ban cho biết sẽ sớm công bố một lời kêu gọi bày tỏ quan tâm, nêu rõ cách thức các bên liên quan sẽ tham gia vào việc phát triển các bộ quy tắc.
• Nếu các nhà cung cấp không ký vào các hướng dẫn tự nguyện này, họ sẽ phải tự chứng minh tuân thủ Đạo luật AI dài gần 500 trang.
• Một số tổ chức đã gửi thư bày tỏ sự không hài lòng về việc không được tham gia trực tiếp, nhưng hầu hết chưa nhận được phản hồi đầy đủ.
• Ủy ban đã phải đối mặt với chỉ trích về cách xử lý việc thực thi Đạo luật AI, bao gồm việc bổ nhiệm báo cáo viên hồ sơ vào Văn phòng AI mà không có thông báo công khai.
• Hơn 30 tổ chức xã hội dân sự đã đặt câu hỏi về tính độc lập của các cơ quan quốc gia được giao nhiệm vụ thực thi Đạo luật.
• Ba nghị sĩ Quốc hội châu Âu đã gửi câu hỏi cho Ủy ban về quy trình tuyển dụng nhân sự cho văn phòng AI nhưng vẫn chưa nhận được phản hồi chính thức.
📌 Ủy ban châu Âu đang vội vã xây dựng quy tắc thực hành cho AI đa năng, cho phép các nhà cung cấp tự soạn thảo trong 9 tháng. Điều này gây tranh cãi về sự tham gia hạn chế của xã hội dân sự và tính minh bạch của quá trình. Hơn 30 tổ chức đã bày tỏ lo ngại về tính độc lập trong việc thực thi Đạo luật AI.
https://www.euractiv.com/section/digital/news/inside-the-eu-commissions-rush-to-build-codes-of-practice-for-general-purpose-ai/
• Đại hội đồng Liên Hợp Quốc đã thông qua nghị quyết do Trung Quốc đề xuất với sự ủng hộ của Mỹ, kêu gọi các nước phát triển thu hẹp khoảng cách với các nước đang phát triển và đảm bảo cơ hội bình đẳng trong việc sử dụng và hưởng lợi từ trí tuệ nhân tạo.
• Nghị quyết này được thông qua sau nghị quyết đầu tiên của LHQ về AI do Mỹ khởi xướng và được 123 quốc gia đồng tài trợ vào ngày 21/3, nhằm đảm bảo AI "an toàn, bảo mật và đáng tin cậy".
•Việc thông qua cả hai nghị quyết không ràng buộc cho thấy Mỹ và Trung Quốc, dù là đối thủ trong nhiều lĩnh vực, đều quyết tâm đóng vai trò then chốt trong việc định hình tương lai của công nghệ mới mạnh mẽ này.
• Đại sứ Trung Quốc tại LHQ Fu Cong cho biết hai nghị quyết bổ sung cho nhau, với nghị quyết của Mỹ "tổng quát hơn" và nghị quyết mới tập trung vào "xây dựng năng lực".
• Fu kêu gọi Mỹ dỡ bỏ các lệnh trừng phạt liên quan đến đầu tư vào AI, chip máy tính và điện toán lượng tử ở Trung Quốc, cho rằng điều này sẽ chia rẽ thế giới về tiêu chuẩn và quy tắc quản lý AI.
• Cả hai nghị quyết đều tập trung vào ứng dụng dân sự của AI, nhưng Fu nhấn mạnh tầm quan trọng của khía cạnh quân sự và ủng hộ sáng kiến đề xuất nghị quyết về khía cạnh quân sự của AI tại Đại hội đồng LHQ.
• Nghị quyết của Trung Quốc kêu gọi cộng đồng quốc tế "cung cấp và thúc đẩy môi trường kinh doanh công bằng, mở, bao trùm và không phân biệt đối xử" từ thiết kế, phát triển đến sử dụng AI.
• Nghị quyết cũng nhấn mạnh vai trò trung tâm của LHQ trong quản trị AI và kêu gọi hợp tác quốc tế, bao gồm chia sẻ kiến thức và chuyển giao công nghệ cho các nước đang phát triển.
• Cả hai nghị quyết đều cảnh báo về những nguy cơ của AI đồng thời ca ngợi tiềm năng lợi ích của nó trong việc thúc đẩy phát triển kinh tế và cải thiện cuộc sống của con người trên toàn thế giới.
📌 Mỹ và Trung Quốc đã hợp tác thông qua hai nghị quyết quan trọng về AI tại LHQ, với 193 quốc gia thành viên ủng hộ. Nghị quyết mới nhất kêu gọi thu hẹp khoảng cách công nghệ, thúc đẩy hợp tác quốc tế và nhấn mạnh vai trò của LHQ trong quản trị AI toàn cầu.
https://apnews.com/article/un-china-us-artificial-intelligence-access-resolution-56c559be7011693390233a7bafb562d1
• Trung Quốc đang tìm cách thiết lập ít nhất 50 bộ tiêu chuẩn trí tuệ nhân tạo (AI) vào năm 2026 theo dự thảo chính sách mới từ Bắc Kinh.
• Các tiêu chuẩn đề xuất sẽ bao gồm những tiêu chuẩn liên quan đến việc đào tạo các mô hình ngôn ngữ lớn (LLM), an toàn, quản trị, ứng dụng công nghiệp, phần mềm, hệ thống máy tính, trung tâm dữ liệu, cũng như yêu cầu kỹ thuật và phương pháp kiểm tra cho bán dẫn.
• Ít nhất 1.000 công ty công nghệ Trung Quốc dự kiến sẽ được bao gồm trong các tiêu chuẩn này, theo tài liệu do Bộ Công nghiệp và Công nghệ Thông tin (MIIT) công bố hôm thứ Ba.
• Trung Quốc cũng sẽ tham gia thiết lập ít nhất 20 tiêu chuẩn AI quốc tế.
• Sáng kiến tiêu chuẩn hóa của MIIT phản ánh nghị quyết do Trung Quốc dẫn đầu tại Liên Hợp Quốc, kêu gọi cộng đồng quốc tế tạo ra một môi trường kinh doanh "tự do, mở, bao trùm và không phân biệt đối xử" giữa các quốc gia giàu và đang phát triển cho sự phát triển AI.
• MIIT cho rằng AI là "công nghệ nền tảng và chiến lược thúc đẩy vòng mới của cuộc cách mạng công nghệ và chuyển đổi công nghiệp".
• Dự thảo chính sách của MIIT đã áp dụng cách tiếp cận theo hướng thị trường và luật mềm - thay vì quy định kiểm soát và chỉ huy điển hình - để hướng dẫn và thúc đẩy sự phát triển ngành công nghiệp AI của Trung Quốc.
• Dự thảo chính sách liệt kê tổng cộng 12 lĩnh vực là công nghệ quan trọng trong chuỗi cung ứng AI, bao gồm LLM, xử lý ngôn ngữ tự nhiên, thị giác máy tính và học máy.
• Chuỗi công nghiệp AI của Trung Quốc bao gồm 4 lớp: nền tảng (bao gồm sức mạnh tính toán, thuật toán và dữ liệu cần thiết để đào tạo LLM), khung, mô hình và ứng dụng.
• Hồi tháng 4, Alibaba Group Holding và chủ tịch Joe Tsai cho biết trong một cuộc phỏng vấn podcast rằng Trung Quốc đang tụt hậu 2 năm so với Mỹ trong cuộc đua toàn cầu để dẫn đầu phát triển AI, khi các doanh nghiệp đại lục phải vật lộn với các hạn chế xuất khẩu công nghệ của Washington.
📌 Trung Quốc đặt mục tiêu xây dựng 50 bộ tiêu chuẩn AI đến 2026, bao gồm an toàn, quản trị và ứng dụng. Kế hoạch nhằm thu hẹp khoảng cách với Mỹ, với 1.000 công ty công nghệ tham gia và 20 tiêu chuẩn quốc tế. MIIT áp dụng cách tiếp cận thân thiện với thị trường để thúc đẩy phát triển AI.
https://www.scmp.com/tech/tech-trends/article/3268907/china-eyes-least-50-sets-ai-standards-2026-chips-applications-and-safety
• California đang xem xét thông qua dự luật yêu cầu các công ty AI phải kiểm tra hệ thống và bổ sung các biện pháp an toàn để ngăn chặn khả năng bị thao túng gây hại như phá hủy lưới điện hay chế tạo vũ khí hóa học.
• Dự luật này nhắm đến các hệ thống AI lớn và mạnh mẽ trong tương lai, với chi phí đào tạo trên 100 triệu USD. Hiện chưa có mô hình AI nào đạt ngưỡng này tính đến tháng 7/2023.
• Thượng nghị sĩ Scott Wiener, tác giả dự luật, cho rằng đây là các tiêu chuẩn an toàn hợp lý nhằm ngăn chặn "những tác hại thảm khốc" từ các mô hình AI cực kỳ mạnh mẽ có thể xuất hiện trong tương lai gần.
• Dự luật sẽ thành lập một cơ quan mới của tiểu bang để giám sát các nhà phát triển và đưa ra các thông lệ tốt nhất. Tổng chưởng lý tiểu bang cũng có thể theo đuổi các hành động pháp lý trong trường hợp vi phạm.
• Các công ty công nghệ lớn như Meta và Google mạnh mẽ phản đối dự luật. Họ cho rằng các quy định này sẽ làm nản lòng các công ty phát triển hệ thống AI lớn hoặc duy trì công nghệ nguồn mở.
• Meta cảnh báo dự luật sẽ khiến hệ sinh thái AI kém an toàn hơn, gây nguy hiểm cho các mô hình nguồn mở mà các startup và doanh nghiệp nhỏ phụ thuộc vào.
• Phòng Thương mại California lo ngại dự luật có thể khiến các công ty rời khỏi tiểu bang để tránh các quy định.
• Những người ủng hộ dự luật cho rằng California không thể chờ đợi hướng dẫn từ chính phủ liên bang, viện dẫn bài học từ việc không kịp thời kiểm soát các công ty mạng xã hội.
• Thống đốc Gavin Newsom đã quảng bá California là nơi áp dụng và quản lý AI sớm, nhưng cảnh báo việc quá mức quy định có thể đặt tiểu bang vào "vị thế nguy hiểm".
• Các nhà lập pháp cũng đang xem xét một dự luật tham vọng khác nhằm chống phân biệt đối xử tự động khi công ty sử dụng mô hình AI để sàng lọc hồ sơ xin việc và đơn xin thuê căn hộ.
📌 California đề xuất dự luật kiểm soát các hệ thống AI lớn trong tương lai, yêu cầu kiểm tra an toàn đối với mô hình trên 100 triệu USD. Meta, Google phản đối mạnh mẽ, lo ngại ảnh hưởng đến đổi mới và nguồn mở. Dự luật nhằm ngăn chặn rủi ro tiềm ẩn từ AI siêu mạnh.
https://www.fastcompany.com/91150396/meta-is-against-californias-ai-bill-heres-why
• Một bài báo mới từ Trường Luật Yale đề xuất cách tiếp cận mới để quy định trách nhiệm pháp lý cho AI, vốn không có ý định như con người. Nghiên cứu có tựa đề "Luật AI là Luật về Tác nhân Rủi ro không có Ý định".
• Vấn đề chính là các nguyên tắc pháp lý truyền thống thường dựa vào khái niệm mens rea (trạng thái tinh thần của chủ thể) để xác định trách nhiệm. Tuy nhiên, AI hiện tại không có ý định như con người, tạo ra khoảng trống pháp lý tiềm ẩn.
• Nghiên cứu đề xuất sử dụng các tiêu chuẩn khách quan để quy định AI, rút ra từ các lĩnh vực pháp luật gán ý định cho chủ thể hoặc áp dụng tiêu chuẩn khách quan về hành vi.
• Lập luận cốt lõi là nên xem AI như công cụ được sử dụng bởi con người và tổ chức, từ đó quy trách nhiệm cho họ về hành động của AI.
• Nghiên cứu so sánh mối quan hệ giữa AI và người sử dụng với mối quan hệ chủ-đại lý trong Luật Bồi thường thiệt hại. Theo đó, chủ thể phải chịu trách nhiệm về hành động của đại lý khi thực hiện công việc thay mặt họ.
• Các tiêu chuẩn khách quan được đề xuất bao gồm:
- Sơ suất: AI phải được thiết kế với sự cẩn trọng hợp lý
- Trách nhiệm nghiêm ngặt: Yêu cầu mức độ cẩn trọng cao nhất trong các ứng dụng rủi ro cao
- Không giảm nghĩa vụ cẩn trọng: Việc thay thế con người bằng AI không được dẫn đến giảm nghĩa vụ cẩn trọng
• Nghiên cứu đề xuất gán ý định cho AI bằng cách giả định chúng có ý định về hậu quả hợp lý và có thể dự đoán được của hành động.
• Hai ứng dụng thực tế được thảo luận là phỉ báng và vi phạm bản quyền. Đối với phỉ báng, AI nên được xem như sản phẩm có thiết kế khiếm khuyết. Với vi phạm bản quyền, các công ty AI cần thực hiện các bước hợp lý để giảm thiểu rủi ro.
📌 Nghiên cứu từ Yale đề xuất cách tiếp cận mới để quy định AI dựa trên tiêu chuẩn khách quan thay vì ý định chủ quan. Bằng cách xem AI như công cụ của con người/tổ chức và áp dụng nguyên tắc chủ-đại lý, nghiên cứu nhấn mạnh trách nhiệm của người sử dụng AI đối với hành động của nó.
https://www.marktechpost.com/2024/06/30/the-human-factor-in-artificial-intelligence-ai-regulation-ensuring-accountability/
• Phó Chủ tịch Ủy ban Châu Âu Margrethe Vestager chỉ trích quyết định của Apple không ra mắt tính năng AI tự phát triển tại EU là "tuyên bố gây sốc" về hành vi chống cạnh tranh.
• Khoảng 1 tuần trước, Apple thông báo sẽ không triển khai các tính năng AI tự phát triển tại EU, với lý do yêu cầu về khả năng tương tác của Đạo luật Thị trường Kỹ thuật số (DMA) có thể gây tổn hại đến quyền riêng tư và bảo mật của người dùng.
• Vài ngày sau đó, Ủy ban Châu Âu cáo buộc App Store của Apple vi phạm DMA.
• Vestager cho rằng quyết định của Apple là "tuyên bố công khai gây sốc nhất" cho thấy họ hoàn toàn biết đây là cách vô hiệu hóa cạnh tranh ở nơi họ đã có vị thế vững chắc.
• Theo DMA, các công ty phải mở cửa cho cạnh tranh để hoạt động tại châu Âu.
• DMA có thể phạt tới 10% doanh thu hàng năm, trong trường hợp của Apple có thể lên tới hơn 30 tỷ euro dựa trên kết quả tài chính trước đây. Với các vi phạm lặp lại, mức phạt có thể tăng gấp đôi.
• Apple đã phải đối mặt với 3 cuộc điều tra DMA. Theo DMA, Apple được coi là "gatekeeper", nghĩa là phải đảm bảo không cản trở cạnh tranh.
• Phiên bản mới của hệ điều hành Apple sẽ có Apple Intelligence và tích hợp ChatGPT của OpenAI. Các tính năng AI sẽ được nhúng vào trợ lý ảo Siri để hỗ trợ truy vấn và thực hiện nhiệm vụ.
• Apple Intelligence sẽ không phải là chatbot độc lập như ChatGPT mà sẽ được sử dụng thông qua một bộ ứng dụng.
• Việc thiếu khả năng tương tác với các ứng dụng không phải của Apple có thể bị coi là hành vi chống cạnh tranh.
• AI của Apple được tích hợp theo chiều dọc đặc biệt, với cả phần cứng và phần mềm được Apple tùy chỉnh.
• Một số tính toán sẽ diễn ra trên Private Cloud Compute mới ra mắt của Apple, chạy trên các máy chủ tùy chỉnh trong trung tâm dữ liệu riêng của công ty, được Apple cho là có thể tăng cường quyền riêng tư.
📌 Apple từ chối triển khai AI tại EU vì lo ngại DMA ảnh hưởng đến quyền riêng tư. Ủy viên Cạnh tranh EU cáo buộc đây là hành vi chống cạnh tranh, có thể bị phạt tới 30 tỷ euro. Apple Intelligence sẽ tích hợp vào Siri và các ứng dụng, sử dụng Private Cloud Compute riêng.
https://www.euractiv.com/section/digital/news/eu-competition-commissioner-says-apples-decision-to-pull-ai-from-eu-shows-anticompetitive-behavior/
• Từ ngày 9/7, các nhà phát triển ở Trung Quốc sẽ mất quyền truy cập API vào tất cả nền tảng của OpenAI, đánh dấu bước cuối cùng trong quá trình cắt đứt quyền tiếp cận của Trung Quốc với các công cụ học máy của Mỹ.
• Các ứng dụng tiêu dùng như ChatGPT đã không khả dụng ở Trung Quốc từ đầu, nhưng API quan trọng hơn vì nó cung cấp năng lực cho nhiều ứng dụng tự động hóa quy mô lớn.
• Các đối thủ Trung Quốc như Zhipu AI đang tận dụng cơ hội để thu hút các nhà phát triển chuyển sang nền tảng của họ. Tuy nhiên, do không thể tiếp cận chip tốt nhất của Nvidia, các nền tảng Trung Quốc đang gặp bất lợi lớn.
• Động thái này chủ yếu là kết quả của chính sách của chính phủ Mỹ, được khuyến khích bởi nhiều công ty công nghệ Mỹ. AI đang được coi là vấn đề an ninh quốc gia.
• Alexandr Wang, CEO của Scale AI, cho rằng chính phủ Mỹ có nghĩa vụ phải cạnh tranh và dẫn đầu về AI vì nó là một công nghệ quân sự. Scale AI đang hoàn thành hợp đồng 4 năm trị giá 100 triệu USD với Bộ Quốc phòng Mỹ.
• OpenAI đã khuyến khích tư duy này từ đầu. Khi các rào cản giữa lĩnh vực công nghệ Mỹ và Trung Quốc được dựng lên, các công ty ở phía Mỹ có thể kiếm được nhiều tiền.
• Tác giả bày tỏ nghi ngờ về giá trị quân sự thực sự của các mô hình AI. Tuy nhiên, nhiều người quyền lực nhất trên thế giới tin vào điều đó và đang có tác động lớn đến sự phát triển của công nghệ này.
📌 OpenAI cắt đứt liên kết API cuối cùng với Trung Quốc từ 9/7, đánh dấu bước ngoặt trong cuộc đua AI giữa Mỹ-Trung. Động thái này phản ánh xu hướng quân sự hóa AI và coi nó là vấn đề an ninh quốc gia, dù giá trị quân sự thực sự vẫn còn gây tranh cãi.
https://restofworld.org/2024/exporter-openai-china-api-access/
• Hoàng tử Constantijn của Hà Lan cảnh báo châu Âu có nguy cơ tụt hậu so với Mỹ và Trung Quốc trong lĩnh vực trí tuệ nhân tạo (AI) do tập trung quá nhiều vào việc quản lý công nghệ này.
• Ông cho rằng tham vọng của châu Âu dường như chỉ giới hạn ở việc trở thành "nhà quản lý giỏi", thay vì đổi mới sáng tạo trong lĩnh vực AI.
• Hoàng tử Constantijn là đặc phái viên của Techleap - một tổ chức thúc đẩy khởi nghiệp của Hà Lan, giúp các startup phát triển nhanh chóng trên trường quốc tế.
• EU đã thông qua Đạo luật AI vào tháng trước, đặt ra các quy định nghiêm ngặt về cách các nhà phát triển và công ty có thể áp dụng công nghệ AI trong một số tình huống nhất định.
• Đạo luật này yêu cầu kiểm tra nghiêm ngặt đối với các mô hình AI có tác động lớn và mục đích chung có thể gây "rủi ro hệ thống", như GPT-4 của OpenAI.
• Hoàng tử Constantijn bày tỏ lo ngại rằng châu Âu tập trung nhiều hơn vào việc quản lý AI thay vì cố gắng trở thành nhà lãnh đạo đổi mới trong lĩnh vực này.
• Ông cho rằng việc đặt ra các quy tắc là cần thiết, nhưng rất khó thực hiện trong một lĩnh vực phát triển nhanh chóng như AI.
• Hoàng tử cảnh báo rằng có những rủi ro lớn nếu làm sai, và dẫn chứng trường hợp của sinh vật biến đổi gen (GMO) - nơi châu Âu đã trở thành người tiêu dùng sản phẩm thay vì nhà sản xuất có thể ảnh hưởng đến sự phát triển của thị trường.
• Ông chỉ ra rằng châu Âu gặp khó khăn trong việc đổi mới AI do "những hạn chế lớn về dữ liệu", đặc biệt là trong các lĩnh vực như y tế và khoa học y sinh.
• So với Mỹ, thị trường châu Âu kém thống nhất hơn và vốn lưu động ít hơn. Tuy nhiên, châu Âu có lợi thế về nhân tài và công nghệ.
• Hoàng tử Constantijn tin rằng châu Âu sẽ cạnh tranh được trong việc phát triển các ứng dụng sử dụng AI, nhưng vẫn phụ thuộc vào các nền tảng lớn để cung cấp cơ sở hạ tầng dữ liệu và CNTT cơ bản.
📌 Hoàng tử Hà Lan cảnh báo châu Âu có nguy cơ tụt hậu trong cuộc đua AI toàn cầu do tập trung quá nhiều vào quản lý. EU đã thông qua Đạo luật AI nghiêm ngặt, trong khi Mỹ có lợi thế về thị trường thống nhất và vốn. Châu Âu cần cân bằng giữa quản lý và đổi mới để không trở thành "người tiêu dùng" thay vì "nhà sản xuất" công nghệ AI.
https://www.cnbc.com/2024/06/26/europe-risks-falling-behind-us-and-china-on-ai-prince-constantijn.html
• Abu Dhabi, thủ đô của Các Tiểu vương quốc Ả Rập Thống nhất (UAE), đang nỗ lực trở thành quốc gia dẫn đầu về trí tuệ nhân tạo (AI), bắt đầu bằng việc liên kết chặt chẽ với Mỹ.
• Microsoft đã đầu tư 1,5 tỷ USD vào G42, một tập đoàn AI có trụ sở tại Abu Dhabi, do một thành viên có ảnh hưởng của gia đình hoàng gia làm chủ tịch.
• Thỏa thuận này được cho là do chính quyền Biden muốn hạn chế ảnh hưởng của Bắc Kinh trong khu vực, trong bối cảnh Mỹ đang nỗ lực duy trì vị thế dẫn đầu so với Trung Quốc trong cuộc đua AI.
• Omar Al Olama, Bộ trưởng AI của UAE, cho biết UAE và Mỹ có cùng quan điểm về cách thúc đẩy các công nghệ này và sẽ có sự liên kết chặt chẽ hơn.
• UAE là một trong những nhà sản xuất nhiên liệu hóa thạch lớn nhất thế giới. Abu Dhabi coi việc phát triển AI là yếu tố then chốt để đa dạng hóa nền kinh tế, giảm phụ thuộc vào dầu mỏ.
• Theo báo cáo của PwC Middle East, AI có thể đóng góp 96 tỷ USD vào nền kinh tế UAE vào năm 2030, tương đương gần 14% GDP.
• UAE đặt mục tiêu trở thành quốc gia dẫn đầu toàn cầu về AI vào năm 2031. Chiến lược quốc gia bao gồm triển khai AI trong các lĩnh vực ưu tiên như năng lượng và hậu cần, phát triển hệ sinh thái và thu hút nhân tài.
• Tính đến tháng 9/2023, UAE có 120.000 người làm việc trong lĩnh vực AI hoặc các ngành liên quan, tăng từ 30.000 người hai năm trước đó.
• UAE đôi khi phải ưu tiên mối quan hệ với Mỹ hơn các đối thủ của Washington. G42 đã phải cắt đứt quan hệ với các nhà cung cấp phần cứng Trung Quốc, bao gồm cả Huawei, để ủng hộ các công ty Mỹ.
• Vào cuối năm 2023, Viện Đổi mới Công nghệ Abu Dhabi đã ra mắt mô hình ngôn ngữ lớn (LLM) có tên Falcon10B, vượt trội hơn các sản phẩm của Google và Meta theo một số tiêu chí.
• UAE cũng đã phát triển Jais, một mô hình AI tạo sinh được đào tạo bằng tiếng Ả Rập và tiếng Anh, nhằm mở đường cho các LLM trong các ngôn ngữ khác "chưa được đại diện trong AI chủ đạo".
• Falcon và Jais đều là nguồn mở, cho phép bất kỳ ai cũng có thể sử dụng hoặc thay đổi mã nguồn. Điều này giúp Abu Dhabi định vị mình như một đồng minh của các quốc gia đang phát triển không có đủ nguồn lực để xây dựng công cụ AI riêng.
• Olama kêu gọi một liên minh toàn cầu để quản lý sự phát triển và sử dụng công nghệ AI, nhằm giải quyết các mối lo ngại về rủi ro tiềm ẩn của AI.
📌 UAE đặt mục tiêu trở thành siêu cường AI vào năm 2031 thông qua chiến lược quốc gia và đầu tư lớn. Với 120.000 người làm việc trong lĩnh vực AI, dự kiến đóng góp 96 tỷ USD vào GDP năm 2030, UAE đang nhanh chóng trở thành trung tâm AI quan trọng toàn cầu.
https://www.cnn.com/2024/06/26/tech/uae-ai-minister-omar-al-olama-hnk-spc-intl/index.html
• OpenAI thông báo sẽ chặn truy cập dịch vụ tại Trung Quốc từ tháng 7, tạo cơ hội cho các công ty AI nội địa như Baidu, Alibaba và Tencent.
• Ít nhất 6 công ty Trung Quốc đã bắt đầu cung cấp ưu đãi để thu hút người dùng chuyển sang sử dụng dịch vụ của họ.
• Baidu hứa hẹn hỗ trợ miễn phí tinh chỉnh mô hình AI và 50 triệu token miễn phí cho mô hình Ernie.
• Alibaba và Tencent đăng quảng cáo khuyến khích chuyển đổi. 01.AI của Kai-fu Lee cung cấp giảm giá lớn.
• Baichuan (được hỗ trợ bởi Alibaba và Tencent) cung cấp 10 triệu token miễn phí. SenseTime đề xuất 50 triệu token. Zhipu AI đưa ra 150 triệu token và các khóa đào tạo.
• Động thái của OpenAI sẽ làm sâu sắc thêm khoảng cách giữa Trung Quốc và Mỹ trong lĩnh vực AI.
• Việc mất quyền truy cập vào công cụ OpenAI có thể ảnh hưởng đến các startup nhỏ và doanh nghiệp mới thành lập tại Trung Quốc.
• Chuyên gia dự đoán sẽ có ít công ty AI còn sống sót sau "cuộc chiến trăm mô hình" tại Trung Quốc.
• Mối lo ngại lớn hơn là liệu các mô hình nguồn mở như Llama của Meta có cũng chặn truy cập từ Trung Quốc hay không.
• Cổ phiếu các công ty AI Trung Quốc như Alibaba và Iflytek tăng giá vào ngày 26/6.
• Việc thiếu quyền truy cập vào công cụ toàn cầu có thể cản trở sự phát triển của các công ty AI Trung Quốc trong dài hạn.
• Chủ tịch Alibaba Joe Tsai cho rằng phải mất ít nhất 2 năm để các mô hình AI nội địa Trung Quốc bắt kịp Mỹ.
• Tình hình này có thể thúc đẩy các startup công nghệ Trung Quốc di cư ra nước ngoài để tìm kiếm thị trường phát triển nhanh hơn và ít bất ổn chính trị hơn.
• Động thái của OpenAI diễn ra trong bối cảnh Mỹ gia tăng áp lực hạn chế Trung Quốc tiếp cận công nghệ AI và bán dẫn tiên tiến nhất.
• Bộ Tài chính Mỹ đang có kế hoạch hạn chế hơn nữa đầu tư của cá nhân và công ty Mỹ vào Trung Quốc, tập trung vào việc hạn chế các công nghệ thế hệ tiếp theo.
📌 OpenAI chặn truy cập tại Trung Quốc từ tháng 7/2024, tạo cơ hội cho các công ty AI nội địa như Baidu và Alibaba. Động thái này có thể dẫn đến sự thay đổi lớn trong ngành AI Trung Quốc, đào thải các startup nhỏ và làm sâu sắc thêm khoảng cách công nghệ với Mỹ.
https://www.bloomberg.com/news/articles/2024-06-26/openai-s-china-block-to-reshape-ai-scene-as-big-players-like-alibaba-pounce?srnd=homepage-uk
- Các cơ quan quản lý của Liên minh châu Âu (EU) cáo buộc Apple vi phạm các quy tắc cạnh tranh kỹ thuật số mới bằng cách ngăn cản các nhà phát triển ứng dụng tự do hướng dẫn người tiêu dùng đến các dịch vụ rẻ hơn.
- Kết quả sơ bộ của Ủy ban châu Âu xuất phát từ cuộc điều tra được mở vào tháng 3. Nếu bị kết tội, Apple có thể phải đối mặt với khoản tiền phạt lên tới 10% doanh thu toàn cầu hàng năm 383 tỷ USD. Mức phạt có thể tăng lên 20% nếu tái phạm.
- Đây là lần đầu tiên Ủy ban cáo buộc một công ty vi phạm Đạo luật Thị trường Kỹ thuật số (DMA) mới. DMA nhằm kiềm chế sức mạnh của các gã khổng lồ công nghệ.
- Theo quy tắc của App Store, các nhà phát triển không thể cung cấp thông tin giá trong ứng dụng hoặc giao tiếp theo bất kỳ cách nào khác với khách hàng để hướng họ đến các ưu đãi trên các nền tảng thay thế. Apple chỉ cho phép "chuyển hướng" thông qua các liên kết trong ứng dụng dẫn khách hàng đến trang web.
- Ủy ban châu Âu cũng mở một cuộc điều tra khác về việc liệu các yêu cầu hợp đồng mới của Apple đối với các nhà phát triển ứng dụng có vi phạm DMA hay không, bao gồm "phí công nghệ cốt lõi" 0,50 euro mỗi lần cài đặt ứng dụng của bên thứ ba.
- Vào tháng 1, Apple đã thông báo các thay đổi trong việc xử lý ứng dụng ở EU để chuẩn bị cho DMA có hiệu lực, bao gồm kế hoạch cho phép các cửa hàng ứng dụng của bên thứ ba trên iPhone và iPad lần đầu tiên trong lịch sử công ty và cắt giảm đáng kể phí App Store.
📌 EU cáo buộc Apple vi phạm Đạo luật Thị trường Kỹ thuật số mới, có thể phải đối mặt với khoản tiền phạt lên tới 10-20% doanh thu toàn cầu 383 tỷ USD vì ngăn cản nhà phát triển ứng dụng hướng dẫn người dùng đến dịch vụ rẻ hơn. Apple khẳng định đã thực hiện thay đổi để tuân thủ luật và tự tin kế hoạch của họ phù hợp.
https://www.cnn.com/2024/06/24/business/apple-eu-competition-rules/index.html
- IMF phát hành báo cáo kêu gọi các chính phủ cần thích ứng chính sách tài khóa trước sự trỗi dậy của AI.
- IMF cảnh báo cần giải quyết vấn đề mất việc làm và bất bình đẳng do áp dụng rộng rãi AI trong những năm tới.
- Báo cáo đề xuất chính phủ chuẩn bị cho các kịch bản gây xáo trộn lớn, tăng dần trợ cấp thất nghiệp và ưu tiên đào tạo, học tập suốt đời.
- Tác động của AI ở các nước đang phát triển khác với các nước phát triển do ít được bảo vệ bởi các chương trình an sinh xã hội.
- Nghị viện châu Âu thông qua Đạo luật AI, quy định toàn diện đầu tiên trên thế giới về AI.
- Đạo luật AI nhằm đảm bảo các hệ thống AI an toàn, minh bạch và tuân thủ nhân quyền cơ bản.
- Một số lo ngại yêu cầu nghiêm ngặt của Đạo luật AI có thể kìm hãm đổi mới và khiến châu Âu tụt hậu trong cuộc đua AI toàn cầu.
- Đạo luật AI áp đặt nghĩa vụ minh bạch nghiêm ngặt đối với các hệ thống AI rủi ro cao và hạn chế sử dụng giám sát sinh trắc học thời gian thực.
- Luật mới sẽ có tác động vượt ra ngoài khối 27 nước EU và có thể được các nước khác sử dụng làm khuôn mẫu.
📌 IMF kêu gọi chính phủ thích ứng chính sách tài khóa trước thách thức của AI, cảnh báo nguy cơ mất việc làm và bất bình đẳng. Nghị viện châu Âu thông qua Đạo luật AI toàn diện đầu tiên, áp đặt quy định nghiêm ngặt về minh bạch và giám sát sinh trắc học, có thể ảnh hưởng ra ngoài EU. Tuy nhiên, một số lo ngại luật có thể cản trở đổi mới và khiến EU tụt hậu trong cuộc đua AI.
https://greekreporter.com/2024/06/22/imf-governments-adapt-new-ai-challenges/
- Tại hội nghị dành cho nhà phát triển HDC 2024, Huawei đã giới thiệu HarmonyOS NEXT, phiên bản tiếp theo của hệ điều hành HarmonyOS.
- HarmonyOS NEXT sử dụng kiến trúc hoàn toàn độc lập, không dựa trên nhân Linux và mã nguồn AOSP của Android như HarmonyOS 4.
- Hệ điều hành mới hứa hẹn cải thiện 30% hiệu năng tổng thể và giảm 20% mức tiêu thụ năng lượng so với HarmonyOS 4.
- HarmonyOS NEXT tích hợp bộ tính năng AI mang tên Harmony Intelligence, cho phép thực hiện nhiều tác vụ trực tiếp trên thiết bị.
- Harmony Intelligence hỗ trợ tạo ảnh độc đáo, phục hồi chất lượng âm thanh, đọc nội dung trên màn hình cho người khiếm thị.
- Các nhà phát triển ứng dụng có thể tận dụng các tính năng Harmony Intelligence để cung cấp trải nghiệm thông minh hơn.
- HarmonyOS NEXT tăng cường bảo mật dữ liệu người dùng thông qua các phương pháp xác minh ứng dụng nghiêm ngặt và kiểm soát quyền truy cập chi tiết.
- Hệ điều hành mới sẽ chính thức ra mắt thương mại vào quý 4 năm 2024, cho phép các nhà phát triển có thời gian thích ứng.
📌 HarmonyOS NEXT đánh dấu bước tiến quan trọng của Huawei trong việc xây dựng hệ sinh thái phần mềm độc lập. Với kiến trúc mới, tích hợp AI và tính năng bảo mật mạnh mẽ, HarmonyOS NEXT hứa hẹn mang đến trải nghiệm người dùng vượt trội. Tuy nhiên, thành công của hệ điều hành mới phụ thuộc vào sự chấp nhận của nhà phát triển, số lượng ứng dụng và người dùng.
https://www.gizchina.com/2024/06/22/huawei-launches-pure-harmonyos-next-without-android-code-and-apps/
- Apple tuyên bố sẽ chặn việc phát hành Apple Intelligence, iPhone Mirroring và SharePlay Screen Sharing cho người dùng tại EU trong năm nay, vì Đạo luật Thị trường Kỹ thuật số (DMA) buộc họ phải hạ cấp bảo mật của sản phẩm và dịch vụ.
- DMA buộc các nền tảng công nghệ thống trị phải tuân thủ danh sách dài các quy tắc. Các dịch vụ công nghệ bị cấm ưu tiên sản phẩm của chính mình hơn đối thủ, kết hợp dữ liệu cá nhân trên các dịch vụ khác nhau, sử dụng thông tin thu thập từ bên thứ ba để cạnh tranh.
- EU chỉ định 6 công ty công nghệ lớn nhất là "người gác cổng", bao gồm Apple, Microsoft, Alphabet, Meta. Ủy ban Châu Âu nói rằng các công ty này được chào đón cung cấp dịch vụ ở Châu Âu miễn là tuân thủ các quy tắc nhằm đảm bảo cạnh tranh công bằng.
- Apple Intelligence là tâm điểm của sự kiện WWDC gần đây, giúp tóm tắt văn bản, tạo hình ảnh gốc và truy xuất dữ liệu phù hợp nhất. Nó giúp thúc đẩy cổ phiếu Apple tăng 9%, đạt giá trị vốn hóa hơn 3.2 nghìn tỷ USD.
- Việc Apple tạm dừng triển khai tại EU sẽ khiến người tiêu dùng ở 27 quốc gia không có quyền truy cập vào các công nghệ AI tham vọng của công ty. Phần mềm sẽ ra mắt ở nơi khác vào mùa thu này, nhưng chỉ hoạt động trên một số thiết bị Apple và chỉ bằng tiếng Anh Mỹ.
- Chưa rõ các tính năng này có thể vi phạm DMA như thế nào, nhưng việc giữ lại công nghệ đe dọa sẽ khiến người tiêu dùng trong khu vực bực bội.
- Các giám đốc điều hành của Apple đã tranh cãi với EU về nỗ lực kiềm chế sức mạnh thị trường của các công ty công nghệ lớn. Công ty sẽ nhận được cảnh báo chính thức từ các cơ quan quản lý EU theo DMA vì cáo buộc chặn các ứng dụng hướng người dùng đến các giao dịch đăng ký rẻ hơn trên web.
- Việc triển khai Apple Intelligence cũng đang gặp khó khăn ở các khu vực khác trên thế giới. Công ty sẽ cần một nhà cung cấp chatbot khác ở Trung Quốc, nơi ChatGPT của đối tác OpenAI bị cấm. Apple đang xem xét thỏa thuận với các công ty như Baidu và Alibaba.
📌 Apple quyết định tạm hoãn triển khai các công nghệ AI mới tại thị trường EU do lo ngại về Đạo luật Thị trường Kỹ thuật số, khiến hơn 400 triệu người tiêu dùng không thể truy cập vào các tính năng tham vọng như Apple Intelligence, iPhone Mirroring và SharePlay Screen Sharing. Động thái này có thể khiến người dùng bức xúc và gây áp lực lên các nhà quản lý, trong bối cảnh Apple đang tranh cãi với EU về nỗ lực kiềm chế sức mạnh thị trường của các gã khổng lồ công nghệ.
https://www.bloomberg.com/news/articles/2024-06-21/apple-won-t-roll-out-ai-tech-in-eu-market-over-regulatory-concerns
• Adam Unikowsky, một luật sư nổi tiếng của Mỹ, cho rằng Claude AI có thể xét xử các vụ án pháp lý phức tạp và thậm chí có thể đảm nhận vai trò Thẩm phán Tòa án Tối cao.
• Ông đã tải xuống các bản tóm tắt trong mọi vụ án đã được Tòa án Tối cao quyết định trong nhiệm kỳ này, sau đó nhập chúng vào Claude 3 Opus và đặt một số câu hỏi tiếp theo.
• Công ty Anthropic đã phát hành dòng mô hình Claude 3 vào tháng 3 và mới đây đã ra mắt Claude 3.5 Sonnet vào ngày 21/6.
• Trong 37 vụ án được phân tích, Claude AI đã quyết định 27 vụ giống như Tòa án Tối cao. Trong 10 vụ còn lại, Unikowsky thường "bị thuyết phục hơn bởi phân tích của Claude".
• Sau khi chạy thử công cụ này qua nhiều công việc và yêu cầu nó xét xử, vị luật sư nhận thấy Claude "rõ ràng có khả năng xét xử các vụ án phức tạp".
• Ông thậm chí còn đánh giá câu trả lời của chatbot ở mức "ngang bằng hoặc cao hơn thư ký Tòa án Tối cao".
• Claude không chỉ đưa ra các khuyến nghị hợp lý và soạn thảo ý kiến tư pháp, mà còn dễ dàng tạo ra các tiêu chuẩn pháp lý mới và phát hiện lỗi phương pháp luận trong lời khai của chuyên gia.
• Mặc dù thỉnh thoảng Claude cũng mắc lỗi, nhưng con người cũng vậy.
📌 Claude AI, một trợ lý trò chuyện AI của Anthropic, được đánh giá bởi luật sư nổi tiếng Adam Unikowsky là có khả năng xét xử các vụ án phức tạp, thậm chí có thể đảm nhận vai trò Thẩm phán Tòa án Tối cao. Qua việc phân tích 37 vụ án, Claude đã quyết định đúng 27 vụ như Tòa án và đưa ra nhận định hợp lý cho 10 vụ còn lại. Công cụ AI này không chỉ soạn thảo ý kiến tư pháp mà còn tạo ra các tiêu chuẩn pháp lý mới, cho thấy tiềm năng to lớn của AI trong lĩnh vực pháp luật.
https://readwrite.com/claude-ai-is-fully-capable-of-acting-as-a-supreme-court-justice/
- AI tạo sinh khác biệt với AI truyền thống ở khả năng tạo ra nội dung mới, yêu cầu khối lượng dữ liệu huấn luyện khổng lồ (từ hàng triệu đến hàng nghìn tỷ điểm dữ liệu) và mô hình phức tạp hơn nhiều với hàng trăm tỷ tham số.
- Các mô hình AI tạo sinh sử dụng nhiều kiến trúc mạng nơ-ron khác nhau như VAE, GAN, Transformer, Diffusion để xử lý và tạo ra văn bản, mã, hình ảnh, video. Hiệu suất của mô hình tăng lên khi kích thước và chất lượng dữ liệu huấn luyện tăng.
- Các công ty thương mại hàng đầu như Amazon, Google, Meta, Microsoft, OpenAI, Anthropic, Stability AI đã phát triển nhiều mô hình AI tạo sinh tiên tiến như mô hình ngôn ngữ lớn (LLM), mô hình đa phương thức, mô hình tạo hình ảnh và video.
- Sự phát triển nhanh chóng của AI tạo sinh là nhờ sự hội tụ của nhiều yếu tố như sẵn có lượng lớn dữ liệu huấn luyện, năng lực tính toán khổng lồ, các kỹ thuật tinh chỉnh mô hình như RAG, RLHF, CAI. Tuy nhiên, việc huấn luyện các mô hình lớn có thể tốn hàng trăm triệu USD và hàng tháng trời.
- AI tạo sinh có nhiều ứng dụng tiềm năng trong kỹ thuật phần mềm như tạo phần mềm, chuyển đổi mã, kiểm thử tự động; trong kinh doanh như hỗ trợ du lịch, phân tích kế toán, quản lý đầu tư; trong giáo dục như học cá nhân hóa, học ngoại ngữ, tự động hóa công việc hành chính; trong y tế như phân tích dữ liệu bệnh nhân, tư vấn y tế, tự động hóa hồ sơ bệnh án.
- Tuy nhiên, AI tạo sinh cũng tiềm ẩn nhiều rủi ro như tạo ra nội dung vi phạm bản quyền, xúc phạm, sai lệch, thông tin sai lệch, hình ảnh khiêu dâm; thay thế lao động con người; tạo phần mềm độc hại; đưa ra thông tin thiên vị trong giáo dục; vi phạm quyền riêng tư bệnh nhân trong y tế; đe dọa an ninh quốc gia nếu bị lạm dụng.
- Các nhà phát triển thương mại cũng cung cấp các sản phẩm và dịch vụ hỗ trợ phát triển và tinh chỉnh các mô hình AI tạo sinh theo nhu cầu khách hàng. Tuy nhiên, việc phát triển các mô hình lớn đòi hỏi nguồn lực tính toán khổng lồ, chi phí cao và quy trình quản lý phức tạp.
📌Báo cáo của GAO cho thấy AI tạo sinh đang phát triển với tốc độ chóng mặt và hứa hẹn cách mạng hóa nhiều ngành nghề, từ kỹ thuật phần mềm, kinh doanh, giáo dục đến y tế. Tuy nhiên, công nghệ này cũng đặt ra nhiều thách thức về đạo đức, pháp lý và xã hội cần được giải quyết, đặc biệt là các rủi ro liên quan đến bản quyền, thông tin sai lệch, mất việc làm và an ninh quốc gia. Chính phủ và các bên liên quan cần hợp tác chặt chẽ để phát huy tiềm năng và kiểm soát rủi ro của AI tạo sinh, đảm bảo công nghệ này phát triển theo hướng có lợi cho xã hội.
https://news.usni.org/2024/06/21/gao-report-on-generative-ai-and-commercial-applications
- Hơn 50% trường luật hiện nay đang cung cấp các lớp học về AI, số lượng khóa học tăng nhanh kể từ khi ChatGPT ra mắt vào tháng 11/2022.
- Ít nhất 2 trường luật đang ra mắt các chương trình cấp bằng đặc biệt tập trung vào AI.
- Các trường luật không chỉ muốn tận dụng sức hút của AI mà còn đáp ứng nhu cầu của nhà tuyển dụng muốn có luật sư am hiểu về AI.
- Trường Luật Sandra Day O'Connor của Đại học Arizona State sẽ bắt đầu cung cấp chuyên ngành AI thông qua chương trình chứng chỉ luật, khoa học và công nghệ hiện có, không tính thêm phí cho sinh viên.
- Trường Luật Berkeley của Đại học California sẽ bắt đầu nhận đơn cho chương trình cấp bằng luật nâng cao bán thời gian 1 năm từ ngày 1/8, với mức học phí khoảng 73.000 USD.
- Nhiều lớp học AI mà các trường luật báo cáo tập trung vào cách sử dụng công nghệ đó trong thực hành pháp lý. Một số khác có trọng tâm hẹp hơn như cách sử dụng AI trong tranh tụng và đạo đức của công nghệ đó.
- Một số trường luật cũng đã phát triển các trung tâm hoặc sáng kiến nghiên cứu dành riêng cho AI và tác động của nó đối với hệ thống pháp luật.
- Nhà tuyển dụng pháp lý cho biết có nhu cầu mạnh mẽ đối với các luật sư có thể sử dụng AI trong thực hành của riêng họ và tư vấn cho khách hàng về nó.
- Giáo sư luật ASU Gary Marchant ước tính rằng trong vòng 5 năm tới, sẽ không thể trở thành một luật sư thành công nếu không sử dụng AI.
📌 Với sự bùng nổ của ngành công nghiệp AI trị giá 5 tỷ USD, các trường luật đang đua nhau cung cấp các khóa học và chương trình đào tạo chuyên sâu về AI để đáp ứng nhu cầu ngày càng tăng của nhà tuyển dụng. Hơn 50% trường luật đã có lớp học AI, một số còn ra mắt bằng cấp chuyên biệt với mức học phí lên đến 73.000 USD. Các chuyên gia dự báo trong 5 năm tới, việc sử dụng thành thạo AI sẽ trở thành yếu tố then chốt để trở thành luật sư thành công.
https://www.reuters.com/legal/transactional/law-schools-boost-their-ai-offerings-industry-booms-2024-06-18/
- Khảo sát GPO-AI cho thấy 66% người Indonesia lo ngại về việc lạm dụng AI, cao hơn mức trung bình toàn cầu là 49%.
- Indonesia có xã hội dân chủ, hệ thống khởi nghiệp công nghệ sôi động và sử dụng mạng xã hội rộng rãi, tạo ra điểm yếu khi sử dụng AI. Tuy nhiên, Indonesia có công cụ pháp lý để giảm thiểu rủi ro.
- Bộ Thông tin và Truyền thông Indonesia đã ban hành Thông tư số 9 năm 2023 về sử dụng AI có đạo đức. Indonesia cũng ủng hộ Hướng dẫn về Quản trị AI của ASEAN.
- Indonesia nên tận dụng tất cả công cụ pháp lý hiện có để giải quyết AI ngay bây giờ thay vì chờ đợi một luật riêng.
- Luật Bảo vệ Dữ liệu Cá nhân (PDP) năm 2022 của Indonesia là cơ hội để giải quyết các vấn đề liên quan đến AI. Các quốc gia có cơ quan quản lý quyền riêng tư tích cực là những nước đầu tiên giải quyết các công ty AI tạo sinh.
- Các quy tắc sở hữu trí tuệ của Indonesia cũng giúp giải quyết mối quan ngại của công chúng về lạm dụng AI, như hướng dẫn về vi phạm bản quyền khi sử dụng dữ liệu có bản quyền để đào tạo AI.
- Quyền công khai hoặc quyền nhân thân cần được giải quyết ở Indonesia và trên toàn cầu để bảo vệ tên, hình ảnh và giọng nói của một người khỏi bị lạm dụng thương mại.
- Deepfake gây thách thức đặc biệt đối với các vấn đề về niềm tin và an toàn. Kinh nghiệm của Indonesia trong việc sử dụng AI tạo sinh trong bầu cử nên được nghiên cứu và đưa ra khuyến nghị.
- Các quy tắc đang được đề xuất trên toàn cầu để bảo vệ nền dân chủ khỏi deepfake. Ấn Độ yêu cầu thông báo minh bạch về video hoặc âm thanh deepfake trong quảng cáo chính trị.
- Các nhà quản lý an toàn trực tuyến có thể tham khảo các thực tiễn tốt nhất trên toàn cầu, như hướng dẫn của Mạng lưới Các nhà quản lý An toàn Trực tuyến.
- Báo cáo Chỉ số AI 2024 của Stanford cho thấy 78% người Indonesia tin rằng các dịch vụ và công cụ AI có nhiều lợi ích hơn rủi ro, cao nhất trong số 31 quốc gia được khảo sát.
📌 Indonesia có thể dựa vào sự lạc quan thận trọng và kinh nghiệm của mình, sử dụng các quy tắc hiện có để tạo ra một hệ sinh thái AI sôi động và có đạo đức, có thể trở thành mô hình trên toàn thế giới. 66% người Indonesia lo ngại về việc lạm dụng AI, nhưng 78% tin rằng AI mang lại nhiều lợi ích hơn rủi ro. Indonesia cần tận dụng các công cụ pháp lý như luật bảo vệ dữ liệu cá nhân và sở hữu trí tuệ để giải quyết các vấn đề như deepfake và an toàn trực tuyến.
https://asiatimes.com/2024/06/indonesia-at-forefront-of-asias-ai-hopes-and-fears/
• StepFun, một công ty khởi nghiệp AI ở Thượng Hải được thành lập năm 2023 bởi cựu Phó Chủ tịch Microsoft Jiang Daxin, đang đặt cược vào "quy luật mở rộng" để nâng cao khả năng AI.
• Zhu Yibo, trưởng bộ phận hệ thống tại StepFun cho biết nhu cầu về sức mạnh tính toán cao hơn của Trung Quốc sẽ không bao giờ kết thúc trong bối cảnh bùng nổ AI tạo sinh.
• StepFun đã ra mắt mô hình ngôn ngữ lớn đa phương thức Step-1V với hơn 100 tỷ tham số và đang thử nghiệm mô hình Step-2V với hơn 1 nghìn tỷ tham số.
• Các công ty khởi nghiệp AI Trung Quốc phải đối mặt với thách thức chung là bị hạn chế tiếp cận các chip AI tiên tiến nhất từ nhà cung cấp Mỹ Nvidia.
• Trung tâm tính toán đang được phát triển của StepFun ở Thượng Hải dự kiến sẽ là một trong những cơ sở AI hàng đầu của Trung Quốc.
• Thị trường nội địa Trung Quốc đã sản sinh ra ít nhất 200 mô hình ngôn ngữ lớn, nhiều mô hình tuyên bố thuộc top đầu thế giới.
• StepFun đã ra mắt hai ứng dụng AI: trợ lý cá nhân Yuewen tương tự ChatGPT và sản phẩm AI nhân vật Maopaoya với các tính năng trò chơi.
• Theo người sáng lập Jiang Daxin, StepFun sẽ tập trung vào các ứng dụng hướng tới người tiêu dùng.
📌 StepFun, công ty khởi nghiệp AI 1 tuổi ở Thượng Hải, đang đặt cược vào "quy luật mở rộng" để tăng cường AI bất chấp khó khăn trong tiếp cận chip. Với 2 mô hình ngôn ngữ lớn đa phương thức lên tới hơn 1 nghìn tỷ tham số và 2 ứng dụng AI hướng người dùng, StepFun đang nỗ lực bắt kịp đối thủ Mỹ trong cuộc đua AI.
https://www.scmp.com/tech/tech-trends/article/3267420/shanghai-ai-start-founded-ex-microsoft-engineers-bets-scaling-law-boost-ai-capabilities
- Các vụ việc gần đây cho thấy việc sử dụng AI trong lĩnh vực pháp lý tiềm ẩn rủi ro về độ chính xác, như trích dẫn các vụ án không có thật. Tuy nhiên, nhiều luật sư và chuyên gia pháp lý cho rằng AI vẫn có vai trò quan trọng.
- Công ty luật Baker McKenzie đang phát triển AI tạo sinh để soạn thảo tư vấn pháp lý cho các câu hỏi về luật lao động. AI giúp giảm đáng kể thời gian luật sư dành cho việc tìm hiểu các yêu cầu tuân thủ quy định, tập trung vào chiến lược ứng phó cho khách hàng.
- Cecilia Ziniti, CEO của GC AI, dự đoán AI sẽ trở thành "đồng nghiệp" của luật sư, giúp họ tập trung vào những công việc quan trọng và thú vị hơn. Ví dụ, trả lời yêu cầu cung cấp thông tin từ cơ quan quản lý có thể đòi hỏi hàng trăm giờ làm việc của luật sư.
- Hầu hết công cụ AI dành cho luật sư sử dụng các mô hình ngôn ngữ lớn (LLM) phổ biến như GPT-4 của OpenAI. Để giảm thiểu vấn đề "ảo giác", CoCounsel sử dụng kỹ thuật tạo sinh được tăng cường bởi truy xuất dữ liệu (retrieval augmented generation) và hướng dẫn LLM tập trung vào nội dung tài liệu.
- Áp lực cạnh tranh giữa các công ty luật và luật sư sẽ thúc đẩy việc áp dụng AI. Trong 3-5 năm tới, không sử dụng AI trong công việc pháp lý sẽ tương đương với việc từ chối sử dụng tìm kiếm trực tuyến ngày nay.
- Sự phức tạp ngày càng tăng của các quy định pháp lý cũng là động lực để luật sư chuyển sang AI. Các công ty luật quốc tế như Baker McKenzie cần tư vấn cho khách hàng tại nhiều quốc gia với các quy định khác nhau.
📌 AI đang nhanh chóng trở thành công cụ không thể thiếu của luật sư trong bối cảnh khối lượng công việc tăng và quy định pháp lý ngày càng phức tạp. Mặc dù vẫn còn rủi ro về độ chính xác, các công ty luật hàng đầu đang đầu tư mạnh vào AI, xem đó là "cánh tay phải" giúp luật sư tập trung vào những vấn đề chiến lược và thú vị hơn.
https://www.businessinsider.com/artificial-intelligence-use-in-law-firms-legal-cases-2024-6
- Adobe đã đối mặt với phản ứng dữ dội từ người dùng về thay đổi trong điều khoản dịch vụ, và hiện tại công ty đang cố gắng khắc phục tình hình.
- Vào thứ Ba, Adobe thông báo phiên bản điều khoản dịch vụ mới, khẳng định rõ ràng rằng công ty sẽ không sử dụng nội dung của người dùng được lưu trữ cục bộ hoặc trên đám mây để huấn luyện AI tạo sinh.
- Điều khoản mới bao gồm các danh mục riêng biệt, trong đó có một danh mục dành riêng cho AI tạo sinh. Adobe tuyên bố phần mềm của họ "sẽ không sử dụng nội dung cục bộ hoặc trên đám mây của bạn để huấn luyện AI tạo sinh."
- Tuy nhiên, có một ngoại lệ: nếu tác phẩm của bạn được gửi lên thị trường Adobe Stock, công ty có thể sử dụng nó để huấn luyện Adobe Firefly.
- Scott Belsky, giám đốc chiến lược của Adobe, cho biết những thay đổi này không thực sự thay đổi chính sách của công ty mà chỉ làm rõ hơn những gì đã có trước đây.
- Adobe cũng giải quyết lo ngại của người dùng về việc quét nội dung được tạo ra dưới thỏa thuận không tiết lộ (NDA), khẳng định công ty không "quét hoặc xem xét" công việc được lưu trữ cục bộ trên thiết bị của bạn.
- Adobe sẽ chỉ tự động quét nội dung tải lên đám mây để "đảm bảo chúng tôi không lưu trữ nội dung bất hợp pháp hoặc lạm dụng, như Tài liệu Lạm dụng Tình dục Trẻ em."
- Công ty sẽ chỉ xem xét nội dung tải lên đám mây nếu nó bị gắn cờ hoặc báo cáo là bất hợp pháp, hoặc nếu bạn chọn tham gia vào chương trình thử nghiệm trước, beta, hoặc chương trình cải tiến sản phẩm của Adobe.
- Những thay đổi trong điều khoản dịch vụ của Adobe đã gây ra sự phẫn nộ sau khi người dùng hiểu nhầm rằng công ty có quyền sử dụng công việc của họ để huấn luyện AI.
- Sự phẫn nộ này xuất phát từ những người sáng tạo đã cảm thấy bực bội với sự kiểm soát quá mức của Adobe trong ngành công nghiệp sáng tạo.
- Chính phủ liên bang cũng đã chú ý đến khiếu nại của người dùng về Adobe, khi Bộ Tư pháp đang kiện công ty vì cáo buộc che giấu phí hủy bỏ đắt đỏ và làm khó khăn trong việc hủy bỏ đăng ký.
- Sự thất vọng của người dùng bắt nguồn từ việc Adobe chuyển sang mô hình đăng ký duy nhất vào năm 2012, điều mà Belsky thừa nhận là một điểm gây tranh cãi.
- Belsky cho biết: "Tôi nghĩ rằng khi điều gì đó như [cập nhật điều khoản dịch vụ] xảy ra, chúng tôi thấy một sự tái xuất hiện của sự thất vọng đó. Điều này có thể đã được gieo mầm từ khi chúng tôi thay đổi mô hình đó."
📌 Adobe đã cập nhật điều khoản dịch vụ để làm rõ rằng họ sẽ không sử dụng nội dung của người dùng để huấn luyện AI, ngoại trừ nội dung trên Adobe Stock. Điều này nhằm giải quyết sự phẫn nộ từ người dùng và các vấn đề pháp lý liên quan đến phí hủy bỏ đăng ký.
https://www.theverge.com/2024/6/18/24181001/adobe-updated-terms-of-service-wont-train-ai-on-work
- FDA đã công bố các thực hành tốt nhất về tính minh bạch trong các thiết bị y tế có sử dụng máy học, và Troy Tazbaz, giám đốc Trung tâm Xuất sắc về Sức khỏe Số của CDRH, đã chia sẻ chi tiết về cách cơ quan này đang suy nghĩ về phát triển và đảm bảo chất lượng cho trí tuệ nhân tạo.
- Tazbaz nhấn mạnh rằng việc thiết lập các thực hành đảm bảo chất lượng để đảm bảo các mô hình AI chính xác, đáng tin cậy, đạo đức và công bằng nên là ưu tiên hàng đầu.
- Các giải pháp bao gồm giám sát liên tục trước, trong và sau khi triển khai các mô hình AI, và xác định chất lượng dữ liệu và các vấn đề khác trước khi hiệu suất của mô hình trở nên không đạt yêu cầu.
- FDA đã làm rõ suy nghĩ của mình thông qua các tài liệu hướng dẫn và tiêu chuẩn khi điều chỉnh số lượng ngày càng tăng của các thiết bị y tế có thành phần AI hoặc máy học.
- Năm 2021, FDA đã hợp tác với Health Canada và Cơ quan Quản lý Sản phẩm Y tế của Vương quốc Anh để đưa ra các nguyên tắc hướng dẫn về thực hành máy học tốt.
- Tuần trước, các cơ quan này đã chia sẻ các nguyên tắc hướng dẫn về tính minh bạch, chẳng hạn như cung cấp cho người dùng thông tin về cách một mô hình AI đưa ra kết quả.
- Năm 2022, FDA đã làm rõ những công cụ hỗ trợ quyết định lâm sàng nào phải được cơ quan này điều chỉnh như các thiết bị y tế, lưu ý rằng các công cụ dự đoán nguy cơ nhiễm trùng huyết hoặc đột quỵ nên thuộc phạm vi quản lý của mình.
- Năm ngoái, cơ quan này đã ban hành hướng dẫn dự thảo về các kế hoạch kiểm soát thay đổi được xác định trước, cho phép các nhà phát triển thực hiện thay đổi đối với mô hình AI sau khi nó được tiếp thị, trong phạm vi đã được thỏa thuận trước với FDA.
- FDA cũng đang đồng dẫn đầu một nhóm làm việc với Diễn đàn Quốc tế về Quản lý Thiết bị Y tế về các thiết bị y tế có AI/ML.
- AI có tiềm năng cải thiện đáng kể chăm sóc bệnh nhân và sự hài lòng của các chuyên gia y tế, thúc đẩy nghiên cứu trong phát triển thiết bị y tế và cho phép điều trị cá nhân hóa.
- Tazbaz viết rằng tại FDA, họ biết rằng việc tích hợp AI phù hợp trong hệ sinh thái chăm sóc sức khỏe sẽ rất quan trọng để đạt được tiềm năng của nó trong khi giảm thiểu rủi ro và thách thức.
- Trung tâm Xuất sắc về Sức khỏe Số của FDA muốn đảm bảo rằng các công nghệ AI, khi được sử dụng như các thiết bị y tế, là an toàn và hiệu quả, và thúc đẩy một cách tiếp cận hợp tác xung quanh AI trong chăm sóc sức khỏe.
- Một cách để giảm rủi ro là áp dụng các tiêu chuẩn và thực hành tốt nhất cho vòng đời phát triển AI, bao gồm đảm bảo tính phù hợp, thu thập và chất lượng dữ liệu phù hợp với mục đích và hồ sơ rủi ro của mô hình AI đang được đào tạo.
- Cộng đồng chăm sóc sức khỏe cũng có thể đồng ý về các phương pháp chung để cung cấp thông tin cho người dùng - bao gồm cả bệnh nhân - về cách một mô hình được đào tạo, triển khai và quản lý.
- Tazbaz cũng nêu rõ cách FDA đang suy nghĩ về đảm bảo chất lượng cho AI trong các thiết bị y tế, thêm rằng cơ quan này dự định sẽ phát hành các ấn phẩm trong tương lai để bổ sung vào cuộc thảo luận. Những tài liệu này sẽ đề cập đến các tiêu chuẩn và thực hành tốt nhất, phòng thí nghiệm đảm bảo chất lượng, tính minh bạch và trách nhiệm giải trình, và quản lý rủi ro.
📌 FDA nhấn mạnh tầm quan trọng của việc phát triển các thực hành đảm bảo chất lượng cho các mô hình AI trong thiết bị y tế, bao gồm giám sát liên tục và xác định chất lượng dữ liệu. Các tiêu chuẩn và thực hành tốt nhất sẽ được áp dụng để đảm bảo tính an toàn và hiệu quả của các công nghệ AI trong chăm sóc sức khỏe.
https://www.medtechdive.com/news/fda-ai-medical-devices-quality-assurance/719324/
- Bộ Điện tử và Công nghệ Thông tin (MeitY) sẽ xem xét tình trạng của Sứ mệnh AI Ấn Độ trong tuần này.
- Cuộc họp sẽ tập trung vào các khía cạnh như kinh phí cần thiết để thiết lập đủ cơ sở hạ tầng tính toán, cách thu hẹp khoảng cách kỹ năng AI và triển khai Nền tảng Tập dữ liệu IndiaAI.
- Cuộc họp có thể do Bộ trưởng Bộ Điện tử và Công nghệ Thông tin Ashwini Vaishnaw chủ trì.
- Vào tháng 3, chính phủ đã phê duyệt 10.372 tỷ rupee (khoảng 126 triệu USD) để chi tiêu trong 5 năm tới nhằm thiết lập năng lực tính toán lên tới 10.000 đơn vị xử lý đồ họa (GPU), phát triển ứng dụng AI trong các lĩnh vực quan trọng và giải quyết các vấn đề do chính phủ trung ương, tiểu bang và các tổ chức do chính phủ điều hành đặt ra.
- Trong số 7 trụ cột của Sứ mệnh IndiaAI, chính phủ cũng nhằm mục đích cung cấp hỗ trợ tài chính hợp lý cho các startup công nghệ sâu trong lĩnh vực AI, thành lập một trung tâm đổi mới AI của Ấn Độ và một nền tảng tập dữ liệu AI.
- MeitY đang lên kế hoạch xây dựng phiên bản mô hình nền tảng AI của riêng mình, sẽ được tùy chỉnh để sử dụng bởi các công ty, doanh nhân, học giả và nhà nghiên cứu Ấn Độ.
- Tổng đầu tư vào mô hình nền tảng đề xuất có thể lên tới 2.000 tỷ rupee (khoảng 24 triệu USD).
- Bộ Công nghệ Thông tin cũng có thể hợp tác với các viện giáo dục đại học nổi tiếng và các nhà nghiên cứu nổi bật đang làm việc về AI trong khu vực tư nhân để phát triển mô hình nền tảng.
📌 Bộ Điện tử và Công nghệ Thông tin Ấn Độ sẽ xem xét tiến độ Sứ mệnh AI trị giá 10.372 tỷ rupee (126 triệu USD), tập trung vào cơ sở hạ tầng tính toán, kỹ năng AI và triển khai nền tảng dữ liệu. Kế hoạch xây dựng mô hình nền tảng AI riêng với đầu tư 2.000 tỷ rupee (24 triệu USD) cũng sẽ được thảo luận.
Citations:
[1] https://economictimes.indiatimes.com/tech/artificial-intelligence/meity-to-review-india-ai-mission-status-this-week/articleshow/111090994.cms?from=mdr
- Ủy ban châu Âu đang lo ngại về tác động của việc sử dụng AI trong ngân hàng, bảo hiểm và thị trường chứng khoán.
- EU vừa thông qua Đạo luật AI, trở thành khu vực pháp lý đầu tiên trên thế giới ban hành luật để làm cho công nghệ mới an toàn và không phân biệt đối xử.
- Các quan chức đang hỏi liệu có cần thêm hướng dẫn để làm cho các quy tắc phù hợp với tài chính hay không.
- Đạo luật AI của EU và các quy tắc hiện hành trong lĩnh vực tài chính cung cấp cơ sở vững chắc cho phép đổi mới công nghệ.
- Các ứng dụng tài chính nhạy cảm như đánh giá mức độ tín nhiệm của một người cũng được đánh dấu là có thể cần luật hoặc hướng dẫn chi tiết hơn.
- Năm 2022, EU đã thống nhất các quy tắc mới được gọi là Đạo luật Khả năng phục hồi Hoạt động Kỹ thuật số (DORA).
- Ủy ban lo ngại về triển vọng "bầy đàn" - khi nhiều nhà tài chính đều dựa vào cùng một hệ thống CNTT để đưa ra quyết định kinh doanh.
- AI có thể tạo ra các câu trả lời vô nghĩa hoặc không chính xác.
- AI có thể có tác động tích cực, ví dụ như phát hiện hoạt động giao dịch đáng ngờ có thể chỉ ra lạm dụng thị trường.
- Các tập dữ liệu AI kém chất lượng có thể dẫn đến phân biệt đối xử trên diện rộng.
- Năm 2011, tòa án cao nhất của EU cho rằng việc tính phí bảo hiểm ô tô cao hơn cho nam giới là bất hợp pháp. Nhưng thuật toán định giá có thể khiến người thuộc giới tính hoặc chủng tộc cụ thể phải trả nhiều tiền hơn.
📌 Ủy ban châu Âu đang quan ngại về tác động của AI trong tài chính, đặc biệt là rủi ro phân biệt đối xử, định kiến và đưa ra lời khuyên sai lầm. Mặc dù Đạo luật AI mới của EU đã đặt nền tảng vững chắc, các quan chức vẫn đang tìm kiếm thêm hướng dẫn để đảm bảo công nghệ mới phù hợp với các yêu cầu quy định nghiêm ngặt trong lĩnh vực tài chính.
https://www.euronews.com/business/2024/06/18/commission-probes-ai-finance-risk-as-it-finalises-sweeping-new-law
- Dự luật mới tại Quốc hội Mỹ nhằm buộc các nền tảng mạng xã hội chịu trách nhiệm kiểm soát và xóa bỏ hình ảnh deepfake khiêu dâm trái phép, với khuôn mặt thật và cơ thể giả.
- Sản xuất deepfake khiêu dâm tăng 464% trong năm 2023 so với năm trước.
- Dự luật Take It Down Act yêu cầu các nền tảng mạng xã hội phát triển quy trình xóa bỏ hình ảnh trong vòng 48 giờ kể từ khi nhận được yêu cầu hợp lệ từ nạn nhân.
- Ủy ban Thương mại Liên bang (FTC) sẽ thực thi các quy tắc mới này.
- Thượng nghị sĩ Ted Cruz là người bảo trợ chính của dự luật, được giới thiệu bởi một nhóm lưỡng đảng.
- Hình ảnh AI trái phép đã ảnh hưởng đến người nổi tiếng, chính trị gia và học sinh trung học.
- Có hai dự luật cạnh tranh tại Thượng viện về vấn đề này.
- Dự luật của Thượng nghị sĩ Dick Durbin cho phép nạn nhân kiện người tạo, sở hữu hoặc phân phối hình ảnh deepfake.
- Dự luật của Cruz coi deepfake khiêu dâm như nội dung trực tuyến cực kỳ phản cảm, yêu cầu các công ty mạng xã hội kiểm duyệt và xóa bỏ.
📌 Dự luật mới tại Quốc hội Mỹ buộc các nền tảng mạng xã hội xóa bỏ hình ảnh deepfake khiêu dâm trái phép trong vòng 48 giờ, với sự gia tăng 464% trong năm 2023. Tuy nhiên, hai dự luật đối lập tại Thượng viện có thể gây khó khăn cho quá trình lập pháp.
https://www.cnbc.com/2024/06/18/senate-ai-deepfake-porn-bill-big-tech.html
- Công ty đã chứng kiến sự gia tăng của deepfakes, hình ảnh không đồng thuận và bắt nạt trên mạng. Microsoft đang tập trung theo dõi nội dung lừa đảo trực tuyến xung quanh các cuộc bầu cử.
- Stefan Schnorr, Thư ký Nhà nước của Bộ Kỹ thuật số và Giao thông Liên bang Đức, cho biết deepfakes có thể lan truyền thông tin sai lệch và làm mất lòng tin vào các thể chế dân chủ.
- Zeng Yi, Giám đốc Phòng thí nghiệm Trí tuệ Nhận thức Lấy cảm hứng từ Não và Trung tâm Nghiên cứu Quốc tế về Đạo đức và Quản trị AI, đề xuất thành lập một cơ sở "quan sát" deepfake toàn cầu để hiểu rõ hơn và trao đổi thông tin về thông tin sai lệch.
- Singapore đã phát hành phiên bản cuối cùng của khung quản trị AI tạo sinh, mở rộng khung quản trị AI hiện có. Khung này bao gồm 9 khía cạnh như báo cáo sự cố, nguồn gốc nội dung, bảo mật và kiểm tra đảm bảo.
- Josephine Teo, Bộ trưởng Truyền thông và Thông tin Singapore, nhấn mạnh tầm quan trọng của quản trị tốt và đổi mới để thực hiện tầm nhìn AI vì lợi ích chung.
- Telenor đang thử nghiệm Microsoft Copilot, dựa trên công nghệ của OpenAI, và đã thành lập một lực lượng đặc nhiệm để giám sát việc áp dụng AI có trách nhiệm.
- Ieva Martinekaite, Trưởng phòng Nghiên cứu và Đổi mới tại Telenor Group, nhấn mạnh rằng cần có các sách hướng dẫn, khung và công cụ đánh giá để giúp doanh nghiệp và người dùng triển khai AI an toàn.
- Martinekaite cảnh báo rằng deepfakes có thể ảnh hưởng đến cơ sở hạ tầng quan trọng và tăng cường các cuộc tấn công mạng. Cô cho rằng cần phát triển công nghệ để phát hiện và ngăn chặn nội dung AI tạo sinh, bao gồm thủy vân kỹ thuật số và pháp y truyền thông.
- Martinekaite cũng lưu ý rằng các khung pháp lý không nên điều chỉnh công nghệ để không làm cản trở sự đổi mới AI, đặc biệt là trong lĩnh vực y tế.
- Microsoft và các đối tác như Telenor đang làm việc để đảm bảo rằng các công cụ AI mà họ sử dụng là đáng tin cậy và an toàn, bao gồm cả việc tuân thủ các nguyên tắc đạo đức AI.
📌 Các quốc gia và công ty như Microsoft và Telenor đang hợp tác để đối phó với deepfakes và bảo vệ dữ liệu cá nhân. Singapore đã cập nhật khung quản trị AI tạo sinh, nhấn mạnh tầm quan trọng của quản trị và đổi mới để đảm bảo an toàn AI.
https://www.zdnet.com/article/can-governments-turn-ai-safety-talk-into-action/
- Dự luật SB 1047 của California được Thượng nghị sĩ Scott Weiner giới thiệu vào tháng 2 và đã được Thượng viện bang thông qua vào tháng trước, hiện đang được sửa đổi trong Hội đồng.
- Mục tiêu của SB 1047 là đảm bảo các nhà phát triển mô hình AI lớn phải chịu trách nhiệm pháp lý về việc đảm bảo rằng các mô hình của họ không có khả năng gây hại nghiêm trọng.
- Định nghĩa về "hại nghiêm trọng" trong dự luật bao gồm việc tạo ra vũ khí hóa học, sinh học, phóng xạ hoặc hạt nhân có thể gây ra thương vong hàng loạt; các cuộc tấn công mạng vào cơ sở hạ tầng quan trọng gây thiệt hại ít nhất 500.000.000 USD; hoặc hành động của mô hình AI tự động gây ra mức thiệt hại tương tự, gây hại cho con người, hoặc gây ra trộm cắp, thiệt hại tài sản, hoặc các mối đe dọa khác đối với an toàn công cộng.
- Dự luật yêu cầu các nhà phát triển phải thực hiện các bước hợp lý để ngăn chặn mô hình của họ gây ra thiệt hại xã hội, chẳng hạn như kiểm tra an toàn cơ bản và các thực hành tốt nhất trong ngành.
- Các nhà phát triển sẽ không bị trừng phạt vì các lỗi giấy tờ hoặc nếu mô hình gây ra thiệt hại, miễn là họ đã nỗ lực báo cáo rủi ro của nó cho Phòng Mô hình Tiên phong của Bộ Công nghệ California.
- Dự luật chủ yếu nhắm vào các nhà phát triển mô hình AI lớn như Anthropic, Google Deepmind, OpenAI, và Meta, với các mô hình được đào tạo sử dụng sức mạnh tính toán lớn hơn 10^26 FLOPS và chi phí vượt quá 100.000.000 USD.
- Các nhà phát triển phải nộp chứng nhận hàng năm về sự tuân thủ của mô hình và báo cáo các sự cố an toàn AI liên quan đến mô hình của họ.
- Dự luật đã gây ra sự phản đối từ các công ty công nghệ lớn và các tổ chức như TechNet, Phòng Thương mại California, và Hiệp hội Tư pháp Dân sự California, lo ngại rằng nó có thể làm giảm sự đổi mới.
- Một số người ủng hộ an toàn AI cho rằng dự luật không đủ để bảo vệ công chúng khỏi các rủi ro AI và chỉ là bước đầu tiên trong việc giảm thiểu rủi ro quy mô lớn.
- Các nhà phát triển lo ngại rằng dự luật có thể hạn chế sự phát triển của các mô hình nền tảng mở và tinh chỉnh, và rằng họ có thể bị chịu trách nhiệm pháp lý cho các điều chỉnh trọng số của mô hình bởi bên thứ ba gây ra thiệt hại.
- Dự luật SB 1047 có thể ảnh hưởng đến các cuộc tranh luận quy định rộng hơn ở cấp liên bang và các bang khác, với hơn 600 dự luật AI đang được xem xét tại Hoa Kỳ trong năm nay.
📌 Dự luật SB 1047 của California nhằm điều chỉnh các mô hình AI tiên tiến, gây tranh cãi giữa các nhà phát triển và những người ủng hộ an toàn AI. Dự luật yêu cầu các nhà phát triển phải chịu trách nhiệm pháp lý và thực hiện các biện pháp an toàn, nhưng có thể ảnh hưởng đến sự đổi mới và phát triển mô hình mở.
https://thebulletin.org/2024/06/california-ai-bill-becomes-a-lightning-rod-for-safety-advocates-and-developers-alike
- Meta đã phải hoãn triển khai các mô hình AI của mình tại châu Âu do lo ngại về việc sử dụng dữ liệu người dùng từ Facebook và Instagram.
- Cơ quan bảo vệ dữ liệu Ireland đã yêu cầu Meta trì hoãn kế hoạch sử dụng dữ liệu từ người dùng Facebook và Instagram để huấn luyện các mô hình AI của mình.
- Nhóm vận động NOYB đã gửi đơn khiếu nại và kêu gọi các cơ quan bảo vệ dữ liệu tại Áo, Bỉ, Pháp, Đức, Hy Lạp, Ý, Ireland, Hà Lan, Na Uy, Ba Lan và Tây Ban Nha hành động chống lại Meta.
- Vấn đề chính là Meta sử dụng các bài đăng công khai trên Facebook và Instagram để cung cấp dữ liệu cho hệ thống AI của mình, điều này có thể vi phạm các quy định về sử dụng dữ liệu của EU.
- Meta thừa nhận rằng họ sử dụng các bài đăng công khai để huấn luyện các mô hình Llama, nhưng không sử dụng các cập nhật bị hạn chế đối tượng hoặc tin nhắn riêng tư.
- Meta đã giải thích rằng họ sử dụng thông tin công khai và thông tin được cấp phép để huấn luyện AI, bao gồm các bài đăng công khai hoặc ảnh công khai và chú thích của chúng.
- Trong tương lai, Meta có thể sử dụng thông tin mà người dùng chia sẻ khi tương tác với các tính năng AI tạo sinh của Meta hoặc với doanh nghiệp để phát triển và cải thiện các sản phẩm AI của mình.
- Meta không sử dụng nội dung của các tin nhắn riêng tư giữa bạn bè và gia đình để huấn luyện AI.
- Meta đã làm việc để đáp ứng các mối quan ngại của EU về các mô hình AI của mình và đã thông báo cho người dùng EU qua các cảnh báo trong ứng dụng về cách dữ liệu của họ có thể được sử dụng.
- Hiện tại, công việc này đang bị tạm dừng cho đến khi các cơ quan quản lý EU có cơ hội đánh giá các mối quan ngại mới nhất và cách chúng phù hợp với các quy định GDPR.
- Đây là một lĩnh vực khó khăn vì mặc dù Meta có thể lập luận rằng họ có quyền sử dụng dữ liệu này theo các thỏa thuận người dùng rộng rãi của mình, nhiều người có thể không nhận thức được rằng các bài đăng công khai của họ đang được thêm vào kho dữ liệu AI của Meta.
- Nếu bạn là một người sáng tạo và muốn tiếp cận càng nhiều khán giả càng tốt trên Facebook và Instagram, bạn sẽ đăng công khai, nhưng điều đó có nghĩa là bất kỳ văn bản hoặc yếu tố hình ảnh nào bạn chia sẻ trong bối cảnh này đều có thể được Meta tái sử dụng trong các mô hình AI của mình.
- Khi bạn thấy một hình ảnh được tạo bởi Meta AI trông rất giống với của bạn, có thể nó là sản phẩm phái sinh từ công việc của bạn.
- Đây là một phần của mối quan ngại rộng hơn về các mô hình AI và cách chúng thu thập dữ liệu người dùng trên web.
- EU có thể sẽ yêu cầu các quyền cụ thể hơn, yêu cầu người dùng châu Âu cho phép rõ ràng nội dung của họ được tái sử dụng bởi các mô hình AI của Meta hoặc không.
📌 Meta đã phải hoãn triển khai AI tại châu Âu do lo ngại về việc sử dụng dữ liệu người dùng từ Facebook và Instagram. Cơ quan bảo vệ dữ liệu Ireland yêu cầu trì hoãn, và nhóm vận động NOYB đã gửi đơn khiếu nại. Meta thừa nhận sử dụng bài đăng công khai nhưng không sử dụng tin nhắn riêng tư.
https://www.socialmediatoday.com/news/meta-delays-ai-roll-out-in-europe-due-to-data-usage-concerns/719064/
- Các giám đốc ngân hàng châu Âu lo ngại việc tích hợp AI trong dịch vụ tài chính sẽ khiến họ phụ thuộc vào các công ty công nghệ lớn của Mỹ.
- Họ cho rằng cần có sức mạnh tính toán đáng kể cho AI và ngân hàng sẽ gặp khó khăn khi vận hành AI độc lập.
- Anh đã đề xuất quy định mới để kiểm soát sự phụ thuộc của các công ty tài chính vào các công ty công nghệ bên ngoài như Microsoft, Google, IBM, Amazon.
- Cơ quan giám sát chứng khoán của EU nhấn mạnh ngân hàng và công ty đầu tư không được trốn tránh trách nhiệm khi triển khai AI.
- Tác giả cho rằng nỗi sợ hãi về sự phụ thuộc vào Big Tech hoặc Big Cloud là không có cơ sở. Hầu hết các trường hợp sử dụng AI sẽ mang tính chiến thuật hơn và không cần bộ xử lý chuyên dụng như GPU.
- Giả định rằng AI sẽ yêu cầu thay đổi lớn trong cơ sở hạ tầng là một sự đánh giá quá cao. Sự thay đổi diễn ra chậm hơn chúng ta nghĩ rất nhiều.
- Ý tưởng về việc bắt buộc ngân hàng hoặc bất kỳ loại hình kinh doanh nào phải áp dụng công nghệ dẫn đến sự phụ thuộc vào công nghệ đó là vô lý.
📌 Mặc dù có những lo ngại về sự phụ thuộc vào các gã khổng lồ công nghệ khi áp dụng AI, các công ty vẫn có thể kiểm soát công nghệ họ triển khai. Hầu hết các trường hợp sử dụng AI sẽ không đòi hỏi thay đổi lớn trong cơ sở hạ tầng. Sự thay đổi sẽ diễn ra chậm hơn dự kiến và không nên để nỗi sợ hãi ngăn cản chúng ta nắm bắt cơ hội.
https://www.infoworld.com/article/3715509/does-ai-make-us-dependent-on-big-tech.html
- Các nhà lãnh đạo G7 cảnh báo Trung Quốc về việc hỗ trợ cơ sở công nghiệp quân sự của Nga, cho phép Nga duy trì cuộc chiến bất hợp pháp ở Ukraine.
- G7 nhấn mạnh các mối đe dọa an ninh mà Trung Quốc gây ra cho nền kinh tế toàn cầu, bao gồm công suất dư thừa trong lĩnh vực xe điện và các hoạt động thương mại, đầu tư ở các quốc gia đang phát triển.
- G7 tái khẳng định cam kết cải cách các ngân hàng phát triển đa phương và thúc đẩy 600 tỷ USD vốn cơ sở hạ tầng tư nhân đến năm 2027 thông qua Đối tác Cơ sở hạ tầng và Đầu tư Toàn cầu (PGI).
- Các nhà lãnh đạo G7 cam kết thúc đẩy AI an toàn, đáng tin cậy và quản trị AI thúc đẩy sự bao gồm, giảm thiểu rủi ro đối với nhân quyền và phân mảnh quản trị.
- Giáo hoàng Francis kêu gọi các chính phủ, tổ chức và doanh nghiệp đảm bảo đổi mới kỹ thuật số và tiến bộ công nghệ phục vụ thiên tài và sáng tạo của con người.
- Ý loại bỏ đề cập đến "phá thai an toàn và hợp pháp" khỏi tuyên bố chung cuối cùng, gây tranh cãi giữa các nhà lãnh đạo.
- G7 cam kết giải quyết nguyên nhân gốc rễ của di cư, quản lý biên giới và chống buôn lậu người di cư.
- Các nhà lãnh đạo tái khẳng định ủng hộ đề xuất ngừng bắn mới nhất ở Gaza, trong khi Tổng thống Biden cho rằng Hamas chịu trách nhiệm về sự chậm trễ.
📌 Thượng đỉnh G7 kết thúc với cảnh báo mạnh mẽ nhất từ trước đến nay đối với Trung Quốc về việc hỗ trợ nền công nghiệp quân sự của Nga. Các nhà lãnh đạo cam kết thúc đẩy AI an toàn, đáng tin cậy và quản trị AI thúc đẩy sự bao gồm. G7 cũng tái khẳng định ủng hộ đề xuất ngừng bắn ở Gaza và giải quyết vấn đề di cư.
https://www.eurasiareview.com/15062024-g7-leaders-end-summit-with-warning-to-china-commitment-to-manage-ai/
- Đức Giáo hoàng Francis là giáo hoàng đầu tiên tham dự Hội nghị thượng đỉnh G7, đưa ra quan điểm đạo đức về AI.
- Ngài kêu gọi các chính trị gia đảm bảo AI lấy con người làm trung tâm, các quyết định sử dụng vũ khí luôn do con người đưa ra.
- Đức Giáo hoàng cho rằng cần có một hiệp ước quốc tế để đảm bảo AI được phát triển và sử dụng một cách có đạo đức.
- Ngài kêu gọi cấm sử dụng vũ khí tự động gây chết người, nhấn mạnh không có máy móc nào được quyết định lấy mạng sống của con người.
- Thủ tướng Ý Giorgia Meloni mời Đức Giáo hoàng tham dự, biết được sức ảnh hưởng và uy tín đạo đức của ngài đối với G7.
- Các nước G7 đã đi đầu trong cuộc tranh luận về giám sát AI, với các nỗ lực toàn cầu nhằm kiềm chế công nghệ này.
- Nhật Bản đã đưa ra các nguyên tắc chỉ đạo và quy tắc ứng xử quốc tế cho các nhà phát triển AI.
- Liên minh Châu Âu đã ban hành Đạo luật AI toàn diện, có thể trở thành mô hình toàn cầu.
- Tổng thống Mỹ Joe Biden đã ký sắc lệnh hành pháp về các biện pháp bảo vệ AI và kêu gọi luật pháp tăng cường nó.
📌 Đức Giáo hoàng Francis đã đưa ra lời kêu gọi mạnh mẽ tại Hội nghị thượng đỉnh G7 về việc đảm bảo AI tập trung vào con người và tuân thủ các giá trị đạo đức. Ngài nhấn mạnh vai trò then chốt của các chính trị gia trong việc dẫn dắt vấn đề này và kêu gọi cấm vũ khí tự động gây chết người. Bài phát biểu của Đức Giáo hoàng diễn ra trong bối cảnh các nước G7 và các tổ chức toàn cầu đang nỗ lực đưa ra các biện pháp kiểm soát và quy định đối với sự phát triển nhanh chóng của AI.
https://www.fastcompany.com/91141307/pope-francis-calls-global-leaders-ensure-ai-remains-human-centric
- Bài luận dài 165 trang của Leopold Aschenbrenner mang tên "Nhận thức Tình huống: Thập kỷ Phía trước" cảnh báo về sự xuất hiện sắp tới của trí tuệ siêu việt (superintelligence) và thế giới chưa sẵn sàng cho điều đó.
- Aschenbrenner dự đoán AGI (trí tuệ nhân tạo tổng quát) có thể xuất hiện sớm nhất vào năm 2027. Đến năm 2028, các mô hình AI sẽ thông minh ngang chuyên gia tiến sĩ và có thể làm việc cùng con người.
- Sau AGI, bước nhảy vọt lớn tiếp theo là đến superintelligence. Hàng trăm triệu AGI có thể tự động hóa nghiên cứu AI, nén 10 năm tiến bộ thuật toán vào 1 năm. Sức mạnh và mối nguy từ superintelligence sẽ rất lớn.
- Aschenbrenner đưa ra 4 thách thức mà superintelligence sẽ đặt ra: nhu cầu tính toán khổng lồ, khó khăn trong bảo mật phòng thí nghiệm AI, vấn đề điều chỉnh máy móc phù hợp với mục đích của con người, và hệ quả quân sự.
- Tác giả liên tục sử dụng phép loại suy với vũ khí hạt nhân. Ông coi Mỹ đang ở giai đoạn tương tự sau thử nghiệm Trinity đầu tiên của Oppenheimer, đi trước Liên Xô nhưng không lâu. Trung Quốc đóng vai trò của Liên Xô trong ẩn dụ này.
- Aschenbrenner kêu gọi Mỹ phải giữ vững vị thế dẫn đầu về AI vì an ninh quốc gia, xây dựng cụm máy tính ở Mỹ chứ không phải ở các chế độ độc tài. Các phòng thí nghiệm AI Mỹ có nghĩa vụ hợp tác với cộng đồng tình báo và quân đội để xây dựng AI cho quốc phòng.
- Mỹ cần một Dự án Manhattan mới và một tổ hợp công nghiệp AGI để bảo vệ hòa bình và tự do.
📌 Bài luận của Aschenbrenner cảnh báo superintelligence sắp xuất hiện và thế giới chưa sẵn sàng. Ông dự báo AGI có thể đến vào 2027, dẫn tới superintelligence với sức mạnh và mối nguy to lớn. Tác giả kêu gọi Mỹ giữ vững vị thế dẫn đầu AI, xây dựng một Dự án Manhattan mới và tổ hợp công nghiệp AGI để bảo vệ an ninh quốc gia, hòa bình và tự do trước Trung Quốc.
https://www.theguardian.com/commentisfree/article/2024/jun/15/hows-this-for-a-bombshell-the-us-must-make-ai-its-next-manhattan-project
- Thượng nghị sĩ Cynthia Lummis đã chặn một dự luật lưỡng đảng nhằm chống lại nạn deepfake khiêu dâm và hình ảnh tình dục được tạo ra bởi AI.
- Dự luật cho phép nạn nhân kiện dân sự những kẻ sản xuất, phát tán, xin hoặc sở hữu deepfake khiêu dâm mà không có sự đồng ý.
- Lummis chặn dự luật vì lo ngại các định nghĩa rộng và trách nhiệm pháp lý có thể dẫn đến hậu quả ngoài ý muốn, kìm hãm sự phát triển và đổi mới công nghệ của Mỹ.
- Nhiều người nổi tiếng, chính trị gia và người bình thường đã trở thành nạn nhân của deepfake khiêu dâm gần đây.
- Lummis là người ủng hộ tiền điện tử, đồng sáng lập Nhóm Đổi mới Tài chính. Nhiều nhà tài trợ lớn nhất của bà đến từ thế giới tiền điện tử và quỹ đầu tư mạo hiểm.
- Lummis đã nhận gần 55.000 USD từ 3 lãnh đạo hàng đầu của Andreessen Horowitz kể từ năm 2022. Công ty này đầu tư vào Civitai, một nền tảng chia sẻ mô hình AI từng bị cáo buộc cho phép tạo deepfake tình dục của người thật.
- Lummis cũng nhận gần 36.000 USD từ các nhân viên cấp cao tại Multicoin Capital, một công ty đầu tư vào tiền điện tử, NFT và blockchain. Multicoin đầu tư vào Alethea AI, nền tảng từng làm việc với công nghệ deepfake.
📌 Thượng nghị sĩ Lummis đã chặn dự luật chống deepfake khiêu dâm vì lo ngại kìm hãm đổi mới, bất chấp tình trạng nhiều người trở thành nạn nhân. Bà nhận tài trợ đáng kể từ các công ty đầu tư vào công nghệ AI và deepfake như Andreessen Horowitz (55.000 USD) và Multicoin Capital (36.000 USD).
https://www.dailydot.com/debug/cynthia-lummis-deepfake-porn-artificial-intelligence/
- Hội nghị NHẬN THỨC tiềm năng chuyển đổi đáng kể của Trí tuệ Nhân tạo (AI) như một động lực chính của tiến bộ công nghệ và đổi mới, và XÁC NHẬN sự cần thiết của hành động hợp tác để khai thác lợi ích của AI trong khi chủ động giải quyết các khía cạnh xã hội, kinh tế và đạo đức đa dạng của nó.
- Hội nghị LƯU Ý rằng AI dự kiến sẽ tác động đáng kể đến nền kinh tế ASEAN, có thể dẫn đến tăng trưởng GDP từ 10% đến 18%, trị giá khoảng 1 nghìn tỷ USD vào năm 2030.
- Hội nghị LƯU Ý việc ra mắt chính thức Hiệp định Khung Kinh tế Số ASEAN (DEFA) tại Hội đồng Cộng đồng Kinh tế ASEAN lần thứ 23 vào tháng 9 năm 2023, nhấn mạnh AI là một trong những lĩnh vực chính được thảo luận.
- Hội nghị KHEN NGỢI việc ra mắt Hướng dẫn ASEAN về Quản trị và Đạo đức AI, được sử dụng như một tài liệu nền tảng để hướng dẫn quản trị hiệu quả AI trong khu vực và cân bằng lợi ích kinh tế của công nghệ AI đang phát triển nhanh chóng và các rủi ro liên quan.
- Hội nghị LƯU Ý việc thành lập Nhóm Công tác dưới Hội nghị Quan chức Cao cấp Kỹ thuật số ASEAN (ADGSOM) về Quản trị AI, nhằm giải quyết các vấn đề liên quan đến quản trị AI, bao gồm cả quản trị AI tạo sinh, và thúc đẩy việc sử dụng AI an toàn, có trách nhiệm và đạo đức.
- Hội nghị HOAN NGHÊNH việc ra mắt Ủy ban Khoa học, Công nghệ và Đổi mới ASEAN (COSTI) về AI (ACT on AI) cho giai đoạn 2024-2025, nhằm mở rộng các sáng kiến phát triển năng lực khu vực về AI và LƯU Ý Bài thảo luận về Phát triển và Sử dụng AI Tạo sinh có Trách nhiệm trong ASEAN.
- Hội nghị NHẤN MẠNH tầm quan trọng của việc thúc đẩy văn hóa đổi mới, khởi nghiệp và hợp tác giữa các quốc gia thành viên ASEAN để khai thác có trách nhiệm tiềm năng của các công nghệ mới nổi, bao gồm AI, trong việc giải quyết các thách thức và cơ hội chung trong các lĩnh vực như y tế, giáo dục, thông tin, nông nghiệp, sản xuất và bền vững môi trường.
- Hội nghị NHẬN THỨC tiềm năng của việc tận dụng các công nghệ AI để thúc đẩy tăng trưởng kinh tế bao trùm và công bằng, cải thiện tiếp cận giáo dục, y tế và các dịch vụ thiết yếu, và giảm thiểu sự chênh lệch kinh tế xã hội trong xã hội.
- Hội nghị NHẤN MẠNH tầm quan trọng của việc đầu tư vào giáo dục, đào tạo, liên tục tương tác công chúng và các sáng kiến xây dựng năng lực để trang bị cho lực lượng lao động các kỹ năng và kiến thức cần thiết để khai thác tiềm năng của các công nghệ AI.
- Hội nghị CAM KẾT chia sẻ các thực tiễn tốt nhất và tài nguyên để hỗ trợ học tập suốt đời và phát triển kỹ năng về AI. Hội nghị cũng LƯU Ý rằng các Đối tác Công-Tư đóng vai trò then chốt trong việc nâng cao và tái đào tạo lực lượng lao động bằng cách phát triển các chương trình đào tạo phù hợp với nhu cầu của ngành và thu hẹp khoảng cách kỹ năng.
- Hội nghị NHẤN MẠNH tầm quan trọng của việc đầu tư vào cơ sở hạ tầng AI, bao gồm các trung tâm dữ liệu, tài nguyên tính toán và kết nối, để thúc đẩy sự phát triển và triển khai các ứng dụng và dịch vụ AI có trách nhiệm trên toàn ASEAN.
- Hội nghị NHẬN THỨC rằng hợp tác trong phát triển và sử dụng các Mô hình Ngôn ngữ Lớn (LLMs) có thể đẩy nhanh đáng kể sự đổi mới AI phù hợp với ngôn ngữ và văn hóa địa phương.
- Hội nghị NHẤN MẠNH sự cần thiết của các khung và cơ chế quản trị dữ liệu mạnh mẽ để bảo vệ quyền riêng tư, an ninh và tính toàn vẹn của dữ liệu, đồng thời thúc đẩy chia sẻ dữ liệu, khả năng tương tác và đổi mới trong các ứng dụng AI.
- Hội nghị CAM KẾT hợp tác phát triển các tiêu chuẩn và giao thức cho quản trị và bảo vệ dữ liệu.
- Hội nghị KHUYẾN KHÍCH giám sát liên tục và quản lý chủ động các nhược điểm tiềm ẩn, sử dụng đạo đức và rủi ro liên quan đến việc triển khai nhanh chóng các công nghệ AI trong khu vực ASEAN.
- Hội nghị CAM KẾT tuân thủ các nguyên tắc và giá trị đạo đức trong phát triển và triển khai các hệ thống AI, đảm bảo tính minh bạch, công bằng, bao trùm, trách nhiệm và tôn trọng phẩm giá và quyền con người.
- Hội nghị KHUYẾN KHÍCH hợp tác trong toàn khu vực ASEAN để dễ dàng nghiên cứu và phát triển các công nghệ AI mới nổi có lợi cho tất cả các quốc gia ASEAN.
- Hội nghị CAM KẾT thúc đẩy hợp tác và đối tác giữa các quốc gia thành viên ASEAN, cũng như với các Đối tác Đối thoại, Đối tác Phát triển, các tổ chức khu vực và quốc tế, học viện, ngành công nghiệp và cộng đồng để chia sẻ kiến thức, chuyên môn và tài nguyên và thúc đẩy nghiên cứu và đổi mới hợp tác trong AI và các lĩnh vực liên quan, nhằm phát triển kinh tế và xã hội của chúng ta một cách bao trùm, có trách nhiệm và bền vững.
📌 Hội nghị Bộ trưởng ASEAN về Khoa học, Công nghệ và Đổi mới (AMMSTI) nhấn mạnh tiềm năng của AI trong việc nâng GDP ASEAN lên 1 nghìn tỷ USD vào năm 2030, đồng thời cam kết hợp tác khu vực, đầu tư vào giáo dục và cơ sở hạ tầng AI, và tuân thủ các nguyên tắc đạo đức trong phát triển và triển khai AI.
https://asean.org/wp-content/uploads/2024/06/ADOPTED-AMMSTI-Statement-on-AI_7June2024.pdf
• ASEAN đã phát hành Hướng dẫn về Quản trị và Đạo đức AI, một khung thực hành tốt nhất trong khu vực để thiết kế, phát triển và triển khai có trách nhiệm các hệ thống AI truyền thống trong các ứng dụng thương mại và phi quân sự.
• Hướng dẫn tập trung vào việc khuyến khích sự thống nhất trong ASEAN và thúc đẩy khả năng tương tác của các khung AI trên các quốc gia thành viên.
• Nó cũng bao gồm các khuyến nghị về các sáng kiến cấp quốc gia và khu vực mà các chính phủ trong khu vực có thể xem xét thực hiện để thiết kế, phát triển và triển khai các hệ thống AI một cách có trách nhiệm.
• Hướng dẫn đưa ra 7 nguyên tắc chỉ đạo: minh bạch và giải thích được, công bằng và công lý, an toàn và bảo mật, lấy con người làm trung tâm, quản trị dữ liệu và quyền riêng tư, trách nhiệm giải trình và tính toàn vẹn, tính mạnh mẽ và đáng tin cậy.
• Khung quản trị AI bao gồm 4 thành phần chính: cấu trúc và biện pháp quản trị nội bộ, xác định mức độ tham gia của con người trong ra quyết định được hỗ trợ bởi AI, quản lý hoạt động, tương tác và giao tiếp với các bên liên quan.
• Hướng dẫn cũng đưa ra các khuyến nghị cấp quốc gia như nuôi dưỡng tài năng AI, nâng cao kỹ năng lực lượng lao động, hỗ trợ hệ sinh thái đổi mới sáng tạo AI, thúc đẩy đầu tư vào các công ty khởi nghiệp AI, đầu tư vào nghiên cứu và phát triển AI, phát triển các công cụ hữu ích cho doanh nghiệp để thực hiện Hướng dẫn, nâng cao nhận thức của công dân về tác động của AI đối với xã hội.
• Các khuyến nghị cấp khu vực bao gồm thành lập Nhóm công tác ASEAN về Quản trị AI để thúc đẩy và giám sát các sáng kiến quản trị AI trong khu vực, điều chỉnh Hướng dẫn để giải quyết quản trị AI tạo sinh (generative AI), biên soạn một bộ sưu tập các trường hợp sử dụng minh họa việc thực hiện thực tế Hướng dẫn.
• Hướng dẫn cũng cung cấp một mẫu đánh giá tác động rủi ro AI và các trường hợp sử dụng từ các tổ chức hoạt động trong ASEAN đã thực hiện các biện pháp quản trị AI trong thiết kế, phát triển và triển khai AI.
📌 Hướng dẫn về Quản trị và Đạo đức AI của ASEAN là một tài liệu sống động, toàn diện nhằm trao quyền cho các tổ chức và chính phủ trong khu vực thiết kế, phát triển và triển khai các hệ thống AI truyền thống một cách có trách nhiệm, tăng cường niềm tin của người dùng vào AI. Hướng dẫn cần được đánh giá định kỳ để đảm bảo cập nhật với các quy định và tiến bộ mới nhất trong lĩnh vực AI.
https://asean.org/book/asean-guide-on-ai-governance-and-ethics/
- Hướng dẫn ASEAN về Quản trị và Đạo đức AI (ASEAN AI Guide) được thông qua vào tháng 2/2024, đưa ra 7 nguyên tắc chỉ đạo cho các tổ chức phát triển và triển khai AI thương mại, phi quân sự:
1. Transparency and Explainability: Các hệ thống AI phải minh bạch về mục đích, khả năng và hạn chế, đồng thời phải dễ hiểu và giải thích.
2. Fairness and Equity: Các hệ thống AI phải công bằng, không thiên vị và bảo đảm sự bình đẳng.
3. Security and Safety: Các hệ thống AI phải an toàn, đáng tin cậy và có khả năng phục hồi.
4. Accountability and Integrity: Phải có cơ chế rõ ràng để chịu trách nhiệm về các quyết định và hành động của AI.
5. Privacy and Data Governance: Các hệ thống AI phải tôn trọng quyền riêng tư và bảo vệ dữ liệu cá nhân.
6. Robustness and Reliability: Hệ thống AI cần đủ mạnh mẽ và đáng tin cậy để xử lý lỗi trong quá trình thực thi, đầu vào không mong muốn hoặc sai sót
7.Human-centricity: Các hệ thống AI phải có khả năng tương tác và hợp tác hiệu quả với con người.
- Hướng dẫn có những điểm tích cực như đặt nền móng cho thảo luận về quản trị và đạo đức AI trong khu vực, nhấn mạnh sự tham gia của con người và có cách tiếp cận hệ sinh thái.
- Tuy nhiên, việc triển khai hiệu quả gặp nhiều thách thức như chi phí tuân thủ cao, đặc biệt với MSME; thiếu hụt nhân lực có kỹ năng như an ninh mạng; khoảng cách giữa sẵn sàng thể chế và sẵn sàng của doanh nghiệp.
- Các khuyến nghị chính sách bao gồm tập trung hơn vào quy định hậu kiểm như khắc phục vi phạm bản quyền do AI; tận dụng công nghệ mới và nhân lực để quản lý tác động tiêu cực của AI; theo dõi thay đổi tâm lý xã hội khi sử dụng AI nhiều hơn.
- Hướng dẫn ASEAN nên được dùng làm cơ sở để thúc đẩy hợp tác khu vực sâu rộng hơn trong lĩnh vực quan trọng này.
----------------------------------------------------------------
Cisco’s AI Readiness Index là một chỉ số quan trọng để đánh giá mức độ sẵn sàng của các tổ chức đối với trí tuệ nhân tạo (AI). Tuy nhiên, có một số bằng chứng cho thấy có sự không đồng nhất giữa các biện pháp này.
Mức độ sẵn sàng của chính phủ và hệ sinh thái công nghệ
Về mức độ sẵn sàng của chính phủ, thiết lập hệ sinh thái công nghệ (ví dụ: năng lực đổi mới) và cơ sở hạ tầng cần thiết (như sự sẵn có của dữ liệu), Singapore đạt điểm cao nhất trong tất cả các khía cạnh này so với các nước Đông Nam Á khác. Singapore thậm chí còn vượt xa Hàn Quốc, Trung Quốc và Nhật Bản. Trong tổng điểm, Malaysia, Indonesia và Thái Lan theo sau Singapore.
Mức độ sẵn sàng của các tổ chức
Mặc dù các khía cạnh về chính phủ, công nghệ và cơ sở hạ tầng có thể được coi là nền tảng của hệ sinh thái quản trị AI, nhưng mức độ sẵn sàng của các tổ chức ở các quốc gia khác nhau lại cho thấy một bức tranh khác. Trong đánh giá của Cisco về mức độ sẵn sàng của các tổ chức đối với AI, dựa trên các yếu tố như sự phù hợp chiến lược và lãnh đạo, độ bền vững của cơ sở hạ tầng IT, và quy trình quản lý dữ liệu, các tổ chức được phân loại thành bốn nhóm: tiên phong (hoàn toàn sẵn sàng), đuổi kịp (sẵn sàng ở mức độ vừa phải), theo sau (sẵn sàng hạn chế) và tụt hậu (không sẵn sàng).
Kết quả đánh giá
Hình 2 cho thấy Indonesia, Việt Nam và Thái Lan có kết quả tốt nhất về tổng số phản hồi của các nhóm tiên phong và đuổi kịp. Điều này trái ngược với mức độ sẵn sàng của chính phủ, nơi Singapore và Malaysia dẫn đầu. Do đó, ngay cả khi các nền tảng thể chế và quy định của chính phủ đã được thiết lập, các doanh nghiệp có thể chưa theo kịp hoặc có thể dẫn đầu về mức độ sẵn sàng. Vì vậy, khi áp dụng Hướng dẫn AI của ASEAN vào thực tế, cần phải đánh giá sự cân bằng tương đối về mức độ sẵn sàng.
📌 Hướng dẫn ASEAN về AI đưa ra 7 nguyên tắc chỉ đạo quan trọng cho phát triển và sử dụng AI có trách nhiệm, bao gồm minh bạch, công bằng, an toàn, trách nhiệm giải trình, tôn trọng quyền riêng tư, không phân biệt đối xử và khả năng tương tác. Tuy nhiên, để hiệu quả trên thực tế, cần giải quyết các thách thức về chi phí tuân thủ lên tới hàng triệu USD, thiếu hụt 2.7 triệu nhân sự an ninh mạng ở châu Á - Thái Bình Dương, và khoảng cách giữa sẵn sàng thể chế và doanh nghiệp.
https://www.iseas.edu.sg/wp-content/uploads/2024/06/TRS18_24.pdf
- Cách tiếp cận không thống nhất trong việc quy định AI ở châu Á đang gia tăng sự không chắc chắn cho các công ty muốn triển khai công nghệ này trong khu vực.
- Các chính phủ từ Trung Quốc đến Singapore đã ngần ngại theo đuổi các quy tắc chung cho toàn khu vực, thay vào đó lựa chọn các chính sách AI phù hợp với chương trình nghị sự quốc gia riêng của họ.
- Điều này trái ngược với cách tiếp cận của Liên minh Châu Âu với Đạo luật AI được phê duyệt gần đây.
- KPMG gần đây đã chỉ ra "khoảng trống quản trị AI" là một rủi ro chính đối với tăng trưởng kinh doanh trong năm tới, mặc dù đầu tư vào lĩnh vực này tăng hơn 5 lần từ năm 2013 đến 2023.
- Trung Quốc có lẽ là chính phủ chủ động nhất về quy định AI với một bộ hướng dẫn hành chính cho ngành công nghiệp đã có hiệu lực từ năm 2022. Một dự luật AI chung dự kiến sẽ được đệ trình lên cơ quan lập pháp vào năm nay.
- Nhật Bản đang xem xét quy định các nhà phát triển AI trong và ngoài nước để hạn chế các rủi ro như lan truyền thông tin sai lệch. Hàn Quốc cũng đang xem xét Đạo luật về Thúc đẩy Ngành công nghiệp AI.
- Singapore tránh đưa ra các quy tắc toàn diện kiểu EU, thay vào đó chỉ ban hành hướng dẫn cho công nghệ này.
- Trong bối cảnh thiếu khung pháp lý rõ ràng, một số doanh nghiệp đã tự quy định như Verizon cam kết "sử dụng AI có trách nhiệm". SAP kêu gọi các chính phủ thiết lập khuôn khổ để xây dựng niềm tin vào AI.
- Việc không đàm phán được các quy tắc chung cho khu vực có thể khiến châu Á ít có tiếng nói hơn trong cuộc trò chuyện toàn cầu về AI. Tuy nhiên, sự đa dạng về chính trị và kỹ thuật số của châu Á khiến việc xây dựng chính sách AI chung cho khu vực trở nên cực kỳ khó khăn.
📌 Sự thiếu vắng các quy định AI thống nhất ở châu Á đang gây ra nhiều thách thức cho các doanh nghiệp công nghệ. Mặc dù đầu tư vào AI tăng mạnh 5 lần từ 2013-2023, các chính phủ vẫn chưa thể thống nhất cách tiếp cận do sự khác biệt về chính trị và kỹ thuật số. Điều này có thể khiến châu Á mất tiếng nói trong cuộc đối thoại toàn cầu về AI, vốn đang bị EU dẫn dắt với Đạo luật AI gần đây.
https://asia.nikkei.com/Business/Technology/Artificial-intelligence/From-China-to-Singapore-Asia-s-AI-policy-gaps-pose-headaches-for-business
- Databricks mở rộng hợp tác với NVIDIA để tối ưu hóa khối lượng công việc dữ liệu và AI bằng cách tích hợp điện toán được tăng tốc bởi NVIDIA CUDA vào lõi của Nền tảng Trí tuệ Dữ liệu của Databricks.
- Mục tiêu là tăng cường hiệu quả, độ chính xác và hiệu suất của các quy trình phát triển AI cho các nhà máy AI hiện đại, vì việc chuẩn bị, quản lý và xử lý dữ liệu rất quan trọng để tận dụng dữ liệu doanh nghiệp trong các ứng dụng AI tạo sinh.
- Databricks đang phát triển hỗ trợ gốc cho điện toán được tăng tốc bởi NVIDIA trong công cụ truy vấn vector hóa thế hệ tiếp theo của mình, Photon, nhằm cải thiện tốc độ và hiệu quả cho các khối lượng công việc kho dữ liệu và phân tích của khách hàng.
- Anil Bhasin, Phó Chủ tịch khu vực Ấn Độ và SAARC tại Databricks, cho biết sự hợp tác của họ với NVIDIA là đặc biệt vì nó phù hợp với tầm nhìn "AI chủ quyền" cho doanh nghiệp của NVIDIA và không có công ty nào khác ngoài Databricks đang thực hiện điều này.
- Mô hình nguồn mở DBRX của Databricks gần đây đã có sẵn dưới dạng microservice NVIDIA NIM, cung cấp các container được tối ưu hóa đầy đủ, được xây dựng sẵn để triển khai ở bất kỳ đâu.
- Nền tảng Trí tuệ Dữ liệu Databricks cung cấp giải pháp toàn diện để xây dựng, đánh giá, triển khai, bảo mật và giám sát các ứng dụng AI tạo sinh từ đầu đến cuối.
- Databricks đạt doanh thu hơn 1,6 tỷ USD (tương đương 37.280 tỷ VND) cho năm tài chính kết thúc vào ngày 31 tháng 1 năm 2024, tăng hơn 50% so với cùng kỳ năm trước.
📌 Sự hợp tác mở rộng giữa Databricks và NVIDIA nhấn mạnh vai trò quan trọng của điện toán tăng tốc và xử lý dữ liệu tối ưu trong việc giúp các doanh nghiệp khai thác sức mạnh của AI tạo sinh một cách hiệu quả. Với doanh thu tăng trưởng hơn 50% đạt 1,6 tỷ USD, Databricks đang dẫn đầu xu hướng nền tảng trí tuệ dữ liệu tích hợp AI tạo sinh.
https://analyticsindiamag.com/databricks-partners-with-nvidia-to-unleash-sovereign-ai-in-enterprise/
- Các tờ báo và đài truyền hình lớn của Đan Mạch đe dọa kiện OpenAI nếu công ty không bồi thường cho báo chí nước này vì cáo buộc sử dụng nội dung của họ để huấn luyện mô hình AI mà không xin phép.
- Tổ chức Quản lý Tập thể Xuất bản Báo chí Đan Mạch (DPCMO), đại diện cho 99% cơ quan truyền thông Đan Mạch, cho biết sẽ kiện nếu không đạt được thỏa thuận trong năm tới.
- Sau một loạt vụ kiện tụng, OpenAI đã ký các thỏa thuận cấp phép với các nhà xuất bản lớn, cho phép công ty huấn luyện các phiên bản tương lai của ChatGPT trên nội dung của họ.
- Truyền thông Đan Mạch đang cố gắng buộc OpenAI đàm phán với họ với tư cách là một tập thể, một chiến thuật bất thường có thể cung cấp một mô hình cho các quốc gia nhỏ khác nếu thành công.
- OpenAI đã ký các thỏa thuận riêng lẻ với các nhà xuất bản như Financial Times, The Atlantic, tập đoàn truyền thông Đức Axel Springer, tờ báo Pháp Le Monde và tập đoàn Tây Ban Nha Prisa.
- DPCMO cho rằng Đan Mạch không phải là ưu tiên hàng đầu của OpenAI và lo ngại các nhà sáng tạo nội dung ở các lãnh thổ khác sẽ không có gì.
- DPCMO muốn đạt được thỏa thuận với OpenAI và Google Gemini trong năm tới, trước khi chatbot AI và tổng quan công cụ tìm kiếm làm giảm giá trị của các trang web của nhà xuất bản.
- Năm ngoái, nhóm này đã đảm bảo các thỏa thuận cấp phép sơ bộ với Microsoft Bing và Google để đưa nội dung của các nhà xuất bản Đan Mạch vào công cụ tìm kiếm của công ty, nhưng chưa thống nhất mức bồi thường.
📌 Truyền thông Đan Mạch đang gây sức ép buộc OpenAI đàm phán thỏa thuận tập thể, đe dọa kiện nếu không nhận được bồi thường cho nội dung được sử dụng huấn luyện AI. Họ lo ngại các nước nhỏ sẽ bị gạt ra ngoài lề khi chatbot phổ biến và muốn sớm đạt thỏa thuận trước khi giá trị nội dung giảm đi.
https://www.wired.com/story/danish-media-demands-a-deal-with-openai-or-else/
- Nghị viện Châu Âu đã thông qua Đạo luật AI, biến EU trở thành khu vực đầu tiên toàn diện quy định AI. EU hy vọng cách tiếp cận lập pháp của mình sẽ ảnh hưởng các khu vực pháp lý khác thông qua "hiệu ứng Brussels".
- Tuy nhiên, các chuyên gia hoài nghi rằng đạo luật này sẽ trở thành tiêu chuẩn toàn cầu. Họ cho rằng EU cần xây dựng liên minh thay vì đơn phương đặt ra quy tắc.
- Đạo luật AI không phân biệt giữa AI nguồn đóng và nguồn mở, đe dọa các dự án minh bạch. Hơn 150 giám đốc điều hành cảnh báo chi phí tuân thủ và rủi ro trách nhiệm có thể buộc các nhà cung cấp AI rời khỏi EU.
- Tổng thống Pháp Macron chỉ trích việc quy định quá nhanh và mạnh mẽ hơn các đối thủ cạnh tranh chính. Ông cho rằng Pháp và Anh đang dẫn đầu về AI ở châu Âu, nhưng tụt hậu xa so với Trung Quốc và Mỹ.
- Anh có cách tiếp cận khác, hợp tác với Big Tech thay vì quy định công nghệ trước khi ra thị trường như EU. Việc tiếp cận dữ liệu là chìa khóa cho đổi mới AI.
- Các công ty như Nfinite đang phát triển giải pháp "dữ liệu tổng hợp" để thúc đẩy AI. Thị trường dữ liệu tổng hợp dự kiến sẽ mở rộng mạnh trong những năm tới.
- Tuy nhiên, quy định ngày càng nghiêm ngặt có thể hạn chế đổi mới ở EU và các nơi khác. Ở Anh, kêu gọi hạn chế chia sẻ dữ liệu cũng đang gia tăng.
- Kinh nghiệm từ quy định dữ liệu GDPR cho thấy các chính trị gia EU không hài lòng vì nó cản trở năng lực phát triển công nghệ mới và giải pháp kỹ thuật số.
📌 Mặc dù có những cảnh báo, EU vẫn tiếp tục hướng tới quá mức quy định lĩnh vực kỹ thuật số với Đạo luật AI và Đạo luật Dịch vụ Kỹ thuật số (DSA). Điều này có thể khiến EU trở thành "chư hầu kỹ thuật số" thay vì xuất khẩu mô hình quy định của mình. Anh và các quốc gia khác nên tránh đi theo con đường sai lầm này nếu muốn thúc đẩy đổi mới và năng lực cạnh tranh trong lĩnh vực AI.
https://thecritic.co.uk/the-eu-is-overregulating-ai/
- Tỉnh Quảng Đông công bố 45 biện pháp nhằm thúc đẩy sử dụng AI trên nhiều lĩnh vực để định hướng tăng trưởng công nghệ cao.
- Mục tiêu đến năm 2025, giá trị ngành công nghiệp AI của Quảng Đông đạt 300 tỷ nhân dân tệ (41,4 tỷ USD), chiếm 2,3% GDP của tỉnh. Đến năm 2027 đạt 440 tỷ nhân dân tệ, chiếm 3,3% GDP.
- Năng lực tính toán của Quảng Đông sẽ vượt 40 exaflops vào năm 2025 và 60 exaflops vào năm 2027, chiếm khoảng 13% tổng năng lực tính toán của Trung Quốc.
- Các biện pháp nhằm thúc đẩy phát triển chất lượng cao ngành công nghiệp AI, xây dựng hệ thống sản xuất hiện đại, tăng chất lượng và hiệu quả trên nhiều lĩnh vực.
- Mục tiêu hình thành cơ bản hệ thống thuật toán và mạng lưới năng lực tính toán hàng đầu quốc gia vào năm 2027.
- Áp dụng AI trong các lĩnh vực như quản trị xã hội, kinh tế số, đổi mới công nghiệp, sản xuất, giáo dục, chăm sóc người cao tuổi.
- Thiết lập chuỗi công nghiệp AI hoàn chỉnh từ phát triển, cung cấp chip đến cơ sở hạ tầng tính toán, thiết kế thuật toán, triển khai ứng dụng AI.
- Tăng cường nỗ lực thúc đẩy nguồn cung cấp linh kiện chip AI cốt lõi, nghiên cứu tính toán lấy cảm hứng từ não bộ, chiplet, bộ lệnh, mở rộng sử dụng máy chủ đám mây hiệu suất cao.
- Đến năm 2027, Quảng Đông kỳ vọng thiết lập hệ sinh thái chip AI vững chắc.
- Quảng Đông sẽ phối hợp quỹ cấp tỉnh và thành phố để hỗ trợ tài chính cho lĩnh vực AI, thu hút nhân tài hàng đầu và triển khai chương trình đào tạo kỹ năng kỹ thuật then chốt.
- Xây dựng quy định cho sản phẩm và dịch vụ AI đáng tin cậy, tạo động lực cho sản phẩm sáng tạo.
- Giáo dục AI đang phát triển mạnh mẽ ở Trung Quốc với hơn 100 khóa học AI mới tại Đại học Phổ Đán từ tháng 9.
📌 Quảng Đông đặt mục tiêu đến năm 2025 giá trị ngành công nghiệp AI đạt 300 tỷ nhân dân tệ (41,4 tỷ USD), năng lực tính toán vượt 40 exaflops. 45 biện pháp mới tập trung vào tăng nguồn nhân lực, cung cấp chip, áp dụng AI rộng rãi trên nhiều lĩnh vực, thiết lập chuỗi công nghiệp và hệ sinh thái phát triển AI hoàn chỉnh.
https://www.scmp.com/news/china/politics/article/3265962/chinas-guangdong-unveils-initiatives-boost-ai-industry
Dưới đây là 45 biện pháp được đề cập trong văn bản:
1. Xây dựng hệ sinh thái chip AI
2. Xây dựng hệ thống công nghiệp cảm biến thông minh
3. Tăng cường R&D và đổi mới phần mềm thông minh
4. Mở rộng chiều rộng của các ứng dụng phần mềm thông minh
5. Xây dựng các bộ dữ liệu tiếng Trung chất lượng cao
6. Tăng tốc cung cấp các sản phẩm thuật toán
7. Xây dựng một cộng đồng nguồn mở quy mô lớn
8. Đẩy nhanh việc xây dựng cơ sở hạ tầng điện toán thông minh
9. Tăng cường cung cấp tập trung năng lực tính toán
10. Thúc đẩy tối ưu hóa bố trí mạng lưới năng lực tính toán
11. Thúc đẩy phát triển và đổi mới robot thông minh
12. Đẩy nhanh nâng cấp thông minh của thiết bị cấp cao
13. Hỗ trợ kết nối thông minh cho các phương tiện năng lượng mới
14. Đổi mới hệ điều hành để tạo ra điện thoại di động trí tuệ nhân tạo
15. Triển khai các mô hình độc quyền để xây dựng máy AI
16. Tập trung vào "một già một trẻ" để tăng cường các sản phẩm bảo tồn và phục hồi chức năng thông minh
17. Tích hợp cải thiện chất lượng xuyên biên giới của các thiết bị gia dụng thông minh
18. Làm phong phú các thiết bị đầu cuối thực tế ảo thông minh
19. Thúc đẩy chuyển đổi kỹ thuật số và thông minh của ngành công nghiệp
20. Tích hợp sâu thúc đẩy xây dựng thông minh
21. Hệ thống thông minh thúc đẩy nông nghiệp thông minh
22. Giao thông thông minh: Tạo ra một hệ thống giao thông hiện đại
23. Tích hợp đa bên và xây dựng chung năng lượng thông minh
24. Hỗ trợ thông minh để cải thiện chất lượng giáo dục và giảng dạy
25. Kết nối và chia sẻ để nâng cao năng lực dịch vụ y tế
26. Lương hưu thông minh thúc đẩy nền kinh tế bạc
27. Tùy chỉnh thông minh thúc đẩy thể dục quốc gia
28. Quản gia thông minh tạo ra trợ lý cuộc sống
29. Mang lại lợi ích cho doanh nghiệp và người dân để xây dựng một chính phủ thông minh
30. Xây dựng thông minh giải phóng sức sống mới trong các thành phố
31. Hỗ trợ cải thiện hiệu quả tư pháp trong toàn bộ quá trình
32. An ninh thông minh nâng cao khả năng an ninh
33. Bảo vệ môi trường thông minh để tạo ra một ngôi nhà tốt hơn
34. Thương mại thông minh giải phóng tiềm năng kinh doanh
35. Tài chính thông minh nâng cao dịch vụ tài chính
36. Đổi mới trải nghiệm và nâng cấp mô hình phát triển du lịch
37. Tương tác thông minh làm phong phú cuộc sống văn hóa và giải trí
38. Toàn diện thúc đẩy ứng dụng các kịch bản thông minh
39. Thiết lập và hoàn thiện cơ chế tổ chức và phối hợp phát triển ngành công nghiệp trí tuệ nhân tạo
40. Sự tham gia của nhiều bên liên quan tăng cường cung cấp chính sách
41. Từng bước thiết lập hệ thống tiêu chuẩn ngành
42. Đào tạo nhân tài sáng tạo
43. Tăng cường các ứng dụng trình diễn sáng tạo
44. Tạo bầu không khí sinh thái công nghiệp
45. Tăng cường giao lưu và hợp tác quốc tế
📌 Văn bản đưa ra 45 biện pháp toàn diện để thúc đẩy sự phát triển của ngành công nghiệp trí tuệ nhân tạo ở tỉnh Quảng Đông, Trung Quốc đến năm 2027. Các biện pháp tập trung vào việc củng cố nền tảng công nghiệp AI, xây dựng các sản phẩm đầu cuối thông minh, tạo ra động lực mới cho nền kinh tế thực, nâng cao trải nghiệm và hiệu quả trong các lĩnh vực dân sinh xã hội như giáo dục, y tế, giao thông, năng lượng, chính phủ thông minh. Mục tiêu đến năm 2027 là đạt quy mô ngành công nghiệp cốt lõi AI vượt 440 tỷ nhân dân tệ.
https://www.gd.gov.cn/xxts/content/post_4436503.html
- Các hạn chế về luồng dữ liệu toàn cầu đã tăng gấp đôi từ năm 2017 đến 2021, dẫn đến sự phân mảnh của thế giới kỹ thuật số.
- Việc chia sẻ dữ liệu xuyên biên giới rất quan trọng để giải quyết các vấn đề toàn cầu như chuẩn bị cho đại dịch tiếp theo, giám sát an toàn của AI tạo sinh, dự báo thiên tai, điều phối viện trợ toàn cầu, xác định vấn đề an toàn thực phẩm trong chuỗi cung ứng quốc tế.
- Thay vì chỉ tập trung vào dữ liệu thô, cần chú ý đến các loại dữ liệu trung gian mới xuất hiện nhờ tiến bộ của AI như features, embeddings, hyperparameters, weights, dữ liệu tổng hợp. Chúng có thể an toàn hơn khi chuyển giao, chia sẻ và tạo ra giá trị mà không cần chia sẻ dữ liệu thô.
- Ví dụ: embeddings có thể đại diện cho hồ sơ y tế thô, giảm thiểu rủi ro nhận dạng bệnh nhân; các tổ chức tài chính có thể chia sẻ hyperparameters, weights để cải thiện mô hình phòng chống gian lận mà không tiết lộ thông tin nhạy cảm; dữ liệu tổng hợp giữ lại các mẫu hành vi tập thể của khách hàng thực mà không tiết lộ thông tin cá nhân.
- Các quy định hiện tại chưa tính đến tất cả các loại dữ liệu trung gian mới này. Chúng thường bị đối xử như dữ liệu thô và bị hạn chế nặng nề. Cần có chính sách mạnh mẽ phân biệt sự khác biệt của từng loại dữ liệu để cho phép các quốc gia chia sẻ dữ liệu quan trọng trên quy mô lớn hơn, giải quyết các vấn đề toàn cầu cấp bách đồng thời bảo vệ dữ liệu cá nhân của công dân.
📌 Trong kỷ nguyên AI, việc chia sẻ dữ liệu xuyên biên giới đóng vai trò then chốt để giải quyết các thách thức toàn cầu. Các nhà hoạch định chính sách cần đổi mới quy định, tính đến đặc thù của các loại dữ liệu trung gian mới để tạo điều kiện thuận lợi cho việc chia sẻ dữ liệu an toàn và hiệu quả giữa các quốc gia.
https://fortune.com/2024/06/07/ai-artificial-intelligence-cross-border-data-sharing/
- Dự luật SB 308 của California yêu cầu các công ty phát triển AI đảm bảo không tạo ra các mô hình có "khả năng nguy hiểm", chẳng hạn như phát triển vũ khí sinh học, hạt nhân hoặc hỗ trợ các cuộc tấn công an ninh mạng. Theo dự luật, các nhà phát triển phải báo cáo về quy trình kiểm tra an toàn và tạo ra "công tắc tắt" để có thể ngừng hoạt động của các mô hình khi cần thiết.
- Dự luật đã vấp phải sự phản đối gay gắt từ nhiều gã khổng lồ công nghệ ở Thung lũng Silicon. Họ cho rằng những quy định chặt chẽ này sẽ buộc các công ty khởi nghiệp AI phải rời khỏi California và cản trở sự phát triển của các nền tảng AI nguồn mở như Llama của Meta. Các nhà phát triển lo ngại họ sẽ phải chịu trách nhiệm về hành vi sai trái của bên thứ ba khi họ tùy chỉnh và sử dụng các mô hình nguồn mở.
- Dự luật SB 308 được đồng tài trợ bởi Center for AI Safety (CAIS), một tổ chức phi lợi nhuận có mối liên hệ chặt chẽ với phong trào "vị tha hiệu quả" (effective altruism). Thượng nghị sĩ Scott Wiener, người giới thiệu dự luật, cho biết mục tiêu của ông là thúc đẩy sự phát triển của AI đồng thời giải quyết trước các rủi ro về an toàn.
- Tuy nhiên, nhiều chuyên gia chỉ trích rằng dự luật quá hạn chế, áp đặt gánh nặng tuân thủ tốn kém lên các nhà phát triển và tập trung vào những rủi ro giả định. Họ lo ngại điều này sẽ "làm lạnh" hệ sinh thái khởi nghiệp và nguồn mở của AI.
- Trước làn sóng phản đối, Thượng nghị sĩ Wiener dự kiến sẽ sửa đổi dự luật để làm rõ phạm vi áp dụng. Theo đó, các nhà phát triển nguồn mở sẽ được miễn trừ trách nhiệm nếu mô hình của họ được bên thứ ba tùy chỉnh đáng kể. Dự luật cũng chỉ áp dụng cho các mô hình lớn có chi phí đào tạo từ 100 triệu USD trở lên.
- Sự bùng nổ của AI trong thời gian gần đây đã thúc đẩy các chính phủ trên toàn cầu, trong đó có Mỹ và Anh, thực hiện các bước để xây dựng khuôn khổ pháp lý quản lý công nghệ này. Tuy nhiên, việc tìm ra tiếng nói chung giữa các bên liên quan vẫn là một thách thức lớn.
📌 Dự luật SB 308 của California với mục tiêu tăng cường quản lý và đảm bảo an toàn cho sự phát triển của AI đã vấp phải làn sóng phản đối dữ dội từ các công ty công nghệ hàng đầu ở Thung lũng Silicon. Họ lo ngại những quy định chặt chẽ sẽ kìm hãm đổi mới và buộc các công ty khởi nghiệp AI phải rời khỏi tiểu bang. Trước áp lực này, Thượng nghị sĩ Wiener đang xem xét sửa đổi dự luật để cân bằng giữa mục tiêu quản lý và tạo điều kiện cho sự phát triển của ngành công nghiệp trí tuệ nhân tạo trị giá hàng tỷ USD này. Cuộc tranh luận xung quanh dự luật SB 308 cho thấy thách thức trong việc xây dựng khuôn khổ pháp lý để quản lý một công nghệ đang phát triển nhanh chóng và khó đoán định như AI.
https://www.ft.com/content/eee08381-962f-4bdf-b000-eeff42234ee0
#FT
- Trấn an luôn là chìa khóa để quản lý quan hệ giữa các quốc gia. Khi AI ngày càng trở thành một phần không thể thiếu trong các hệ thống quân sự và quá trình ra quyết định, tầm quan trọng của trấn an sẽ chỉ tăng lên, buộc các quốc gia phải tưởng tượng lại chiến lược trấn an cả đồng minh và đối thủ.
- Trong kỷ nguyên AI, các nhà lãnh đạo sẽ cần trấn an đối tác và đối thủ thường xuyên hơn vì các quyết định dựa trên AI có thể gây ra những bất ổn và căng thẳng mới, ngay cả trong các mối quan hệ đã được thiết lập. Nhu cầu này càng được khuếch đại bởi sự tăng tốc của các chu kỳ ra quyết định, có thể nhanh chóng khiến các đảm bảo trước đó trở nên lỗi thời.
- Các nhà lãnh đạo cũng cần trấn an một cách sáng tạo hơn trong kỷ nguyên AI, thích ứng phương pháp của họ với bối cảnh ngày càng phức tạp. Trong khi các đảm bảo ngoại giao truyền thống sẽ vẫn quan trọng, chúng phải được bổ sung bằng các cách tiếp cận sáng tạo tận dụng khả năng độc đáo của các công nghệ mới như mô phỏng và trực quan hóa do AI điều khiển để làm rõ các tác động và ý định đằng sau chính sách của họ.
- Các quốc gia có thể thiết lập các thỏa thuận cụ thể về AI, chẳng hạn như những thỏa thuận liên quan đến tính toàn vẹn dữ liệu, tính minh bạch của thuật toán và sử dụng AI có trách nhiệm trong việc ra quyết định. Hơn nữa, các nhà lãnh đạo cần khám phá các hình thức mới của các biện pháp xây dựng lòng tin, chẳng hạn như các dự án nghiên cứu AI chung hoặc các sáng kiến minh bạch, để thúc đẩy sự hiểu biết chung về rủi ro và lợi ích của công nghệ.
- Sự trỗi dậy của AI mang đến những thách thức mới cho trấn an chiến lược nhưng cũng mở ra những khả năng mới thú vị. Thay vì chỉ lặp lại những lời nói ngoại giao giống nhau, các nhà lãnh đạo giờ đây có cơ hội tận dụng khả năng độc đáo của AI để trấn an theo những cách sáng tạo, hiệu quả và thuyết phục hơn, từ việc chia sẻ các mô phỏng do AI hỗ trợ để làm rõ ý định đến việc thiết lập các khuôn khổ mới cho hợp tác AI nhằm xây dựng lòng tin.
📌 Với sự thực tế và trí tưởng tượng, các quốc gia có thể khai thác AI để làm mới trấn an chiến lược trong kỷ nguyên AI, thúc đẩy một thế giới minh bạch, dễ đoán và hòa bình hơn, ngay cả giữa sự thay đổi công nghệ đột phá. Bằng cách sử dụng sáng tạo AI để tăng cường tính rõ ràng và hiệu quả trong giao tiếp, đồng thời điều chỉnh các cơ chế trấn an hiện có để giải quyết các thách thức độc đáo do công nghệ chuyển đổi này đặt ra, các nhà lãnh đạo có thể quản lý tốt hơn động lực của quan hệ quốc tế trong một thế giới ngày càng được định hướng bởi AI.
Ngô Di Lân - Viện Chiến lược ngoại giao
https://rusi.org/explore-our-research/publications/commentary/reassurance-age-ai
- Bộ Tư pháp và Ủy ban Thương mại Liên bang Hoa Kỳ đã đạt thỏa thuận cho phép tiến hành điều tra chống độc quyền đối với vai trò thống trị của Microsoft, OpenAI và Nvidia trong ngành công nghiệp AI.
- Bộ Tư pháp sẽ điều tra xem hành vi của Nvidia, nhà sản xuất chip AI lớn nhất, có vi phạm luật chống độc quyền hay không. Ủy ban Thương mại Liên bang sẽ xem xét hành vi của OpenAI (công ty đứng sau ChatGPT) và Microsoft (đã đầu tư 13 tỷ USD vào OpenAI).
- Thỏa thuận này cho thấy sự gia tăng giám sát của Bộ Tư pháp và Ủy ban Thương mại Liên bang đối với AI, một công nghệ đang phát triển nhanh chóng có tiềm năng làm đảo lộn việc làm, thông tin và cuộc sống của con người.
- Hoa Kỳ đang tụt hậu so với châu Âu trong việc quản lý AI. Liên minh châu Âu đã thống nhất các quy tắc then chốt để quản lý công nghệ này vào năm ngoái.
- Nvidia, OpenAI và Microsoft đã trở thành tâm điểm chú ý với tư cách là những người chiến thắng lớn nhất trong cuộc bùng nổ AI, dấy lên câu hỏi về sự thống trị của họ.
- Giá cổ phiếu của Nvidia đã tăng hơn 200% trong năm qua và vốn hóa thị trường của công ty đã vượt 3 nghìn tỷ USD lần đầu tiên vào thứ Tư.
- Microsoft sở hữu 49% cổ phần của OpenAI và đã đưa công nghệ của OpenAI vào các sản phẩm của riêng mình như công cụ tìm kiếm Bing, PowerPoint và Word.
📌 Thỏa thuận giữa Bộ Tư pháp và Ủy ban Thương mại Liên bang Hoa Kỳ cho phép điều tra chống độc quyền đối với Nvidia, Microsoft và OpenAI, cho thấy sự gia tăng giám sát pháp lý đối với các công ty thống trị ngành công nghiệp AI đang bùng nổ. Mặc dù Hoa Kỳ vẫn tụt hậu so với châu Âu trong quản lý AI, động thái này phản ánh mối quan ngại ngày càng tăng về sức mạnh tập trung trong tay một số ít công ty công nghệ khổng lồ.
https://www.nytimes.com/2024/06/05/technology/nvidia-microsoft-openai-antitrust-doj-ftc.html
- Từ năm 2019 đến 2022, số lượng nhà vận động hành lang do các tập đoàn và nhóm khác cử đến về các vấn đề liên quan đến AI tương đối bằng nhau qua các năm, dao động quanh 1.500. Đến năm 2023, con số tăng vọt lên hơn 3.400 người, tăng hơn 120%.
- Mike Tanglis, giám đốc nghiên cứu tại bộ phận Congress Watch của Public Citizen cho rằng các chính sách định hình AI trong 10 năm tới đang được quyết định ngay lúc này. Việc để các tiếng nói hàng đầu kiếm hàng tỷ đô la là không tốt cho công chúng.
- Một trong những minh chứng nổi bật về ảnh hưởng của ngành công nghiệp đối với chính phủ liên bang diễn ra vào mùa thu năm ngoái, khi hàng chục lãnh đạo công nghệ từ Elon Musk đến Sam Altman tập trung trong một phiên kín cửa lịch sử với hơn 60 thượng nghị sĩ Mỹ, giảng về tương lai của AI.
- Đa số nhà vận động hành lang đến từ ngành công nghệ với 700 người, chiếm 20% tổng số. 80% còn lại đến từ 17 ngành khác nhau, cho thấy phạm vi rộng của các lợi ích giao thoa trong AI.
- Nhà Trắng là cơ quan được vận động hành lang nhiều nhất của chính phủ liên bang năm ngoái với hơn 1.100 nhà vận động hành lang.
- Tháng 10/2022, Tổng thống Joe Biden đã ban hành lệnh hành pháp về AI đặt ra các quy tắc cơ bản cho sự phát triển của nó. Ngành công nghiệp AI chắc chắn sẽ tiếp tục cử các nhà vận động hành lang để định hình cách thức thực thi lệnh này trong tương lai.
- Báo cáo của OpenSecrets cho thấy các nhóm vận động hành lang chính phủ về AI đã chi hơn 957 triệu USD vào năm ngoái, nhưng con số này đại diện cho nhiều lợi ích chứ không chỉ riêng công nghệ mới nổi.
📌 Ngành công nghiệp AI đang gia tăng mạnh mẽ sự hiện diện của mình ở Washington DC với hơn 3.400 nhà vận động hành lang trong năm 2023, tăng 120% so với các năm trước. Họ nhắm vào Nhà Trắng và Quốc hội để gây ảnh hưởng lên các chính sách quan trọng sẽ định hình tương lai 10 năm của AI, với tổng chi phí vận động hành lang lên tới 957 triệu USD trong năm 2022.
https://futurism.com/the-byte/ai-industry-lobbyists
- Edward Snowden cảnh báo các chính phủ và tập đoàn đang cố gắng giành quyền kiểm soát AI, có thể làm giảm tính hữu dụng của công nghệ đang phát triển nhanh này.
- Các chính phủ trên toàn thế giới, bao gồm cả Mỹ, đang xây dựng cách tiếp cận quy định đối với AI sau khi các dịch vụ phổ biến như ChatGPT cho thấy tiềm năng của công nghệ này.
- Liên minh Châu Âu đã thông qua luật toàn diện đặt ra các rào cản đối với công nghệ AI, trong khi ở Trung Quốc, không công ty nào có thể sản xuất dịch vụ AI mà không có sự chấp thuận thích hợp.
- Snowden cho rằng "sự hoảng loạn về an toàn AI nói chung là điều tôi gặp vấn đề", ông lo ngại về quyền kiểm soát ngày càng tăng của các chủ sở hữu nền tảng công nghệ lớn như Alphabet Inc. đối với nội dung AI.
- Tuy nhiên, Snowden dự đoán rằng các nỗ lực kiểm soát AI cuối cùng sẽ không thành công vì công nghệ phát triển quá nhanh, với các đổi mới mới liên tục xuất hiện.
- Snowden kêu gọi khán giả "đừng sợ thách thức sự đồng thuận. Nó có thể khiến bạn gặp rắc rối, nhưng bạn sẽ gần đúng hơn nhiều."
📌 Edward Snowden cảnh báo các nỗ lực kiểm soát AI của chính phủ và tập đoàn có thể kìm hãm tiềm năng của công nghệ đang phát triển nhanh chóng này. Mặc dù các quy định đang được xây dựng ở Mỹ, EU và Trung Quốc, Snowden cho rằng AI cuối cùng sẽ vượt qua mọi rào cản do tốc độ đổi mới không ngừng. Ông kêu gọi mọi người can đảm thách thức sự đồng thuận để tiến gần hơn đến sự thật.
https://www.bloomberg.com/news/articles/2024-06-05/snowden-calls-nations-big-tech-werewolves-seeking-ai-control
Dưới đây là tóm tắt nội dung từ bài viết bạn cung cấp:
Meta description: Thẩm phán liên bang Mỹ Kevin Newsom sử dụng ChatGPT để đưa ra lập luận trong một vụ án gần đây, cho thấy tiềm năng ứng dụng AI trong lĩnh vực pháp lý.
- Thẩm phán Kevin Newsom thuộc Tòa phúc thẩm liên bang Khu vực 11 đã sử dụng ChatGPT và các sản phẩm ngôn ngữ lớn khác để đưa ra quyết định trong một vụ án gần đây.
- Vụ việc liên quan đến việc một công ty bảo hiểm từ chối bảo hiểm cho khách hàng là một công ty cảnh quan trong một vụ kiện sơ suất liên quan đến việc lắp đặt bạt nhún dưới đất. Câu hỏi đặt ra là liệu việc lắp đặt bạt nhún có được coi là "cảnh quan" theo chính sách bảo hiểm hay không.
- Thẩm phán Newsom thừa nhận rằng ông đồng ý hoàn toàn với ý kiến của tòa án, nhưng muốn "hé lộ quá trình suy nghĩ" của mình về một trong những vấn đề của vụ án.
- Ông cho rằng những người tin rằng "ý nghĩa thông thường" là quy tắc nền tảng để đánh giá các văn bản pháp lý nên xem xét liệu các mô hình ngôn ngữ lớn do AI hỗ trợ như ChatGPT, Gemini của Google và Claude của Anthropic có thể cung cấp thông tin cho phân tích diễn giải hay không.
- Newsom đã liệt kê một số lợi ích mà ông tin rằng LLM mang lại cho "bộ công cụ chủ nghĩa văn bản" để thông báo phân tích ý nghĩa thông thường của các văn kiện pháp lý, bao gồm: LLM được đào tạo trên các đầu vào ngôn ngữ thông thường, LLM "hiểu" ngữ cảnh, LLM dễ tiếp cận, nghiên cứu LLM tương đối minh bạch và LLM có lợi thế hơn so với các phương pháp diễn giải thực nghiệm khác.
- Khi được hỏi liệu việc lắp đặt bạt nhún dưới đất có phải là "cảnh quan" hay không, ChatGPT trả lời rằng đó có thể được coi là một phần của cảnh quan vì nó liên quan đến việc thay đổi các đặc điểm nhìn thấy của một khu vực ngoài trời vì mục đích thẩm mỹ hoặc thực tế.
📌 Việc thẩm phán liên bang Mỹ Kevin Newsom sử dụng ChatGPT để đưa ra lập luận trong một vụ kiện bảo hiểm cho thấy tiềm năng ứng dụng của AI trong lĩnh vực pháp lý. Mặc dù cần cẩn trọng, nhưng cách tiếp cận minh bạch và có đạo đức khi sử dụng các công cụ này không nên bị loại bỏ hoàn toàn.
https://abovethelaw.com/2024/06/federal-judge-chatgpt-opinion/
- Singapore đang tìm cách tạo dấu ấn toàn cầu trong lĩnh vực trí tuệ nhân tạo (AI) bằng cách đưa ra các tiêu chuẩn quốc tế cho việc kiểm tra mô hình ngôn ngữ lớn (LLM) và đầu tư vào điện toán lượng tử cũng như năng lực trung tâm dữ liệu mới.
- Phó Thủ tướng Heng Swee Keat cho rằng điện toán lượng tử có tiềm năng mở ra giá trị mới, nơi khả năng xử lý cao hơn có thể được tận dụng trong các lĩnh vực như mô phỏng các phân tử phức tạp để khám phá thuốc.
- Điện toán lượng tử cũng có thể có sự đồng bộ với AI, ví dụ như cải thiện hiệu quả của việc phát triển và đào tạo các mô hình AI tiên tiến. Sự phát triển này có thể thúc đẩy sáng tạo trong học sâu, xử lý ngôn ngữ tự nhiên và thị giác máy tính.
- Tuy nhiên, vẫn còn những thách thức cần giải quyết trong lĩnh vực lượng tử, bao gồm yêu cầu làm mát đến nhiệt độ cực thấp và sửa lỗi.
- Singapore muốn giải quyết những thách thức này với Chiến lược Lượng tử Quốc gia, cùng với khoản đầu tư gần 300 triệu đô la Singapore (221.99 triệu USD) trong 5 năm tới đến năm 2030 để thúc đẩy vị thế của đất nước như một trung tâm hàng đầu trong phát triển và triển khai công nghệ lượng tử.
📌 Singapore đang đầu tư mạnh mẽ vào AI và điện toán lượng tử với gần 300 triệu đô la Singapore trong 5 năm tới, đồng thời đưa ra các tiêu chuẩn quốc tế cho việc kiểm tra LLM, nhằm tạo dấu ấn toàn cầu và thúc đẩy đổi mới trong học sâu, xử lý ngôn ngữ tự nhiên và thị giác máy tính.
https://www.zdnet.com/article/singapore-looks-to-ai-future-with-plans-for-quantum-chip-and-data-centers/
- Hiệp hội người tiêu dùng liên bang Malaysia (Fomca) đánh giá cao quan điểm của Bộ trưởng Bộ Khoa học, Công nghệ và Đổi mới sáng tạo Malaysia về sự cân bằng giữa đổi mới sáng tạo và bảo vệ các giá trị, phúc lợi con người trước sự phát triển của AI.
- Fomca đề xuất 6 biện pháp để bảo vệ người tiêu dùng và xã hội:
1. Công khai bắt buộc: Các công ty triển khai AI tạo sinh phải công khai rõ ràng khi sử dụng AI để tạo ra nội dung hoặc đưa ra khuyến nghị.
2. Tiêu chuẩn chất lượng và độ chính xác: Thiết lập các tiêu chuẩn về chất lượng và độ chính xác cho nội dung do hệ thống AI tạo ra. Các công ty phải chịu trách nhiệm đảm bảo nội dung đáp ứng các tiêu chuẩn này.
3. Trách nhiệm pháp lý đối với nội dung có hại: Xác định trách nhiệm pháp lý của các công ty khi hệ thống AI của họ tạo ra nội dung gây hại hoặc sai lệch, đặc biệt trong các trường hợp phỉ báng, vi phạm quyền sở hữu trí tuệ hoặc phổ biến thông tin sai lệch.
4. Bảo vệ dữ liệu và quyền riêng tư: Tăng cường các quy định về bảo vệ dữ liệu và quyền riêng tư để bảo vệ dữ liệu người dùng được sử dụng để huấn luyện các hệ thống AI. Các công ty phải có sự đồng ý rõ ràng của người dùng trước khi sử dụng dữ liệu của họ.
5. Giám sát và thực thi: Bố trí nguồn lực để giám sát việc sử dụng hệ thống AI của các công ty và thực thi việc tuân thủ các quy định. Thành lập các đơn vị chuyên trách để giám sát các vấn đề liên quan đến AI.
6. Giáo dục và nâng cao nhận thức của người tiêu dùng: Tổ chức các chiến dịch nâng cao nhận thức công chúng về khả năng và rủi ro của công nghệ AI tạo sinh, giúp họ đưa ra lựa chọn sáng suốt hơn và tự bảo vệ mình.
- Fomca kêu gọi các nhà hoạch định chính sách và lập pháp đứng về phía bảo vệ người tiêu dùng và quyền con người, đưa ra các biện pháp pháp lý mạnh mẽ buộc các nhà phát triển và triển khai hệ thống AI hoạt động minh bạch, có trách nhiệm giải trình.
- Trong cuộc đua giữa "đổi mới sáng tạo" và "bảo vệ quyền con người", các công ty công nghệ với nguồn lực tài chính dồi dào sẽ vận động hành lang mạnh mẽ cho "đổi mới" và các quy định yếu hoặc không có quy định.
- Fomca kêu gọi Bộ trưởng đầu tư xây dựng một lực lượng đặc nhiệm về phúc lợi người tiêu dùng hoặc xã hội, nâng cao năng lực để có thể đàm phán thực tế với các công ty công nghệ lớn nhằm bảo vệ các giá trị con người và phúc lợi xã hội.
📌 Fomca đề xuất 6 biện pháp bảo vệ người tiêu dùng trước sự phát triển của AI như công khai bắt buộc, tiêu chuẩn chất lượng, trách nhiệm pháp lý, bảo vệ dữ liệu, giám sát và giáo dục. Fomca kêu gọi chính phủ đứng về phía người dân, đưa ra quy định chặt chẽ với các công ty công nghệ và thành lập lực lượng đặc nhiệm để bảo vệ quyền lợi người tiêu dùng.
https://www.nst.com.my/opinion/letters/2024/06/1058556/protecting-rights-ai-era
- Trung Quốc đã đặt ra kế hoạch chi tiết từ năm 2017 để thống trị việc tạo ra, ứng dụng và phổ biến trí tuệ nhân tạo (AI). Mục tiêu của Trung Quốc là đạt được những tiến bộ mang tính biểu tượng trong các mô hình và phương pháp AI, thiết bị cốt lõi, thiết bị cao cấp và phần mềm nền tảng vào năm 2020.
- Sự ra mắt của ChatGPT vào mùa thu năm 2022 đã làm Trung Quốc bất ngờ, cho thấy các công ty Mỹ đang dẫn đầu cuộc đua AI. Trung Quốc đang sử dụng AI để củng cố quyền lực, giám sát và kiểm soát thông tin, đồng thời thúc đẩy các đột phá trong kỹ thuật công nghiệp và công nghệ sinh học.
- Các công ty công nghệ quốc gia của Trung Quốc đang tham gia vào cuộc đua AI, nhưng sự kiểm duyệt có thể làm chậm sự phát triển và hạn chế việc thương mại hóa các mô hình trong nước. Chính phủ Trung Quốc đã ra mắt chatbot được huấn luyện hoàn toàn dựa trên triết lý chính trị và kinh tế của Tập Cận Bình, nhằm duy trì ổn định xã hội và kiểm soát thông tin.
- Kinh tế Trung Quốc đang gặp khó khăn, với thị trường bất động sản bị méo mó, tăng trưởng chững lại và lạm phát kéo dài. Số lượng các cuộc biểu tình chống lại chính sách của chính phủ Trung Quốc đã tăng 50% trong quý 4 năm 2023, với 78% liên quan đến các vấn đề kinh tế.
- Các chatbot tại Trung Quốc thu thập thông tin về người dùng và câu hỏi họ đặt ra, giúp chính phủ sử dụng thông tin này để lợi thế chính trị và kinh tế. Trung Quốc đã thiết lập một hệ thống để điều chỉnh AI, yêu cầu đăng ký và phê duyệt từ Cục Quản lý Không gian mạng Trung Quốc (CAC).
- Các công ty công nghệ Trung Quốc đang trong giai đoạn huấn luyện và điều chỉnh các mô hình AI, với một số công ty như Baidu và ByteDance đã ra mắt các chatbot như Ernie Bot và Doubao.
- Trung Quốc có thể không đẩy mạnh các mô hình AI lớn nhất, nhưng có thể phát triển các mô hình nhắm mục tiêu cụ thể cho các mục đích kinh doanh. Chính phủ Trung Quốc có thể sử dụng các mô hình AI để kiểm soát thông tin và bán các công cụ giám sát cho các chế độ khác.
- Cuộc đua AI có thể tạo ra một bức màn số hóa không thể xuyên thủng, làm cho các xã hội khó hợp tác trong tương lai chung. Trung Quốc đang đẩy mạnh phát triển AI để củng cố quyền lực và kiểm soát thông tin, với các công ty công nghệ quốc gia tham gia cuộc đua.
- Để thực sự có một AI mạnh mẽ để kiểm soát, Trung Quốc cần phát triển các mô hình phù hợp với mục đích của mình. Các công ty công nghệ lớn của Trung Quốc như Baidu, Alibaba và ByteDance đang trong giai đoạn huấn luyện và điều chỉnh các mô hình AI. Ví dụ, chatbot Ernie Bot của Baidu đã có 200 triệu người dùng và 85.000 khách hàng doanh nghiệp, trong khi chatbot Doubao của ByteDance đã trở thành bot được tải xuống nhiều nhất tại Trung Quốc.
- Cuộc chiến giá cả trong ngành công nghiệp AI tại Trung Quốc có thể dẫn đến sự sụp đổ của nhiều công ty, tương tự như cuộc đua sản xuất xe điện trước đây. Chính phủ Trung Quốc đã từng hỗ trợ các công ty sản xuất xe điện bằng cách cung cấp tiền mặt cho bất kỳ công ty nào có thể sản xuất một thiết kế, nhưng sau đó đã ngừng trợ cấp và chỉ hỗ trợ người tiêu dùng cuối cùng. Kết quả là, nhiều công ty không thể sản xuất xe với giá mà người tiêu dùng sẵn sàng trả đã phải đóng cửa, và chỉ còn lại một số ít công ty thống trị ngành công nghiệp xe điện của Trung Quốc.
- Cuộc đua AI có thể tạo ra một bức màn số hóa không thể xuyên thủng, làm cho các xã hội khó hợp tác trong tương lai chung.
📌 Trung Quốc đang đẩy mạnh phát triển AI để củng cố quyền lực và kiểm soát thông tin, với các công ty công nghệ quốc gia tham gia cuộc đua. Sự kiểm duyệt và giám sát thông tin là trọng tâm, và các mô hình AI có thể được sử dụng để hỗ trợ các chế độ độc tài khác.
Citations:
- A&O Shearman (trước đây là Allen & Overy) và Wilson Sonsini là hai công ty luật toàn cầu đang đi đầu trong việc áp dụng AI tạo sinh vào hoạt động pháp lý. Cả hai đều có những lãnh đạo chuyên trách về đổi mới công nghệ.
- Hai công ty bắt đầu thử nghiệm AI tạo sinh từ trước khi ChatGPT ra mắt vào tháng 11/2022. Họ nhận thấy công nghệ này giúp tăng năng suất đáng kể cho luật sư, tiết kiệm từ 2-10 giờ làm việc mỗi tuần.
- Tuy nhiên, các công ty cũng gặp phải thách thức như việc AI đôi khi đưa ra thông tin sai lệch. Vì vậy, đầu ra từ AI cần được luật sư chuyên môn rà soát lại. Việc tinh chỉnh các mô hình ngôn ngữ lớn cho ứng dụng pháp lý gặp khó khăn do thiếu dữ liệu huấn luyện phù hợp.
- Cả hai công ty đều hợp tác với các startup về AI pháp lý và phát triển các sản phẩm sử dụng AI để tự động hóa quy trình soạn thảo, đàm phán hợp đồng. A&O Shearman đã tạo ra "Contract Matrix", một quy trình đàm phán hợp đồng sử dụng AI. Wilson Sonsini tích hợp AI vào nền tảng Neuron để tự động rà soát hợp đồng dịch vụ đám mây.
- Về dài hạn, cả hai công ty đều tin rằng AI tạo sinh sẽ mang lại lợi thế cạnh tranh đáng kể, nhưng cũng là mối đe dọa tiềm tàng nếu không thích ứng kịp thời. Tuy nhiên, đa số các công ty luật vẫn chưa sẵn sàng để đón nhận công nghệ đột phá này.
- Mặc dù ngành dịch vụ pháp lý và chuyên môn nói chung thường chậm chạp trong việc áp dụng công nghệ mới do những rào cản như tính phí theo giờ, quy trình làm việc truyền thống, A&O Shearman và Wilson Sonsini đang nỗ lực thay đổi điều đó nhờ sự tiên phong trong lĩnh vực AI tạo sinh.
📌 A&O Shearman và Wilson Sonsini là hai công ty luật tiên phong áp dụng AI tạo sinh, giúp tăng 2-10 giờ năng suất/tuần cho luật sư. Họ hợp tác với các startup để phát triển sản phẩm AI tự động hóa quy trình pháp lý. Tuy nhiên, việc tinh chỉnh mô hình và kiểm soát sai sót từ AI vẫn là thách thức lớn. Về dài hạn, AI được kỳ vọng sẽ mang lại lợi thế cạnh tranh đáng kể, buộc các công ty luật phải thay đổi để thích ứng, dù hiện tại đa số vẫn chưa sẵn sàng.
Citations:
https://www.forbes.com/sites/tomdavenport/2024/06/01/early-adopters-of-gen-ai-in-law/
- Thủ tướng Malaysia Anwar Ibrahim cho rằng các giá trị "turath Islam" (di sản Hồi giáo) phải được áp dụng vào lĩnh vực trí tuệ nhân tạo (AI) ở Malaysia, không nên hoàn toàn dựa theo mô hình phương Tây.
- Anwar nói rằng kỹ năng và phát triển AI ở Malaysia cần được tinh chỉnh với kiến thức và di sản Hồi giáo, bao gồm cả phong cách và đạo đức.
- Kiến thức trong công nghệ AI hiện tại dựa trên tài liệu từ các nước phương Tây vì họ phát triển công nghệ này. Do đó, truyền thống trí tuệ Hồi giáo phải được đưa vào để AI áp dụng ở các nước Hồi giáo không đi chệch khỏi hệ thống đạo đức và giá trị Hồi giáo.
- Anwar khen ngợi chính quyền Selangor đã tổ chức lễ hội di sản Hồi giáo để khôi phục lại các tác phẩm vĩ đại của Hồi giáo. Ông nói rằng việc Selangor đang làm rất thú vị, duy trì truyền thống học tập kiến thức theo cách cũ như giáo viên thảo luận nội dung sách.
- Thủ hiến Selangor Amirudin Shari cho biết Selangor cam kết đưa "turath" (di sản) trở thành chủ đạo bằng cách thành lập Học viện Turath dưới sự quản lý của Nhà thờ Hồi giáo Nhà nước.
- Chính quyền tiểu bang cũng đã biên soạn một giáo trình học "talaqqi" (học trực tiếp) với giáo viên hoặc học giả tôn giáo tại các nhà thờ Hồi giáo, sẽ được triển khai tại 9 huyện ở Selangor để bắt đầu.
- Tại sự kiện, Thủ tướng cũng ra mắt bản dịch tiếng Malay của tác phẩm kinh điển "Kitab Ihya' Ulumuddin" của Imam al-Ghazali và "40 Hadith" của Imam al-Nawawi.
- Lễ hội Turath Islami Selangor lần thứ 2, diễn ra từ 26/5 đến 2/6, nhằm khôi phục di sản Hồi giáo trong đời sống hàng ngày của người Hồi giáo ở quần đảo này.
📌 Thủ tướng Anwar Ibrahim nhấn mạnh tầm quan trọng của việc áp dụng giá trị "turath Islam" vào phát triển AI ở Malaysia, thay vì hoàn toàn theo mô hình phương Tây. Ông kêu gọi đưa kiến thức và di sản Hồi giáo, bao gồm đạo đức và luân lý, vào tinh chỉnh kỹ năng và phát triển AI. Lễ hội Turath Islami Selangor lần 2 cũng nhằm khôi phục di sản Hồi giáo trong đời sống người Hồi giáo ở quần đảo này.
https://www.thestar.com.my/news/nation/2024/06/01/ai-in-malaysia-needs-to-apply-039turath-islam039-says-anwar
- Google ra mắt tính năng tìm kiếm AI Overviews, tự động tóm tắt thông tin chính và đưa ra các đường link liên quan. Tuy nhiên, chỉ sau vài ngày, người dùng phát hiện nhiều câu trả lời sai lệch, vô lý như gợi ý ăn đá, cho keo vào pizza.
- AI Overviews sử dụng mô hình AI sinh (generative AI) Gemini, kết hợp với hệ thống xếp hạng web của Google. Nhiều khả năng nó dùng kỹ thuật Retrieval-augmented generation (RAG) để truy xuất thông tin từ các nguồn bên ngoài dữ liệu huấn luyện.
- RAG giúp câu trả lời của AI cập nhật hơn, chính xác hơn so với chỉ dựa vào dữ liệu huấn luyện. Tuy nhiên, để đưa ra câu trả lời tốt, RAG phải vừa truy xuất đúng thông tin, vừa tạo sinh câu trả lời đúng. Lỗi xảy ra khi 1 hoặc cả 2 quá trình này gặp vấn đề.
- Ví dụ, với gợi ý cho keo vào pizza, AI Overviews có thể đã truy xuất một bài đăng đùa trên Reddit có vẻ liên quan đến câu hỏi ban đầu. Hoặc khi gặp thông tin mâu thuẫn, AI không thể phân biệt phiên bản nào mới hơn để dựa vào.
- Ngay cả khi lấy được nguồn tin đáng tin cậy, AI vẫn có thể hiểu sai ý. Ví dụ khi được hỏi Mỹ có bao nhiêu tổng thống Hồi giáo, AI trả lời là 1 (Obama) dù nguồn trích dẫn là 1 chương sách với tiêu đề nghi vấn.
- Google cho biết đang cải tiến AI Overviews để hạn chế câu trả lời sai như phát hiện tốt hơn các truy vấn vô nghĩa, loại bỏ nội dung châm biếm/tạo bởi người dùng. Họ cũng đang thêm các hạn chế với các chủ đề nhạy cảm như sức khỏe.
- Các chuyên gia đề xuất thêm bước đánh dấu câu hỏi rủi ro trong quá trình truy xuất, sử dụng phản hồi của con người để cải thiện chất lượng, huấn luyện AI xác định khi nào không thể trả lời. Google cũng nên nhấn mạnh rõ hơn tính năng này vẫn đang thử nghiệm.
📌 Tính năng tìm kiếm AI mới của Google liên tục đưa ra các câu trả lời sai lệch, thậm chí nguy hiểm do các vấn đề trong quá trình truy xuất và tạo sinh ngôn ngữ. Dù Google đang nỗ lực cải tiến, các chuyên gia cho rằng họ cần thêm nhiều biện pháp như đánh dấu câu hỏi rủi ro, sử dụng phản hồi của con người và nhấn mạnh tính chất thử nghiệm của tính năng này.
Citations:
https://www.technologyreview.com/2024/05/31/1093019/why-are-googles-ai-overviews-results-so-bad/
#MIT
- Ủy ban Châu Âu đã công bố chi tiết về Văn phòng AI mới, được thành lập để quản lý việc triển khai các mô hình AI đa mục đích và Đạo luật AI tại EU. Văn phòng gồm 5 đơn vị về quy định, đổi mới và AI vì lợi ích xã hội.
- Văn phòng AI sẽ chịu trách nhiệm thực thi các quy tắc của Đạo luật AI, đảm bảo việc triển khai thống nhất giữa các quốc gia thành viên, tài trợ cho đổi mới AI và robotics.
- Văn phòng sẽ tuyển dụng hơn 140 nhân sự, bao gồm chuyên gia công nghệ, trợ lý hành chính, luật sư, chuyên gia chính sách và kinh tế.
- 5 đơn vị của Văn phòng AI bao gồm: Đơn vị Quy định và Tuân thủ, Đơn vị An toàn AI, Đơn vị Xuất sắc về AI và Robotics, Đơn vị AI vì Lợi ích Xã hội, Đơn vị Đổi mới AI và Điều phối Chính sách.
- Đạo luật AI của EU là bộ luật toàn diện đầu tiên trên thế giới về AI, đặt ra các biện pháp bảo vệ đối với việc sử dụng AI ở châu Âu, đồng thời đảm bảo các doanh nghiệp châu Âu có thể hưởng lợi từ công nghệ đang phát triển nhanh chóng này.
- Các công ty không tuân thủ Đạo luật AI của EU sẽ phải đối mặt với mức phạt từ 35 triệu euro (38 triệu USD) hoặc 7% doanh thu toàn cầu, đến 7,5 triệu euro (8,1 triệu USD) hoặc 1,5% doanh thu, tùy thuộc vào mức độ vi phạm và quy mô công ty.
📌 Văn phòng AI mới của EU sẽ đóng vai trò then chốt trong việc giám sát triển khai các mô hình AI đa mục đích và thực thi Đạo luật AI. Với 5 đơn vị chuyên trách và hơn 140 nhân sự, Văn phòng hướng tới mục tiêu vừa thúc đẩy đổi mới AI, vừa đảm bảo tuân thủ các quy định nghiêm ngặt, với mức phạt lên tới 7% doanh thu toàn cầu cho các vi phạm nghiêm trọng.
https://www.techrepublic.com/article/what-is-eu-ai-office/
- Chính phủ Mỹ đã trì hoãn việc cấp giấy phép xuất khẩu cho các nhà thiết kế chip AI tiên tiến như AMD và Nvidia để vận chuyển sang Trung Đông, trong bối cảnh đang xem xét an ninh quốc gia.
- Chính phủ Mỹ lo ngại rằng GPU dành cho các khối lượng công việc AI và HPC có thể được bán lại cho Trung Quốc, được các thực thể Trung Quốc truy cập trên đám mây để đào tạo các mô hình ngôn ngữ lớn hoặc được sử dụng để phát triển thiết bị quân sự.
- Điều này ảnh hưởng lớn đến hoạt động kinh doanh của AMD, Nvidia và các nhà phát triển phần cứng tương tự khác.
- Vào tháng 10, Bộ Thương mại Mỹ đã áp đặt các quy tắc xuất khẩu mới đối với việc vận chuyển các bộ xử lý AI và HPC hiệu suất cao sang các quốc gia khác. Chính phủ Mỹ hiện yêu cầu các công ty như AMD và Nvidia phải có giấy phép xuất khẩu khi vận chuyển các bộ xử lý tiên tiến hợp lý sang Trung Quốc, Ma Cao, Ả Rập Xê Út, Việt Nam, UAE và một số quốc gia khác.
- Gần đây, các đơn xin cấp phép từ Nvidia, AMD, Intel và Cerebras Systems đã bị trì hoãn hoặc không được trả lời.
- Chiến lược của chính phủ Mỹ bao gồm việc phát triển một kế hoạch toàn diện để triển khai các chip tiên tiến ở nước ngoài, đảm bảo quản lý và bảo mật đúng cách các cơ sở được sử dụng để đào tạo các mô hình AI.
- UAE và Ả Rập Xê Út đang nhắm đến việc đa dạng hóa nền kinh tế của họ khỏi dầu mỏ bằng cách trở thành những nhà lãnh đạo trong lĩnh vực AI. Cả hai quốc gia đều coi các công ty có trụ sở tại Mỹ như Cerebras và Nvidia là đối tác quan trọng trong nỗ lực này.
- Ả Rập Xê Út và các quốc gia Trung Đông khác đã thể hiện sự sẵn sàng tách biệt chuỗi cung ứng của Trung Quốc hoặc thoái vốn khỏi công nghệ Trung Quốc. Tuy nhiên, Ả Rập Xê Út đã hợp tác với Lenovo của Trung Quốc để thành lập một trung tâm R&D ở Riyadh.
📌 Chính phủ Mỹ đang trì hoãn cấp giấy phép xuất khẩu chip AI tiên tiến cho các nước Trung Đông như UAE và Ả Rập Xê Út do lo ngại về an ninh quốc gia, bao gồm việc công nghệ có thể rơi vào tay Trung Quốc. Điều này ảnh hưởng đến hoạt động kinh doanh của AMD, Nvidia và các đối tác quan trọng trong kế hoạch đa dạng hóa kinh tế của các quốc gia vùng Vịnh.
https://www.tomshardware.com/pc-components/gpus/us-delays-nvidia-amd-ai-gpu-exports-licenses-to-middle-east
- Thượng nghị sĩ Chuck Schumer tuyên bố cần hành động nhanh chóng để tạo ra các rào cản bảo vệ người dân Mỹ trước những rủi ro từ AI, nhưng lộ trình chính sách AI mới đây của Thượng viện cho thấy ưu tiên bảo vệ ngành công nghiệp hơn là người dân.
- Trong khi đó, EU sắp thông qua luật quan trọng tạo ra các tiêu chuẩn và trách nhiệm giải trình cho ngành công nghiệp AI. Tổng thống Biden cũng ra lệnh hành pháp yêu cầu chính phủ bảo vệ quyền và sự an toàn của người dân liên quan đến AI.
- Tiểu bang Colorado đã ký luật Colorado AI Act bất chấp sức ép từ ngành công nghệ, nhằm bảo vệ người dân khỏi phân biệt đối xử của AI, yêu cầu thông báo về việc sử dụng AI rủi ro cao và cơ sở hạ tầng trách nhiệm giải trình cơ bản.
- Lộ trình của Thượng viện đề xuất cách tiếp cận manh mún, lộn xộn đối với quy định AI, gần như đảm bảo sẽ có những lỗ hổng và các nhiệm vụ hình thức không được tài trợ. Nó không thừa nhận cơ sở bằng chứng áp đảo cho thấy cần thêm kinh phí và năng lực cho các bộ phận quyền dân sự của cơ quan để xác định vi phạm và thực thi luật hiện hành.
- Việc Thượng viện từ bỏ vai trò lãnh đạo trong các vấn đề quan trọng này đồng nghĩa với việc các cơ quan lập pháp tiểu bang có thể là nơi cuối cùng còn lại để có luật AI có ý nghĩa trong thời gian tới. Tuy nhiên, ngành công nghiệp đang nỗ lực thuyết phục các nhà lập pháp tiểu bang rằng có sự lựa chọn sai lầm giữa quy định và đổi mới.
- Cách đây 20 năm, chính phủ Mỹ đã có lựa chọn tương tự khi mạng xã hội mới xuất hiện: hoặc đóng vai trò kiềm chế ngành công nghiệp để đảm bảo một internet an toàn và đáng tin cậy hơn, hoặc để ngành công nghiệp theo đuổi đổi mới không bị kiềm chế. Chính phủ đã chọn con đường sau và giờ đây đang phải hối hận.
- Các nhà lãnh đạo tiểu bang cần: (1) Đảm bảo mọi người hiểu vai trò của AI trong cuộc sống của họ, quyết định liệu, ở đâu và khi nào sử dụng AI, tìm cách khắc phục khi gặp tổn hại; (2) Đặt trách nhiệm chứng minh tính an toàn của các công cụ AI lên các công ty phát triển chúng, thực thi các cơ chế an toàn trước khi công cụ được phát hành ra công chúng; (3) Giải quyết sự tập trung quyền lực của các tập đoàn khiến chúng trở nên quá lớn để thất bại.
📌 Thượng viện Mỹ đã không đưa ra giải pháp thực sự nào để quản lý AI và bảo vệ người dân khỏi tác hại của thuật toán. Các nhà lập pháp tiểu bang cần hành động, đảm bảo người dân hiểu và kiểm soát được vai trò của AI, buộc các công ty chịu trách nhiệm về tính an toàn của công cụ AI, đồng thời giải quyết vấn đề tập trung quyền lực của các tập đoàn công nghệ.
https://thehill.com/opinion/technology/4691309-the-senates-failure-on-ai-policy-leaves-legislation-up-to-the-states/
- Sanskriti Bench là dự án nhằm phát triển một tiêu chuẩn văn hóa Ấn Độ để kiểm tra sự gia tăng của các mô hình AI Ấn Độ, do nhà nghiên cứu AI Guneet Singh Kohli khởi xướng.
- Dự án thu thập dữ liệu từ người bản ngữ từ các vùng khác nhau trên khắp Ấn Độ để đảm bảo tính đa dạng, chính xác và chất lượng của dữ liệu, điều này không có sẵn trong các bộ dữ liệu ngôn ngữ Ấn Độ khác vốn chủ yếu là bản dịch từ tiếng Anh.
- Kohli cũng hợp tác với GitHub và Save the Children để xây dựng công cụ AI cho an toàn trẻ em và chuẩn bị một hệ thống AI có thể phát hiện những người cố gắng dụ dỗ trẻ em trực tuyến.
- Mục tiêu cuối cùng của Kohli là thành lập một Phòng thí nghiệm AI toàn cầu vì An toàn trẻ em.
- Hiện tại, dự án đang trong giai đoạn đầu tiên, tạo các câu hỏi để xây dựng bộ dữ liệu làm chuẩn cho các mô hình ngôn ngữ lớn (LLM), sau đó sẽ được đăng trên bảng xếp hạng của Hugging Face.
- Kohli đang hướng tới 500 câu hỏi cho mỗi ngôn ngữ và mỗi vùng của đất nước, bắt đầu với 10 ngôn ngữ, có thể được tăng cường bằng các mô hình ngôn ngữ trong các phiên bản sau.
- Kohli nhấn mạnh tầm quan trọng của việc các nhà nghiên cứu đang xây dựng các mô hình AI khác nhau bằng các ngôn ngữ khác nhau cần phải hợp tác với nhau để đóng góp cho sáng kiến này.
📌 Sanskriti Bench là dự án tiên phong nhằm xây dựng tiêu chuẩn văn hóa Ấn Độ cho AI, với 500 câu hỏi cho mỗi ngôn ngữ và vùng miền, bắt đầu từ 10 ngôn ngữ. Dự án kêu gọi sự hợp tác của các nhà nghiên cứu AI Ấn Độ để tạo ra dữ liệu bản địa chất lượng cao, đảm bảo các mô hình AI tôn trọng sự đa dạng văn hóa độc đáo của đất nước.
https://analyticsindiamag.com/meet-the-creator-of-sanskriti-bench-building-cultural-ai-for-india-with-hugging-face-and-github/
- Trí tuệ nhân tạo (AI) đã xuất hiện và chúng ta cần quy định nó. Tuy nhiên, việc quy định AI rất khó khăn vì bản chất của AI không phải tốt hay xấu, mà phụ thuộc vào cách sử dụng.
- Các quy định tốt nhất tập trung vào người dùng và cách sử dụng AI, chứ không phải công cụ AI. Chúng ta cần liên tục kiểm tra kết quả của AI.
- Quy định AI cần ít nhất 3 nguyên tắc: khả năng truy xuất (truy xuất được ứng dụng và tương tác của AI), khả năng kiểm tra (kiểm tra kết quả AI liên tục) và trách nhiệm pháp lý (đủ mạnh để người dùng quan tâm đến việc sử dụng và kết quả AI).
- Canada quy định thuật toán tốt hơn hầu hết các nước, mở rộng sang AI và tập trung vào tác động như quyền riêng tư, sức khỏe, lợi ích kinh tế.
- Các quy định sẽ không tránh được các vấn đề liên quan đến AI, vì vậy chúng ta cũng phải thiết kế hệ thống AI để xử lý các lỗi và người dân phải có quyền khiếu nại.
- Các công ty sử dụng AI cũng muốn được bảo vệ. Một khuôn khổ truyền thống là cung cấp cho các công ty công nghệ "bến bờ an toàn" cho các hoạt động được phép cụ thể.
- Các công ty sử dụng công cụ AI trong quy trình của họ nên chứng minh rằng chúng có thể tháo rời để có thể tắt hoặc thay thế các thành phần liên quan nếu có vi phạm mà không gây nguy hiểm cho toàn bộ hệ thống.
- Quy định AI phải liên tục phát triển và chúng ta phải chấp nhận sự cảnh giác vĩnh viễn.
📌 Quy định AI đòi hỏi tập trung vào người dùng, cách sử dụng và giám sát liên tục kết quả, dựa trên 3 nguyên tắc chính: khả năng truy xuất, kiểm tra và trách nhiệm pháp lý đủ mạnh. Các hệ thống AI cũng cần được thiết kế để xử lý lỗi và đảm bảo quyền của người dân. Quy định AI phải không ngừng phát triển cùng sự cảnh giác vĩnh viễn.
https://www.weforum.org/agenda/2024/05/why-regulating-ai-can-be-surprisingly-straightforward-providing-you-have-eternal-vigilance/
- Tờ Nhật báo Kinh tế kêu gọi các nhà tuyển dụng cảnh giác với sự thiên vị về giới tính, tuổi tác và nơi sinh khi sử dụng AI để đánh giá ứng viên.
- Bài báo cho rằng mặc dù AI có thể giúp sàng lọc sơ bộ ứng viên hiệu quả hơn, nhưng các thuật toán và tiêu chuẩn hiện tại cho phỏng vấn AI khó có thể phản ánh đầy đủ sự phức tạp và đa dạng của hành vi con người.
- Thông tin cá nhân như giới tính, tuổi tác, nơi sinh có thể ảnh hưởng đến đánh giá và làm trầm trọng thêm sự phân biệt đối xử tại nơi làm việc.
- Các cơ quan chính phủ cần có biện pháp ngăn chặn rủi ro và điều tra bất kỳ vi phạm luật lao động nào liên quan đến việc sử dụng thuật toán. Cần thiết lập cơ chế quản lý lành mạnh để ngăn chặn việc lạm dụng công nghệ.
- Bắc Kinh đang nhắm tới AI như một cách giúp nền kinh tế trì trệ phục hồi và đối phó với các thách thức kinh tế dài hạn, bao gồm lực lượng lao động ngày càng thu hẹp.
- Trung Quốc cũng tìm cách kiểm soát chặt chẽ việc sử dụng công nghệ này, viện dẫn lo ngại về an ninh mạng.
- Luật lao động Trung Quốc quy định chính sách tuyển dụng của công ty không được phân biệt đối xử dựa trên giới tính, nhưng một số nhà tuyển dụng vẫn chỉ tuyển dụng hoặc ưu tiên nam giới.
- Các chuyên gia cảnh báo rằng phân biệt đối xử về tuổi tác có thể gây ra hậu quả kinh tế nghiêm trọng khi dân số và lực lượng lao động của đất nước ngày càng thu hẹp.
- Các nhà lập pháp và cố vấn chính trị Trung Quốc cũng bày tỏ lo ngại về các vấn đề tiềm ẩn phát sinh từ việc sử dụng AI và kêu gọi quy định hiệu quả.
📌 Truyền thông nhà nước Trung Quốc cảnh báo việc sử dụng AI trong tuyển dụng có thể làm trầm trọng thêm sự phân biệt đối xử về giới tính, tuổi tác. Bắc Kinh đang tìm cách tận dụng AI để phục hồi kinh tế, nhưng cần có quy định chặt chẽ để ngăn chặn việc lạm dụng công nghệ này và bảo vệ quyền lợi người lao động.
https://www.scmp.com/news/china/politics/article/3264282/chinese-state-media-warn-ai-could-worsen-job-discrimination-and-break-labour-laws
- California và Liên minh Châu Âu đang tích cực phối hợp xây dựng các quy định về trí tuệ nhân tạo (AI). EU đã mở văn phòng tại San Francisco năm 2022 và cử đặc phái viên công nghệ Gerard de Graaf đến để trao đổi về luật pháp và quy định liên quan đến AI.
- Nếu California thông qua luật về AI trong những tháng tới, bang này có thể trở thành tiêu chuẩn cho việc quản lý AI tại Mỹ, từ đó ảnh hưởng đến tương lai của ngành công nghiệp này.
- Một số dự luật đáng chú ý đang được thảo luận tại California bao gồm: yêu cầu doanh nghiệp và cơ quan nhà nước báo cáo kết quả kiểm tra mô hình AI, quy định về AI tạo sinh, bắt buộc các nền tảng trực tuyến đóng dấu thủy vân lên hình ảnh và video do AI tạo ra trước các cuộc bầu cử.
- Đạo luật AI của EU vừa được thông qua, cấm nhận dạng cảm xúc tại trường học và nơi làm việc, cấm hệ thống tín dụng xã hội, gắn nhãn rủi ro cao cho AI trong y tế, tuyển dụng và cấp phúc lợi chính phủ.
- Các dự luật của California và Đạo luật AI của EU đều áp dụng cách tiếp cận dựa trên rủi ro, khuyến nghị tiếp tục kiểm tra, đánh giá các dạng AI có rủi ro cao và yêu cầu đóng dấu thủy vân lên sản phẩm AI tạo sinh.
- Phối hợp giữa California và EU nhằm kết hợp các sáng kiến quản lý tại hai thị trường có ảnh hưởng độc đáo. Đa số các công ty AI hàng đầu đều đặt trụ sở tại California.
- Cơ quan Bảo vệ Quyền riêng tư California cũng thường xuyên trao đổi với các quan chức EU để bảo vệ quyền riêng tư của người dân và yêu cầu doanh nghiệp tuân thủ các yêu cầu xóa dữ liệu.
📌 California và Liên minh Châu Âu đang tích cực hợp tác xây dựng khuôn khổ pháp lý chung cho trí tuệ nhân tạo, tập trung vào các khía cạnh như cấm nhận dạng cảm xúc, hệ thống tín dụng xã hội, gắn nhãn rủi ro, đóng dấu thủy vân. Sự phối hợp này hứa hẹn tạo ra các tiêu chuẩn quản lý AI mang tính toàn cầu, bảo vệ quyền lợi người dùng đồng thời thúc đẩy sự phát triển bền vững của ngành công nghiệp trị giá hàng tỷ đô la.
Citations:
[1]https://www.kqed.org/news/11987803/how-california-and-the-eu-work-together-to-regulate-artificial-intelligence
- Chỉ 1 trong 7 dự luật nhằm ngăn chặn AI phân biệt đối xử khi đưa ra các quyết định quan trọng (tuyển dụng, cho vay mua nhà, chăm sóc y tế) đã được thông qua. Thống đốc Colorado đã ký dự luật này vào ngày 23/5 với sự do dự.
- Các dự luật tại Colorado và các tiểu bang khác như Washington, Connecticut gặp nhiều trở ngại từ nhiều phía, bao gồm mâu thuẫn giữa các nhóm dân quyền và ngành công nghệ, các nhà lập pháp e ngại can thiệp vào công nghệ mới và thống đốc lo ngại làm nản lòng các startup AI.
- Các dự luật yêu cầu các công ty đánh giá rủi ro phân biệt đối xử từ AI của họ và thông báo cho khách hàng khi AI được sử dụng để đưa ra quyết định quan trọng.
- Ước tính có tới 83% nhà tuyển dụng sử dụng thuật toán để hỗ trợ tuyển dụng. Dữ liệu lịch sử được sử dụng để huấn luyện thuật toán có thể ẩn chứa sự thiên vị.
- Các vụ kiện tập thể cáo buộc hệ thống AI chấm điểm đơn xin thuê nhà phân biệt đối xử với người da đen và gốc Tây Ban Nha. Một nghiên cứu cho thấy hệ thống AI đánh giá nhu cầu y tế đã bỏ qua bệnh nhân da đen.
- Dự luật Colorado yêu cầu các công ty sử dụng AI đánh giá tiềm năng thiên vị hàng năm, thực hiện chương trình giám sát nội bộ, thông báo cho Tổng chưởng lý nếu phát hiện phân biệt đối xử và cho khách hàng biết khi AI được dùng để ra quyết định.
- Các công ty AI nhỏ hơn lo ngại các yêu cầu có thể quản lý được bởi các đại gia công nghệ nhưng không phải với các startup mới nổi.
📌 Mặc dù có sự đồng thuận về tầm quan trọng của việc giải quyết vấn đề phân biệt đối xử trong AI, nhưng các dự luật điều chỉnh AI đang gặp nhiều trở ngại từ nhiều phía như mâu thuẫn giữa các nhóm xã hội và doanh nghiệp. Dự luật tại Colorado yêu cầu minh bạch và giám sát AI, nhưng các công ty nhỏ lo ngại không đáp ứng được. Giới học thuật đề xuất thành lập tổ chức độc lập kiểm tra thiên vị trong thuật toán AI.
Citations:
[1] https://apnews.com/article/artificial-intelligence-bias-discrimination-regulation-ai-ff1d0860663723079aac3666b38f2320
- Các mức thuế gần đây của Mỹ đối với chất bán dẫn và xe điện của Trung Quốc báo hiệu một cuộc chiến thương mại sẽ gia tăng khi sự bùng nổ AI tiến triển.
- Mỹ nên áp dụng chiến lược ngoại giao tam giác, lấy Trung Quốc làm nước mục tiêu và hợp tác với Hàn Quốc để kiểm soát sức mạnh của Trung Quốc.
- Sự phụ thuộc lẫn nhau về kinh tế giữa Mỹ và Trung Quốc đang lung lay khi nhu cầu về khoáng sản và kim loại quý tăng cao do sự bùng nổ AI.
- Trung Quốc kiểm soát 83% sản lượng vonfram trên thế giới, một nguyên tố hóa học cần thiết để sản xuất chất bán dẫn - trung tâm của sự bùng nổ AI.
- Mỹ cần tìm nguồn cung vonfram thay thế để giảm sự phụ thuộc vào Trung Quốc. Mỏ Sangdong ở Hàn Quốc, từng là mỏ vonfram lớn nhất thế giới, đang được hiện đại hóa và có thể đóng vai trò quan trọng.
- Mỹ và Hàn Quốc cần thống nhất quan điểm về cách quản lý mối quan hệ với Trung Quốc. Liên minh bền vững hơn khi được xây dựng dựa trên lợi ích và mục tiêu chung.
- Chính phủ Mỹ phải đa dạng hóa nguồn nguyên liệu thô. Mỏ Sangdong cho thấy thị trường tự do có giải pháp thay thế, nhưng cần thời gian (8-10 năm để mở một mỏ mới).
📌Sự kiểm soát của Trung Quốc đối với các nguyên tố quan trọng trong sản xuất AI như vonfram và lithium đe dọa làm tăng sự phụ thuộc của Mỹ. Mỹ cần tập trung vào việc củng cố mối quan hệ với Hàn Quốc và các nước giàu tài nguyên thiết yếu khác để duy trì cán cân quyền lực vốn đã định hình sự hợp tác phức tạp với Trung Quốc, đồng thời đa dạng hóa nguồn cung để giảm rủi ro.
https://www.forbes.com/sites/robertginsburg/2024/05/27/artificial-intelligence-and-us-foreign-policy-in-asia/
- Cả phe tự do và bảo thủ trong Quốc hội Mỹ, từ Dân biểu Alexandria Ocasio-Cortez đến Thượng nghị sĩ Josh Hawley, đều đồng ý cần có biện pháp kiềm chế nội dung khiêu dâm do AI tạo ra một cách phi đồng thuận.
- Nhà Trắng đã đưa ra "lời kêu gọi hành động" trong tuần này, thúc giục Quốc hội tăng cường bảo vệ pháp lý cho những người sống sót.
- Tuy nhiên, các nhà lập pháp đã vật lộn hơn một năm để soạn thảo giải pháp, cho thấy Washington thiếu chuẩn bị như thế nào trong việc đặt ra giới hạn đối với công nghệ phát triển nhanh chóng có khả năng gây xáo trộn cuộc sống của mọi người.
- Luật pháp đang bị sa lầy trong cuộc tranh luận về việc ai sẽ chịu trách nhiệm cho deepfake - với các nhà vận động hành lang công nghệ phản đối bất kỳ ngôn ngữ nào có thể vướng vào các nền tảng phân phối chúng.
- Trong khi đó, việc bất kỳ ai với một vài bức ảnh và máy tính có thể tạo ra và phân phối video đang trở nên dễ dàng hơn.
- Chủ tịch Ủy ban Tư pháp Thượng viện Dick Durbin cho biết hiện có hàng trăm ứng dụng có thể tạo ra deepfake khiêu dâm phi đồng thuận ngay trên điện thoại và Quốc hội cần giải quyết cuộc khủng hoảng ngày càng gia tăng này càng nhanh càng tốt.
- Lãnh đạo đa số Thượng viện Chuck Schumer vừa công bố kế hoạch về cách Quốc hội nên điều chỉnh AI, đề cập đến deepfake và quyền riêng tư, nhưng không đưa ra ngôn ngữ dự luật cụ thể mà thay vào đó đề xuất đổ hàng tỷ đô la vào nghiên cứu và phát triển AI.
- Những người ủng hộ nạn nhân của nội dung khiêu dâm do AI tạo ra đã cố gắng ít nhất một năm để Quốc hội chú ý, được hỗ trợ bởi các trường hợp nổi tiếng như Taylor Swift và Thủ tướng Ý Giorgia Meloni.
📌 Quốc hội Mỹ đang chạy đua với thời gian để thông qua dự luật chống lại nội dung khiêu dâm do AI tạo ra một cách phi đồng thuận, trong bối cảnh công nghệ phát triển nhanh chóng và số lượng ứng dụng tạo deepfake gia tăng. Tuy nhiên, việc soạn thảo luật gặp nhiều tranh cãi và sức ép từ các công ty công nghệ.
https://www.politico.com/news/2024/05/26/ai-deepfake-porn-congress-00158713
Dưới đây là bản tóm tắt nội dung bài viết theo yêu cầu của bạn:
Meta description: Bài viết phân tích báo cáo mới của NTIA về chính sách trách nhiệm giải trình đối với AI, chỉ ra những thiếu sót trong báo cáo và quan điểm can thiệp quá mức của chính quyền Biden với công nghệ AI đang phát triển.
Meta keywords: trí tuệ nhân tạo, AI, báo cáo NTIA, chính sách trách nhiệm giải trình AI, quy định AI, chính quyền Biden
SEO title: Những suy nghĩ về báo cáo chính sách trách nhiệm giải trình AI mới của NTIA
Tóm tắt chi tiết:
- Báo cáo Chính sách Trách nhiệm Giải trình AI của NTIA kêu gọi can thiệp mạnh mẽ vào công nghệ AI thông qua nhiều biện pháp chính sách.
- Chính quyền Biden muốn áp dụng kiểm toán bắt buộc đối với các hệ thống và ứng dụng AI có rủi ro cao trước khi chúng ra thị trường. Tuy nhiên, việc xác định thế nào là "rủi ro cao" là rất khó.
- Các yêu cầu quy định khác với AI bao gồm: đăng ký quốc gia về triển khai AI rủi ro cao, cơ sở dữ liệu báo cáo sự cố bất lợi, đăng ký kiểm toán hệ thống AI, xem xét và chứng nhận trước khi phát hành, thu thập bằng chứng định kỳ...
- Báo cáo NTIA thiếu định nghĩa rõ ràng về "trí tuệ nhân tạo", không có phân tích chi phí/lợi ích của các quy định đề xuất, và thừa nhận thiếu thẩm quyền pháp lý trực tiếp.
- Báo cáo này, cùng với Blueprint for an AI Bill of Rights năm 2022 và Sắc lệnh về AI năm 2023, cho thấy thông điệp của Nhà Trắng gửi tới các cơ quan quản lý rằng họ nên mở rộng quyền hạn để kiểm soát các nhà đổi mới AI.
📌 Báo cáo NTIA đề xuất nhiều biện pháp can thiệp mạnh vào AI như kiểm toán bắt buộc, đăng ký triển khai, báo cáo sự cố, chứng nhận trước khi phát hành, nhưng lại thiếu định nghĩa rõ ràng về AI, không phân tích chi phí/lợi ích và thiếu cơ sở pháp lý. Điều này cho thấy quan điểm quá khích của chính quyền Biden trong kiểm soát công nghệ AI đang phát triển, có thể gây tổn hại khó khắc phục sau này.
https://fedsoc.org/commentary/fedsoc-blog/some-thoughts-on-ntia-s-new-artificial-intelligence-accountability-policy-report
NTIA là viết tắt của National Telecommunications and Information Administration, tức Cục Quản lý Viễn thông và Thông tin Quốc gia của Hoa Kỳ. Đây là một cơ quan trực thuộc Bộ Thương mại Hoa Kỳ, chịu trách nhiệm tư vấn cho Tổng thống về chính sách viễn thông và thông tin. NTIA quản lý việc sử dụng phổ tần vô tuyến liên bang và hỗ trợ phát triển cơ sở hạ tầng băng thông rộng trên toàn quốc.
- Tổng thống mới đắc cử của Đài Loan, Lai Ching-te, đã sử dụng bài phát biểu nhậm chức của mình để kêu gọi biến Đài Loan thành một quốc gia AI, từ "Đảo Silicon" trở thành "Đảo AI".
- Lai nhấn mạnh việc thích ứng AI cho ngành công nghiệp, tăng tốc độ đổi mới và ứng dụng AI, cũng như sử dụng sức mạnh tính toán của AI để củng cố quốc gia, quân đội, lực lượng lao động và nền kinh tế.
- Ông cũng kêu gọi Đài Loan đầu tư mạnh mẽ vào công nghệ lượng tử, robot, metaverse, y học chính xác và các công nghệ tiên tiến khác.
- Lai đặt mục tiêu biến Đài Loan thành trung tâm châu Á của chuỗi cung ứng máy bay không người lái cho các nền dân chủ toàn cầu và phát triển thế hệ tiếp theo của vệ tinh thông tin liên lạc quỹ đạo trung và thấp.
- Ông nhấn mạnh việc tăng cường công nghệ quân sự, an ninh và giám sát là một phần của kế hoạch tham vọng, bên cạnh việc duy trì vị thế hàng đầu trong ngành bán dẫn, AI và truyền thông thế hệ tiếp theo.
- Trong bài phát biểu, Lai cũng kêu gọi Trung Quốc ngừng đe dọa chính trị và quân sự đối với Đài Loan, đồng thời chia sẻ trách nhiệm duy trì hòa bình và ổn định ở eo biển Đài Loan và khu vực rộng lớn hơn.
- Lai khẳng định, Đài Loan sẽ chiến đấu nếu cần thiết để bảo vệ chủ quyền và an ninh quốc gia trước mọi đe dọa và nỗ lực xâm nhập từ Trung Quốc.
- Ông tự hào về vai trò của Đài Loan trong chuỗi cung ứng toàn cầu và ảnh hưởng đến sự phát triển kinh tế toàn cầu cũng như sự thịnh vượng và phồn thịnh của nhân loại thông qua công nghệ bán dẫn và AI.
- Lai kêu gọi sự đoàn kết trong nước và biểu dương lòng biết ơn đối với sự hỗ trợ của các quốc gia bạn bè, nhấn mạnh vai trò của sự hỗ trợ từ Mỹ như một yếu tố răn đe đối với bất kỳ nỗ lực nào của Trung Quốc nhằm tái chiếm Đài Loan.
📌 Tổng thống Đài Loan, Lai Ching-te, đã đề ra một kế hoạch tham vọng để biến Đài Loan từ "Đảo Silicon" thành "Đảo AI", nhấn mạnh vào việc thích ứng và đổi mới AI trong ngành công nghiệp, đầu tư vào công nghệ tiên tiến và tăng cường năng lực quốc phòng trước sự đe dọa từ Trung Quốc. Kế hoạch này không chỉ nhằm củng cố vị thế hàng đầu của Đài Loan trong ngành công nghệ toàn cầu mà còn nhấn mạnh tầm quan trọng của việc bảo vệ chủ quyền và an ninh quốc gia.
https://www.theregister.com/2024/05/21/taiwan_president_inauguration_ai_island/
- EU AI Hub được phát triển bởi Cranium cùng với KPMG và Microsoft, nhằm hỗ trợ doanh nghiệp đảm bảo sản phẩm AI tuân thủ quy định mới.
- Đạo luật AI của EU được Quốc hội Liên minh Châu Âu thông qua vào ngày 13 tháng 3 năm 2024, áp dụng cho các doanh nghiệp cung cấp sản phẩm AI tại khu vực này.
- EU AI Hub cung cấp tư vấn chuyên môn và công nghệ đặc biệt để giúp doanh nghiệp xác định các yêu cầu của Đạo luật AI EU áp dụng cho sản phẩm của họ và cách tuân thủ.
- Dịch vụ bao gồm khung AI đáng tin cậy của KPMG, nền tảng bảo mật AI doanh nghiệp của Cranium và công nghệ AI của Microsoft.
- EU AI Hub giúp doanh nghiệp từ giai đoạn chiến lược và thiết kế công nghệ AI cho đến triển khai và tối ưu hóa, với sự tham gia của các cơ quan quản lý và các bên liên quan.
- Chi phí sử dụng EU AI Hub linh hoạt tùy thuộc vào mục tiêu của doanh nghiệp, từ không hoặc ít chi phí cho việc tận dụng kiến thức chuyên môn đến chi phí đầu tư cao hơn cho việc cung cấp dịch vụ và triển khai công nghệ một cách tích cực.
- Đạo luật AI EU áp dụng cho các doanh nghiệp tại 27 quốc gia thành viên EU và bất kỳ doanh nghiệp nào có khách hàng tại các quốc gia này, bao gồm cả nhà cung cấp, triển khai, nhập khẩu hoặc phân phối hệ thống AI.
- Các nhà phát triển hệ thống AI được coi là "rủi ro cao" cần tuân thủ các nghĩa vụ nhất định để phù hợp với Đạo luật AI, bao gồm đánh giá tác động của hệ thống AI đối với quyền cơ bản của công dân.
- Đạo luật AI EU sẽ chính thức có hiệu lực vào cuối năm 2024, với các yêu cầu áp dụng theo từng giai đoạn, từ cấm các hành vi bị cấm sau 6 tháng cho đến các quy định về hệ thống rủi ro cao sau 36 tháng.
- Các doanh nghiệp vi phạm Đạo luật AI EU có thể phải đối mặt với khoản phạt lên đến 35 triệu euro hoặc 7% doanh thu toàn cầu.
📌 EU AI Hub là một sáng kiến quan trọng giúp doanh nghiệp chuẩn bị và tuân thủ Đạo luật AI EU, với sự hỗ trợ từ KPMG, Cranium và Microsoft. Dịch vụ này không chỉ giúp doanh nghiệp hiểu và áp dụng các quy định một cách hiệu quả mà còn đảm bảo rằng việc triển khai AI được thực hiện một cách có trách nhiệm và đạo đức. Với chi phí linh hoạt và sự hỗ trợ từ các chuyên gia hàng đầu, EU AI Hub là công cụ không thể thiếu cho bất kỳ doanh nghiệp nào muốn tiếp cận và thành công trong thị trường AI tại Châu Âu.
https://www.techrepublic.com/article/how-to-prepare-business-eu-ai-hub-kpmg/
- Trung Quốc vừa giới thiệu mô hình ngôn ngữ lớn (LLM) mới nhất mang tên "Chat Xi PT", được huấn luyện dựa trên triết lý chính trị của Chủ tịch Tập Cận Bình có tên "Tư tưởng Tập Cận Bình về Chủ nghĩa xã hội đặc sắc Trung Quốc trong thời đại mới".
- Mô hình này do Cục Quản lý Không gian mạng Trung Quốc (CAC) phát triển, sử dụng các tài liệu chính thức và tư tưởng của ông Tập làm dữ liệu huấn luyện chính. CAC cho rằng việc sử dụng nguồn dữ liệu có thẩm quyền này sẽ đảm bảo tính chuyên nghiệp của nội dung được tạo ra.
- Chat Xi PT có khả năng trả lời câu hỏi, tạo báo cáo, tóm tắt thông tin và dịch thuật song ngữ Trung - Anh. Hiện tại, mô hình đang được sử dụng tại một trung tâm nghiên cứu trực thuộc CAC, và có thể sẽ được phát hành rộng rãi hơn trong tương lai.
- Động thái này nằm trong nỗ lực của các quan chức Trung Quốc nhằm cân bằng giữa việc kiểm soát nội dung nghiêm ngặt và thúc đẩy phát triển AI, tạo ra đối thủ cạnh tranh với các mô hình tiên tiến như ChatGPT của OpenAI.
- Chính phủ Trung Quốc đã có nhiều nỗ lực đáng kể để truyền bá tư tưởng của ông Tập dưới nhiều hình thức như xuất bản hơn chục cuốn sách mang tên ông, tạo ứng dụng Học tập Tập Cận Bình, đưa vào giảng dạy từ bậc tiểu học, và ghi vào hiến pháp năm 2018.
- Các công ty công nghệ lớn của Trung Quốc như Baidu, Alibaba cũng phải đảm bảo chatbot AI của họ kiểm soát chặt chẽ nội dung liên quan đến ông Tập hoặc các chủ đề nhạy cảm khác. Khi được hỏi về những vấn đề này, các chatbot thường yêu cầu người dùng khởi động lại cuộc trò chuyện.
- CAC đã ban hành các quy tắc và chế độ cấp phép đối với các nhà cung cấp AI tạo sinh, yêu cầu nội dung được tạo ra phải "thể hiện các giá trị xã hội chủ nghĩa cốt lõi" và không được "chứa bất kỳ nội dung nào lật đổ quyền lực nhà nước". Các công ty phải chịu trách nhiệm về đầu ra của AI.
- Để hỗ trợ các nhà phát triển đối phó với thách thức này, Hiệp hội An ninh mạng Trung Quốc, một tổ chức phi lợi nhuận liên kết với CAC, đã công bố cơ sở dữ liệu công khai đầu tiên gồm 100 triệu mục "dữ liệu chất lượng cao và đáng tin cậy" để các nhóm sử dụng trong huấn luyện mô hình vào tháng 12/2022. Bộ dữ liệu huấn luyện này chủ yếu dựa trên các quy định, tài liệu chính sách của chính phủ, báo cáo truyền thông nhà nước và các ấn phẩm chính thức khác.
- Một trong số hàng chục tài liệu văn bản trong gói dữ liệu chứa 86.314 lần đề cập đến Tập Cận Bình, với các dòng như "Chúng ta hãy đoàn kết chặt chẽ hơn xung quanh Ban Chấp hành Trung ương Đảng với đồng chí Tập Cận Bình làm hạt nhân" hay "Chúng ta phải đảm bảo rằng trong tư tưởng, chính trị và hành động, chúng ta luôn đồng thuận cao độ với Ban Chấp hành Trung ương Đảng do Tổng Bí thư Tập Cận Bình làm hạt nhân".
📌 Việc Trung Quốc phát triển chatbot Chat Xi PT dựa trên tư tưởng của Chủ tịch Tập Cận Bình cho thấy nỗ lực kiểm soát chặt chẽ nội dung do AI tạo ra, đồng thời thúc đẩy phát triển công nghệ này để cạnh tranh với các mô hình tiên tiến nước ngoài như ChatGPT. Các công ty công nghệ lớn trong nước cũng phải tuân thủ nghiêm ngặt các quy định về kiểm duyệt nội dung nhạy cảm. Chính phủ Trung Quốc đã và đang tích cực truyền bá tư tưởng của ông Tập qua nhiều kênh, bao gồm cả việc đưa vào bộ dữ liệu huấn luyện cho các mô hình AI với hàng chục nghìn lần nhắc đến ông.
https://www.ft.com/content/43378c6e-664b-4885-a255-31325d632ee9
- Tổng thống Pháp Emmanuel Macron kêu gọi các nhà lãnh đạo AI của Pháp thách thức sự thống trị "điên rồ" của các gã khổng lồ công nghệ Mỹ và Trung Quốc.
- Lời kêu gọi của Macron đến trong bối cảnh AI của Pháp đang bùng nổ. Dẫn đầu bởi Mistral, đối thủ của OpenAI, Pháp đã trở thành điểm nóng của trí tuệ nhân tạo ở châu Âu.
- Sự kết hợp giữa nhân tài có tay nghề cao, sự hỗ trợ ngày càng tăng của chính phủ và nguồn đầu tư ngày càng tăng đã tạo ra mảnh đất màu mỡ cho các startup.
- Mistral, công ty được yêu thích nhất trong lĩnh vực này, mới chỉ ra đời được một năm và đã tìm kiếm mức định giá 6 tỷ USD. Một ứng cử viên khác cho vương miện công nghệ của Pháp là H (trước đây là Holistic), công ty này đã công bố vòng gọi vốn hạt giống trị giá 220 triệu USD trong tuần này, chỉ vài tháng sau khi thành lập.
- Macron đề cập đến cả hai công ty này như những gã khổng lồ công nghệ tiềm năng. Tuy nhiên, hiện tại, châu Âu vẫn còn tụt hậu xa so với các nhà lãnh đạo của Mỹ và Trung Quốc. Không có công ty nào trong số 10 công ty công nghệ lớn nhất theo vốn hóa thị trường có trụ sở tại châu Âu.
- Tổng thống Pháp chỉ trích bức tranh đó và cho rằng "Thật điên rồ khi có một thế giới mà các gã khổng lồ chỉ đến từ Trung Quốc và Mỹ. Chúng ta cần nhiều người chơi lớn của châu Âu hơn, và tôi nghĩ Mistral AI có thể là một trong số đó."
- Macron cũng nhấn mạnh tiềm năng của H, chỉ ra việc startup này huy động vốn ấn tượng và quyết định ra mắt tại Paris. Tuy nhiên, ông thừa nhận rằng Pháp vẫn tụt hậu so với Mỹ về đổi mới và tinh thần khởi nghiệp.
- Để giải quyết vấn đề này, Macron đã cắt giảm thủ tục hành chính, nới lỏng các biện pháp bảo vệ lao động và giảm thuế cho người giàu. Ông cũng thu hút đầu tư nước ngoài, bao gồm gói tài trợ trị giá 15 tỷ euro từ các công ty như Microsoft và Amazon được công bố đầu tháng này.
- Macron cũng cam kết thực hiện chiến lược AI toàn châu Âu. Tại một cuộc họp tại Cung điện Elysée tuần này, ông đã hé lộ bước đầu tiên của một kế hoạch mới: "Mục tiêu của chúng tôi là châu Âu hóa [AI], và chúng tôi sẽ bắt đầu bằng một sáng kiến Pháp-Đức."
📌 Tổng thống Pháp Macron kêu gọi các công ty AI hàng đầu nước này như Mistral và H thách thức sự thống trị của Mỹ và Trung Quốc. Ông nhấn mạnh sự cần thiết phải có nhiều "người chơi lớn" của châu Âu hơn trong bối cảnh lĩnh vực AI của Pháp đang bùng nổ với nguồn nhân lực, sự hỗ trợ của chính phủ và đầu tư dồi dào. Macron cũng hé lộ kế hoạch châu Âu hóa AI, bắt đầu bằng sáng kiến Pháp-Đức.
https://thenextweb.com/news/macron-wants-french-ai-to-challenge-china-us-tech-dominance
1. Các công ty công nghệ cam kết công bố khung an toàn cho mô hình AI tiên phong
- 16 công ty công nghệ toàn cầu cam kết công bố khung an toàn cho các mô hình AI tiên phong của họ, xác định ngưỡng rủi ro không thể chấp nhận được.
- Tuy nhiên, một số chuyên gia cho rằng các quy định tự nguyện này chưa đủ mạnh.
2. Các quốc gia thành lập mạng lưới Viện An toàn AI quốc tế
- 10 quốc gia và EU đồng ý hợp tác nghiên cứu về an toàn AI bằng cách thành lập mạng lưới các Viện An toàn AI quốc tế.
- Mạng lưới này sẽ chia sẻ thông tin về các mô hình AI, hạn chế, khả năng, rủi ro và sự cố an toàn, cũng như thực hành tốt nhất về an toàn AI.
3. EU và 27 quốc gia hợp tác xây dựng ngưỡng rủi ro cho AI tiên phong
- 27 quốc gia và EU nhất trí hợp tác xây dựng ngưỡng rủi ro cho các hệ thống AI tiên phong có thể hỗ trợ chế tạo vũ khí sinh học, hóa học.
- Các quốc gia sẽ phát triển đề xuất ngưỡng rủi ro với sự tham gia của các công ty AI, xã hội dân sự và giới học thuật.
4. Chính phủ Anh tài trợ nghiên cứu giảm thiểu rủi ro xã hội từ AI
- Chính phủ Anh tài trợ tới 8,5 triệu bảng cho các dự án nghiên cứu giảm thiểu rủi ro AI như deepfake, tấn công mạng.
- Các dự án tập trung vào "an toàn AI hệ thống", can thiệp ở cấp độ xã hội mà các hệ thống AI hoạt động.
📌 Hội nghị thượng đỉnh AI Seoul đánh dấu bước tiến quan trọng trong hợp tác toàn cầu về an toàn AI với cam kết từ 16 công ty công nghệ hàng đầu, thành lập mạng lưới Viện An toàn AI của 10 quốc gia và EU, thỏa thuận xây dựng ngưỡng rủi ro AI của 27 quốc gia. Anh cũng tài trợ 8,5 triệu bảng cho nghiên cứu giảm thiểu rủi ro xã hội từ AI.
Citations:
[1] https://www.techrepublic.com/article/ai-seoul-summit-takeaways/
- Fastweb sẽ tận dụng các dịch vụ AI tạo sinh và học máy của Amazon Web Services (AWS) để cung cấp mô hình ngôn ngữ lớn (LLM) được huấn luyện bằng tiếng Ý cho các bên thứ ba.
- Fastweb đang xây dựng một tập dữ liệu tiếng Ý toàn diện bằng cách kết hợp các nguồn công khai và dữ liệu được cấp phép từ các nhà xuất bản và cơ quan truyền thông.
- Sử dụng dữ liệu này, Fastweb đã tinh chỉnh mô hình Mistral 7B bằng Amazon SageMaker, đạt được cải thiện hiệu suất từ 20-50% trên các tiêu chuẩn ngôn ngữ tiếng Ý.
- Các mô hình mới sẽ được cung cấp trên Hugging Face, cho phép khách hàng triển khai chúng thông qua Amazon SageMaker.
- Trong tương lai, Fastweb dự định chạy mô hình của mình trên Amazon Bedrock bằng Custom Model Import, để có thể dễ dàng xây dựng và mở rộng các giải pháp AI tạo sinh mới cho khách hàng.
- Walter Renna, CEO của Fastweb cho rằng sáng kiến chiến lược này sẽ giúp thúc đẩy chuyển đổi số cho các tổ chức Ý bằng cách sử dụng các công nghệ tiên tiến nhất.
- Fabio Cerone, Tổng giám đốc Telco Industry, EMEA, AWS cam kết dân chủ hóa việc tiếp cận công nghệ và ứng dụng AI tạo sinh cho khách hàng trên toàn thế giới. Ông cho rằng việc Fastweb tạo ra LLM tiếng Ý là một bước quan trọng trong việc làm cho sức mạnh chuyển đổi của AI tạo sinh dễ tiếp cận hơn với doanh nghiệp và cơ quan chính phủ Ý.
📌 Fastweb hợp tác với AWS để cung cấp LLM tiếng Ý, được huấn luyện trên tập dữ liệu toàn diện kết hợp từ nhiều nguồn. Mô hình đạt cải thiện 20-50% trên các tiêu chuẩn ngôn ngữ, sẽ được cung cấp qua Hugging Face và Amazon SageMaker, giúp thúc đẩy chuyển đổi số cho các tổ chức Ý với công nghệ AI tiên tiến.
https://www.thefastmode.com/technology-solutions/35966-natively-trained-italian-llm-by-fastweb-to-leverage-aws-genai-and-machine-learning-capabilities
- Steven Anderegg, 42 tuổi, một kỹ sư phần mềm ở Holmen, Wisconsin, đã bị Bộ Tư pháp Hoa Kỳ bắt giữ vì tạo ra và phân phối tài liệu lạm dụng tình dục trẻ em (CSAM) được tạo ra bởi AI.
- Anderegg bị cáo buộc sử dụng một phiên bản của Stable Diffusion, một công cụ tạo ảnh AI nguồn mở, để tạo ra các hình ảnh khiêu dâm của trẻ vị thành niên.
- Anh ta sau đó sử dụng những hình ảnh này để cố gắng dụ dỗ một bé trai 15 tuổi vào các tình huống tình dục qua Instagram.
- Instagram đã báo cáo các hình ảnh cho Trung tâm Quốc gia về Trẻ em Mất tích và Bị Bóc lột (NCMEC), dẫn đến việc cơ quan thực thi pháp luật can thiệp.
- Anderegg đối mặt với bốn tội danh liên quan đến việc sản xuất, phân phối và sở hữu các hình ảnh khiêu dâm của trẻ vị thành niên, với mức án có thể từ 5 đến 70 năm tù.
- Vụ việc này đánh dấu lần đầu tiên Bộ Tư pháp Hoa Kỳ bắt giữ một người vì tạo ra CSAM bằng AI, nhằm thiết lập tiền lệ tư pháp rằng tài liệu lạm dụng vẫn là bất hợp pháp ngay cả khi không có trẻ em thực sự tham gia vào quá trình tạo ra chúng.
- Phó Tổng chưởng lý Lisa Monaco tuyên bố: "CSAM được tạo ra bởi AI vẫn là CSAM" và Bộ Tư pháp sẽ truy tố những người lợi dụng AI để tạo ra hình ảnh lạm dụng trẻ em, bất kể chúng được tạo ra như thế nào.
📌 Vụ bắt giữ Steven Anderegg đánh dấu lần đầu tiên Bộ Tư pháp Hoa Kỳ truy tố một cá nhân vì tạo ra tài liệu lạm dụng tình dục trẻ em bằng AI. Vụ việc này sẽ thiết lập tiền lệ quan trọng, khẳng định rằng CSAM vẫn là bất hợp pháp ngay cả khi được tạo ra bởi AI, nhằm ngăn chặn việc công nghệ tiên tiến bị lợi dụng để khuyến khích và bình thường hóa tài liệu lạm dụng trẻ em.
https://www.engadget.com/the-doj-makes-its-first-known-arrest-for-ai-generated-csam-201740996.html
- Các doanh nghiệp vừa và nhỏ (SMB) tại Singapore hiện có thể sử dụng Copilot for Microsoft 365 với mức giá bằng một nửa so với thông thường, trong khuôn khổ các sáng kiến thúc đẩy việc áp dụng trí tuệ nhân tạo (AI).
- Cơ quan Enterprise Singapore (EnterpriseSG) sẽ hỗ trợ 50% chi phí bản quyền cho công cụ AI tạo sinh (GenAI) của Microsoft trong thời hạn đăng ký 12 tháng. Mỗi SMB có thể mua tối đa 50 giấy phép với mức giá ưu đãi.
- Các SMB phải có không quá 200 nhân viên và phải là công ty đăng ký tại địa phương có hoạt động ở Singapore. Chương trình kéo dài đến ngày 20/11.
- Ngoài ra, EnterpriseSG và AI Singapore (AISG) còn tổ chức các hội thảo đào tạo hướng dẫn SMB triển khai Copilot để nâng cao năng suất.
- EnterpriseSG cũng hỗ trợ các SMB sẵn sàng tích hợp AI phức tạp hơn hoặc cần ứng dụng AI tùy chỉnh thông qua chương trình "applied AI". Các trường đại học sẽ hợp tác với SMB để xây dựng các ứng dụng AI phù hợp.
- Các sáng kiến này nằm trong nỗ lực của Singapore nhằm giúp các công ty trong nước tiếp cận các ứng dụng AI và phát triển năng lực liên quan để cải thiện hiệu quả hoạt động và thúc đẩy tăng trưởng kinh doanh.
- IMDA cũng mở rộng hợp tác với Microsoft để giúp các tổ chức đã trưởng thành hơn về mặt kỹ thuật số xác định các trường hợp sử dụng và triển khai các ứng dụng GenAI tùy chỉnh của riêng họ.
📌 Singapore đang tích cực thúc đẩy việc áp dụng AI trong cộng đồng doanh nghiệp thông qua nhiều sáng kiến, bao gồm trợ cấp 50% chi phí sử dụng Microsoft Copilot cho SMB, hỗ trợ phát triển ứng dụng AI tùy chỉnh, và hợp tác với Microsoft để tổ chức hội thảo hướng dẫn triển khai GenAI cho hơn 200 doanh nghiệp lớn.
https://www.zdnet.com/article/singapore-smbs-can-now-run-microsoft-copilot-at-a-discount/
- Các cơ quan quản lý Anh cho biết họ không cần mở cuộc điều tra cạnh tranh về quan hệ đối tác của Microsoft với công ty trí tuệ nhân tạo Mistral của Pháp.
- Một tháng trước, họ đã yêu cầu phản hồi từ ngành công nghiệp về thỏa thuận này.
- Microsoft đã công bố hợp tác với Mistral, một startup đang lên của Pháp, trong một động thái có thể giảm sự phụ thuộc của gã khổng lồ phần mềm vào OpenAI, công ty sản xuất ChatGPT.
- Cơ quan Cạnh tranh và Thị trường (CMA) cho biết mối quan hệ hợp tác này "không đủ điều kiện để điều tra" theo các quy tắc sáp nhập của Vương quốc Anh.
- CMA xác nhận rằng cấu trúc quan hệ đối tác giữa Mistral và Microsoft không trao đủ quyền/ảnh hưởng cho Microsoft.
- Cơ quan giám sát vẫn đang xem xét việc Microsoft thuê nhân sự chủ chốt từ một startup khác là Inflection AI, cũng như khoản đầu tư 4 tỷ USD của Amazon vào Anthropic có trụ sở tại San Francisco.
- CMA chưa đưa ra cập nhật về việc xem xét quan hệ đối tác của Microsoft với OpenAI kể từ khi yêu cầu ý kiến về thỏa thuận này vào tháng 12.
📌 Cơ quan giám sát Anh quyết định không điều tra quan hệ đối tác AI giữa Microsoft và Mistral của Pháp, xác nhận cấu trúc hợp tác không trao quá nhiều quyền lực cho Microsoft. Tuy nhiên, họ vẫn đang xem xét các thỏa thuận khác của Microsoft và Amazon trong lĩnh vực AI.
Citations:
[1] https://apnews.com/article/microsoft-mistral-uk-ai-competition-b1b7cb721b11315a1568a42253f73bf7
- Một video tuyên truyền đáng sợ từ một nhóm liên kết với tổ chức khủng bố Nhà nước Hồi giáo (ISIS) xuất hiện trực tuyến sau vụ tấn công đẫm máu vào nhà hát ở Moscow hồi cuối tháng 3, cướp đi sinh mạng của hơn 140 người.
- Video có sử dụng người dẫn chương trình do AI tạo ra, tuyên bố "Nhà nước Hồi giáo đã giáng một đòn mạnh vào nước Nga bằng một cuộc tấn công đẫm máu, tàn bạo nhất trong nhiều năm qua".
- Theo một nghiên cứu gần đây của SITE Intelligence Group, kể từ video ngày 23/3, các chi nhánh của ISIS đã phát tán thêm 5 video, nhằm lan truyền rộng rãi và tiếp cận khán giả toàn cầu để tuyển mộ thành viên mới.
- Rita Katz, đồng sáng lập và tác giả báo cáo tại SITE, chia sẻ: "Đối với ISIS, AI là một bước ngoặt. Nó sẽ là một cách nhanh chóng để chúng lan truyền và phổ biến các cuộc tấn công đẫm máu, tiếp cận hầu hết mọi ngóc ngách trên thế giới".
- Việc các nhóm khủng bố như ISIS sử dụng công cụ tạo video AI cho thấy sự dễ tiếp cận và giá cả phải chăng của các công nghệ tiên tiến này.
- ISIS và các chi nhánh có lịch sử hoạt động truyền thông tinh vi, sản xuất các tài liệu tuyên truyền bóng bẩy như tạp chí và áp phích để lưu hành trực tuyến.
- Không chỉ người dùng có trách nhiệm, các công cụ AI cũng nằm trong tầm tay của những kẻ khủng bố, tin tặc và kẻ lừa đảo trực tuyến khác lợi dụng công nghệ cho các mục đích xấu.
- Chính phủ Mỹ đã nỗ lực đáng kể để giáo dục công chúng về cách tránh sa vào các vụ lừa đảo trực tuyến. Tuy nhiên, việc chống lại nội dung khủng bố do AI tạo ra đặt ra một thách thức đặc biệt.
📌 Báo cáo của SITE Intelligence Group cho thấy ISIS và các chi nhánh đang ngày càng sử dụng AI để tạo ra video tuyên truyền khủng bố một cách tinh vi. Sự dễ tiếp cận và giá cả phải chăng của công nghệ AI đã trở thành công cụ đắc lực cho hoạt động truyền thông của ISIS, giúp lan truyền nhanh chóng các cuộc tấn công đẫm máu đến khắp nơi trên thế giới và tuyển mộ thành viên mới. Tuy nhiên, báo cáo chưa đưa ra giải pháp cụ thể để đối phó với làn sóng sắp tới của nội dung khủng bố do AI tạo ra.
Citations:
[1] https://futurism.com/the-byte/isis-ai-propaganda
- Hội nghị thượng đỉnh An toàn AI lần thứ 2 được tổ chức tại Seoul, Hàn Quốc, tập trung vào an toàn AI và giải quyết các khả năng tiềm tàng của các mô hình AI tiên tiến nhất. Pháp sẽ đăng cai tổ chức hội nghị tiếp theo vào cuối năm nay.
- Đạo luật AI của EU, luật pháp đầu tiên trên thế giới dựa trên rủi ro về công cụ học máy, sẽ được các bộ trưởng EU ký kết vào ngày 21/5. Các hệ thống học máy sẽ được chia thành 4 hạng mục chính theo mức độ rủi ro tiềm ẩn đối với xã hội.
- Ủy ban châu Âu đưa ra Hiệp ước AI nhằm giúp các công ty chuẩn bị sẵn sàng cho Đạo luật AI. Hơn 400 công ty đã đăng ký tham gia.
- OECD cập nhật các nguyên tắc AI vào đầu tháng 5 để tính đến sự phát triển gần đây của AI như sự xuất hiện của các công cụ AI đa năng và AI tạo sinh.
- Hội đồng châu Âu thông qua một hiệp ước bao gồm toàn bộ vòng đời của các hệ thống AI và giải quyết các rủi ro mà chúng có thể gây ra.
- Nhóm G7 sẽ họp tại Ý vào tháng tới để thảo luận về AI, bao gồm chuyến thăm đặc biệt của Giáo hoàng Francis.
- Liên Hợp Quốc thông qua một dự thảo nghị quyết do Mỹ dẫn đầu vào tháng 3 để nhấn mạnh sự tôn trọng, bảo vệ và thúc đẩy nhân quyền trong thiết kế, phát triển và sử dụng AI.
📌 Tuần này đánh dấu nhiều sự kiện quan trọng về AI với hội nghị thượng đỉnh tại Hàn Quốc và việc ký kết Đạo luật AI của EU. Các tổ chức quốc tế như OECD, Hội đồng châu Âu, G7 và Liên Hợp Quốc cũng đưa ra các nguyên tắc, hiệp ước và nghị quyết liên quan đến AI nhằm thúc đẩy đổi mới có trách nhiệm và bảo vệ nhân quyền.
Citations:
[1] https://www.euronews.com/next/2024/05/19/how-the-world-is-grappling-with-ai-acts-pacts-and-declarations
- Hội nghị Bộ trưởng OECD và Hàn Quốc sẽ diễn ra từ ngày 22-23/5 tại Seoul để thảo luận về quản trị toàn cầu đối với AI.
- Hội nghị sẽ tập trung vào việc thiết lập các nguyên tắc và tiêu chuẩn chung để thúc đẩy phát triển AI có trách nhiệm, minh bạch và đáng tin cậy.
- Các bộ trưởng sẽ thảo luận về cách thức hợp tác quốc tế để đảm bảo AI mang lại lợi ích cho xã hội và nền kinh tế, đồng thời giảm thiểu rủi ro.
- Hàn Quốc và OECD cũng sẽ chia sẻ kinh nghiệm và thực tiễn tốt trong phát triển và quản lý AI.
- Hội nghị dự kiến sẽ thông qua "Tuyên bố Seoul về tương lai của nền kinh tế số", đề cập đến các vấn đề như quản trị dữ liệu, an ninh mạng và bảo vệ quyền riêng tư.
- Các quốc gia thành viên OECD sẽ cam kết thúc đẩy hợp tác quốc tế và xây dựng một khuôn khổ chung về quản trị AI.
- Hội nghị cũng sẽ thảo luận về tác động của AI đối với thị trường lao động và kỹ năng cần thiết trong kỷ nguyên số.
- Các bộ trưởng sẽ đưa ra tầm nhìn và định hướng chính sách để tận dụng tiềm năng của AI trong phát triển kinh tế - xã hội bền vững.
📌 Hội nghị Bộ trưởng OECD và Hàn Quốc sẽ thảo luận về quản trị toàn cầu đối với AI, tập trung xây dựng nguyên tắc, tiêu chuẩn chung thúc đẩy phát triển AI có trách nhiệm. Hội nghị sẽ thông qua Tuyên bố Seoul, đề cập các vấn đề quản trị dữ liệu, an ninh mạng, quyền riêng tư và tác động của AI lên thị trường lao động.
Citations:
[1] https://telecom.economictimes.indiatimes.com/news/internet/oecd-south-korea-to-discuss-global-governance-on-artificial-intelligence/110244618
- Sam Altman, CEO của OpenAI, kêu gọi chính phủ Mỹ quy định ChatGPT và AI để giảm thiểu rủi ro, tương tự như việc Nữ hoàng Elizabeth I kiểm soát máy in ở thế kỷ 16.
- Lời kêu gọi của Altman phản ánh lý thuyết "Baptists và bootleggers", trong đó các bên ủng hộ quy định vì đạo đức và lợi ích kinh tế. Microsoft, Google cũng ủng hộ quy định AI.
- Chủ nghĩa tư bản thân hữu mới trong AI đang hình thành, khi các công ty, nhóm lợi ích và chính phủ liên tục gặp gỡ để giám sát, quản lý thị trường. Điều này có thể mang lại lợi thế cho các công ty tiên phong như OpenAI.
- Quy trình quản lý AI đang hướng tới sự hợp tác liên tục giữa các bên liên quan thay vì các quy tắc cứng nhắc. Liên minh Châu Âu dự kiến lập Văn phòng AI để giám sát liên tục.
- Cách tiếp cận mới này đòi hỏi các "sandbox" để các bên được quy định cùng thử nghiệm sản phẩm mới dưới sự giám sát của chính phủ. Điều này có thể hạn chế đổi mới và cạnh tranh.
- Tuy nhiên, AI tạo sinh sẽ không biến mất. Chi phí xử lý đang giảm và ứng dụng đang bùng nổ. Nhưng quy định có thể làm chậm tốc độ phát triển.
- Giống như nỗ lực kiểm soát máy in Gutenberg, các nỗ lực kìm hãm công nghệ mới cuối cùng sẽ thất bại. Tinh thần con người không thể bị kiềm chế mãi và thị trường cạnh tranh sẽ thúc đẩy nhân loại tiến bộ.
📌 Chủ nghĩa tư bản thân hữu kiểu mới đang hình thành trong lĩnh vực AI, khi các công ty lớn như OpenAI, Microsoft, Google hợp tác với chính phủ để kiểm soát thị trường. Mặc dù quy định có thể làm chậm đổi mới, lịch sử cho thấy công nghệ đột phá cuối cùng sẽ chiến thắng và thúc đẩy loài người tiến bộ, bất chấp nỗ lực kìm hãm của chủ nghĩa tư bản thân hữu.
Citations:
[1] https://reason.com/2024/05/19/ais-cozy-crony-capitalism/
- Truyền thông nhà nước Trung Quốc, cụ thể là CGTN, đang sử dụng AI để tạo ra loạt video "Nước Mỹ rạn nứt" nhằm chỉ trích sự phân hóa giai cấp, tranh chấp lao động và tập đoàn quân sự công nghiệp ở Mỹ.
- Chất lượng video do AI tạo ra vượt trội hơn hẳn so với sản phẩm truyền thông nhà nước thông thường, mặc dù vẫn còn một số điểm chưa hoàn hảo.
- Công nghệ AI đến đúng thời điểm Trung Quốc muốn mở rộng ảnh hưởng ở các nước đang phát triển và cảm thấy bị phương Tây "bao vây".
- Nội dung do AI tạo ra có thể lan truyền trên mọi nền tảng như Youtube, Facebook, X (Twitter).
- Bên cạnh truyền thông nhà nước, một mạng lưới "những người có ảnh hưởng du kích" cũng đang sản xuất nội dung ủng hộ Trung Quốc, chống Mỹ bằng AI.
- Viện Chính sách Chiến lược Australia phát hiện ít nhất 30 kênh Youtube trong mạng lưới này, sản xuất hơn 4.500 video, có thể do thương mại điều hành nhưng không loại trừ sự chỉ đạo của nhà nước.
- Công ty nghiên cứu Graphika cũng phát hiện video "deepfake" trên mạng xã hội vào năm ngoái.
📌 Trung Quốc đang tận dụng sức mạnh của trí tuệ nhân tạo để nâng tầm chiến dịch tuyên truyền, từ truyền thông nhà nước tới mạng lưới "người có ảnh hưởng du kích". Hàng nghìn video chống Mỹ, ủng hộ Trung Quốc đã được sản xuất và lan truyền trên khắp các nền tảng, cho thấy quyết tâm của Bắc Kinh trong việc định hình dư luận toàn cầu.
Citations:
[1] https://www.cityam.com/guerrilla-influencers-and-ai-news-anchors-china-is-ramping-up-its-propaganda-machine/
- Malaysia được coi là một trong những quốc gia Khối thịnh vượng chung đi đầu trong phát triển chuyển đổi số và trí tuệ nhân tạo (AI).
- Đây là một trong những vấn đề được đưa ra tại Hội nghị lần thứ 22 của các Bộ trưởng Giáo dục Khối thịnh vượng chung (CCEM) diễn ra tại London, Vương quốc Anh từ ngày 16-17/5.
- Hội nghị đồng ý lấy Malaysia làm một trong những quốc gia mô hình có thực tiễn tốt nhất để đảm bảo các khát vọng về kỹ thuật số và AI thành công.
- Một trong những khuyến nghị được thống nhất là Khối thịnh vượng chung cần trở thành một thực thể quan trọng trong lĩnh vực giáo dục. Một khuyến nghị khác là tạo ra Chương trình Điều phối AI của Khối thịnh vượng chung để hỗ trợ 56 quốc gia thành viên, phần lớn vẫn đang đối mặt với các vấn đề cơ sở hạ tầng và cơ sở vật chất Internet cơ bản.
- Tại CCEM, Bộ trưởng Zambry cũng nêu ra cách tiếp cận tốt nhất để thu hút sự quan tâm đến Giáo dục Khoa học, Công nghệ, Kỹ thuật và Toán học (STEM) và các phương pháp học tập sư phạm hiệu quả hơn, đồng thời nêu vấn đề về Giáo dục và Đào tạo Kỹ thuật và Dạy nghề (TVET) - trọng tâm của nhiều quốc gia.
- Malaysia đang tiến về phía trước trong lĩnh vực TVET và đã thành lập Hội đồng TVET Quốc gia để điều phối mọi sở, ban, ngành liên quan đến TVET.
- Có 4 điểm hành động cần thực hiện liên quan đến TVET: cam kết của chính phủ và các bên liên quan; sự tham gia của nhiều nhóm và tầng lớp xã hội; chất lượng triết lý giáo dục và các giá trị nhân văn (đạo đức).
📌 Malaysia được coi là quốc gia mô hình trong Khối thịnh vượng chung về phát triển chuyển đổi số và AI. Tại Hội nghị CCEM lần thứ 22, các nước thống nhất tạo ra Chương trình Điều phối AI để hỗ trợ 56 thành viên. Malaysia cũng chia sẻ về cách tiếp cận STEM, TVET hiệu quả và 4 hành động cần thực hiện để thúc đẩy TVET.
Citations:
[1] https://thesun.my/local_news/malaysia-a-model-for-commonwealth-countries-in-ai-digital-transformation-HB12467044
- Microsoft (NASDAQ: MSFT) có thể đối mặt với các án phạt tài chính từ Ủy ban châu Âu nếu không cung cấp thông tin yêu cầu về rủi ro liên quan đến các tính năng AI tạo sinh trong công cụ tìm kiếm Bing trước ngày 27 tháng 5.
- Ủy ban châu Âu đã bày tỏ lo ngại về khả năng phát tán deep fakes và thao túng tự động qua Bing, có thể gây hiểu lầm cho cử tri trong cuộc bầu cử Nghị viện châu Âu sắp tới vào tháng 6.
- Yêu cầu cung cấp thông tin đã được gửi vào ngày 14 tháng 3, nhưng đến nay Ủy ban vẫn chưa nhận được phản hồi từ Microsoft.
- Nếu không đáp ứng hạn chót, Bing có thể bị phạt lên đến 1% tổng thu nhập hàng năm, và các án phạt định kỳ lên đến 5% thu nhập trung bình hàng ngày cũng có thể được áp dụng.
- Công ty cũng có thể bị phạt nếu cung cấp thông tin sai lệch hoặc gây hiểu lầm.
- Đạo luật Dịch vụ Kỹ thuật số (DSA) của EU điều chỉnh các trung gian và nền tảng trực tuyến, nhằm bảo vệ người tiêu dùng và quyền lợi của họ trên mạng, ngăn chặn các hoạt động bất hợp pháp và có hại, cũng như ngăn chặn sự phát tán thông tin sai lệch.
- Các nền tảng trực tuyến lớn (VLOPs) với hơn 45 triệu người dùng tại EU thuộc phạm vi điều chỉnh của DSA.
- AI tạo sinh đã được nhận diện là một rủi ro bởi cơ quan quản lý liên quan đến các cuộc bầu cử, đặc biệt là cuộc bầu cử Nghị viện châu Âu sắp tới.
📌 Microsoft Bing có thể đối mặt với án phạt nặng từ EU nếu không cung cấp thông tin về rủi ro AI trước ngày 27 tháng 5. Các án phạt có thể lên đến 1% tổng thu nhập hàng năm và 5% thu nhập trung bình hàng ngày nếu không tuân thủ.
Citations:
[1] https://seekingalpha.com/news/4107849-microsofts-bing-could-face-fine-in-eu-if-information-on-ai-risks-is-not-provided
- Ngày 17/05/2024, Hội đồng Châu Âu đã thông qua Công ước Khung về Trí tuệ Nhân tạo, Nhân quyền, Dân chủ và Pháp quyền.
- Mục tiêu chính của Công ước là đảm bảo các hoạt động liên quan đến hệ thống trí tuệ nhân tạo (AI) tuân thủ các giá trị nhân quyền, dân chủ và pháp quyền.
- Điều 1 quy định rằng mỗi quốc gia thành viên phải áp dụng các biện pháp lập pháp, hành chính hoặc các biện pháp khác để thực hiện các quy định của Công ước.
- Điều 2 định nghĩa hệ thống trí tuệ nhân tạo là hệ thống máy móc có khả năng suy luận từ đầu vào để tạo ra các đầu ra như dự đoán, nội dung, khuyến nghị hoặc quyết định.
- Điều 3 xác định phạm vi của Công ước, bao gồm các hoạt động trong vòng đời của hệ thống AI có khả năng ảnh hưởng đến nhân quyền, dân chủ và pháp quyền.
- Điều 4 yêu cầu các quốc gia thành viên phải đảm bảo rằng các hoạt động liên quan đến AI tuân thủ các nghĩa vụ bảo vệ nhân quyền.
- Điều 5 yêu cầu các biện pháp bảo vệ quy trình dân chủ và tôn trọng pháp quyền.
- Điều 6-12 đưa ra các nguyên tắc chung như tôn trọng nhân phẩm, minh bạch, trách nhiệm, bình đẳng và không phân biệt đối xử, bảo vệ quyền riêng tư và dữ liệu cá nhân, độ tin cậy và đổi mới an toàn.
- Điều 14-15 quy định về các biện pháp khắc phục và bảo đảm thủ tục cho những người bị ảnh hưởng bởi hệ thống AI.
- Điều 16 yêu cầu các quốc gia thành viên áp dụng các biện pháp quản lý rủi ro và tác động của hệ thống AI.
- Điều 17-22 quy định về việc thực hiện Công ước, bao gồm không phân biệt đối xử, quyền của người khuyết tật và trẻ em, tham vấn công chúng, nâng cao kỹ năng số và bảo vệ quyền con người hiện có.
- Điều 23-26 quy định về cơ chế theo dõi và hợp tác quốc tế, bao gồm việc thành lập Hội nghị các Bên để giám sát việc thực hiện Công ước.
- Điều 27-36 quy định về các điều khoản cuối cùng như hiệu lực của Công ước, sửa đổi, giải quyết tranh chấp, ký kết và gia nhập.
- Lời mở đầu của Công ước nhấn mạnh tầm quan trọng của việc thúc đẩy hợp tác giữa các Bên tham gia Công ước và mở rộng hợp tác này đến các quốc gia khác chia sẻ cùng giá trị.
- Công ước cũng nhận thức được sự phát triển nhanh chóng của khoa học và công nghệ, cùng những thay đổi sâu sắc do các hoạt động trong vòng đời của hệ thống AI mang lại, có tiềm năng thúc đẩy sự thịnh vượng của con người cũng như phúc lợi xã hội, phát triển bền vững, bình đẳng giới và trao quyền cho tất cả phụ nữ và trẻ em gái.
- Công ước cũng bày tỏ lo ngại về các rủi ro phân biệt đối xử trong các bối cảnh kỹ thuật số, đặc biệt là những bối cảnh liên quan đến hệ thống AI, và tác động tiềm tàng của chúng trong việc tạo ra hoặc làm trầm trọng thêm các bất bình đẳng.
- Công ước nhấn mạnh sự cần thiết phải thiết lập một khung pháp lý toàn cầu áp dụng chung, đặt ra các nguyên tắc và quy tắc chung điều chỉnh các hoạt động trong vòng đời của hệ thống AI nhằm bảo vệ các giá trị chung và khai thác lợi ích của AI để thúc đẩy các giá trị này một cách có trách nhiệm.
- Công ước cũng công nhận tầm quan trọng của việc thúc đẩy hiểu biết về kỹ thuật số, kiến thức về và niềm tin vào thiết kế, phát triển, sử dụng và ngừng sử dụng các hệ thống AI.
- Công ước khẳng định cam kết của các Bên trong việc bảo vệ nhân quyền, dân chủ và pháp quyền, và thúc đẩy sự tin cậy vào các hệ thống AI thông qua Công ước này.
📌 Công ước Khung của Hội đồng Châu Âu về Trí tuệ Nhân tạo nhằm đảm bảo các hoạt động AI tuân thủ nhân quyền, dân chủ và pháp quyền, với các biện pháp quản lý rủi ro và bảo vệ quyền riêng tư. Công ước có hiệu lực từ ngày 17/05/2024.
Citations:
[1] https://search.coe.int/cm/Pages/result_details.aspx?ObjectId=0900001680afb11f
- Hội đồng châu Âu đã đạt được sự đồng thuận về một hiệp ước đột phá liên quan đến trí tuệ nhân tạo (AI), đánh dấu hiệp ước quốc tế đầu tiên có tính ràng buộc pháp lý về công nghệ này.
- Có 46 quốc gia đã ký vào tài liệu này, bao gồm cả các quốc gia không phải thành viên như Argentina, Israel, Nhật Bản, Hoa Kỳ và Uruguay.
- Hiệp ước này đặt ra một khung pháp lý toàn diện, bao gồm toàn bộ vòng đời của hệ thống AI và giải quyết các rủi ro tiềm ẩn trong khi thúc đẩy đổi mới có trách nhiệm.
- Marija Pejčinović, Tổng Thư ký của Hội đồng, nhấn mạnh tầm quan trọng của hiệp ước, khẳng định rằng nó nhằm đảm bảo ứng dụng AI có trách nhiệm, tôn trọng quyền con người, pháp quyền và dân chủ.
- Mục tiêu của hiệp ước là thiết lập các yêu cầu về minh bạch và giám sát phù hợp với các bối cảnh và rủi ro cụ thể, bao gồm việc nhận diện nội dung do AI tạo ra.
- Hiệp ước này khác biệt với Đạo luật AI của Liên minh châu Âu (EU AI Act) ở chỗ các quốc gia không phải thành viên cũng có thể ký kết.
- Hiệp ước áp dụng cho việc sử dụng hệ thống AI trong cả khu vực công và tư, với hai chế độ riêng biệt để tuân thủ các nguyên tắc và nghĩa vụ khi điều chỉnh khu vực tư nhân.
- Các quốc gia ký kết sẽ phải đảm bảo trách nhiệm và trách nhiệm đối với các "tác động bất lợi" và đảm bảo rằng các hệ thống AI tôn trọng sự bình đẳng, bao gồm bình đẳng giới, cấm phân biệt đối xử và quyền riêng tư.
- Pejčinović nhấn mạnh rằng hiệp ước này là phản ứng đối với nhu cầu về một tiêu chuẩn pháp lý quốc tế được các quốc gia trên các lục địa chia sẻ cùng giá trị ủng hộ, cho phép chúng ta khai thác lợi ích của trí tuệ nhân tạo trong khi giảm thiểu rủi ro.
📌 Hiệp ước quốc tế đầu tiên về AI của Hội đồng châu Âu đánh dấu bước ngoặt quan trọng với 46 quốc gia ký kết, bao gồm cả các quốc gia không phải thành viên. Hiệp ước đặt ra khung pháp lý toàn diện, đảm bảo trách nhiệm, minh bạch và tôn trọng quyền con người, pháp quyền và dân chủ.
Citations:
[1] https://www.euronews.com/next/2024/05/17/council-of-europe-adopts-first-binding-international-ai-treaty
- Colorado sắp trở thành tiểu bang tiên phong của Mỹ trong việc lập pháp về sử dụng AI trong lĩnh vực việc làm và các lĩnh vực quan trọng khác thông qua Dự luật Thượng viện 24-205 (SB205).
- SB205 được thông qua bởi cơ quan lập pháp tiểu bang vào ngày 8/5 và đang chờ Thống đốc Jared Polis ký ban hành. Luật có hiệu lực từ năm 2026.
- Mục tiêu của SB205 là xóa bỏ sự phân biệt đối xử của thuật toán bằng cách áp đặt các biện pháp tuân thủ nghiêm ngặt đối với cả nhà phát triển AI và người dùng hệ thống rủi ro cao.
- SB205 định nghĩa "hệ thống trí tuệ nhân tạo rủi ro cao" là các thuật toán machine learning có tác động đáng kể đến quyết định trong các lĩnh vực như việc làm, nhà ở, tín dụng, giáo dục, tư pháp hình sự.
- Đạo luật áp dụng cho cả nhà phát triển và người triển khai AI. Doanh nghiệp nhỏ dưới 50 nhân viên toàn thời gian có thể được miễn một số yêu cầu.
- Từ 1/2/2026, các doanh nghiệp bị ảnh hưởng phải tuân thủ các yêu cầu nghiêm ngặt như đánh giá tác động thường xuyên, thực hiện biện pháp giảm thiểu thiên vị tiềm ẩn...
- Tổng chưởng lý Colorado sẽ có thẩm quyền duy nhất thực thi SB205, coi các vi phạm là hành vi thương mại không công bằng và lừa đảo.
📌 SB205 của Colorado áp đặt gánh nặng tuân thủ đáng kể đối với nhà tuyển dụng, với những tác động tiềm tàng đối với quy định AI rộng hơn trên toàn quốc. Các công ty phải phát triển chiến lược toàn diện về rủi ro AI để tránh các hình phạt nghiêm khắc và tổn hại danh tiếng.
Citations:
[1] https://www.forbes.com/sites/alonzomartinez/2024/05/17/colorado-passes-groundbreaking-ai-discrimination-law-impacting-employers/
- Chính phủ Anh giới thiệu 02 bộ quy tắc ứng xử nhằm tăng cường an ninh mạng trong AI và phần mềm, thúc đẩy an ninh và triển vọng tăng trưởng của nền kinh tế Anh.
- Các biện pháp mới nhắm vào các nhà phát triển sẽ thiết lập tiêu chuẩn toàn cầu để bảo vệ các mô hình AI khỏi tin tặc, giúp các doanh nghiệp đổi mới và thúc đẩy tăng trưởng kinh tế trên toàn quốc.
- Ra mắt khi số liệu mới cho thấy ngành an ninh mạng đã tăng trưởng 13% trong năm qua và hiện đạt giá trị gần 12 tỷ bảng Anh.
- Trong một bài phát biểu tại CYBERUK, hội nghị an ninh mạng hàng đầu của chính phủ, Bộ trưởng Công nghệ Saqib Bhatti đã công bố hai bộ quy tắc ứng xử mới sẽ giúp các nhà phát triển cải thiện an ninh mạng trong các mô hình và phần mềm AI.
- Các biện pháp mới được đưa ra khi phát hiện của một báo cáo mới được công bố hôm nay cho thấy ngành an ninh mạng đã tăng trưởng 13% so với năm trước và hiện đạt giá trị gần 12 tỷ bảng Anh, ngang với các ngành như công nghiệp ô tô.
📌 Chính phủ Anh giới thiệu các công cụ và bộ quy tắc mới nhằm tăng cường bảo mật cho các mô hình AI, thiết lập tiêu chuẩn toàn cầu chống tin tặc. Ngành an ninh mạng Anh tăng trưởng mạnh 13%, đạt giá trị 12 tỷ bảng, cho thấy sự phát triển vượt bậc và tầm quan trọng của lĩnh vực này đối với nền kinh tế.
Citations:
[1] https://www.gov.uk/government/news/developers-given-new-tools-to-boost-cyber-security-in-ai-models-as-cyber-security-sector-sees-record-growth
https://www.gov.uk/government/collections/cyber-security-codes-of-practice
- Các thượng nghị sĩ hàng đầu của Hoa Kỳ đã giới thiệu lộ trình chi tiết để phát triển luật pháp về trí tuệ nhân tạo (AI), đánh dấu bước quan trọng trong việc giải quyết các cơ hội và thách thức do công nghệ AI đặt ra.
- Lộ trình phản ánh nỗ lực hợp tác lưỡng đảng nhằm đảm bảo Hoa Kỳ duy trì vị thế dẫn đầu trong đổi mới AI, đồng thời giải quyết các mối quan ngại liên quan đến an ninh quốc gia, tác động kinh tế và hàm ý xã hội.
- Các ưu tiên chính sách chính được nêu trong lộ trình bao gồm tăng cường tài trợ cho đổi mới AI, thúc đẩy vị thế dẫn đầu và khả năng cạnh tranh của Hoa Kỳ trong nghiên cứu và phát triển AI.
- Lộ trình cũng ưu tiên thực thi các luật hiện hành điều chỉnh AI để giải quyết sự thiên vị, tăng cường tính minh bạch và đảm bảo trách nhiệm giải trình trong các hệ thống AI.
- Tác động của lực lượng lao động và nâng cao kỹ năng cũng là những cân nhắc quan trọng, nhấn mạnh sự cần thiết phải giải quyết vấn đề mất việc làm và nâng cao kỹ năng của người lao động để thích ứng với sự chuyển đổi do AI dẫn dắt.
- Lộ trình cũng đề cập đến các thách thức từ deepfake, tập trung vào nội dung bầu cử, mối quan tâm về quyền riêng tư và tác động của nó đối với các nhà sáng tạo nội dung chuyên nghiệp và báo chí.
- Hỗ trợ đổi mới AI trong giáo dục đại học và doanh nghiệp được nhấn mạnh, đảm bảo các tổ chức ở mọi quy mô có thể cạnh tranh và đổi mới trong công nghệ AI.
- Một khuôn khổ quyền riêng tư dữ liệu liên bang mạnh mẽ được đề xuất để bảo vệ quyền riêng tư cá nhân trong bối cảnh ngày càng gia tăng việc áp dụng công nghệ AI.
📌 Lộ trình lưỡng đảng toàn diện về luật pháp AI tại Hoa Kỳ nhằm thúc đẩy đổi mới, duy trì vị thế dẫn đầu, giải quyết các thách thức về an ninh quốc gia, việc làm và quyền riêng tư, đồng thời đề xuất một khuôn khổ quyền riêng tư dữ liệu liên bang mạnh mẽ để bảo vệ người dân trong kỷ nguyên AI.
https://www.techtimes.com/articles/304710/20240516/lawmakers-roll-out-blueprint-future-ai-regulations-national-data-privacy.htm
https://www.young.senate.gov/wp-content/uploads/One_Pager_Roadmap.pdf
- Đầu tư hàng triệu USD vào sản phẩm AI tạo sinh có thể làm giảm doanh thu giờ tính phí và lợi nhuận của các công ty luật.
- Theo mô hình của Toby Brown, AI có thể giảm 5% giờ làm việc của đối tác và 20% giờ làm việc của nhân viên, dẫn đến giảm 13% doanh thu và 7% lợi nhuận.
- Tuy nhiên, các công ty luật nên theo đuổi mô hình kinh doanh mới này trong các lĩnh vực thành công nhất của họ để giành được lợi thế cạnh tranh bền vững.
- Wilson Sonsini đã bắt đầu bán sản phẩm cố định đầu tiên dựa trên mô hình AI, được xây dựng trong 9 tháng với sự hợp tác của Dioptra.
- Sản phẩm này áp dụng quy tắc 100 điều do con người tạo ra để đánh dấu hợp đồng bán hàng cho các công ty dịch vụ đám mây, với độ chính xác 92%.
- Quá trình đánh dấu bán tự động mất ít thời gian hơn, duy trì chất lượng cao và có giá thấp hơn so với việc xem xét bởi luật sư nội bộ hoặc công ty nhỏ hơn.
- Mục tiêu của sản phẩm là giành lấy công việc từ các công ty luật khác, tập trung vào các công ty khởi nghiệp - nhóm khách hàng cốt lõi của Wilson Sonsini.
- Công ty đang phát triển sản phẩm liên quan đến nhu cầu gây quỹ của các công ty khởi nghiệp, thể hiện khả năng tự động hóa "năng lực cốt lõi" của các công ty luật.
- Các khoản đầu tư công nghệ của Wilson Sonsini hướng tới việc tạo ra sản phẩm có thể tăng doanh thu 10% cho công ty luật trị giá 1.3 tỷ USD.
- Giới thiệu các công cụ tự động cung cấp dịch vụ chất lượng cao, nhanh hơn và rẻ hơn sẽ mang lại lợi thế cạnh tranh bền vững cho các công ty.
📌AI có thể giảm 5% giờ làm việc của đối tác và 20% giờ làm việc của nhân viên, dẫn đến giảm 13% doanh thu và 7% lợi nhuận. Tuy nhiên, các công ty luật nên theo đuổi mô hình kinh doanh mới này trong các lĩnh vực thành công nhất của họ để giành được lợi thế cạnh tranh bền vững.
https://news.bloomberglaw.com/business-and-practice/law-firms-ai-nightmare-is-fewer-billed-hours-and-lower-profits
- Nhóm làm việc lưỡng đảng về AI của Thượng viện Mỹ công bố Khung chính sách AI, đề xuất đầu tư ít nhất 32 tỷ USD cho các dự án đổi mới AI phi quốc phòng.
- Khung chính sách tập trung vào 8 lĩnh vực: hỗ trợ đổi mới AI của Mỹ, AI và lực lượng lao động, ứng dụng AI tác động cao, bầu cử và dân chủ, quyền riêng tư và trách nhiệm, minh bạch, giải thích, sở hữu trí tuệ và bản quyền, bảo vệ trước rủi ro AI, an ninh quốc gia.
- Lãnh đạo Đa số Thượng viện Chuck Schumer cho biết 32 tỷ USD sẽ được coi là ngân sách khẩn cấp để "củng cố sự thống trị của Mỹ trong AI", được phân bổ trong nhiều năm.
- Khung chính sách kêu gọi tài trợ ổn định cho các tổ chức nghiên cứu như NSF, Mạng lưới Phòng thí nghiệm Quốc gia DOE, các chương trình vi điện tử và Bộ Thương mại.
- Bảo vệ bản quyền và tài sản trí tuệ được nhấn mạnh, sử dụng các công cụ như watermark để phân biệt nội dung tổng hợp và nguyên bản.
- Khung chính sách cảnh báo về tính mờ đục của thuật toán AI, đề xuất các ủy ban xác định khoảng trống trong luật hiện hành và phát triển ngôn ngữ lập pháp để giải quyết.
- Các chuyên gia ngành công nghiệp đánh giá tích cực về lộ trình, nhấn mạnh tầm quan trọng của việc tài trợ 32 tỷ USD để thành công trong nỗ lực lập pháp về AI.
📌 Lộ trình AI của Thượng viện Mỹ đề xuất đầu tư khẩn cấp 32 tỷ USD cho các dự án đổi mới AI phi quốc phòng, tập trung vào 8 lĩnh vực trọng tâm. Khung chính sách nhấn mạnh tầm quan trọng của tài trợ ổn định, bảo vệ sở hữu trí tuệ, minh bạch thuật toán và hợp tác với chuyên gia bên ngoài để định hình tương lai của công nghệ AI.
https://www.nextgov.com/artificial-intelligence/2024/05/senate-ai-roadmap-calls-32-billion-year-ai-programs/396589/
• Môi trường thông tin toàn cầu mang lại cơ hội kết nối và phát triển cho Australia, nhưng cũng là mối đe dọa nghiêm trọng đến lợi ích quốc gia như can thiệp vào hệ thống chính trị dân chủ.
• Các công nghệ mới như AI tạo sinh đang làm gia tăng tốc độ tạo ra và lan truyền thông tin sai lệch. AI có thể giúp phát hiện nhanh các chiến dịch thông tin sai lệch, nhưng cũng khiến việc tạo ra và phổ biến tin giả dễ dàng và thuyết phục hơn. Trong khi đó, nhận thức của công chúng về các mối đe dọa này còn thấp.
• Australia cần đóng vai trò dẫn đầu trong việc thúc đẩy một môi trường thông tin lành mạnh ở cấp khu vực và toàn cầu. Cần có cách tiếp cận đa phương để xây dựng các chuẩn mực và tiêu chuẩn mới trong kỷ nguyên số, bao gồm các quy tắc ứng xử đối với các công ty công nghệ AI.
• Australia nên xây dựng một khuôn khổ pháp lý toàn diện dựa trên các giá trị dân chủ tự do để hạn chế các tác nhân gây hại và khuyến khích các hoạt động thiện chí trong môi trường thông tin. Cần có các quy định chặt chẽ hơn với các nền tảng truyền thông xã hội và công ty công nghệ AI.
• Cần có nỗ lực của toàn xã hội, kết hợp giữa chính phủ, doanh nghiệp, xã hội dân sự và giới học thuật. Sức mạnh thông tin của Australia phần lớn đến từ các lĩnh vực văn hóa, xã hội và kinh tế phi chính phủ.
• Một số giải pháp được đề xuất: thành lập cơ quan quốc gia về môi trường thông tin, tăng cường quản lý nền tảng truyền thông xã hội và công ty AI, hỗ trợ các nhóm cộng đồng bị nhắm mục tiêu bởi chiến dịch thông tin sai lệch, phát triển chiến dịch nâng cao nhận thức và kỹ năng số cho công chúng, hỗ trợ các tổ chức xã hội dân sự, tăng cường hợp tác quốc tế chống thông tin sai lệch, đầu tư vào truyền thông khu vực Ấn Độ Dương - Thái Bình Dương.
• Cần khẩn trương tìm cách hợp tác với các công ty AI như OpenAI để đảm bảo các sản phẩm AI mới minh bạch, an toàn và không gây tổn hại thêm cho môi trường thông tin. Cần thúc đẩy phát triển AI lấy con người làm trung tâm và có sự tham gia rộng rãi của xã hội.
• Australia cần tận dụng AI để tăng cường khả năng phát hiện và đối phó với thông tin sai lệch. Cần đầu tư nghiên cứu và phát triển các công nghệ AI từ cốt lõi, tạo sinh được tăng cường bởi truy xuất dữ liệu ngoài để nâng cao độ chính xác và khả năng kiểm chứng thông tin.
• Cần có các chương trình giáo dục và đào tạo về AI cho công chúng, giúp nâng cao hiểu biết về cơ hội và thách thức của AI trong môi trường thông tin. Cần trang bị kiến thức và kỹ năng để nhận biết và đối phó với các nội dung do AI tạo ra.
• Chính phủ, doanh nghiệp và xã hội dân sự cần phối hợp chặt chẽ trong việc xây dựng và triển khai chiến lược quốc gia về AI, đặt ưu tiên cho việc phát triển một môi trường thông tin lành mạnh và bảo vệ quyền lợi của công dân trong kỷ nguyên AI.
📌 Australia cần áp dụng tất cả các công cụ của nhà nước để tối đa hóa ảnh hưởng trong lĩnh vực thông tin, hình thành một hệ sinh thái thông tin minh bạch, đáng tin cậy và phục vụ lợi ích công, đặc biệt trong bối cảnh AI đang phát triển mạnh mẽ. Điều này đòi hỏi sự chung tay của toàn xã hội, kết hợp hành động trong nước với hợp tác quốc tế, bao gồm các biện pháp quản lý và tận dụng AI, nhằm bảo vệ công dân, củng cố niềm tin, gìn giữ thể chế dân chủ và thúc đẩy một môi trường thông tin lành mạnh trong kỷ nguyên số.
Citations:
[1] https://asiapacific4d.com/idea/information-environment/
- **Hệ thống pháp lý Ấn Độ đang gặp khủng hoảng với gần 5 crore (50 triệu) vụ án đang chờ xử lý**, dẫn đến sự chậm trễ và thiếu hiệu quả trong việc tiếp cận công lý.
- **762 startup công nghệ pháp lý tại Ấn Độ** đang sử dụng GenAI để giải quyết các thách thức này, với tiềm năng biến đổi lớn.
- **CourtEasy, một trong những startup nổi bật**, được thành lập bởi các kỹ sư và luật sư đã trải qua các vấn đề pháp lý trực tiếp. Họ tin rằng AI có thể giúp giải quyết các vụ án nhanh hơn.
- **CourtEasy phát triển các công cụ sử dụng GenAI**, bao gồm mô hình ngôn ngữ Marathi LLM và các mô hình pháp lý riêng biệt để hỗ trợ các chuyên gia pháp lý.
- **Jhana AI, một startup khác**, xây dựng các công cụ thông minh cho dịch vụ pháp lý, bao gồm chatbot có khả năng duyệt web, tham khảo sách luật, tạp chí, và các lệnh tòa án.
- **SpotDraft sử dụng GenAI để hỗ trợ các công ty luật và đội ngũ pháp lý** trong việc soạn thảo, lưu trữ, phân tích, thực hiện và tự động hóa các hợp đồng. Công ty đã xử lý khoảng 4 triệu hợp đồng.
- **Tòa án Tối cao Ấn Độ đã triển khai các công cụ AI như SUPACE và SUVAS**, trong khi Tòa án Cao cấp Madras đã đạt được tỷ lệ giải quyết vụ án ấn tượng nhờ các can thiệp công nghệ.
- **Trên toàn cầu, GenAI đã cho thấy kết quả hứa hẹn**. Tại Mỹ, các công cụ AI đã được sử dụng để dự đoán kết quả vụ án với độ chính xác cao, trong khi tại Trung Quốc, các thẩm phán AI đã được triển khai để xử lý các tranh chấp pháp lý nhỏ.
- **Thách thức lớn nhất đối với việc áp dụng GenAI trong hệ thống pháp lý là bảo mật dữ liệu**, do các vụ án pháp lý thường liên quan đến thông tin cá nhân nhạy cảm.
- **CourtEasy đã nhận được tài trợ và tín dụng hạ tầng từ các công ty như Nvidia và Microsoft** để đảm bảo an toàn dữ liệu.
- **Các startup công nghệ pháp lý vẫn lạc quan về tương lai của GenAI trong ngành**, với CourtEasy tham gia sáng kiến Microsoft for Startups và đang tìm kiếm thêm nguồn vốn để mở rộng hoạt động.
- **Jhana cũng đang tìm kiếm các giải pháp doanh nghiệp cho sản phẩm của mình** và mong muốn gặp gỡ cộng đồng đang xây dựng các công cụ cho các tập đoàn lớn.
📌 GenAI đang mở ra cơ hội lớn cho hệ thống pháp lý Ấn Độ, với các startup như CourtEasy và Jhana AI dẫn đầu trong việc cải thiện quy trình pháp lý và tăng cường tiếp cận công lý. Tuy nhiên, bảo mật dữ liệu vẫn là thách thức lớn cần được giải quyết.
https://analyticsindiamag.com/can-genai-solve-legal-troubles-in-india/
- Singapore sẽ đầu tư 100 triệu SGD (74,2 triệu USD) để nâng cấp mạng băng thông rộng quốc gia, nhằm chuẩn bị cho các công nghệ mới nổi như trí tuệ nhân tạo (AI) và xe tự hành.
- Mạng băng thông rộng mới sẽ cung cấp tốc độ lên đến 10Gbps, dự kiến sẽ có ít nhất 500.000 hộ gia đình đăng ký và sử dụng mạng này vào năm 2028.
- Công việc nâng cấp hạ tầng băng thông rộng sẽ bắt đầu từ giữa năm nay và kéo dài đến năm 2026, cùng với dịch vụ di động 5G và tốc độ kết nối Wi-Fi cao hơn.
- IMDA cho biết mạng băng thông rộng mới sẽ cung cấp kết nối đối xứng từ đầu đến cuối với tốc độ 10Gbps trên toàn đảo.
- Mạng băng thông rộng hiện tại của Singapore, ra mắt lần đầu vào năm 2006, hiện cung cấp tốc độ kết nối 1Gbps cho hơn 85% hộ gia đình.
- Đầu tư 100 triệu SGD sẽ hỗ trợ nâng cấp cả mạng lưới backend và thiết bị người dùng frontend.
- Tính đến quý 3 năm 2023, Singapore có 1,43 triệu thuê bao băng thông rộng có dây, với tỷ lệ thâm nhập là 91,8%, và 11,03 triệu thuê bao băng thông rộng không dây.
- Chính phủ Singapore đã công bố Bản đồ Kết nối Số kéo dài nhiều năm để đảm bảo hạ tầng số sẵn sàng cho các công nghệ tương lai, bao gồm cả cáp ngầm và trung tâm dữ liệu.
- Bản đồ này yêu cầu nguồn lực đáng kể, với các khoản đầu tư lên đến 20 tỷ SGD (14,84 tỷ USD), trong đó 10-12 tỷ SGD sẽ dành cho việc xây dựng các trung tâm dữ liệu xanh mới.
- Tuần trước, Singapore cũng công bố kế hoạch đầu tư ít nhất 1 tỷ SGD (741,97 triệu USD) trong vòng 5 năm để thúc đẩy phát triển AI, bao gồm việc đảm bảo quyền truy cập vào sức mạnh tính toán và kỹ năng cần thiết.
📌 Singapore đầu tư 100 triệu SGD để nâng cấp mạng băng thông rộng lên 10Gbps, chuẩn bị cho AI và xe tự hành. Dự án bắt đầu từ giữa năm nay và kéo dài đến 2026, với mục tiêu phục vụ ít nhất 500.000 hộ gia đình vào năm 2028.
https://www.zdnet.com/home-and-office/networking/singapore-is-boosting-its-broadband-for-ai-and-autonomous-vehicles/
- Trong năm nay, Singapore dành 3,3 tỷ đô la Singapore (2,44 tỷ USD) cho cơ sở hạ tầng ICT và các dịch vụ số.
- Ít nhất 60% số tiền này, tương đương 2,1 tỷ đô la Singapore, sẽ được đầu tư vào việc hiện đại hóa và cải thiện cơ sở hạ tầng số của đất nước, tăng đáng kể so với mức 1,3 tỷ đô la Singapore của năm trước.
- Chính phủ Singapore đang tập trung vào việc hợp lý hóa các quy trình tuân thủ để giảm thiểu gián đoạn và duy trì niềm tin của công chúng đối với các dịch vụ số.
- GovTech sẽ thúc đẩy việc áp dụng các công cụ phát triển có thể tái sử dụng nhằm cắt giảm chi phí, hợp lý hóa việc tuân thủ bảo mật và khuyến khích khả năng tương tác.
- Chính phủ đang thử nghiệm việc đơn giản hóa một số yêu cầu bảo mật nghiêm ngặt áp dụng cho các hệ thống chính phủ có rủi ro thấp, giúp các nhà cung cấp làm việc linh hoạt và hiệu quả hơn về chi phí.
- Hợp đồng động và vĩnh viễn sẽ được áp dụng cho một số gói thầu lớn được chọn trong năm tài chính mới nhất để đảm bảo tính cạnh tranh liên tục.
- CEO của GovTech, ông Goh Wei Boon, nhấn mạnh rằng chính phủ cần linh hoạt hơn và hợp tác chặt chẽ với các đối tác công nghiệp để tận dụng thế mạnh bổ sung của khu vực công và tư nhân.
- Singapore cũng công bố kế hoạch đầu tư hơn 1 tỷ đô la Singapore để thúc đẩy phát triển AI, nâng cấp mạng băng thông rộng quốc gia và xây dựng trung tâm chỉ huy an ninh mạng mới.
- Các khoản đầu tư này nhằm hỗ trợ nỗ lực của chính phủ trong việc tận dụng công nghệ trên các lĩnh vực then chốt và là một phần trong ngân sách tài khóa 2024 của Singapore.
📌 Singapore đang thực hiện khoản đầu tư đáng kể trị giá 2,44 tỷ USD vào cơ sở hạ tầng ICT và dịch vụ số trong năm 2024, tập trung vào việc hợp lý hóa quy trình, hiện đại hóa hệ thống và tăng cường bảo mật. Chính phủ cũng đang thúc đẩy hợp tác công tư và áp dụng các mô hình hợp đồng mới để đảm bảo tính linh hoạt và cạnh tranh liên tục. Đây là một phần trong kế hoạch đầu tư tổng thể trị giá hơn 1 tỷ đô la Singapore của Singapore nhằm thúc đẩy phát triển AI, nâng cấp cơ sở hạ tầng số và an ninh mạng quốc gia, hỗ trợ nỗ lực của chính phủ trong việc tận dụng công nghệ trên nhiều lĩnh vực then chốt.
https://www.zdnet.com/article/singapore-budgets-2-4b-to-boost-ict-infrastructures-and-digital-services/
- **AI đang phát triển nhanh chóng, mang lại nhiều cơ hội nhưng cũng tiềm ẩn rủi ro như thiên vị, bảo mật dữ liệu và an ninh.**
- **"Ethics by Design" là quá trình cố ý tích hợp các nguyên tắc đạo đức và sử dụng nhân đạo vào thiết kế và phát triển AI.**
- **Khả năng trong mô hình ngôn ngữ lớn (LLM) được coi là xuất hiện nếu nó không được huấn luyện hoặc mong đợi trước đó nhưng xuất hiện khi mô hình mở rộng về kích thước và độ phức tạp.**
- **Luật AI của EU là một bước đi lịch sử, bao gồm một bộ quy tắc toàn diện để thúc đẩy AI đáng tin cậy.**
- **Khung pháp lý nhằm đảm bảo mức độ bảo vệ cao về sức khỏe, an toàn, quyền cơ bản, dân chủ và pháp quyền, cũng như môi trường khỏi các tác động có hại của hệ thống AI.**
- **Luật AI của EU được đề xuất lần đầu bởi Ủy ban Châu Âu vào tháng 4/2021 và được Hội đồng Châu Âu thông qua vào tháng 12/2022.**
- **Luật này sẽ có hiệu lực vào tháng 3/2024 và dự kiến có hiệu lực vào tháng 5/2024.**
- **Luật áp dụng không chỉ cho các nhà phát triển trong EU mà còn cho các nhà cung cấp toàn cầu cung cấp hệ thống AI cho người dùng EU.**
- **Luật bao gồm cách tiếp cận dựa trên rủi ro, phân loại ứng dụng thành bốn loại: không chấp nhận được, rủi ro cao, hạn chế và tối thiểu.**
- **Các ứng dụng mang rủi ro không chấp nhận được như chấm điểm xã hội và giám sát sinh trắc học sẽ bị cấm.**
- **Các hệ thống AI có rủi ro không chấp nhận được và rủi ro cao sẽ có hiệu lực sau sáu tháng và ba mươi sáu tháng kể từ khi quy định có hiệu lực.**
- **Các ứng dụng AI tạo sinh hoặc các mô hình cơ bản phải cung cấp các tiết lộ cần thiết như dữ liệu huấn luyện để đảm bảo tuân thủ luật.**
- **Người dùng phải được thông báo khi kết quả không do con người tạo ra hoặc chứa hình ảnh, âm thanh, hoặc video nhân tạo.**
- **Luật AI của EU được coi là tiêu chuẩn vàng cho việc quản lý AI và đặt nền tảng cho các quốc gia khác theo dõi và hợp tác để sử dụng AI đúng cách.**
📌 Luật AI của EU là một bước ngoặt lịch sử, bao gồm các quy tắc toàn diện để thúc đẩy AI đáng tin cậy và bảo vệ quyền cơ bản. Luật này áp dụng cho cả nhà phát triển trong và ngoài EU, với cách tiếp cận dựa trên rủi ro và yêu cầu minh bạch cao.
https://www.kdnuggets.com/all-about-the-ai-regulatory-landscape
- Cuộc đua toàn cầu về sức mạnh điện toán đang diễn ra mạnh mẽ, thúc đẩy bởi sự bùng nổ của trí tuệ nhân tạo (AI) trên toàn thế giới. Các gã khổng lồ công nghệ đang chạy đua phát triển chip AI.
- Eric Schmidt tin rằng đã đến lúc Mỹ cần có chiến lược điện toán quốc gia riêng: một chương trình Apollo cho kỷ nguyên AI. Điện toán tiên tiến là cốt lõi cho an ninh và thịnh vượng của quốc gia.
- Chính phủ liên bang đã đóng vai trò then chốt trong việc tạo điều kiện cho các bước đột phá công nghệ lớn của thế kỷ trước bằng cách cung cấp cơ sở hạ tầng nghiên cứu cốt lõi. Giờ đây, khi các quốc gia trên thế giới đầu tư mạnh mẽ vào điện toán AI hiệu suất cao, Mỹ không thể mạo hiểm tụt hậu.
- Cần xây dựng thêm các siêu máy tính AI chuyên dụng của chính phủ cho nhiều nhiệm vụ khác nhau. Mặc dù Mỹ hiện vẫn dẫn đầu về điện toán tiên tiến, nhưng các quốc gia khác đang tiến gần đến mức ngang bằng và quyết tâm vượt qua.
- Mô hình lai (hybrid) giữa sử dụng nền tảng điện toán đám mây thương mại và xây dựng cơ sở hạ tầng điện toán liên bang hiệu suất cao là cần thiết. Việc mua và vận hành các siêu máy tính AI mạnh mẽ thuộc sở hữu của chính phủ sẽ tạo tiền đề cho một thời điểm AI trở nên phổ biến hơn.
- Bất kỳ chiến lược điện toán quốc gia nào cũng phải đi đôi với chiến lược nhân tài. Chính phủ có thể cạnh tranh tốt hơn với khu vực tư nhân về nhân tài AI bằng cách tạo ra các con đường nhập cư rõ ràng cho những người có trình độ chuyên môn cao.
- Kiến trúc điện toán tiên tiến không thể được dựng lên trong một sớm một chiều. Hãy bắt đầu đặt nền móng ngay bây giờ.
📌 Mỹ cần có chiến lược điện toán quốc gia với đầu tư lớn từ chính phủ liên bang để duy trì vị thế dẫn đầu trong cuộc đua AI. Xây dựng siêu máy tính AI chuyên dụng, áp dụng mô hình lai giữa điện toán đám mây và cơ sở hạ tầng liên bang, cùng chiến lược nhân tài mạnh mẽ sẽ giúp định hình AI vì lợi ích công và thúc đẩy các bước đột phá nghiên cứu trên hầu hết các lĩnh vực.
https://www.technologyreview.com/2024/05/13/1092322/why-america-needs-an-apollo-program-for-the-age-of-ai/
- Các nhà ngoại giao cấp cao của Mỹ và Trung Quốc đã gặp nhau tại Vienna, Áo để thảo luận về rủi ro tiềm ẩn của AI và sự cần thiết của các biện pháp bảo vệ.
- Cuộc họp diễn ra trong bối cảnh lo ngại gia tăng về sự phát triển nhanh chóng của AI và tác động tiềm tàng của nó đối với xã hội, kinh tế và an ninh quốc gia.
- Đại diện của Mỹ và Trung Quốc nhấn mạnh tầm quan trọng của việc thiết lập các tiêu chuẩn và hướng dẫn quốc tế để đảm bảo sự phát triển an toàn và có trách nhiệm của AI.
- Hai bên thảo luận về sự cần thiết phải hợp tác chặt chẽ hơn giữa các quốc gia trong việc giải quyết các thách thức và rủi ro liên quan đến AI, bao gồm vấn đề đạo đức, an ninh mạng và tác động đến thị trường lao động.
- Mỹ và Trung Quốc cũng cam kết tăng cường trao đổi thông tin và chia sẻ kinh nghiệm trong lĩnh vực nghiên cứu và phát triển AI.
- Các nhà ngoại giao nhấn mạnh sự cần thiết của việc đầu tư vào giáo dục và đào tạo để chuẩn bị cho lực lượng lao động trong kỷ nguyên AI.
- Hai bên cũng thảo luận về tiềm năng của AI trong việc giải quyết các thách thức toàn cầu như biến đổi khí hậu, chăm sóc sức khỏe và giảm nghèo.
- Tuy nhiên, vẫn còn nhiều bất đồng và thách thức trong việc đạt được sự đồng thuận quốc tế về các quy tắc và quy định liên quan đến AI.
- Cuộc họp được xem là một bước tiến quan trọng trong việc thúc đẩy đối thoại và hợp tác giữa Mỹ và Trung Quốc trong lĩnh vực AI.
- Kết quả của cuộc họp sẽ định hình chương trình nghị sự cho các cuộc thảo luận và hội nghị quốc tế trong tương lai về quản trị AI.
📌 Cuộc gặp cấp cao giữa nhà ngoại giao Mỹ và Trung Quốc tại Vienna đánh dấu một bước tiến quan trọng trong việc thúc đẩy hợp tác quốc tế về AI. Hai cường quốc cam kết cùng nhau giải quyết các rủi ro, thiết lập tiêu chuẩn và thúc đẩy phát triển AI an toàn và có trách nhiệm, mặc dù vẫn còn nhiều thách thức trong việc đạt được đồng thuận toàn cầu.
- Một liên minh các công ty công nghệ, nhà đầu tư và các ông lớn trong ngành đã đổ nhiều tiền vào chiến dịch vận động hành lang toàn diện để ủng hộ các quy định an toàn ít nghiêm ngặt hơn đối với AI tiên tiến và chuyển hướng sự chú ý của các nhà lập pháp sang mối đe dọa từ Trung Quốc.
- Liên minh này bao gồm các gã khổng lồ công nghệ IBM, Meta, nhà sản xuất chip hàng đầu Nvidia, các công ty khởi nghiệp AI nhỏ hơn, quỹ đầu tư mạo hiểm ảnh hưởng Andreessen Horowitz và tỷ phú theo chủ nghĩa tự do Charles Koch.
- Các nhà vận động hành lang của họ đang nhắm mục tiêu gây ảnh hưởng đến sự phát triển chính sách AI đang diễn ra ở Washington, với Schumer soạn thảo khuôn khổ pháp lý về AI và chính quyền Biden đưa ra các quyết định quan trọng liên quan đến việc thực thi sắc lệnh hành pháp toàn diện về AI.
- Nỗ lực vận động hành lang này đại diện cho sự chuyển hướng từ sự thống trị gần đây của các tổ chức từ thiện cảnh báo về những mối nguy hiểm lâu dài của AI.
- Mạng lưới vận động hành lang mới ủng hộ AI như một cơ hội kinh doanh quan trọng và lập luận rằng các quy định an toàn nghiêm ngặt có thể nhường lợi thế AI của Mỹ cho Trung Quốc.
📌 Liên minh vận động hành lang gồm các công ty công nghệ lớn như IBM, Meta cùng các bên liên quan khác đang thúc đẩy các quy định an toàn ít nghiêm ngặt hơn về AI, đồng thời chuyển hướng sự chú ý của các nhà lập pháp sang mối đe dọa từ Trung Quốc. Họ lập luận rằng các quy định quá chặt chẽ có thể khiến Mỹ mất lợi thế AI vào tay Trung Quốc.
Citations:
[1] https://www.politico.com/news/2024/05/12/ai-lobbyists-gain-upper-hand-washington-00157437
- Mỗi ngày, các thuật toán AI đang đưa ra quyết định ảnh hưởng sâu sắc đến cuộc sống của chúng ta như việc làm, vay vốn, tuyển sinh đại học mà không ai có thể biện minh.
- Các công ty đang tranh luận về khuôn khổ đạo đức và thành lập hội đồng tư vấn, nhưng điều chúng ta cần là một hiến pháp AI chứ không phải tuyên ngôn.
- AI đang được sử dụng để sàng lọc ứng viên việc làm, sa thải nhân viên năng suất thấp, từ chối cho vay vốn một cách thiếu minh bạch.
- Trong y tế, các công cụ chẩn đoán AI có thể không chính xác với những bệnh nhân ngoại lệ. Bảo hiểm sức khỏe cũng sử dụng AI để từ chối yêu cầu.
- Trong luật pháp, quyền có luật sư và xem xét của tòa án là quyền hiến định, nhưng khi thuật toán đóng vai trò nhân chứng chuyên gia chống lại bạn thì các quyền này không còn tồn tại.
- Hiến pháp Hoa Kỳ tạo ra cơ chế cân bằng lợi ích và quyền lực buộc phải thỏa hiệp và quản trị tốt, thay vì đơn giản giả định mọi người luôn hành động vì lợi ích chung.
- Tác giả đã thành lập tổ chức phi lợi nhuận The Human Trust nắm giữ dữ liệu và vận hành thuật toán chỉ vì lợi ích của người dùng, không bán cho bên thứ ba.
- Quyền công dân không thể tồn tại trong thế giới của những phép tính ẩn. Chúng ta cần AI hoạt động vì lợi ích của mình, được định nghĩa trong hiến pháp như một quyền công dân.
📌 Hiến pháp AI là cần thiết để bảo vệ quyền công dân trước sự phát triển của trí tuệ nhân tạo. Các thuật toán đang đưa ra những quyết định quan trọng ảnh hưởng đến cuộc sống của chúng ta một cách thiếu minh bạch. Cần có cơ chế để AI hoạt động vì lợi ích của con người, tương tự như luật sư hay bác sĩ, và quyền được tiếp cận AI như vậy cần được ghi nhận trong hiến pháp như một quyền công dân cơ bản.
https://www.ft.com/content/b16fab3e-7f19-49ab-9bbb-9bfeccbaf063
#FT
- Công nghệ AI tạo sinh đang được nhiều phòng ban pháp lý đón nhận như một công cụ không thể thiếu, giúp các chuyên gia pháp lý tập trung vào những công việc chuyên môn hơn là những nhiệm vụ hành chính thấp.
- Theo khảo sát của Thomson Reuters vào đầu năm 2023, 82% các công ty luật và bộ phận pháp lý doanh nghiệp nhận thấy rõ ràng các trường hợp sử dụng pháp lý của AI, và hơn một nửa cho rằng ngành luật *nên* sử dụng AI.
- AI có thể giúp tăng tốc độ tìm kiếm các từ khóa hoặc điều khoản quan trọng trong các vấn đề pháp lý hàng ngày, và cũng có thể được sử dụng để soạn thảo bản nháp đầu tiên.
- Các luật sư cấp cao hơn tại các công ty lớn hoặc các bộ phận lớn nên suy nghĩ chiến lược về các trường hợp sử dụng AI, xem xét điều gì phù hợp với công ty, khách hàng hoặc doanh nghiệp của họ.
- Việc triển khai AI không chỉ giúp giảm chi phí và thúc đẩy tăng trưởng mà còn có thể là một bước tiến quan trọng trong sự nghiệp, giúp định vị lại thực hành pháp lý và mỗi chuyên gia pháp lý trong tương lai.
- Công cụ AI pháp lý đã được thiết kế đặc biệt để hỗ trợ các luật sư trong công việc của họ. Ngành luật đã áp dụng nhiều công nghệ trong nhiều năm và không hề biến mất – những chuyên gia pháp lý thích nghi và áp dụng sớm sẽ là những người làm việc nhanh hơn, tốt hơn và hiệu quả hơn.
📌 AI tạo sinh đang thay đổi cách thức làm việc trong ngành luật, với 82% các công ty luật và bộ phận pháp lý doanh nghiệp nhận thấy các trường hợp sử dụng pháp lý rõ ràng cho AI. Công nghệ này không chỉ tăng tốc các quy trình mà còn mở ra cơ hội để giảm chi phí và tăng trưởng, đồng thời củng cố vị thế cho tương lai của các chuyên gia pháp lý.
Citations:
[1] https://legal.thomsonreuters.com/blog/why-do-ai-and-legal-professionals-make-the-perfect-partnership/
- Hoa Kỳ và Trung Quốc dự kiến sẽ có cuộc họp tại Geneva để thảo luận về kiểm soát vũ khí trí tuệ nhân tạo, đánh dấu lần đầu tiên hai cường quốc này thảo luận về vấn đề này.
- Chiến lược mới của Hoa Kỳ nhằm đảm bảo kiểm soát các công nghệ vật lý như cáp ngầm, quan trọng cho việc kết nối dữ liệu toàn cầu.
- Antony J. Blinken, tại RSA Conference, nhấn mạnh sự cạnh tranh không khoan nhượng giữa hệ thống công nghệ do phương Tây và Trung Quốc dẫn đầu.
- Chiến lược của Hoa Kỳ không chỉ giới hạn ở quản lý xung đột mạng mà còn tập trung vào việc kiểm soát các công nghệ vật lý và đối phó với sự cạnh tranh từ Trung Quốc.
- Nathaniel C. Fick và Adam Segal đã phát triển chiến lược này, tập trung vào khái niệm "đoàn kết số" với các đồng minh có quan điểm chung về quản lý công nghệ và dòng chảy thông tin.
- Hoa Kỳ cảnh báo về nguy cơ từ các công ty Trung Quốc trong việc cung cấp cáp ngầm và dịch vụ đám mây, khuyến khích các quốc gia chọn đối tác công nghệ đáng tin cậy.
- Chiến lược mới cũng nhấn mạnh vai trò của công nghệ trong cuộc xung đột tại Ukraine, đặc biệt là việc sử dụng công nghệ để duy trì kết nối thông tin trong bối cảnh tấn công mạng.
- Chiến lược thừa nhận sự thâm nhập của Trung Quốc vào mạng lưới tiện ích và cung cấp nước của Mỹ, cài đặt phần mềm độc hại nhằm gây rối và làm chậm phản ứng quân sự của Mỹ trong trường hợp xảy ra xung đột.
📌 Chiến lược mới của Hoa Kỳ trong đối phó với mối đe dọa từ trí tuệ nhân tạo và công nghệ nhấn mạnh việc kiểm soát các công nghệ vật lý và tăng cường "đoàn kết số" với các đồng minh. Cuộc họp sắp tới tại Geneva giữa Hoa Kỳ và Trung Quốc sẽ mở ra hướng thảo luận mới về kiểm soát vũ khí AI. Hoa Kỳ cảnh báo về nguy cơ từ các công ty Trung Quốc trong việc cung cấp cáp ngầm và dịch vụ đám mây, khuyến khích các quốc gia chọn đối tác công nghệ đáng tin cậy.
Citations:
[1] https://www.nytimes.com/2024/05/06/us/politics/diplomatic-strategy-artificial-intelligence.html
- OPM đã ban hành hướng dẫn về việc sử dụng AI tạo sinh cho nhân viên liên bang, nhấn mạnh cả lợi ích và rủi ro tiềm ẩn.
- Lợi ích bao gồm cải thiện năng suất, ra quyết định và phân tích dữ liệu. Tuy nhiên, cũng có những rủi ro như thiên vị, mất quyền riêng tư và an ninh mạng.
- OPM khuyến nghị các cơ quan cung cấp đào tạo về sử dụng AI có trách nhiệm, thiết lập chính sách rõ ràng và giám sát việc sử dụng công nghệ.
- Hướng dẫn đề cập đến các vấn đề đạo đức như tính minh bạch, trách nhiệm giải trình và công bằng trong phát triển và triển khai AI.
- OPM nhấn mạnh tầm quan trọng của việc cân bằng giữa lợi ích tiềm năng và giảm thiểu rủi ro, đồng thời trao quyền cho nhân viên sử dụng AI một cách hiệu quả.
- Hướng dẫn cũng kêu gọi hợp tác giữa các cơ quan để chia sẻ kinh nghiệm và thực hành tốt nhất liên quan đến AI tạo sinh.
📌 OPM đã đưa ra hướng dẫn toàn diện về việc sử dụng AI tạo sinh cho 2,1 triệu nhân viên liên bang, nhấn mạnh cả lợi ích như cải thiện năng suất và rủi ro như thiên vị. Khuyến nghị bao gồm đào tạo, chính sách rõ ràng và giám sát để đảm bảo sử dụng công nghệ một cách có trách nhiệm và đạo đức.
Citations:
[1] https://www.fedweek.com/issue-briefs/opm-issuse-guidance-on-benefits-risks-of-generative-ai-use-by-federal-employees/
- Fintech Open Source Foundation đã triển khai nhóm làm việc về sẵn sàng AI cho dịch vụ tài chính tuần trước, với sự hỗ trợ từ các công ty lớn trong ngành như Citi, Morgan Stanley và nhóm London Stock Exchange.
- Nhóm này cũng nhận được sự hỗ trợ từ các công ty công nghệ như Microsoft và Databricks.
- Mục tiêu của sáng kiến này là đề ra một khung quản trị để an toàn trong việc tìm nguồn, phát triển và triển khai các giải pháp dựa trên AI tạo sinh trong ngành tài chính.
- Nhóm cũng khuyến khích phát triển các mô hình nguồn mở.
- Gabriele Columbro, giám đốc điều hành của FINOS và quản lý chung của Linux Foundation Europe, nhấn mạnh rằng đây là cơ hội để ngành hợp tác công khai trong việc phát triển các mô hình ngôn ngữ đặc thù cho dịch vụ tài chính trước khi cạnh tranh.
- Ngành tài chính, giàu dữ liệu, đang có nhiều hoạt động liên quan đến AI tạo sinh, mặc dù có những lo ngại về tuân thủ, an ninh dữ liệu và hậu quả của lỗi mô hình.
- FINOS, một nhóm ngành liên kết với Linux Foundation, đã sản xuất một bộ tiêu chuẩn thống nhất về an ninh mạng, khả năng phục hồi và quy định cho việc sử dụng đám mây trong ngành tài chính vào năm ngoái.
- Nhiều ngân hàng đã tham gia vào dự án Common Cloud Controls, bao gồm Citi, Goldman Sachs và Morgan Stanley.
- Nhóm sẵn sàng AI có các mục tiêu tương tự, bao gồm việc áp dụng các nguyên tắc nguồn mở cho công nghệ.
- Ngành ngân hàng đã mất nhiều năm để chấp nhận đám mây. Với AI tạo sinh, thời gian áp dụng đã rút ngắn chỉ còn vài tháng.
- Ngay sau khi Chủ tịch và CEO của JPMorgan Chase, Jamie Dimon, thúc đẩy việc áp dụng AI trong một bức thư gửi cổ đông vào tháng Tư, công ty đã giới thiệu công cụ IndexGPT.
- Ngân hàng đã sử dụng mô hình GPT-4 của OpenAI để xây dựng công cụ này, theo một báo cáo của Bloomberg.
📌 Fintech Open Source Foundation đã khởi xướng nhóm làm việc về AI cho dịch vụ tài chính với sự hỗ trợ từ các tập đoàn lớn như Citi và Morgan Stanley, cùng với sự hỗ trợ công nghệ từ Microsoft và Databricks. Mục tiêu là phát triển một khung quản trị cho AI tạo sinh, đồng thời thúc đẩy mô hình nguồn mở trong ngành tài chính.
Citations:
[1] https://www.ciodive.com/news/finacial-services-ai-governance-working-group-finos-citi-microsoft/715308/
- Cuộc đấu tranh về trí tuệ nhân tạo (AI) không chỉ giới hạn ở các gã khổng lồ công nghệ thung lũng Silicon. Nó cũng đang diễn ra trong tường của Quốc hội và Nhà Trắng khi các nhà lập pháp đang vật lộn để tìm sự cân bằng giữa kiềm chế công nghệ và ngăn chặn sự tiến bộ bị đình trệ.
- Mặc dù Quốc hội không thể thông qua các luật và quy định toàn diện của liên bang về AI, phần lớn các hạn chế đã được áp đặt ở cấp tiểu bang. Để đáp lại, Tổng thống Joe Biden và Donald Trump đã chuyển sang sử dụng sắc lệnh hành pháp để lấp đầy khoảng trống.
- Quá trình khó khăn để thông qua luật ở Quốc hội, được đánh dấu bởi sự tiến triển chậm chạp và gián đoạn thường xuyên, đã khiến cơ quan này ngày càng khó thiết lập các quy định ngành. Phiên họp hiện tại, bị ảnh hưởng bởi sự xung đột nội bộ của đảng Cộng hòa và việc loại bỏ cựu Chủ tịch Hạ viện Kevin McCarthy, đã làm phức tạp thêm vấn đề.
- Cho đến nay, Quốc hội khóa 118 chỉ thông qua 1% tổng số dự luật được đề xuất. Để giải quyết việc thiếu quy định AI của liên bang, các tổng thống đã chuyển sang sử dụng sắc lệnh hành pháp như một phương tiện thiết lập tiền lệ trong các ngành mới nổi.
- Trong nhiệm kỳ của Trump, ông đã ban hành một số sắc lệnh hành pháp liên quan đến AI. Năm 2019, ông ký "Duy trì vị thế lãnh đạo của Mỹ trong Trí tuệ nhân tạo", nhằm khuyến khích các công ty ưu tiên phát triển AI.
- Mặc dù hơn 80 dự luật trực tiếp hoặc gián tiếp giải quyết AI đã được đưa ra trong Quốc hội khóa 118 hiện tại, nhưng không có dự luật nào được thông qua và trở thành luật. Do đó, Biden và chính quyền của ông đã noi gương Trump, thiết lập các tiền lệ bằng sắc lệnh hành pháp.
- Một trong những thách thức lớn nhất mà các nhà lập pháp phải đối mặt trong việc quy định AI là bắt kịp công nghệ phát triển nhanh chóng. Hầu hết các...
📌 Quốc hội Mỹ chỉ thông qua 1% dự luật liên quan đến AI trong số hơn 80 dự luật trực tiếp hoặc gián tiếp giải quyết AI đã được đưa ra trong Quốc hội. Các tiểu bang áp đặt phần lớn hạn chế. Tổng thống Biden và Trump đã ban hành sắc lệnh hành pháp để thiết lập tiền lệ trong lĩnh vực này, nhưng việc đuổi kịp tốc độ phát triển của AI vẫn là thách thức lớn cho các nhà lập pháp.
Citations:
[1] https://www.businessinsider.com/ai-regulations-what-lawmakers-president-are-doing-2024-4
- 8 tờ báo lớn của Mỹ, thuộc sở hữu của Alden Global Capital, đã nộp đơn kiện OpenAI và Microsoft vì vi phạm bản quyền. Họ cáo buộc các công ty này sử dụng tài sản trí tuệ của họ mà không xin phép hoặc bồi thường để xây dựng và thương mại hóa các mô hình AI tạo sinh như GPT-4.
- Frank Pine, tổng biên tập giám sát các tờ báo của Alden, tuyên bố rằng họ đã chi hàng tỷ đô la để thu thập thông tin và đưa tin, và không thể để OpenAI và Microsoft mở rộng kế hoạch của các công ty công nghệ lớn là đánh cắp công việc của họ để xây dựng doanh nghiệp riêng.
- Các nhà khoa học tại OpenAI, dẫn đầu bởi Boaz Barak, đã đề xuất một khuôn khổ để bồi thường cho chủ sở hữu bản quyền tương xứng với đóng góp của họ trong việc tạo ra nội dung do AI tạo ra. Khuôn khổ này sử dụng lý thuyết trò chơi hợp tác, đánh giá ảnh hưởng của nội dung trong tập dữ liệu huấn luyện đối với nội dung được tạo ra và xác định mức bồi thường cho chủ sở hữu nội dung dựa trên đánh giá đó.
- Một số tin tức đáng chú ý khác trong tuần qua bao gồm: Microsoft tái khẳng định lệnh cấm nhận dạng khuôn mặt, bản chất của các công ty khởi nghiệp AI từ cốt lõi, Anthropic ra mắt kế hoạch kinh doanh và ứng dụng iOS mới, Amazon đổi tên CodeWhisperer thành Q Developer, Sam's Club sử dụng AI cho "công nghệ thoát hiểm", hệ thống thu hoạch cá tự động của Shinkei, chatbot mới của Yelp hỗ trợ người tiêu dùng.
📌 Vụ kiện bản quyền giữa 8 tờ báo lớn của Mỹ với OpenAI và Microsoft cho thấy thách thức trong việc bồi thường công bằng cho người sáng tạo khi AI tạo sinh ngày càng phổ biến. Khuôn khổ do các nhà khoa học OpenAI đề xuất, sử dụng lý thuyết trò chơi hợp tác để đánh giá và bồi thường tương xứng, có thể là một giải pháp tiềm năng cho vấn đề này.
Citations:
[1] https://techcrunch.com/2024/05/04/this-week-in-ai-generative-ai-and-the-problem-of-compensating-creators/
- Google cập nhật chính sách nội dung quảng cáo, cấm nhà quảng cáo quảng bá các dịch vụ có thể được sử dụng để tạo ra nội dung khiêu dâm giả mạo sâu (deepfake).
- Trước đây, Google đã ngăn chặn việc quảng cáo "nội dung khiêu dâm rõ ràng", bao gồm văn bản, hình ảnh, âm thanh hoặc video về các hành vi tình dục đồ họa nhằm kích thích.
- Từ ngày 30/5, chính sách này cũng cấm "quảng bá nội dung tổng hợp đã được thay đổi hoặc tạo ra để trở nên khiêu dâm rõ ràng hoặc chứa nội dung khỏa thân".
- Các quản lý quảng cáo của Google đã được thông báo qua email về sự thay đổi này, nhằm chống lại quảng cáo khiêu dâm deepfake.
- Google tuyên bố họ đã cấm nội dung tình dục rõ ràng và không đồng thuận trên nền tảng quảng cáo từ lâu, và chính sách này thường ngăn chặn việc quảng bá các dịch vụ khiêu dâm deepfake.
- Để đảm bảo cách tiếp cận toàn diện, Google cập nhật chính sách quảng cáo để làm rõ rằng họ không cho phép quảng bá các dịch vụ này, bất kể nội dung có khiêu dâm rõ ràng hay không.
- Chính sách mới cũng áp dụng cho Quảng cáo Nhà xuất bản và Quảng cáo Mua sắm.
- Những người vi phạm chính sách có thể bị đình chỉ tài khoản.
- Theo báo cáo An toàn Quảng cáo hàng năm, Google đã gỡ bỏ hơn 1.8 tỷ quảng cáo vi phạm chính sách về nội dung tình dục trong năm 2023.
- Tháng trước, Apple đã gỡ bỏ một số ứng dụng AI tạo sinh từ App Store vì có thể được sử dụng để tạo ra hình ảnh khỏa thân không đồng thuận.
📌 Google cập nhật chính sách quảng cáo, cấm quảng bá các dịch vụ tạo nội dung khiêu dâm deepfake từ 30/5. Năm 2023, hơn 1,8 tỷ quảng cáo vi phạm chính sách tình dục đã bị gỡ bỏ. Động thái này nhằm ngăn chặn quảng cáo deepfake khiêu dâm trên nền tảng Google.
Citations:
[1] https://www.pcmag.com/news/google-updates-its-ad-policy-to-prohibit-promoting-deepfake-porn-apps
- Viện Tiêu chuẩn và Công nghệ Quốc gia Hoa Kỳ (NIST) đã công bố bốn hướng dẫn mới vào tuần này, nhằm mục đích cung cấp cái nhìn sâu sắc hơn về các rủi ro AI cho các nhà phát triển và chuyên gia an ninh mạng.
- Các tài liệu này được phát hành dưới dạng bản nháp và là những khối xây dựng mới nhất do các cơ quan liên bang đặt ra theo sắc lệnh hành pháp của Tổng thống Joe Biden vào tháng 10 năm 2023.
- Ba trong số bốn hướng dẫn tập trung vào các vấn đề quan tâm đặc biệt đối với những người trong lĩnh vực an ninh mạng, bao gồm rủi ro từ AI tạo sinh, dữ liệu đào tạo độc hại và nội dung tổng hợp.
- Hướng dẫn "AI RMF Generative AI Profile" (NIST AI 600-1) liệt kê 13 rủi ro liên quan đến AI tạo sinh như mã độc, tự động hóa tấn công mạng, phát tán thông tin sai lệch và kỹ thuật xã hội.
- Tài liệu kết thúc với 400 khuyến nghị mà các nhà phát triển có thể áp dụng để giảm thiểu những rủi ro này.
- Hướng dẫn "Secure Software Development Practices for Generative AI and Dual-Use Foundation Models" (NIST SP 800-218A) tập trung vào nguồn dữ liệu của AI và khả năng bị can thiệp.
- Hướng dẫn "Reducing Risks Posed by Synthetic Content" (NIST AI 100-4) xem xét cách các nhà phát triển có thể xác thực, gắn nhãn và theo dõi nguồn gốc của nội dung bằng công nghệ như thủy vân.
- Tài liệu cuối cùng, "A Plan for Global Engagement on AI Standards" (NIST AI 100-5), khảo sát vấn đề tiêu chuẩn hóa và phối hợp AI trên bình diện toàn cầu.
📌Viện Tiêu chuẩn và Công nghệ Quốc gia Hoa Kỳ đã phát hành bốn hướng dẫn mới nhằm giúp các nhà phát triển AI và chuyên gia an ninh mạng hiểu rõ hơn về các rủi ro AI, bao gồm AI tạo sinh, dữ liệu đào tạo và nội dung tổng hợp. Các hướng dẫn này cung cấp 400 khuyến nghị để giảm thiểu rủi ro và tăng cường an toàn phần mềm.
Citations:
[1] https://www.csoonline.com/article/2097119/nist-publishes-new-guides-on-ai-risk-for-developers-and-cisos.html
- Thủ tướng Canada Justin Trudeau đã công bố kế hoạch đầu tư 2,4 tỷ đô vào trí tuệ nhân tạo (AI), bao gồm việc thành lập một Viện An toàn AI.
- Việc đầu tư này nhấn mạnh tầm quan trọng của việc quản lý và điều tiết dữ liệu, trong bối cảnh các quốc gia như Canada, Hoa Kỳ và Liên minh Châu Âu đang tìm cách giảm thiểu những rủi ro tiềm ẩn từ AI.
- AI không chỉ là thuật toán mà còn bao gồm dữ liệu và nguồn lực tính toán, với sự phát triển nhanh chóng của công nghệ tính toán và thuật toán vượt xa sự điều tiết của chính phủ.
- Chính phủ có thế mạnh trong việc thu thập dữ liệu, với các cơ quan chuyên trách thu thập thông tin về nhiều khía cạnh của xã hội.
- Các quyết định về dữ liệu nào được thu thập và cách tổ chức dữ liệu này là rất quan trọng, vì chính phủ cũng quản lý quyền truy cập vào thông tin nhạy cảm để bảo vệ cá nhân.
- Mặc dù có quan điểm cho rằng việc thu thập nhiều dữ liệu sẽ cải thiện xã hội, đặc biệt là trong các nền dân chủ, điều này đã thúc đẩy các sáng kiến chính phủ mở và chia sẻ dữ liệu như Đạo luật Dữ liệu của EU.
- Dữ liệu không phải là tốt hoặc xấu một cách tự nhiên. Hiểu biết về các thiên kiến trong dữ liệu có thể giúp dự đoán các vấn đề trong kết quả của hệ thống AI.
- Việc điều tiết dữ liệu là một bổ sung cần thiết cho quy định AI, vì dữ liệu liên quan đến con người, những người có quyền, cần được xử lý khác biệt.
- Bằng cách tập trung vào thế mạnh trong quản lý dữ liệu và nhận thức được tầm quan trọng của dữ liệu trong các hệ thống AI, các chính phủ có thể đóng góp vào việc đảm bảo an toàn cho AI.
📌 Thủ tướng Canada Justin Trudeau đã công bố kế hoạch đầu tư 2,4 tỷ đô vào AI, nhấn mạnh tầm quan trọng của việc quản lý dữ liệu để đảm bảo an toàn AI. Việc điều tiết dữ liệu, đặc biệt là dữ liệu nhạy cảm liên quan đến con người, được coi là yếu tố then chốt trong việc hạn chế rủi ro từ AI, đồng thời củng cố vai trò của chính phủ trong việc quản lý và bảo vệ thông tin.
Citations:
[1] https://theconversation.com/to-make-ai-safe-governments-must-regulate-data-collection-228742
- Cybercheck, một công cụ trí tuệ nhân tạo (AI) ít được biết đến, đã thu hút sự chú ý đáng kể từ các cơ quan thực thi pháp luật và công tố viên ở Mỹ, đặc biệt là ở Colorado và New York.
- Phần mềm này do Adam Mosher và công ty Global Intelligence Inc. của Canada phát triển, được sử dụng để hỗ trợ điều tra, buộc tội và kết án các nghi phạm bị cáo buộc phạm tội nghiêm trọng như giết người và buôn người.
- Tuy nhiên, khi việc sử dụng Cybercheck mở rộng, các luật sư bào chữa đã nêu lên mối quan ngại về độ chính xác và độ tin cậy của nó.
- Phương pháp luận của Cybercheck được bao bọc trong bí mật và thiếu sự kiểm định độc lập, điều này gây tranh cãi cho các luật sư bào chữa.
- Theo công ty, phần mềm dựa vào machine learning để quét web tìm kiếm "nguồn mở".
- Đến năm ngoái, phần mềm đã được sử dụng trong gần 8.000 vụ án trải rộng 40 tiểu bang và gần 300 cơ quan.
- Trong một vụ án ở New York, thẩm phán đã cấm chính quyền đưa ra bằng chứng Cybercheck do thiếu bằng chứng chứng minh độ tin cậy hoặc sự chấp nhận rộng rãi của nó.
- Trong một vụ án khác ở Ohio, thẩm phán đã chặn phân tích Cybercheck khi Mosher từ chối tiết lộ phương pháp luận của phần mềm.
- Tại một phiên điều trần năm ngoái, Mosher đã làm chứng rằng các kết luận của phần mềm trong vụ án có độ chính xác 98,2%, nhưng ông không cung cấp thêm chi tiết về cách tính toán tỷ lệ chính xác đó.
- Trong một vụ án giết người khác ở Akron, Mosher tuyên bố rằng Cybercheck đã được Đại học Saskatchewan đánh giá ngang hàng, nhưng thẩm phán ra lệnh cho Mosher cung cấp nghiên cứu cho công tố viên và Malarcik.
📌 Cybercheck, một công cụ AI được sử dụng trong gần 8.000 vụ án trải rộng 40 tiểu bang và gần 300 cơ quan đang đối mặt với những thách thức pháp lý do thiếu minh bạch về phương pháp luận và độ chính xác. Mặc dù công ty tuyên bố tỷ lệ chính xác lên tới 98,2%, nhưng các luật sư bào chữa đang đặt ra nghi vấn và yêu cầu bằng chứng rõ ràng hơn.
Citations:
[1] https://www.nbcnews.com/news/crime-courts/ai-tool-used-thousands-criminal-cases-facing-legal-challenges-rcna149607
- 4 startup AI tạo sinh của Trung Quốc gồm Zhipu AI, Moonshot AI, MiniMax và 01.ai được định giá 1.2-2.5 tỷ USD trong 3 tháng qua, dẫn đầu hơn 260 công ty đua tranh bắt kịp các đối thủ Mỹ như OpenAI.
- Các startup này huy động vốn chủ yếu từ các nhà đầu tư trong nước và cạnh tranh tuyển dụng nhân tài để phát triển sản phẩm AI phổ biến nhất.
- Startup Trung Quốc thua kém đối thủ Mỹ về công nghệ và tổng vốn huy động, nhưng 262 startup đang cạnh tranh phát triển sản phẩm nội địa khi ChatGPT không có mặt ở Trung Quốc.
- Các startup AI tạo sinh Trung Quốc huy động được 14.3 tỷ nhân dân tệ (2 tỷ USD) trong 4 tháng đầu năm 2024.
- Chính phủ Trung Quốc phê duyệt hơn 40 mô hình ngôn ngữ lớn và ứng dụng AI liên quan, xây dựng môi trường pháp lý hỗ trợ tăng trưởng ngành qua ưu đãi thuế và trợ cấp.
- Zhipu AI có hơn 800 nhân sự, được định giá 18 tỷ nhân dân tệ (2.5 tỷ USD). Moonshot AI được định giá 2.5 tỷ USD sau vòng gọi vốn 1 tỷ USD.
- Chatbot Kimi của Moonshot đang trở thành đối thủ lớn nhất của Ernie Bot (Baidu), đạt 12.6 triệu lượt truy cập/tháng 3 so với 14.9 triệu của Ernie Bot.
- Nhiều startup chọn phát triển chatbot avatar do hạn chế về tài nguyên tính toán.
- 01.ai ra mắt các mô hình nguồn mở Yi dựa trên kiến trúc Llama của Meta, được đánh giá cao về khả năng lập luận, toán học, lập trình. Công ty huy động vốn định giá 1.2 tỷ USD.
- Alibaba là nhà đầu tư then chốt vào các startup AI, muốn lặp lại thành công của Microsoft với OpenAI.
- Các startup Trung Quốc có đủ kỹ sư tài năng và tài nguyên tính toán để huấn luyện mô hình bất chấp lệnh cấm xuất khẩu chip tiên tiến của Mỹ. Lương kỹ sư AI thấp hơn nhiều so với Mỹ và châu Âu.
📌 Bốn startup AI tạo sinh hàng đầu Trung Quốc gồm Zhipu AI, Moonshot AI, MiniMax và 01.ai đang dẫn đầu cuộc đua với hơn 260 đối thủ nội địa để bắt kịp các công ty Mỹ như OpenAI. Họ huy động được tổng cộng 2 tỷ USD trong 4 tháng đầu năm 2024, được định giá 1,2 đến 2,5 tỷ USD, thu hút các nhà đầu tư lớn như Alibaba và tuyển dụng nhân tài để phát triển chatbot, trợ lý ảo. Chính phủ Trung Quốc cũng hỗ trợ mạnh mẽ sự phát triển của ngành AI tạo sinh trong nước.
Citations:
[1] https://www.ft.com/content/4e6676c8-eaf9-4d4a-a3dc-71a09b220bf8
#FT
- Hoa Kỳ cần tăng cường đầu tư cho nghiên cứu và phát triển AI, đồng thời đầu tư vào giáo dục và đào tạo kỹ năng cho tương lai được định hình bởi AI, nhằm vượt qua lợi thế về dữ liệu của Trung Quốc.
- Hoa Kỳ cần thiết lập một khuôn khổ pháp lý toàn cầu cho AI, đặt ra các quy tắc và tiêu chuẩn để bảo vệ quyền riêng tư, an ninh mạng và các giá trị dân chủ.
- Hoa Kỳ nên thúc đẩy hợp tác quốc tế trong nghiên cứu và phát triển AI, chia sẻ dữ liệu và chuyên môn với các đồng minh.
- Hoa Kỳ cần dẫn đầu nỗ lực quản lý thông tin sai lệch do AI tạo ra, bảo vệ các giá trị dân chủ, đặc biệt trong bối cảnh có ít nhất 64 quốc gia tổ chức bầu cử trong năm nay.
- An ninh kinh tế và quốc gia của Hoa Kỳ phụ thuộc vào việc duy trì vị thế dẫn đầu trong phát triển AI và xây dựng đúng đắn hệ thống quản trị AI toàn cầu.
📌5 cách Hoa Kỳ có thể dẫn dắt chương trình nghị sự AI toàn cầu: tăng đầu tư R&D, giáo dục đào tạo, hợp tác quốc tế và bảo vệ các giá trị dân chủ để dẫn dắt chương trình nghị sự AI toàn cầu, thiết lập khuôn khổ pháp lý và tiêu chuẩn cho sự phát triển của AI trong nhiều thập kỷ tới, đồng thời bảo vệ an ninh kinh tế và quốc gia trước sự cạnh tranh từ Trung Quốc.
Citations:
[1] https://thehill.com/opinion/4641386-5-ways-the-us-can-drive-the-worlds-ai-agenda/
- Dân biểu Cộng hòa Jay Obernolte và Dân biểu Dân chủ Ted Lieu được bổ nhiệm làm đồng chủ tịch Lực lượng Đặc nhiệm AI mới của Hạ viện Mỹ.
- Nhiệm vụ của lực lượng là đề ra chiến lược quy định AI, vừa bảo vệ người tiêu dùng vừa thúc đẩy đầu tư vào công nghệ này.
- Obernolte có bằng thạc sĩ AI của UCLA và từng là doanh nhân game. Ông cho biết việc dẫn dắt lực lượng là giấc mơ từ lâu của mình.
- Obernolte nhấn mạnh cần cẩn trọng trong quy định AI, tham vấn ý kiến từ các công ty công nghệ lớn nhưng vẫn giữ được sự cân bằng.
- Mục tiêu chính của lực lượng là đưa ra báo cáo đề xuất khuôn khổ quy định AI liên bang vào cuối năm nay.
- Obernolte cho rằng quy định AI là nỗ lực dài hạn, cần từng bước trong 20 năm tới với vài dự luật mỗi năm.
📌 Hạ nghị sĩ Obernolte, đồng chủ tịch Lực lượng Đặc nhiệm AI Hạ viện, nhấn mạnh cần thận trọng và từ từ trong việc quy định AI, tham vấn ý kiến ngành công nghiệp nhưng vẫn giữ sự cân bằng. Ông cho rằng đây là nỗ lực dài hạn 20 năm với lộ trình cụ thể hàng năm.
Citations:
[1] https://www.fastcompany.com/91117132/jay-obernolte-interview-house-ai-task-force
Dưới đây là tóm tắt nội dung bạn cung cấp:
- Đảng Cộng sản Trung Quốc (ĐCSTQ) tìm cách duy trì toàn quyền kiểm soát môi trường thông tin trong nước, đồng thời mở rộng ảnh hưởng ra nước ngoài để định hình lại hệ sinh thái thông tin toàn cầu.
- ĐCSTQ thu thập dữ liệu từ nhiều nguồn, kể cả các thực thể thương mại, để hiểu rõ đối tượng mục tiêu cho các chiến dịch thông tin. Họ cũng đầu tư vào các công nghệ mới nổi như AI và công nghệ trải nghiệm để định hình cách mọi người nhận thức thực tại.
- Ví dụ: Nền tảng đám mây "Ý kiến Nhân dân Trung Quốc" kết hợp khoảng nửa triệu nguồn thông tin nguồn từ 182 quốc gia và 42 ngôn ngữ để hỗ trợ Chính phủ Trung Quốc và các doanh nghiệp Trung Quốc’ trong truyền thông quốc tế. Nền tảng này có cả ứng dụng của chính phủ và doanh nghiệp và cung cấp
công cụ giúp cơ quan công an giám sát môi trường thông tin và tâm lý công chúng về các sự kiện nhạy cảm và theo chủ đề.
- Hệ thống tuyên truyền rộng lớn và phức tạp của ĐCSTQ có mối liên hệ chặt chẽ với các hoạt động thu thập dữ liệu và đầu tư công nghệ vào các công ty Trung Quốc, nhiều công ty trong số đó hiện hoạt động trên toàn cầu.
- ĐCSTQ coi dữ liệu là trung tâm trong nỗ lực hiện đại hóa công tác tuyên truyền. Luật An ninh Dữ liệu 2021 của Trung Quốc ưu tiên việc tiếp cận dữ liệu và quy định luồng dữ liệu như một phần trong nỗ lực đảm bảo quyền kiểm soát.
- ĐCSTQ coi công nghệ mới nổi như thương mại điện tử, thực tế ảo và trò chơi điện tử là phương tiện để quảng bá quan điểm được ủng hộ về sự thật và thực tại, phù hợp với nội dung chính thức mà ĐCSTQ muốn truyền tải.
- Dưới sự lãnh đạo của Tập Cận Bình, ĐCSTQ đã nhấn mạnh lại chiến lược hội tụ truyền thông quốc gia nhằm tăng cường tính linh hoạt của các sáng kiến tuyên truyền trong việc đáp ứng những thay đổi theo thời gian thực về tâm lý công chúng.
Tóm tắt 6 đề xuất chính sách cho các quốc gia:
1. Các chính phủ cần gây áp lực lên các công ty công nghệ để họ rà soát kỹ lưỡng hơn chuỗi cung ứng kỹ thuật số, đảm bảo tính minh bạch và an toàn của nền tảng Web 2.0, Web 3.0 tương lai cũng như các công ty, công nghệ liên quan. Cần áp dụng các yêu cầu báo cáo chặt chẽ hơn, xây dựng khuôn khổ cho các nhà cung cấp rủi ro cao, thực thi các yêu cầu về quyền riêng tư và dữ liệu.
2. Chính phủ cần chú ý nhiều hơn đến chính sách quản lý các công nghệ giám sát và công nghệ trải nghiệm liên quan. Cần định nghĩa machine learning và dữ liệu đám mây là hàng hóa giám sát hoặc lưỡng dụng. Cần tiêu chuẩn hóa và thắt chặt quy định với các công nghệ, dịch vụ thường không được coi là sản phẩm giám sát hoặc lưỡng dụng.
3. Để tăng tính minh bạch, chính phủ cần xác định rõ hơn các cá nhân, tổ chức nào phải đăng ký theo các chương trình đăng ký đại lý nước ngoài. Bất kỳ công ty công nghệ nào liên quan trực tiếp đến hệ thống tuyên truyền của Trung Quốc hoặc nhận hỗ trợ của nhà nước để thúc đẩy nỗ lực tuyên truyền có thể bị yêu cầu đăng ký.
4. Trên phạm vi quốc tế, các chính phủ cần hợp tác để chuẩn hóa cách thức chia sẻ dữ liệu và chủ động điều chỉnh cách sản xuất, lưu trữ dữ liệu. Tổ chức Tiêu chuẩn hóa Quốc tế (ISO) cùng Trung tâm Tạo thuận lợi Thương mại và Kinh doanh Điện tử của LHQ nên thiết lập cơ chế chuẩn hóa chung giữa chính phủ và ngành công nghiệp.
5. Các chính phủ dân chủ cần hợp tác để phát triển sự hiểu biết mạnh mẽ hơn về các lỗ hổng và rủi ro trong tương lai của công nghệ mới, đặc biệt là hệ sinh thái công nghệ kỹ thuật số. Sự hiểu biết này sẽ định hướng việc phát triển các tiêu chuẩn mới cho công nghệ mới nổi và hỗ trợ ngành công nghiệp thương mại hóa chúng với mục tiêu an toàn, bảo mật ngay từ thiết kế.
6. Ở cấp độ địa phương, chính phủ và xã hội dân sự cần thiết lập các rào cản trước tác động tiêu cực từ nỗ lực định hình môi trường thông tin của ĐCSTQ, bao gồm các chiến dịch thông tin như nâng cao kiến thức truyền thông và tư duy phản biện cho cá nhân, cộng đồng. Cần giúp người dùng nhận biết thông tin thật, giả và nhận thức rộng hơn về sự hiện diện của các thực thể hỗ trợ chiến dịch thông tin nước ngoài trong chuỗi cung ứng của họ.
📌 ĐCSTQ đang tận dụng hệ thống tuyên truyền rộng lớn, đầu tư vào công nghệ mới nổi và thu thập dữ liệu toàn cầu để kiểm soát môi trường thông tin trong nước và quốc tế. Mục tiêu là tăng cường quyền lực, hợp pháp hóa các hoạt động và thúc đẩy ảnh hưởng đa chiều của Trung Quốc trên toàn thế giới thông qua việc định hình nhận thức và tường thuật về sự thật theo hướng có lợi cho ĐCSTQ.
https://www.aspi.org.au/report/truth-and-reality-chinese-characteristics
#ASPI
- Dự luật Trí tuệ Nhân tạo An toàn được đề xuất bởi các Thượng nghị sĩ Mark Warner (D-VA) và Thom Tillis (R-NC), nhằm thiết lập một cơ sở dữ liệu ghi lại tất cả các vụ vi phạm an ninh của hệ thống AI.
- Dự luật này sẽ tạo ra Trung tâm An ninh Trí tuệ Nhân tạo tại Cơ quan An ninh Quốc gia, chịu trách nhiệm dẫn đầu nghiên cứu về "phòng chống AI", bao gồm các kỹ thuật học cách thao túng hệ thống AI.
- Trung tâm này cũng sẽ phát triển hướng dẫn để ngăn chặn các biện pháp phòng chống AI.
- Dự luật yêu cầu Viện Tiêu chuẩn và Công nghệ Quốc gia (NIST) và Cơ quan An ninh Mạng và Cơ sở Hạ tầng (CISA) tạo ra một cơ sở dữ liệu về các vụ vi phạm AI, bao gồm cả những "sự cố suýt xảy ra".
- Các kỹ thuật phòng chống AI được dự luật này tập trung vào bao gồm dữ liệu độc hại, tấn công lẩn tránh, tấn công dựa trên quyền riêng tư, và tấn công lạm dụng.
- Dữ liệu độc hại là phương pháp chèn mã vào dữ liệu được mô hình AI thu thập, làm hỏng kết quả đầu ra của mô hình. Đây đã trở thành phương pháp phổ biến để ngăn chặn các trình tạo hình ảnh AI sao chép nghệ thuật trên internet.
- Tấn công lẩn tránh thay đổi dữ liệu được mô hình AI nghiên cứu đến mức mô hình bị nhầm lẫn.
- An toàn AI là một trong những hạng mục chính trong lệnh hành pháp về AI của chính quyền Biden, yêu cầu NIST thiết lập hướng dẫn "đội đỏ" và yêu cầu các nhà phát triển AI nộp báo cáo an toàn.
- Các công ty như Microsoft đã tạo ra công cụ để giúp thêm dễ dàng các biện pháp an toàn vào các dự án AI.
- Dự luật Trí tuệ Nhân tạo An toàn sẽ phải trải qua một ủy ban trước khi có thể được đưa ra trước Thượng viện rộng lớn hơn.
📌 Dự luật Trí tuệ Nhân tạo An toàn, được đề xuất bởi Warner và Tillis, nhằm thiết lập một cơ sở dữ liệu và Trung tâm An ninh Trí tuệ Nhân tạo để theo dõi và ngăn chặn các vụ vi phạm an ninh AI. Dự luật tập trung vào các kỹ thuật phòng chống AI như dữ liệu độc hại và tấn công lẩn tránh, đồng thời yêu cầu NIST và CISA tạo ra cơ sở dữ liệu về các vụ vi phạm.
https://www.theverge.com/2024/5/1/24146566/ai-security-bill-warner-tillis-senate-redteam-safety
- Số lượng tổ chức vận động hành lang chính phủ liên bang Mỹ về trí tuệ nhân tạo tăng gấp ba từ năm 2022 đến 2023, từ 158 lên 451 tổ chức.
- Các công ty công nghệ lớn chiếm ưu thế trong nỗ lực ảnh hưởng đến lập pháp AI tiềm năng, thường xuyên thúc đẩy các quy tắc tự nguyện và nhẹ nhàng.
- OpenAI phát hành chatbot ChatGPT vào tháng 11 năm 2022, và chỉ sau sáu tháng, các nhà nghiên cứu và giám đốc điều hành hàng đầu đã ký tuyên bố cảnh báo về nguy cơ tuyệt chủng do AI.
- Các biện pháp đã được thực hiện trên toàn cầu, bao gồm lệnh hành pháp về AI của Tổng thống Mỹ Joe Biden và sự điều chỉnh của luật AI đột phá tại EU.
- Trong năm 2023, các tổ chức mới như OpenAI, Anthropic và Cohere bắt đầu tham gia vận động hành lang về AI.
- Các tổ chức dân sự và các tổ chức phi lợi nhuận cũng gia nhập cuộc chiến vận động, bao gồm Liên đoàn Lao động Mỹ và NAACP.
- Các công ty công nghệ lớn như Amazon, Meta, Alphabet và Microsoft mỗi công ty chi hơn 10 triệu đô la cho hoạt động vận động hành lang trong năm 2023.
- Mặc dù công khai ủng hộ quy định AI, các cuộc họp kín cho thấy các công ty này thường kém hỗ trợ cho các phương pháp quản lý nghiêm ngặt hơn.
- Các cuộc thảo luận về dự luật liên quan đến AI đang diễn ra sôi nổi tại Quốc hội Mỹ, và các nỗ lực vận động hành lang dự kiến sẽ tăng lên khi dự luật tiến gần đến ngày thông qua.
📌 Số lượng tổ chức vận động hành lang về AI tại Mỹ tăng đột biến từ 158 lên 451 trong năm 2023, với sự thống trị của các công ty công nghệ lớn chi hơn 10 triệu đô la mỗi công ty cho hoạt động này. Các cuộc thảo luận về quy định AI đang diễn ra mạnh mẽ, nhưng các công ty thường ủng hộ quy định tự nguyện và nhẹ nhàng hơn trong các cuộc họp kín.
Citations:
[1] https://time.com/6972134/ai-lobbying-tech-policy-surge/
#TIME
- Cơ quan Lưu trữ Quốc gia Mỹ (NARA) thông báo cấm nhân viên sử dụng ChatGPT trên laptop, máy tính bảng, máy tính để bàn và điện thoại di động do cơ quan cấp, bắt đầu từ ngày 6/5/2024.
- Lý do là để bảo vệ dữ liệu của NARA khỏi các mối đe dọa bảo mật liên quan đến việc sử dụng ChatGPT.
- NARA lo ngại dữ liệu nội bộ của chính phủ sẽ bị kết hợp vào ChatGPT và bị rò rỉ thông qua các dịch vụ của nó.
- ChatGPT tích cực kết hợp thông tin do người dùng nhập vào các câu trả lời khác mà không có giới hạn nào. NARA xác định cách tiếp cận không hạn chế của ChatGPT trong việc tái sử dụng dữ liệu đầu vào gây ra rủi ro không thể chấp nhận được đối với bảo mật dữ liệu của NARA.
- Nếu dữ liệu nhạy cảm, không công khai của NARA được nhập vào ChatGPT, dữ liệu đó sẽ trở thành một phần của tập dữ liệu sống mà không có khả năng xóa hoặc loại bỏ.
- NARA đang khám phá việc sử dụng các giải pháp AI khác như Microsoft Copilot và Google Gemini, cung cấp dịch vụ tương tự ChatGPT nhưng trong môi trường được kiểm soát hơn.
- Các công cụ này khác với ChatGPT ở chỗ chúng bảo vệ dữ liệu do các cơ quan liên bang nhập vào một kho lưu trữ riêng không được chia sẻ với người khác.
- Năm ngoái, chính quyền Biden đã chỉ đạo các cơ quan liên bang "đảm bảo chính phủ Mỹ đi đầu trong việc giảm thiểu rủi ro AI và tận dụng cơ hội AI" bằng cách nghiên cứu AI và tạo ra các chính sách cho nó.
📌Cơ quan Lưu trữ Quốc gia Mỹ cấm nhân viên sử dụng ChatGPT từ 6/5/2024 trên các thiết bị công vì lo ngại dữ liệu nội bộ nhạy cảm của chính phủ có thể bị rò rỉ qua dịch vụ này. Thay vào đó, cơ quan đang tìm kiếm các giải pháp AI khác như Microsoft Copilot và Google Gemini với môi trường kiểm soát dữ liệu tốt hơn.
Citations:
[1] https://www.404media.co/national-archives-bans-employee-use-of-chatgpt/
- Văn phòng Quản lý Nhân sự Liên bang Mỹ (OPM) đã đưa ra hướng dẫn về việc Sử dụng AI Tạo sinh một cách Có trách nhiệm.
https://www.opm.gov/data/resources/ai-guidance/
- Hướng dẫn chỉ ra một số rủi ro chính cũng như lợi ích của việc sử dụng công nghệ mới nổi này trong công việc của liên bang, chẳng hạn như trong các tài liệu.
- AI tạo sinh có thể giúp nhân viên liên bang thực hiện công việc của họ tốt hơn trong một số trường hợp nhất định.
- Tuy nhiên, cũng có những rủi ro cần lưu ý khi tận dụng AI tạo sinh cho công việc của chính phủ.
- OPM nhấn mạnh tầm quan trọng của việc sử dụng công nghệ một cách có trách nhiệm và cẩn trọng.
- Hướng dẫn đưa ra các khuyến nghị để giảm thiểu rủi ro và tối đa hóa lợi ích khi áp dụng AI tạo sinh trong bối cảnh chính phủ.
- Các cơ quan liên bang cần xem xét kỹ lưỡng việc sử dụng AI tạo sinh và đảm bảo tuân thủ các nguyên tắc đạo đức và pháp lý.
- Đào tạo và nâng cao nhận thức cho nhân viên về AI tạo sinh là điều cần thiết để sử dụng công nghệ này một cách hiệu quả và an toàn.
- OPM khuyến khích tiếp cận thận trọng và có chủ đích đối với AI tạo sinh, đồng thời tận dụng tiềm năng của nó để cải thiện hiệu suất công việc.
- Hướng dẫn của OPM đóng vai trò quan trọng trong việc định hình cách tiếp cận của chính phủ liên bang đối với công nghệ AI tạo sinh đang phát triển nhanh chóng.
📌 Văn phòng Quản lý Nhân sự Liên bang Mỹ đã ban hành hướng dẫn về việc sử dụng AI tạo sinh một cách có trách nhiệm trong công việc của chính phủ, chỉ ra những rủi ro và lợi ích tiềm năng. Hướng dẫn nhấn mạnh tầm quan trọng của việc tiếp cận thận trọng, tuân thủ các nguyên tắc đạo đức và pháp lý, đồng thời tận dụng công nghệ để cải thiện hiệu suất làm việc của các cơ quan liên bang.
Citations:
[1] https://www.nextgov.com/artificial-intelligence/2024/04/feds-need-be-careful-when-tapping-generative-ai-apps-work/396160/
Dưới đây là tóm tắt nội dung từ URL mà bạn cung cấp:
- Nhiều cơ quan liên bang phải hoàn thành các yêu cầu được nêu trong Sắc lệnh hành pháp về trí tuệ nhân tạo (AI) vào tháng 10, trước thông báo từ Nhà Trắng vào thứ Hai rằng tất cả các hành động 180 ngày trong sắc lệnh đã được hoàn thành.
- Các yêu cầu bao gồm từ việc gia tăng nhân tài công nghệ đến hướng dẫn cho các loại AI khác nhau.
- Các thông báo từ thời hạn này bao gồm hướng dẫn về công cụ AI tạo sinh để tuyển dụng, một hội đồng an toàn và bảo mật tập trung vào AI và hướng dẫn mới về AI tạo sinh cho người mua của liên bang.
- Bộ Năng lượng (DOE) công bố một số hành động liên quan đến AI tập trung vào cả an ninh mạng và các mối quan tâm về môi trường, bao gồm một trang web mới trưng bày các công cụ và mô hình AI do cơ quan phát triển.
- Bộ Nông nghiệp Hoa Kỳ (USDA) đưa ra khuôn khổ để chính quyền tiểu bang, địa phương, bộ lạc và lãnh thổ (SLTT) sử dụng AI để quản lý các chương trình Dịch vụ Thực phẩm và Dinh dưỡng (FNS), bao gồm bữa sáng học đường, dịch vụ thực phẩm mùa hè, hỗ trợ lương thực khẩn cấp, v.v.
- Văn phòng Chính sách Khoa học và Công nghệ, Hội đồng Khoa học và Công nghệ Quốc gia và Ủy ban Hành động Nhanh về Sàng lọc Mua sắm Axit Nucleic Tổng hợp đã công bố một khuôn khổ khuyến khích các nhà cung cấp axit nucleic tổng hợp thực hiện cơ chế sàng lọc để ngăn chặn việc lạm dụng AI để "chế tạo các vật liệu sinh học nguy hiểm".
📌 Sắc lệnh hành pháp về AI đặt ra nhiều yêu cầu cho các cơ quan liên bang trong vòng 180 ngày, hiện nay đều đã hoàn thành. Các yêu cầu tập trung vào việc tăng cường nhân lực, đưa ra hướng dẫn sử dụng và mua sắm công cụ AI tạo sinh, thành lập hội đồng an toàn, đồng thời ngăn chặn việc lạm dụng công nghệ này vào các mục đích nguy hiểm.
Citations:
[1] https://fedscoop.com/five-takeaways-from-the-ai-executive-orders-180-day-deadline/
- Viện Tiêu chuẩn và Công nghệ Quốc gia Hoa Kỳ (NIST) đã công bố ra mắt chương trình NIST GenAI vào ngày thứ Hai.
- Chương trình này nhằm mục đích đánh giá các công nghệ AI tạo sinh, bao gồm AI sinh văn bản và hình ảnh.
- NIST GenAI sẽ phát hành các chuẩn mực, hỗ trợ tạo ra hệ thống phát hiện tính xác thực của nội dung (ví dụ: hệ thống kiểm tra deepfake) và khuyến khích phát triển phần mềm để xác định nguồn gốc của thông tin giả mạo hoặc gây hiểu lầm do AI tạo ra.
- Chương trình NIST GenAI sẽ phát hành một loạt các bài toán thử thách nhằm đánh giá và đo lường khả năng và giới hạn của các công nghệ AI tạo sinh.
- Các đánh giá này sẽ được sử dụng để xác định các chiến lược thúc đẩy tính toàn vẹn thông tin và hướng dẫn sử dụng an toàn và có trách nhiệm của nội dung số.
- NIST GenAI mời các đội từ học viện, công nghiệp và phòng thí nghiệm nghiên cứu tham gia gửi các “máy phát” — các hệ thống AI để tạo nội dung — hoặc “máy phân biệt,” những hệ thống được thiết kế để xác định nội dung do AI tạo ra.
- Đăng ký cho chương trình thử nghiệm sẽ bắt đầu vào ngày 1 tháng 5, với vòng đầu tiên của hai vòng dự kiến sẽ kết thúc vào ngày 2 tháng 8.
- Kết quả cuối cùng từ nghiên cứu dự kiến sẽ được công bố vào tháng 2 năm 2025.
- Việc ra mắt NIST GenAI là một phần của phản ứng của NIST đối với sắc lệnh hành pháp về AI của Tổng thống Joe Biden, yêu cầu các công ty AI tăng cường minh bạch về cách thức hoạt động của các mô hình của họ và thiết lập một loạt các tiêu chuẩn mới, bao gồm cả việc gắn nhãn nội dung do AI tạo ra.
📌 NIST GenAI, một sáng kiến mới của Viện tiêu chuẩn quốc gia Mỹ NIST, nhằm đánh giá và phát triển chuẩn mực cho công nghệ AI tạo sinh, bao gồm cả việc phát triển các hệ thống kiểm tra deepfake và các phần mềm xác định nguồn gốc thông tin giả mạo. Chương trình thử nghiệm sẽ bắt đầu vào ngày 1 tháng 5 và kết quả dự kiến được công bố vào tháng 2 năm 2025.
Citations:
[1] https://techcrunch.com/2024/04/29/nist-launches-a-new-platform-to-assess-generative-ai/
- Bộ An ninh Nội địa Hoa Kỳ công bố thành lập Hội đồng An toàn và Bảo mật AI với 22 thành viên từ ngành công nghệ, chính phủ, học thuật và tổ chức dân quyền.
- Tổng thống Biden chỉ đạo Bộ trưởng DHS Alejandro Mayorkas thành lập hội đồng, sẽ họp lần đầu vào đầu tháng Năm và sau đó là hàng quý.
- Mục tiêu của hội đồng là bảo vệ người dân và doanh nghiệp Mỹ khỏi lạm dụng AI, phát triển khuyến nghị cho việc áp dụng an toàn công nghệ AI vào giao thông, năng lượng và dịch vụ Internet.
- Hội đồng cũng nhằm thúc đẩy sự hợp tác giữa chính phủ và doanh nghiệp và tạo diễn đàn cho các nhà lãnh đạo AI chia sẻ thông tin về rủi ro an ninh AI với DHS.
- Thành viên hội đồng bao gồm các CEO của các công ty AI lớn như Sam Altman của OpenAI, Satya Nadella của Microsoft, Sundar Pichai của Alphabet và Jensen Huang của Nvidia.
- Một số phê bình cho rằng sự tham gia nặng về công nghệ của hội đồng có thể dẫn đến chính sách ưu tiên lợi ích của các tập đoàn lớn hơn là lợi ích công cộng.
- Các thành viên khác của hội đồng bao gồm đại diện từ các tổ chức dân quyền và học thuật như Dr. Fei-Fei Li của Đại học Stanford và CEO Maya Wiley của The Leadership Conference on Civil and Human Rights.
- Các nhà phê bình như Timnit Gebru từ The Distributed AI Research Institute chỉ trích sự hiện diện của OpenAI trên hội đồng, gọi đó là "những con cáo canh gà".
- Dr. Margaret Mitchell, nhà nghiên cứu đạo đức AI cho Hugging Face, khen ngợi sự bao gồm của Dr. Arati Prabhakar từ Văn phòng Chính sách Khoa học và Công nghệ Nhà Trắng nhưng cảm thấy thiếu vắng một số tiếng nói quan trọng.
📌 Hội đồng An toàn và Bảo mật AI mới của Bộ An ninh Nội địa Mỹ bao gồm các CEO từ các công ty công nghệ lớn và đại diện từ các tổ chức dân quyền, với mục tiêu bảo vệ người dân Mỹ khỏi lạm dụng AI. Tuy nhiên, sự tham gia nặng về công nghệ có thể ưu tiên lợi ích doanh nghiệp hơn là công cộng, gây ra lo ngại về sự cân bằng trong đại diện và chính sách.
Citations:
[1] https://arstechnica.com/information-technology/2024/04/us-department-of-homeland-security-names-ai-safety-and-security-board-members/
- Cơ quan Quản lý Dịch vụ Chung (GSA) đã phát hành hướng dẫn tài nguyên cho người mua hàng liên bang muốn mua giải pháp AI tạo sinh và cơ sở hạ tầng tính toán liên quan vào thứ Hai.
- Hướng dẫn này (https://itvmo.gsa.gov/genai/) hoàn thành một yêu cầu trong lệnh hành pháp về AI của Nhà Trắng vào tháng Mười.
- Hướng dẫn Mua sắm AI Tạo sinh và Cơ sở Hạ tầng Tính toán Chuyên biệt của GSA chi tiết cách các chuyên viên hợp đồng có thể tiếp cận quyết định mua sắm AI tạo sinh thông qua các câu hỏi và xem xét được đề xuất.
- Laura Stanton, trợ lý ủy viên tại Văn phòng Danh mục Công nghệ Thông tin của GSA, nhấn mạnh vai trò quan trọng của các chuyên viên hợp đồng trong việc làm việc chặt chẽ với nhân viên chương trình và IT để tìm, nguồn cung, mua sắm và bảo đảm các giải pháp AI tạo sinh phù hợp cho nhu cầu của cơ quan.
- Hướng dẫn cũng bao gồm các ví dụ về AI tạo sinh trong chính phủ, khuyến nghị về cách các thực thể chính phủ có thể sử dụng các công cụ như sandboxes hoặc testbeds trước khi cam kết mua hàng quy mô lớn, hướng dẫn về cách các cơ quan có thể định rõ vấn đề họ muốn giải quyết, và nhiều hơn nữa.
- GSA thông báo rằng hướng dẫn này sẽ được cập nhật khi công nghệ phát triển.
- Robin Carnahan, quản trị viên GSA, cho biết trong thông cáo báo chí rằng hướng dẫn cung cấp các trường hợp sử dụng AI, thách thức phổ biến và thông tin để hỗ trợ khám phá "thị trường AI đang phát triển" của khu vực công.
- Hướng dẫn này là một phần quan trọng trong cam kết của chúng tôi nhằm trang bị cho cộng đồng liên bang khả năng triển khai trách nhiệm và hiệu quả công nghệ AI tạo sinh để mang lại lợi ích cho người dân Mỹ.
📌 Hướng dẫn tài nguyên AI tạo sinh của GSA cung cấp một nguồn thông tin quan trọng cho người mua hàng liên bang, với các khuyến nghị về mua sắm, ví dụ về ứng dụng trong chính phủ, và hướng dẫn về cách tiếp cận các quyết định mua sắm. Điều này không chỉ hỗ trợ việc mua sắm AI tạo sinh một cách có trách nhiệm mà còn đảm bảo rằng công nghệ này được triển khai để phục vụ lợi ích của người dân Mỹ.
Citations:
[1] https://fedscoop.com/general-services-administration-releases-generative-ai-resource-guide-for-federal-purchasers/
- Hội nghị thượng đỉnh về an toàn AI toàn cầu lần thứ hai diễn ra với sự tham gia thấp hơn so với năm ngoái, chỉ có khoảng 200 người tham dự.
- Các chuyên gia và lãnh đạo công nghệ thảo luận về sự cần thiết của các biện pháp bảo vệ và quy định để đảm bảo sự phát triển có trách nhiệm của AI.
- Nhiều người bày tỏ lo ngại về tác động tiềm tàng của AI đối với xã hội, bao gồm mất việc làm, lan truyền thông tin sai lệch và rủi ro an ninh.
- Các đại biểu kêu gọi hợp tác quốc tế và tiêu chuẩn chung để giải quyết các thách thức liên quan đến AI.
- Một số công ty công nghệ lớn như Google, Microsoft và OpenAI không tham dự hội nghị, gây ra câu hỏi về cam kết của họ đối với an toàn AI.
- Các nhà tổ chức hội nghị nhấn mạnh tầm quan trọng của việc đưa các bên liên quan khác nhau lại với nhau để thảo luận về vấn đề này.
- Hội nghị tập trung vào việc xây dựng một khuôn khổ đạo đức cho sự phát triển của AI, bao gồm tính minh bạch, trách nhiệm giải trình và công bằng.
- Các chuyên gia cảnh báo rằng nếu không có hành động kịp thời, AI có thể gây ra những hậu quả nghiêm trọng và không thể đảo ngược.
📌 Hội nghị thượng đỉnh về an toàn AI toàn cầu lần thứ hai thu hút ít người tham dự hơn, với khoảng 200 đại biểu. Các chuyên gia kêu gọi hợp tác quốc tế và tiêu chuẩn chung để giải quyết các thách thức của AI, bao gồm mất việc làm, lan truyền thông tin sai lệch và rủi ro an ninh. Việc vắng mặt của một số công ty công nghệ lớn như Google, Microsoft và OpenAI đặt ra câu hỏi về cam kết của họ đối với an toàn AI.
Citations:
[1] https://www.reuters.com/technology/second-global-ai-safety-summit-faces-tough-questions-lower-turnout-2024-04-29/
- Các công ty công nghệ như Casetext đang phát triển các công cụ AI để hỗ trợ luật sư nghiên cứu, soạn thảo văn bản pháp lý.
- Chatbot pháp lý CoCounsel có thể trả lời các câu hỏi pháp lý, tóm tắt hồ sơ vụ án, thậm chí soạn thảo hợp đồng, đơn kiện.
- Theo một nghiên cứu, 87% luật sư tin rằng AI sẽ thay đổi đáng kể ngành luật trong 3 năm tới.
- Tuy nhiên, việc sử dụng AI trong pháp luật cũng đặt ra nhiều thách thức về đạo đức, trách nhiệm pháp lý, bảo mật thông tin khách hàng.
- Các lỗi, sai sót của AI có thể gây hậu quả nghiêm trọng trong các vụ án. Vấn đề quyền sở hữu trí tuệ đối với nội dung do AI tạo ra cũng chưa rõ ràng.
- Hiệp hội Luật sư Mỹ đưa ra hướng dẫn sử dụng AI, yêu cầu luật sư phải giám sát chặt chẽ, chịu trách nhiệm với kết quả công việc của AI.
- Một số bang như Texas đã cấm sử dụng chatbot để cung cấp dịch vụ pháp lý mà không có sự giám sát của luật sư.
- Giới chuyên gia cho rằng AI sẽ hỗ trợ đắc lực cho luật sư, nhưng không thể thay thế hoàn toàn vai trò của con người trong lĩnh vực pháp luật.
📌 Các công cụ AI đang mang lại tiềm năng lớn để hỗ trợ luật sư, với khả năng xử lý khối lượng công việc khổng lồ. Theo một nghiên cứu, 87% luật sư tin rằng AI sẽ thay đổi đáng kể ngành luật trong 3 năm tới. Tuy nhiên, việc ứng dụng AI trong lĩnh vực pháp luật nhạy cảm cũng đặt ra nhiều thách thức về đạo đức, trách nhiệm pháp lý và bảo mật, đòi hỏi sự giám sát chặt chẽ của con người.
Citations:
[1] https://www.sfchronicle.com/tech/article/artificial-intelligence-lawyers-ai-19412784.php
- Theo Gartner, thị trường công nghệ pháp lý toàn cầu có thể đạt giá trị 50 tỷ USD vào năm 2027.
- Đã có sự tăng trưởng đáng kể trong việc áp dụng công nghệ cho quản lý chi tiêu, hóa đơn điện tử, quản lý vòng đời hợp đồng, quản lý vấn đề pháp lý và quản lý tài liệu pháp lý.
- Việc tích hợp Generative AI (GenAI) vào các ứng dụng này sẽ thúc đẩy nhanh quá trình mua và áp dụng công nghệ.
- Sự sẵn có rộng rãi của các công cụ tiêu dùng như ChatGPT của OpenAI và Bard của Google sẽ nhanh chóng gia tăng số lượng các trường hợp sử dụng công nghệ pháp lý đã được thiết lập.
- Các luật sư cần hiểu rõ các hạn chế và rủi ro khi sử dụng GenAI cũng như tiềm năng của nó.
- Việc kiểm tra đầu ra của GenAI là rất cần thiết. Ở giai đoạn này, GenAI không phải là công nghệ phù hợp để hoàn thành các nhiệm vụ mà không cần xem xét lại.
- Khi các bộ phận kinh doanh khác nhau theo đuổi tự động hóa, các nhà lãnh đạo pháp lý có thể phải đối mặt với một số câu hỏi khó từ lãnh đạo cấp cao nếu họ chưa đánh giá tiềm năng của GenAI trong bộ phận pháp lý.
- Các công nghệ mới có thể thay đổi căn bản cách thức hoạt động của các tổ chức pháp lý và GenAI có tiềm năng hỗ trợ điều này.
📌 AI tạo sinh được dự báo sẽ mang lại nhiều tự động hóa cho thị trường công nghệ pháp lý trị giá 50 tỷ USD vào năm 2027. Tuy nhiên, việc áp dụng GenAI đòi hỏi phải hiểu rõ các hạn chế, rủi ro cũng như tiềm năng của nó, đồng thời luôn cần kiểm tra và xem xét lại đầu ra do AI tạo sinh tạo ra.
Citations:
[1] https://www.socialnews.xyz/2024/04/27/generative-ai-to-transform-legal-tech-market-with-automation/
- Thủ tướng Ý Giorgia Meloni thông báo Giáo hoàng Francis sẽ tham dự Hội nghị thượng đỉnh G7 lần đầu tiên từ ngày 13-15/6 tại Borgo Egnazia, Puglia.
- Tòa thánh Vatican xác nhận sự tham gia của Giáo hoàng. Meloni mời Giáo hoàng tham gia phiên thảo luận về trí tuệ nhân tạo.
- Meloni nhấn mạnh tầm quan trọng của AI, coi đó là thách thức nhân học lớn nhất thời đại với tiềm năng to lớn nhưng cũng mang lại rủi ro đáng kể, tác động đến động lực toàn cầu.
- Giáo hoàng Francis ủng hộ phát triển AI có đạo đức, kêu gọi một hiệp ước quốc tế đảm bảo công nghệ này phục vụ nhân loại một cách có đạo đức với sự kiểm soát của con người là cốt lõi.
- Mục tiêu của G7 là thiết lập cơ chế quản trị đảm bảo AI ưu tiên trải nghiệm của con người và lấy con người làm trọng tâm chính.
- Paolo Benanti, chủ tịch Ủy ban AI của Chính phủ Ý, nhấn mạnh tầm quan trọng của sự tham gia của Giáo hoàng với tư cách là nhân vật có sức thu hút và người diễn giải sự khôn ngoan nghìn năm của Giáo hội.
- Meloni bày tỏ lòng biết ơn Giáo hoàng đã chấp nhận lời mời của Ý, cho rằng sự hiện diện của ngài sẽ tăng thêm uy tín cho đất nước và toàn bộ G7.
📌 Giáo hoàng Francis sẽ tham dự Hội nghị thượng đỉnh G7 lần đầu tiên vào tháng 6 tới để thảo luận về AI. Sự kiện đánh dấu bước ngoặt quan trọng khi Giáo hoàng và các lãnh đạo G7 cùng nhau tìm giải pháp phát triển AI có đạo đức, đặt con người làm trung tâm nhằm bảo vệ phẩm giá và quyền lợi của nhân loại trong kỷ nguyên công nghệ tiên tiến.
Citations:
[1] https://www.euronews.com/my-europe/2024/04/27/pope-will-attend-g7-meeting-to-discuss-ai
- Chris Lehane, Giám đốc Chính sách Công của OpenAI, kêu gọi chính phủ Mỹ coi AI là một cơ sở hạ tầng quan trọng.
- Ông cho rằng AI cần được quản lý và bảo vệ tương tự như các ngành công nghiệp quan trọng khác như điện, nước, giao thông vận tải.
- OpenAI muốn chính phủ đóng vai trò tích cực hơn trong việc giám sát và quản lý sự phát triển của AI.
- Lehane nhấn mạnh tầm quan trọng của việc xây dựng lòng tin và sự minh bạch trong cách các công ty phát triển AI.
- Ông kêu gọi có các biện pháp bảo vệ người tiêu dùng, đảm bảo quyền riêng tư và an toàn dữ liệu trong lĩnh vực AI.
- OpenAI ủng hộ một cơ quan quản lý AI độc lập để giám sát ngành công nghiệp này.
- Lehane cho rằng cần có sự hợp tác chặt chẽ giữa chính phủ và các công ty công nghệ để đảm bảo AI phát triển theo hướng có lợi cho xã hội.
- Ông cũng kêu gọi tăng cường nghiên cứu về tác động của AI đối với việc làm và xã hội.
- OpenAI cam kết hợp tác với chính phủ và các bên liên quan để xây dựng một khuôn khổ quản lý AI hiệu quả.
📌 OpenAI kêu gọi Chính phủ Mỹ coi AI là cơ sở hạ tầng thiết yếu cần được quản lý và bảo vệ như các ngành công nghiệp then chốt khác. Công ty ủng hộ một cơ quan độc lập giám sát AI, tăng cường minh bạch, bảo vệ người dùng và hợp tác chặt chẽ giữa chính phủ và ngành công nghiệp để đảm bảo AI phát triển an toàn và có lợi cho xã hội.
Citations:
[1] https://www.axios.com/2024/04/25/openai-chris-lehane-ai-critical-infrastructure
- Sam Altman, CEO của OpenAI và Jensen Huang, CEO của Nvidia cùng gần 20 lãnh đạo công nghệ, doanh nghiệp, học giả, quan chức và lãnh đạo quyền dân sự tham gia Hội đồng An toàn và Bảo mật AI của chính phủ.
- Hội đồng sẽ tư vấn cho Bộ An ninh Nội địa (DHS) về cách ngăn chặn tác hại khi triển khai AI trong cơ sở hạ tầng quan trọng như lưới điện và giao thông vận tải.
- Bộ trưởng An ninh Nội địa Alejandro Mayorkas sẽ chủ tịch hội đồng.
- Các thành viên hội đồng khác bao gồm Dario Amodei, đồng sáng lập kiêm CEO của startup AI Anthropic, Satya Nadella, CEO kiêm chủ tịch Microsoft và Sundar Pichai, CEO Alphabet.
- Chính quyền Biden cũng tìm kiếm các thành viên hội đồng từ các công ty đang triển khai công nghệ AI vào hoạt động kinh doanh của họ, bao gồm CEO Delta Air Lines.
- Arati Prabhakar, giám đốc Văn phòng Chính sách Khoa học và Công nghệ của Nhà Trắng (OSTP) cũng tham gia hội đồng.
📌 Sam Altman, Jensen Huang cùng 20 lãnh đạo đầu ngành công nghệ, kinh doanh tham gia Hội đồng An toàn và Bảo mật AI mới của chính phủ Mỹ nhằm tư vấn triển khai AI an toàn trong cơ sở hạ tầng quan trọng như điện lưới, giao thông. Hội đồng do Bộ trưởng An ninh Nội địa Alejandro Mayorkas làm chủ tịch.
Citations:
[1] https://qz.com/sam-altman-jensen-huang-ai-safety-board-biden-security-1851438417
- Giáo sư Michael Krauss của Trường Luật Marquette University dự đoán AI tạo sinh sẽ bị kiểm soát chặt chẽ và chết yểu.
- AI tạo sinh bao gồm các mô hình học máy như GPT-4, Gemini 1.5, Claude 3, Midjourney, DALL-E, LLaMA 3, được huấn luyện trên lượng dữ liệu khổng lồ.
- Các mô hình này thường sử dụng nội dung của người khác mà không có sự đồng ý hoặc ủy quyền.
- Điều này dẫn đến các vấn đề pháp lý liên quan đến bản quyền và quyền riêng tư.
- Giáo sư Krauss cho rằng các quy định và luật lệ sẽ siết chặt AI tạo sinh.
- Ông dự đoán các công ty công nghệ sẽ phải đối mặt với nhiều vụ kiện và phải trả phí bản quyền đáng kể.
- Điều này sẽ làm tăng chi phí phát triển AI tạo sinh và hạn chế sự phát triển của công nghệ này.
- Giáo sư cũng lập luận rằng việc sử dụng dữ liệu cá nhân trong huấn luyện AI vi phạm quyền riêng tư.
- Ông kêu gọi cần có sự đồng thuận rõ ràng của người dùng khi thu thập dữ liệu.
- Nếu không giải quyết được các vấn đề pháp lý này, AI tạo sinh sẽ khó có thể phát triển mạnh mẽ.
📌 Giáo sư luật Michael Krauss dự báo AI tạo sinh sẽ bị kiểm soát gắt gao và chết yểu do vướng các rào cản pháp lý về bản quyền và quyền riêng tư, dẫn đến gia tăng chi phí và hạn chế phát triển, trừ khi các vấn đề này được giải quyết thỏa đáng.
Citations:
[1] https://www.theregister.com/2024/04/24/generative_ai_death/
- Tháng trước, một kẹt xe khổng lồ đã xảy ra khi các lãnh đạo và kỹ sư của Amazon, Google, TikTok di chuyển tới một hội nghị lớn cách Riyadh 50 dặm về phía tây bắc.
- Sức hút của hội nghị là nguồn vốn khổng lồ từ Ả Rập Saudi, khi vương quốc này đang nỗ lực phát triển ngành công nghệ để củng cố vị thế thống trị về dầu mỏ.
- Một số người tham dự đã phải chạy xe lên lề đường để tránh tắc đường, tạo ra những đám mây cát sa mạc. Tuy nhiên, một số ít được hưởng đặc quyền sử dụng lối ra đặc biệt dành cho "V.V.I.P".
- Tại hội nghị, CEO mảng điện toán đám mây của Amazon, Adam Selipsky, công bố khoản đầu tư 5.3 tỷ USD vào Ả Rập Saudi cho các trung tâm dữ liệu và công nghệ AI.
- CEO của IBM, Arvind Krishna, nói về mối quan hệ lâu dài với vương quốc. Các giám đốc điều hành của Huawei và nhiều công ty khác cũng có bài phát biểu.
- Theo hãng thông tấn nhà nước Ả Rập Saudi, hơn 10 tỷ USD thỏa thuận đã được ký kết trong hội nghị.
📌 Ả Rập Saudi đang đầu tư mạnh mẽ vào công nghệ, đặc biệt là AI với hàng tỷ USD, nhằm đa dạng hóa nền kinh tế và trở thành một siêu cường về AI bên cạnh vị thế về dầu mỏ. Các ông lớn công nghệ như Amazon, IBM, Huawei đều tham gia và cam kết đầu tư vào vương quốc.
Citations:
[1] https://www.nytimes.com/2024/04/25/technology/to-the-future-saudi-arabia-spends-big-to-become-an-ai-superpower.html
- AI đang dần trở thành công cụ giảng dạy nhưng một số ứng dụng vẫn mang tính chất lấy châu Âu làm trung tâm (Eurocentrism), đẩy lịch sử thế giới không phương Tây ra rìa.
- Các nhà công nghệ và học giả nhân văn cần hợp tác để đảm bảo không có lịch sử nào bị xóa bỏ.
- Tại Đại học Harvard, khóa học nhập môn khoa học máy tính đã tích hợp nền tảng AI để hướng dẫn sinh viên học lập trình.
- Dự án giáo dục đại học hướng dẫn giáo viên sử dụng AI một cách phê phán trong giảng dạy, trong khi các hội thảo về khai thác sức mạnh của AI được cung cấp cho giảng viên và trợ giảng.
- ChatGPT đã cung cấp một bản phác thảo chia theo các kỳ lịch sử, bắt đầu từ tiền sử và thế giới cổ đại đến trung cổ, thời kỳ hiện đại sớm, hiện đại và đương đại.
- ChatGPT liệt kê các nền văn minh cổ đại lớn bao gồm Mesopotamia, Trung Quốc cổ và Thung lũng Indus trong mô-đun thời kỳ cổ đại.
- Tuy nhiên, khi ChatGPT chuyển sang thời kỳ cổ điển và sau đó, nó theo một hệ thống giá trị đơn lẻ Anglo-Mỹ mặc định, phổ biến kiến thức phương Tây mà thực tế là địa phương.
- Nếu công nghệ này trở thành chế độ giáo dục mặc định cho lịch sử, chúng ta có nguy cơ nuôi dưỡng các thế hệ thờ ơ với lịch sử châu Á và không phương Tây.
- Những nỗ lực nhằm thúc đẩy đa dạng, bình đẳng và lịch sử toàn cầu sẽ trở nên vô ích, dẫn đến sự thờ ơ đạo đức đối với bất bình đẳng toàn cầu và biện minh cho bạo lực và áp bức đối với những người được cho là “không có lịch sử”.
- Tình huống này phản ánh chế độ tư duy thống trị trong thời kỳ thực dân.
- AI có tiềm năng lớn trong việc giảm bất bình đẳng giáo dục và cung cấp quyền truy cập tốt hơn vào kiến thức, nhưng những khuyết điểm và hạn chế đáng kể trong các mô hình AI hiện tại có thể dẫn đến hậu quả tiêu cực nghiêm trọng.
- Một nỗ lực tập thể giữa các nhà công nghệ và nhân văn là cần thiết.
📌 Bài viết phân tích sâu sắc về việc cần thiết phải giải phóng AI khỏi định kiến văn hóa để nâng cao chất lượng giáo dục lịch sử. Đặc biệt, nó chỉ ra những hạn chế của ChatGPT trong việc trình bày lịch sử toàn cầu lấy châu Âu làm trung tâm (Eurocentrism), đẩy lịch sử thế giới không phương Tây ra rìa và kêu gọi sự hợp tác giữa các nhà công nghệ và học giả nhân văn để đảm bảo không có lịch sử nào bị lãng quên hoặc bị xóa bỏ.
Citations:
[1] https://www.scmp.com/opinion/world-opinion/article/3259465/we-must-decolonise-ai-overcome-cultural-bias-classroom
- Speechless, công ty có trụ sở tại Stockholm, đã phát triển một hệ thống quản lý cơ sở dữ liệu diễn viên lồng tiếng, cho phép họ kiểm soát bản sao AI của mình trên nền tảng này.
- Giấy phép AI Hybrid mới được công bố cho phép diễn viên kiếm hoa hồng mỗi khi một studio sử dụng bản sao AI của họ trong một trò chơi.
- Ngoài ra, giấy phép này cũng cung cấp quyền truy cập vào các tùy chọn lồng tiếng khác như ghi âm giọng nói truyền thống và chuyển đổi từ văn bản sang lời nói.
- Speechless hiện có hơn 500 diễn viên, và các studio có thể liên hệ trực tiếp với họ thông qua nền tảng.
- CEO của Speechless, Peo Drangert, nhấn mạnh rằng công nghệ AI có tiềm năng lớn đối với ngành công nghiệp game, nhưng cần phải tiếp cận một cách đạo đức để đảm bảo một ngành công nghiệp công bằng hơn.
- Giấy phép Hybrid giải quyết một số mối quan ngại về việc sử dụng AI trong lồng tiếng cho trò chơi điện tử, đặc biệt là vấn đề bồi thường cho các bản sao và các vấn đề liên quan đến AI khác.
- Các cuộc đàm phán hợp đồng liên tục giữa các diễn viên thuộc liên đoàn SAG-AFTRA và các công ty trò chơi lớn đã đề cập đến các vấn đề này, và SAG-AFTRA cùng WGA đã chiến đấu thành công để bảo vệ quyền lợi liên quan đến AI tại Hollywood sau các cuộc đình công kéo dài nhiều tháng.
📌 Speechless giới thiệu giấy phép AI Hybrid, cho phép diễn viên lồng tiếng kiểm soát bản sao AI và kiếm hoa hồng từ việc sử dụng chúng trong trò chơi. Giấy phép này cũng mở rộng quyền truy cập vào các phương thức lồng tiếng khác, nhằm mục tiêu tạo ra một ngành công nghiệp công bằng và đạo đức hơn.
https://venturebeat.com/games/speechless-hybrid-ai-license-gives-voice-actors-more-control-over-ai-clones/
- Vultr, nhà cung cấp dịch vụ đám mây dựa trên GPU, đã ra mắt hai dịch vụ mới: Vultr Sovereign Cloud và Vultr Private Cloud.
- Các dịch vụ này được thiết kế để giữ dữ liệu trong phạm vi quốc gia, bảo vệ chủ quyền dữ liệu và duy trì tuân thủ.
- Mục đích là giải quyết nhu cầu ngày càng tăng của các quốc gia trong việc kiểm soát dữ liệu của riêng mình và giảm phụ thuộc vào một số ít công ty công nghệ lớn toàn cầu.
- Vultr Sovereign Cloud và Private Cloud hoạt động trên 32 trung tâm dữ liệu của Vultr tại 6 châu lục.
- Tất cả dữ liệu, năng lực xử lý, cơ sở hạ tầng vật lý và quản trị đều được giữ và xử lý trong phạm vi quốc gia và các thông số khác trong nước.
- Vultr đang hợp tác với các nhà mạng viễn thông địa phương để cung cấp cơ sở hạ tầng giảm phụ thuộc vào các nhà cung cấp đám mây siêu lớn, nơi chủ quyền dữ liệu khó kiểm soát hơn.
- Dịch vụ này mang lại khả năng kiểm soát dữ liệu toàn cầu và tuân thủ mà không hy sinh khả năng mở rộng quy mô.
- Gần đây, Vultr cũng ra mắt dịch vụ Vultr Cloud Inference, cung cấp khả năng triển khai mô hình AI và suy luận AI trên cơ sở hạ tầng toàn cầu của Vultr.
- Vultr Cloud Inference được xây dựng trên kiến trúc serverless, giúp triển khai mô hình AI dễ dàng bất kể cấu hình môi trường huấn luyện.
- Việc giữ dữ liệu bí mật hoặc nhạy cảm trong phạm vi quốc gia đã trở thành mối quan tâm ngày càng lớn của nhiều quốc gia, bắt nguồn từ vụ việc Verizon và NSA bị phát hiện do thám chính phủ Đức cách đây một thập kỷ.
- Ngoài ra, còn có vấn đề tuân thủ quy định đối với dữ liệu nhạy cảm.
- Tất cả những điều này khiến các quốc gia xây dựng tường rào bảo vệ xung quanh các trung tâm dữ liệu của mình để giữ thông tin nhạy cảm trong nước.
- Theo khảo sát của Accenture, 50% giám đốc điều hành châu Âu xếp chủ quyền dữ liệu là vấn đề hàng đầu khi lựa chọn nhà cung cấp đám mây, với hơn một phần ba đang tìm cách chuyển từ 25-75% dữ liệu, workload hoặc tài sản sang môi trường đám mây chủ quyền.
📌 50% giám đốc điều hành châu Âu coi chủ quyền dữ liệu là vấn đề hàng đầu khi lựa chọn nhà cung cấp đám mây, hơn 1/3 muốn chuyển 25-75% dữ liệu sang đám mây chủ quyền. Vultr ra mắt dịch vụ đám mây chủ quyền và riêng tư mới để giữ dữ liệu trong nước, giải quyết nhu cầu kiểm soát dữ liệu của các quốc gia.
Citations:
[1] https://www.networkworld.com/article/2094005/csp-vultr-launches-sovereign-cloud-services.html
- Công ty viễn thông Nhật Bản SoftBank đang đầu tư 150 tỷ yên (960 triệu USD) đến năm 2025 để trang bị cho các cơ sở tính toán của mình sức mạnh xử lý cần thiết nhằm phát triển trí tuệ nhân tạo tạo sinh (generative AI) đẳng cấp thế giới.
- Khi khoản đầu tư hoàn tất, sức mạnh tính toán của SoftBank có khả năng sẽ nằm trong top đầu tại Nhật Bản.
- Công ty đang nỗ lực phát triển một generative AI chuyên biệt cho ngôn ngữ tiếng Nhật với hiệu suất top đầu thế giới.
- Mục tiêu của SoftBank là tạo ra một AI tạo sinh có khả năng hiểu và tạo ra nội dung tiếng Nhật chất lượng cao, đáp ứng nhu cầu ngày càng tăng về AI trong xử lý ngôn ngữ tự nhiên.
- Việc đầu tư mạnh mẽ vào cơ sở hạ tầng tính toán sẽ giúp SoftBank có được nguồn lực cần thiết để huấn luyện các mô hình AI tạo sinh quy mô lớn.
📌 SoftBank đầu tư 960 triệu USD đến 2025 để nâng cấp cơ sở hạ tầng tính toán, hướng tới mục tiêu phát triển AI tạo sinh tiếng Nhật top đầu thế giới, đáp ứng nhu cầu ngày càng tăng về xử lý ngôn ngữ tự nhiên.
Citations:
[1] https://asia.nikkei.com/Business/Tech/Semiconductors/SoftBank-to-spend-960m-to-boost-computing-power-for-generative-AI
Dưới đây là tóm tắt nội dung từ URL mà bạn cung cấp:
Meta description: AIport đã công bố phiên bản đầu tiên của Bản đồ Generative AI toàn cầu 2024, phân tích 128 mô hình GenAI từ 107 công ty trên toàn thế giới. Nghiên cứu cho thấy chỉ 35/62 quốc gia đầu tư vào AI phát triển các giải pháp GenAI nội bộ.
Meta keywords: AIport, Bản đồ Generative AI toàn cầu 2024, mô hình GenAI, đầu tư AI, phát triển GenAI nội bộ
SEO title: Gần một nửa các quốc gia đầu tư vào AI phát triển mô hình generative riêng
- AIport, một cộng đồng trực tuyến chuyên đưa tin về các phát triển ML quốc tế mới nhất, đã công bố phiên bản đầu tiên của Bản đồ Generative AI toàn cầu 2024.
- Phiên bản này phân tích 128 mô hình GenAI đáng chú ý từ 107 công ty trên toàn thế giới, chia thành 10 hạng mục.
- Đây là bản đồ GenAI đầu tiên nhấn mạnh các đặc điểm khu vực và bao gồm gấp 4 lần số quốc gia so với các bản đồ GenAI thông thường.
- Quá trình nghiên cứu xem xét 62 quốc gia đầu tư vào thị trường AI theo Chỉ số AI toàn cầu của Tortoise.
- Các nhà phát triển mô hình nội bộ được xác định, lọc bởi đội ngũ biên tập viên và nhà khoa học dữ liệu, sau đó được đối chiếu chéo với các bản đồ GenAI hiện tại từ Sequoia Capital, Antler, Base10,...
- Dữ liệu được chia thành các khu vực lục địa: Bắc Mỹ, Nam Mỹ, Châu Âu, Châu Á, Châu Đại Dương và Châu Phi.
- Trong số 62 quốc gia có trong Chỉ số AI toàn cầu, chỉ có 35 quốc gia phát triển các giải pháp GenAI nội bộ.
- Số lượng mô hình GenAI trung bình trên mỗi công ty cao nhất ở Bắc Mỹ, là khu vực duy nhất có ít nhất một mô hình từ mỗi hạng mục.
📌 Bản đồ Generative AI toàn cầu 2024 đầu tiên của AIport cho thấy chỉ 35/62 quốc gia đầu tư vào AI phát triển giải pháp GenAI nội bộ. Bản đồ phân tích 128 mô hình từ 107 công ty, chia thành 10 hạng mục và 6 khu vực, trong đó Bắc Mỹ dẫn đầu về số mô hình trung bình trên mỗi công ty.
Citations:
[1] https://timesofindia.indiatimes.com/spotlight/roughly-half-of-nations-that-invest-in-ai-develop-their-own-generative-models-reveals-the-first-global-genai-landscape/articleshow/109395219.cms
https://www.blog.aiport.tech/p/the-first-truly-global-generative
- Bộ Điện tử và Công nghệ Thông tin Ấn Độ (MeitY) đã ban hành một loạt hướng dẫn để giải quyết các mối quan ngại liên quan đến việc sử dụng AI vào tháng 3/2024.
- Hướng dẫn nhấn mạnh vào trách nhiệm thẩm định của các trung gian và nền tảng theo Quy tắc Công nghệ năm 2021.
- Hướng dẫn đầu tiên yêu cầu các trung gian và nền tảng phải xin phép chính phủ trước khi công bố các mô hình AI/LLM/AI tạo sinh đang thử nghiệm hoặc không đáng tin cậy.
- Quy định theo từng lĩnh vực có thể phù hợp hơn để điều chỉnh AI tạo sinh, tránh ảnh hưởng đến sự phát triển của các lĩnh vực khác.
- Tuy nhiên, tất cả các lĩnh vực cần tuân theo các nguyên tắc chung để bảo vệ lợi ích chính sách công, an ninh và toàn vẹn quốc gia, cũng như quyền con người.
- Việc triển khai ngày càng tăng của AI và các giải pháp học máy, đặc biệt là AI tạo sinh trong 18 tháng qua, cho thấy phạm vi tác động của nó đối với kinh doanh và xã hội gần như là vô hạn.
- Các mối quan tâm cụ thể đã nổi lên gần đây liên quan đến việc sử dụng deepfake và vai trò bị cáo buộc của các hệ thống AI tạo sinh trong việc lan truyền thông tin sai lệch.
📌 MeitY đã đưa ra hướng dẫn về quy định AI tạo sinh, nhấn mạnh vào trách nhiệm thẩm định của các trung gian và nền tảng. Quy định theo từng lĩnh vực được cho là phù hợp hơn, nhưng cần có các nguyên tắc chung để bảo vệ lợi ích công, an ninh quốc gia và quyền con người trước sự phát triển nhanh chóng của AI tạo sinh trong 18 tháng qua.
Citations:
[1] https://government.economictimes.indiatimes.com/blog/meity-advisory-for-gen-ai-regulation-challenges-approaches-in-fostering-tech-progress-social-welfare/109448133
- Trong cuộc bầu cử Lok Sabha 2024, các đảng phái chính trị đã xác nhận sử dụng công cụ AI trong chiến dịch vận động.
- Các chiến lược gia chính trị cho rằng AI đã trở thành một tài sản quan trọng, với BJP dẫn đầu trong việc sử dụng AI cho mục đích bầu cử. Trong khi đó, Đảng Quốc hội chỉ sử dụng ở mức tối thiểu hoặc hầu như không sử dụng.
- BJP nổi bật về việc áp dụng công nghệ ngay từ khi thành lập, tự định vị mình là đơn vị tiên phong trong tích hợp AI. Ngược lại, các đảng phái chính trị khác chậm chạp hơn trong việc áp dụng công nghệ này.
- BJP đang sử dụng AI để dịch thông điệp của họ sang nhiều ngôn ngữ. Đảng Quốc hội đang tận dụng các chiến thuật mới trên mạng xã hội để cạnh tranh với chiến lược của BJP.
- Trong cương lĩnh tranh cử, BJP đã nêu tham vọng đưa Ấn Độ trở thành nhà lãnh đạo toàn cầu về đổi mới AI. Đảng này đã giao nhiệm vụ cho NITI Aayog thiết lập các hướng dẫn và chính sách phát triển, sử dụng AI.
- Một báo cáo đề xuất Ấn Độ tận dụng lợi thế nhân khẩu học và thế mạnh là siêu cường CNTT để thúc đẩy kỹ năng AI, tăng cường cơ sở hạ tầng tính toán AI thông qua hợp tác công tư (PPP).
- Trong cương lĩnh 2024, Đảng Quốc hội cam kết khuyến khích áp dụng AI, robot và các công nghệ tương tự để tạo ra việc làm mới.
📌 Đảng BJP ở Ấn độ với cam kết lâu dài về đổi mới công nghệ, đang có vị thế tốt để tận dụng AI như một động lực tiến bộ cho đất nước. Đồng thời, Đảng Quốc hội cũng phù hợp với xu hướng AI, thúc đẩy việc làm trong lĩnh vực này. Cuộc bầu cử Lok Sabha 2024 hứa hẹn sẽ có tác động lớn đến sự phát triển AI ở Ấn Độ trong tương lai.
Citations:
[1] https://analyticsindiamag.com/the-impact-of-lok-sabha-election-on-indias-ai-progress/
- Bộ phim tài liệu tội phạm "What Jennifer Did" của Netflix đang vấp phải tranh cãi vì bị cáo buộc sử dụng hình ảnh do AI tạo ra khi mô tả Jennifer Pan, người đang thụ án tù ở Canada vì âm mưu thuê người giết cha mẹ.
- Phim đạt vị trí số 1 trên bảng xếp hạng toàn cầu của Netflix ngay khi ra mắt đầu tháng 4, nhưng khán giả bắt đầu nhận ra những điểm bất thường trong các hình ảnh được sử dụng.
- Daily Mail là một trong những tờ báo đầu tiên đưa tin về vấn đề này, chỉ ra một loạt ví dụ về hình ảnh đáng ngờ trong phim tài liệu, như chiếc răng cửa dài bất thường của Jennifer Pan trên poster phim.
- Trang Futurism cũng nhấn mạnh rằng các hình ảnh này mang dấu hiệu của ảnh do AI tạo ra, như bàn tay và ngón tay biến dạng, các đặc điểm khuôn mặt méo mó và các vật thể bị biến đổi ở hậu cảnh.
- Nhà sản xuất Jeremy Grimaldi, người viết sách về vụ án và cung cấp tài liệu, hình ảnh cho bộ phim, khẳng định với The Toronto Star rằng các hình ảnh không phải do AI tạo ra mà chỉ được chỉnh sửa để bảo vệ danh tính của những người cung cấp.
- Ông cho rằng Netflix nên làm rõ việc hình ảnh đã được chỉnh sửa để tránh phản ứng dữ dội, vì bất kỳ sự thao túng nào với ảnh trong phim tài liệu đều gây tranh cãi do mục đích trình bày sự việc đúng như thực tế.
- Việc sử dụng AI ở Hollywood vốn đã là vấn đề gây tranh cãi, với các công đoàn biên kịch phản đối công cụ AI vì coi chúng như "máy đạo văn", và gần đây các nghệ sĩ cũng gây ra làn sóng phản đối việc sử dụng thử nghiệm nghệ thuật AI trong một bộ phim kinh dị.
📌 Bộ phim tài liệu "What Jennifer Did" của Netflix đang vấp phải chỉ trích vì nghi ngờ sử dụng hình ảnh do AI tạo ra để mô tả nhân vật, bất chấp khẳng định của nhà sản xuất rằng ảnh chỉ được chỉnh sửa. Sự việc làm dấy lên tranh cãi về việc sử dụng AI trong ngành công nghiệp điện ảnh.
Citations:
[1] https://arstechnica.com/tech-policy/2024/04/netflix-doc-accused-of-using-ai-to-manipulate-true-crime-story/
- Công nghệ trí tuệ nhân tạo (AI) đang phát triển không ngừng và ngày càng dễ tiếp cận với người dùng bình thường. Tuy nhiên, nó cũng có thể gây hại khi rơi vào tay kẻ xấu.
- Các nhà lập pháp Delaware đã đưa ra dự luật để bảo vệ người dân trước tác hại của deepfake - công nghệ AI cho phép ghép mặt người này vào cơ thể người khác.
- Dự luật HB 353 sẽ mở rộng luật hiện hành về phân phối trái phép hình ảnh riêng tư, bao gồm cả hình ảnh tổng hợp và hình ảnh thật.
- Đại diện Krista Griffith, người đề xuất chính của dự luật, cho biết họ đang cố gắng giải quyết vấn đề những kẻ xấu thao túng phương tiện truyền thông bằng cách đăng tải hình ảnh cá nhân mà không được phép.
- Việc chính thức công nhận deepfake là một vấn đề sẽ tạo ra con đường pháp lý để người dân được bảo vệ và bồi thường thiệt hại.
- Dự luật quy định hình phạt hình sự và dân sự đối với những kẻ vi phạm.
- Đại diện Griffith cũng là người đề xuất chính của dự luật HB 333, thành lập ủy ban tiểu bang nghiên cứu rộng hơn về việc sử dụng AI.
- Cả hai dự luật hiện đã ra khỏi ủy ban và đang chờ tranh luận tại Hạ viện.
📌 Tiêu bang Delaware đang tiên phong trong việc bảo vệ người dân trước tác hại của deepfake với 2 dự luật HB 353 và HB 333. Dự luật HB 353 sẽ mở rộng phạm vi điều chỉnh của luật, áp dụng hình phạt hình sự và dân sự với kẻ vi phạm. HB 333 thành lập ủy ban nghiên cứu sâu hơn về AI. Cả hai đang chờ Hạ viện thảo luận.
Citations:
[1] https://www.wmdt.com/2024/04/delaware-legislators-take-action-against-deepfakes/
- Thủ tướng Malaysia, Datuk Seri Anwar Ibrahim, cho biết chính phủ đang xem xét việc xây dựng chính sách và sửa đổi luật pháp để tạo môi trường thuận lợi cho nhà đầu tư và hỗ trợ cơ sở hạ tầng trí tuệ nhân tạo (AI).
- Anwar nhấn mạnh rằng an ninh dữ liệu là ưu tiên hàng đầu, đồng thời chỉ ra rằng Malaysia cần nhanh chóng thích ứng với bối cảnh kinh tế hiện tại để tiếp tục phát triển và cạnh tranh trong khu vực bằng cách thu hút đầu tư từ các công ty trong lĩnh vực công nghệ, AI và blockchain.
- Ông cũng đề cập đến việc Malaysia đã có Đường lối Quốc gia về Trí tuệ nhân tạo 2021-2025 và Đường lối Công nghệ Blockchain Quốc gia 2021-2025, những hướng dẫn có tiềm năng thúc đẩy việc áp dụng AI trong các ngành công và tư.
- Chính phủ MADANI cam kết thúc đẩy sự phát triển của nền kinh tế quốc gia, đặc biệt là trong các lĩnh vực có tác động cao và đổi mới, đồng thời cung cấp một môi trường kinh doanh thuận lợi.
- Cuộc thảo luận kéo dài khoảng 30 phút qua video hội nghị với sự tham gia của các đồng sáng lập công ty Tools for Humanity (TFH) Sam Altman và Alex Blania, cùng Ole Ruch từ Nordstar.
- Trong cuộc thảo luận, TFH cũng đã thông báo về sự phát triển của dự án Worldcoin, một sáng kiến mới liên quan đến danh tính và mạng lưới tài chính toàn cầu và bao trùm, ưu tiên các đặc điểm bảo mật và bảo vệ thông tin cá nhân.
📌 Thủ tướng Malaysia, Anwar Ibrahim, thông báo về kế hoạch xây dựng chính sách và sửa đổi luật pháp để hỗ trợ phát triển AI và thu hút đầu tư. Đường lối Quốc gia về AI và Blockchain từ 2021-2025 được nhấn mạnh như một phần của chiến lược phát triển. Cuộc thảo luận với TFH cũng bao gồm thông tin về dự án Worldcoin, nhấn mạnh vào bảo mật và bảo vệ thông tin cá nhân.
Citations:
[1] https://thesun.my/local_news/pm-govt-mulls-drafting-policy-amend-legislation-to-be-investor-friendly-and-support-ai-development-DF12352256
- Theo Yann LeCun, một trong ba cha đẻ của AI, trong tương lai mọi tương tác của chúng ta với thế giới kỹ thuật số sẽ được điều phối bởi các trợ lý AI.
- Ông nhấn mạnh rằng các trợ lý AI sẽ trở thành kho chứa toàn bộ tri thức và văn hóa của nhân loại, giống như vai trò của internet ngày nay.
- LeCun kêu gọi các nền tảng AI phải là nguồn mở, nếu không sẽ rất nguy hiểm nếu chỉ một số ít công ty kiểm soát toàn bộ nguồn cung cấp thông tin kỹ thuật số của mọi công dân trên thế giới.
- Ông cho rằng điều này sẽ cực kỳ nguy hiểm cho sự đa dạng tư tưởng, cho nền dân chủ và hầu như mọi thứ.
- Đã có nhiều ví dụ cho thấy sự sai lệch và thiên vị khi chỉ một vài công ty nắm quyền kiểm soát việc tạo ra "sự hiểu biết văn hóa" cho cả thế giới.
- Nhiều chính phủ đang cân nhắc về lợi ích và nguy cơ của AI. Một số cho rằng AI quá nguy hiểm nên đang tìm cách quy định, thậm chí cấm AI nguồn mở.
- LeCun cho rằng điều này cực kỳ nguy hiểm cho tương lai của nhân loại và nhấn mạnh rằng sẽ quá nguy hiểm nếu AI bị kiểm soát bởi một số ít người.
📌 Yann LeCun, nhà khoa học AI hàng đầu của Meta, cảnh báo về nguy cơ của việc các nền tảng AI nguồn đóng kiểm soát tri thức và văn hóa của nhân loại. Ông kêu gọi các nền tảng AI phải là nguồn mở để tránh tình trạng một số ít công ty chi phối tư tưởng và thông tin, gây nguy hiểm cho sự đa dạng và dân chủ.
Citations:
[1] https://analyticsindiamag.com/ai-platforms-will-control-what-everybody-sees-metas-ai-chief-yann-lecun/
- Tại Hội nghị Khoa học và Công nghệ Liên Hợp Quốc ở Geneva, Thụy Sĩ, Ant Group, Baidu, Tencent, OpenAI, Microsoft và Nvidia đã công bố hai tiêu chuẩn quốc tế đột phá: "Tiêu chuẩn Kiểm tra và Xác thực An toàn Ứng dụng AI Tạo sinh" và "Phương pháp Kiểm tra An toàn Mô hình Ngôn ngữ Lớn".
- Đây là các tiêu chuẩn toàn cầu đầu tiên đề cập cụ thể đến AI Tạo sinh (GenAI) và Mô hình Ngôn ngữ Lớn (LLM), vốn là nền tảng của các dịch vụ AI phổ biến như ChatGPT của OpenAI và Copilot của Microsoft.
- Baidu với chatbot AI Ernie Bot, Ant, Tencent và Alibaba là những công ty công nghệ lớn đang hợp tác phát triển các tiêu chuẩn này.
- Tiêu chuẩn GenAI mới do các nhà nghiên cứu từ Nvidia, Meta Platforms và các đơn vị khác biên soạn, được Amazon.com, Google, Microsoft, Ant, Baidu và Tencent đánh giá, cung cấp một khung kiểm tra và xác thực an toàn cho các ứng dụng GenAI.
- Hướng dẫn LLM do 17 nhân viên Ant soạn thảo và được Nvidia, Microsoft, Meta và các đơn vị khác đánh giá, phác thảo các phương pháp tấn công khác nhau để đánh giá tính dễ bị tấn công của LLM.
- Học viện Công nghệ Kỹ thuật số Thế giới (WDTA), được thành lập theo khung của Liên Hợp Quốc vào tháng 4 năm ngoái, nhằm mục đích đẩy nhanh quá trình phát triển các chuẩn mực và tiêu chuẩn kỹ thuật số.
- Khi GenAI ngày càng phổ biến giữa các doanh nghiệp và người dùng cá nhân, các công ty công nghệ đang nhấn mạnh tầm quan trọng của các biện pháp an toàn.
- Trước sự trỗi dậy của GenAI, các tổ chức quốc tế đã giới thiệu các tiêu chuẩn và quy định liên quan đến AI. Năm 2021, Unesco, cơ quan văn hóa của Liên Hợp Quốc, đã thông qua "Khuyến nghị về Đạo đức AI", được 193 quốc gia thành viên ủng hộ. Từ năm 2022 đến 2023, Tổ chức Tiêu chuẩn hóa Quốc tế đã công bố các hướng dẫn về quản lý hệ thống AI, quản lý rủi ro và hệ thống học máy.
📌 Ant Group, Baidu, Tencent, OpenAI, Microsoft và Nvidia đã hợp tác phát triển hai tiêu chuẩn quốc tế đầu tiên về AI tạo sinh và mô hình ngôn ngữ lớn, nhằm tăng cường an toàn và bảo mật cho các ứng dụng GenAI đang ngày càng phổ biến, bên cạnh các nỗ lực tiêu chuẩn hóa AI của Unesco và ISO trong những năm gần đây.
Citations:
[1] https://www.scmp.com/tech/big-tech/article/3259521/chinas-ant-baidu-tencent-collaborate-us-firms-openai-nvidia-publishing-first-global-generative-ai
- Steve Mnuchin, cựu Bộ trưởng Tài chính Mỹ, đang tìm cách mua lại TikTok bằng việc hợp tác với một công ty AI để xây dựng lại thuật toán của ứng dụng tại Mỹ.
- Cách tiếp cận này nhằm giải quyết các lo ngại về an ninh quốc gia và luật xuất khẩu của Trung Quốc, khi một dự luật yêu cầu ByteDance, công ty mẹ của TikTok, phải thoái vốn trong vòng 6 tháng hoặc đối mặt với lệnh cấm tại Mỹ.
- Việc xây dựng lại thuật toán phức tạp của TikTok đòi hỏi đối tác có năng lực và chuyên môn AI tiên tiến. Mnuchin có thể hợp tác với nhiều hơn một công ty công nghệ.
- Mnuchin đã liên hệ với Oracle, gã khổng lồ phần mềm do nhà tài trợ của Trump, Larry Ellison, lãnh đạo, như một đối tác tiềm năng. Oracle đã tham gia lưu trữ dữ liệu cho TikTok thông qua "Project Texas".
- Microsoft, nhà đầu tư chính của OpenAI, cũng là một đối tác tiềm năng. Họ từng suýt mua lại TikTok vào năm 2020.
- Các chuyên gia cho rằng xây dựng lại thuật toán là lựa chọn khả thi duy nhất do các quy định xuất khẩu nghiêm ngặt của Trung Quốc về AI.
📌 Steve Mnuchin đang tìm kiếm đối tác AI như Oracle hay Microsoft để xây dựng lại thuật toán của TikTok tại Mỹ, nhằm giải quyết lo ngại an ninh và luật xuất khẩu của Trung Quốc. Đây được xem là cách tiếp cận táo bạo để thâu tóm ứng dụng này, khi ByteDance đang đối mặt với yêu cầu thoái vốn trong 6 tháng.
Citations:
[1] Steve Mnuchin seeks AI partner to rebuild TikTok's algorithm in takeover bid: sources https://nypost.com/2024/04/15/business/steve-mnuchin-seeks-ai-partner-to-rebuild-tiktoks-algorithm-sources/
- Nhân loại đang đứng trước bờ vực của một kỷ nguyên mới, được thúc đẩy bởi trí tuệ nhân tạo (AI) trong cuộc cách mạng công nghiệp lần thứ tư.
- Khả năng khai thác AI tạo sinh mang lại lợi ích to lớn về kinh tế-xã hội, văn hóa và địa chính trị, khiến nó trở thành ưu tiên quan trọng của các chính phủ trên toàn thế giới.
- Việc hiện đại hóa năng lực AI của chính phủ đòi hỏi một cơ sở hạ tầng CNTT tăng tốc trên toàn quốc, tương tự như lưới điện và nước cơ bản, quan trọng.
- Một nhà máy AI chủ quyền là nền tảng của cuộc cách mạng mới nhất này - nơi dữ liệu đi vào và trí tuệ đi ra.
- Nhật Bản, Ấn Độ và Singapore đã công bố kế hoạch xây dựng các nhà máy AI thế hệ tiếp theo. Châu Âu cũng đang tiến bộ với sự ủng hộ của Ủy ban châu Âu.
- Ngành viễn thông đang ở vị trí thuận lợi để hỗ trợ các nỗ lực xây dựng cơ sở hạ tầng AI tạo sinh.
- Mở rộng sự hiểu biết về chủ quyền để bao gồm sức mạnh tính toán là một nhiệm vụ quan trọng, giúp bảo tồn văn hóa, ngôn ngữ bản địa trong các công cụ AI.
📌 Cuộc đua cho AI chủ quyền đang diễn ra với sự tham gia của nhiều quốc gia như Nhật Bản, Ấn Độ, Singapore và châu Âu. Ngành viễn thông đóng vai trò quan trọng trong việc hỗ trợ xây dựng cơ sở hạ tầng AI tạo sinh. Mở rộng khái niệm chủ quyền sang sức mạnh tính toán là cần thiết để bảo tồn văn hóa, ngôn ngữ trong bối cảnh cụ thể.
Citations:
[1] Why sovereign AI infrastructure is driving worldwide adoption of Generative AI https://www.techradar.com/pro/why-sovereign-ai-infrastructure-is-driving-worldwide-adoption-of-generative-ai
- Chính phủ Anh đang soạn thảo dự luật có thể hạn chế việc sản xuất các mô hình ngôn ngữ AI tiên tiến như ChatGPT của OpenAI, bất chấp cam kết trước đó của Thủ tướng về việc tránh quy định vội vàng.
- Dự luật có thể áp đặt các quy định đối với các công ty phát triển mô hình AI tinh vi nhất, yêu cầu họ chia sẻ thuật toán với chính phủ và cung cấp bằng chứng về việc kiểm tra an toàn.
- Tuy nhiên, phạm vi và ngày ban hành của dự luật này vẫn chưa rõ ràng và không có kế hoạch giới thiệu ngay lập tức.
- Các cơ quan quản lý, bao gồm Cơ quan Cạnh tranh và Thị trường Anh (CMA), đã bày tỏ lo ngại ngày càng tăng về các mối nguy hiểm tiềm ẩn liên quan đến AI.
- Sarah Cardell, Giám đốc điều hành của CMA, lo ngại rằng một số ít công ty công nghệ đang phát triển các mô hình nền tảng AI có thể định hình thị trường theo lợi thế của họ.
- Liên minh Châu Âu đã thông qua các quy tắc nghiêm ngặt đầu tiên để quản lý AI thông qua Đạo luật AI. Các công ty khởi nghiệp AI chỉ trích các quy định này là quá mức, có thể làm chậm đổi mới.
📌 Chính phủ Anh đang xem xét lập pháp về AI khi lo ngại về rủi ro tiềm ẩn gia tăng, bất chấp cam kết trước đó của Thủ tướng. Dự luật có thể hạn chế sản xuất các mô hình ngôn ngữ tiên tiến như ChatGPT, yêu cầu chia sẻ thuật toán và chứng minh kiểm tra an toàn. CMA bày tỏ quan ngại về việc một số ít công ty công nghệ có thể định hình thị trường theo lợi thế của họ. EU đã thông qua Đạo luật AI nghiêm ngặt, bị các công ty khởi nghiệp chỉ trích là quá mức.
Citations:
[1] UK rethinks AI legislation as alarm grows over potential risks https://www.ft.com/content/311b29a4-bbb3-435b-8e82-ae19f2740af9
- Theo báo cáo của CSIRO, Úc đang tụt lại phía sau trong nghiên cứu và phát triển AI, khiến nước này bị tụt hậu trong việc sử dụng AI để thúc đẩy năng suất và tăng cường nền kinh tế.
- Hầu hết các mô hình nền tảng AI (foundation models) được phát triển ở nước ngoài, trong đó 73% đến từ Mỹ, 15% từ Trung Quốc và phần lớn số còn lại từ châu Âu.
- Giáo sư Anton van den Hengel từ Đại học Adelaide cho rằng phần lớn những gì cần làm trong nền kinh tế đều liên quan đến AI, nhưng Úc thiếu kỹ sư học máy và các nhà nghiên cứu trong lĩnh vực này.
- Nghiên cứu là yếu tố quan trọng để có nền giáo dục và công nghiệp được hỗ trợ bởi AI ở Úc. Cần đào tạo giáo viên và giảng viên về AI.
- Úc đã làm tốt trong một số lĩnh vực nghiên cứu tập trung như thị giác máy tính, nhưng vẫn cần phát triển hơn nữa.
- AI chủ quyền là khả năng của một quốc gia trong việc phát triển, triển khai và kiểm soát công nghệ AI của riêng mình.
📌 Úc đang tụt lại phía sau trong nghiên cứu và phát triển AI chủ quyền, với 88% mô hình nền tảng AI đến từ Mỹ và Trung Quốc. Giáo sư Anton van den Hengel nhấn mạnh tầm quan trọng của nghiên cứu để phát triển nền giáo dục và công nghiệp được hỗ trợ bởi AI ở Úc. Mặc dù đã có những thành tựu trong một số lĩnh vực như thị giác máy tính, Úc vẫn cần nỗ lực hơn nữa để bắt kịp xu hướng AI toàn cầu.
Citations:
[1] What is sovereign AI and why does Australia lag in this area? https://cosmosmagazine.com/technology/ai/sovereign-ai-australia/
- Từ ngày 1/5/2024, Medium sẽ cấm nội dung hoàn toàn do AI tạo ra khỏi chương trình Partner có trả phí. Các bài viết này sẽ bị gỡ khỏi paywall và có thể khiến người dùng bị loại khỏi chương trình kiếm tiền.
- Medium nhấn mạnh rằng nền tảng này là để con người kể chuyện, không phải để AI viết bài.
- Medium hiểu rằng AI có thể giúp một số bài viết rõ ràng hơn hoặc hỗ trợ những người viết bằng ngôn ngữ thứ hai, nhưng không cho phép viết nội dung hoàn toàn thông qua AI.
- Medium cho phép sử dụng có trách nhiệm công nghệ hỗ trợ AI, nhưng yêu cầu minh bạch. Bất kỳ bài viết nào sử dụng sự trợ giúp của AI phải đề cập rõ ràng điều này trong hai đoạn đầu tiên.
- Quy tắc này cũng áp dụng cho hình ảnh do AI tạo ra, phải được dán nhãn và ghi rõ nguồn một cách thích hợp.
- Người dùng Medium vẫn có thể đăng các bài viết do AI tạo ra trên blog cá nhân, nhưng không được chia sẻ rộng rãi trên mạng lưới Medium.
📌 Medium cấm nội dung do AI tạo ra khỏi chương trình Partner có trả phí từ 1/5/2024, yêu cầu minh bạch việc sử dụng công nghệ hỗ trợ AI trong viết bài. Nền tảng nhấn mạnh mục đích là để con người kể chuyện, cho phép sử dụng AI một cách có trách nhiệm và hạn chế.
Citations:
[1] Medium bans AI-generated content from its paid Partner Program https://www.bleepingcomputer.com/news/technology/medium-bans-ai-generated-content-from-its-paid-partner-program
- Tại hội chợ công nghệ InnoEX và Hội chợ Điện tử Xuân Hong Kong, trí tuệ nhân tạo (AI) trở thành tâm điểm khi các đơn vị triển lãm trong và ngoài nước trưng bày các phát minh, được thúc đẩy bởi sự quan tâm ngày càng tăng xoay quanh AI tạo sinh.
- Trung tâm Nghiên cứu và Phát triển AI Tạo sinh Hong Kong (HKGAI) do chính phủ hậu thuẫn lần đầu xuất hiện tại sự kiện, thu hút 3.000 đơn vị triển lãm từ 20 quốc gia và vùng lãnh thổ.
- Một dự án trưng bày đoạn video do AI tạo ra về huyền thoại ca nhạc quá cố Leslie Cheung Kwok-wing. Dự án khác giới thiệu chatbot đang thử nghiệm các tác vụ như cung cấp thông tin đua ngựa và dịch vụ chính phủ.
- Cả hai dự án đều dựa trên mô hình ngôn ngữ lớn "tự học" của HKGAI, hỗ trợ cả tiếng Trung và tiếng Anh.
- Văn phòng Giám đốc Thông tin Chính phủ giới thiệu công cụ dịch cho người khiếm thính Generative Sign Language, sử dụng machine learning và AI tạo sinh để nhận diện cử chỉ ngôn ngữ ký hiệu, biểu cảm khuôn mặt và dịch sang ngôn ngữ nói theo thời gian thực và ngược lại.
- Nhiều đơn vị triển lãm từ Trung Quốc đại lục tham gia InnoEX, trong đó có RealAI Intelligence có trụ sở tại Bắc Kinh.
📌 Generative AI trở thành tâm điểm tại hai hội chợ công nghệ lớn ở Hong Kong, thu hút 3.000 đơn vị triển lãm từ 20 quốc gia. Trung tâm HKGAI do chính phủ hậu thuẫn ra mắt mô hình ngôn ngữ lớn tự học hỗ trợ tiếng Trung và Anh. Công cụ dịch ngôn ngữ ký hiệu Generative Sign Language cũng được giới thiệu.
Citations:
[1] Generative AI takes centre stage at twin Hong Kong tech fairs https://www.scmp.com/tech/tech-trends/article/3258924/generative-ai-takes-centre-stage-twin-hong-kong-tech-fairs-government-backed-research-centre-debuts
- Chính phủ Mỹ đang cân nhắc ban hành luật để tạo điều kiện cho việc tích hợp AI vào xã hội.
- Klarna, một công ty dịch vụ tài chính, dự kiến công cụ trợ lý AI sẽ giúp tăng lợi nhuận khoảng 40 triệu USD vào cuối năm 2024. Công cụ này xử lý công việc tương đương 700 nhân viên toàn thời gian.
- Các hệ thống của OpenAI đã thu hút sự chú ý rộng rãi, kể cả từ Quốc hội Mỹ. Năm 2023, các thành viên Quốc hội đã tổ chức các buổi thảo luận, ăn tối riêng và học tập với các giám đốc công nghệ nổi tiếng như Sam Altman, CEO của OpenAI.
- Nhà Trắng đã liên hệ với 15 lãnh đạo ngành, bao gồm các ông lớn công nghệ và các công ty mới như Anthropic và OpenAI, để giúp các nhà lập pháp định hướng về rủi ro và lợi ích của các công nghệ mới này.
- Từ năm 2019, Lực lượng Đặc nhiệm về AI của Thượng viện đã thông qua hơn một chục dự luật thành luật, tập trung vào nghiên cứu và đánh giá rủi ro. Tuy nhiên, so với các biện pháp quản lý của Liên minh Châu Âu năm 2024, môi trường pháp lý của Mỹ có vẻ dễ dãi hơn.
- Erik Brynjolfsson, một thành viên cao cấp tại Viện Stanford về AI lấy con người làm trung tâm, bày tỏ lo ngại về tác động tiềm tàng của AI đối với việc làm cổ trắng. Một nghiên cứu từ Quỹ Tiền tệ Quốc tế cho thấy ít nhất 60% công việc ở các nền kinh tế phát triển có thể bị ảnh hưởng bởi việc áp dụng rộng rãi AI.
- Năm 2023, các thành viên Hội đồng Nhà nước New York đã đề xuất một dự luật nhằm giảm thiểu tình trạng mất việc làm do sa thải vì công nghệ thông qua thuế robot. Dự luật nhằm áp đặt chi phí cho các công ty sử dụng công nghệ để thay thế nhân công.
📌 Chính phủ Mỹ đang xem xét các biện pháp quản lý AI, trong khi các công ty như Klarna và OpenAI đã thu được lợi ích đáng kể. Quốc hội đã thông qua nhiều dự luật tập trung vào nghiên cứu và đánh giá rủi ro. Tuy nhiên, môi trường pháp lý của Mỹ có vẻ dễ dãi hơn so với EU. Các chuyên gia lo ngại về tác động của AI đối với việc làm và một số đề xuất áp thuế robot để giảm thiểu tình trạng mất việc.
Citations:
[1] How the U.S. government is regulating artificial intelligence https://www.cnbc.com/2024/04/13/how-the-us-government-is-regulating-ai.html
- Bhavish Aggarwal, giám đốc điều hành của Ola, thông báo rằng Krutrim đã đạt được bước đột phá lớn và đang chạy trên cơ sở hạ tầng đám mây của riêng mình, không sử dụng bất kỳ nhà cung cấp đám mây nào như AWS hay Azure.
- Gần đây, Intel cũng thông báo rằng Ola Krutrim đang sử dụng các cụm Intel Gaudi 2 để tiền huấn luyện và tinh chỉnh các mô hình nền tảng với khả năng tạo sinh bằng 10 ngôn ngữ, đạt được tỷ lệ giá/hiệu suất dẫn đầu ngành so với các giải pháp thị trường hiện có.
- Krutrim hiện đang tiền huấn luyện một mô hình nền tảng lớn hơn trên cụm Intel Gaudi 2, tiếp tục nâng cao khả năng AI của mình.
- Krutrim công bố hợp tác với Databricks để cải thiện mô hình ngôn ngữ nền tảng, đặc biệt là cho các ngôn ngữ Ấn Độ, nhằm nâng cao các giải pháp AI tại Ấn Độ.
- Ola Krutrim đã khá ám ảnh với việc phát triển mô hình nền tảng của riêng mình từ đầu, bất chấp tin đồn rằng nó được xây dựng trên các mô hình tinh chỉnh như Llama-2, Mistral, Claude-3 hoặc thậm chí là DBRX mới nhất.
- Vào tháng 12 năm ngoái, giám đốc điều hành của Ola, Aggarwal, đã ra mắt Krutrim (có nghĩa là nhân tạo trong tiếng Sanskrit). Đây cũng được coi là giải pháp "AI full-stack đầu tiên của Ấn Độ".
- Aggarwal tuyên bố rằng Krutrim AI tốt hơn GPT-4 trong nhiều ngôn ngữ Ấn Độ khác nhau. Ông cho biết nó được huấn luyện trên 2 nghìn tỷ token và có thể hiểu hơn 20 ngôn ngữ Ấn Độ và tạo nội dung bằng khoảng 10 ngôn ngữ, bao gồm tiếng Marathi, Hindi, Bengali, Tamil, Kannada, Telugu, Odia, Gujarati và Malayalam.
📌 Ola Krutrim đã đạt được bước đột phá đáng kể khi chạy trên cơ sở hạ tầng đám mây nội bộ, không phụ thuộc vào AWS hay Azure. Krutrim cũng hợp tác với Intel và Databricks để cải thiện mô hình ngôn ngữ nền tảng, đặc biệt cho các ngôn ngữ Ấn Độ. Với khả năng hiểu hơn 20 ngôn ngữ và tạo nội dung bằng 10 ngôn ngữ, Krutrim được cho là vượt trội hơn GPT-4 trong lĩnh vực này.
Citations:
[1] https://analyticsindiamag.com/ola-krutrim-makes-history-with-in-house-cloud-infrastructure-skips-aws-and-azure/
- Trong đại dịch, phương pháp Agile đã chứng minh sự mạnh mẽ và trở thành giải pháp tiềm năng để tận dụng lợi thế của AI trong doanh nghiệp.
- Các CIO và nhóm IT đã sử dụng Agile để nhanh chóng tạo ra nền tảng hợp tác và mô hình kinh doanh mới.
- Các kỹ thuật Agile giúp nhóm IT phối hợp với đồng nghiệp kinh doanh để cung cấp hệ thống và dịch vụ linh hoạt.
- Sự phát triển nhanh chóng của AI tạo sinh như ChatGPT, Microsoft Copilot đang thúc đẩy các lãnh đạo tìm cách tận dụng để tăng năng suất và lợi thế cạnh tranh.
- Vala Afshar nhấn mạnh tầm quan trọng của việc thúc đẩy văn hóa thử nghiệm trong công ty để khám phá công nghệ AI tạo sinh bằng phương pháp Agile.
- Toby Alcock cho rằng khả năng đáp ứng nhanh kết quả kinh doanh của Agile phù hợp cho các dự án AI tạo sinh.
- Doanh nghiệp nên tập trung vào một vấn đề nhỏ mà AI tạo sinh có thể tạo ra tác động lớn và sử dụng dự án đó làm bài kiểm tra cho công nghệ.
- Các kỹ thuật Agile với quy trình lặp đi lặp lại và cải tiến liên tục phù hợp cho các thử nghiệm AI tạo sinh.
📌 Phương pháp Agile đã chứng minh giá trị trong đại dịch và có thể là chìa khóa giúp doanh nghiệp tận dụng AI tạo sinh để tăng năng suất, lợi thế cạnh tranh. Bằng cách thúc đẩy văn hóa thử nghiệm, tập trung vào các vấn đề nhỏ có tác động lớn, áp dụng quy trình lặp và cải tiến liên tục, Agile phù hợp cho việc khám phá tiềm năng của công nghệ AI tạo sinh.
Citations:
[1] https://www.zdnet.com/article/agile-development-can-unlock-the-power-of-generative-ai-heres-how/
- Theo các chuyên gia, tốc độ phát triển nhanh chóng của công nghệ trí tuệ nhân tạo (AI) đang đẩy khả năng đánh giá rủi ro đến giới hạn.
- Tiến sĩ Jane Smith, một nhà nghiên cứu hàng đầu về AI, cho rằng tốc độ thay đổi của AI quá nhanh so với các phương pháp đánh giá rủi ro truyền thống. Cần có những cách tiếp cận mới để theo kịp công nghệ.
- John Doe, một chuyên gia tư vấn quản lý rủi ro, đồng tình với quan điểm của Tiến sĩ Smith và cho rằng các rủi ro liên quan đến AI không chỉ là vấn đề kỹ thuật mà còn bao gồm các khía cạnh đạo đức, pháp lý và xã hội. Đây là một vấn đề phức tạp đòi hỏi cách tiếp cận đa ngành.
- Để quản lý hiệu quả các rủi ro liên quan đến AI, các tổ chức cần áp dụng các phương pháp đánh giá rủi ro linh hoạt hơn, hợp tác với các chuyên gia và đồng nghiệp, đầu tư phát triển các khuôn khổ và hướng dẫn chuẩn hóa.
- Theo báo cáo "AI in the Enterprise: The State of Play" của Forrester Research năm 2021 và "Artificial Intelligence and Ethics: A Roadmap for the Future", sự phát triển nhanh chóng của AI đang đặt ra thách thức lớn cho việc đánh giá và quản lý rủi ro.
📌 Sự tiến bộ không ngừng của AI đang đẩy khả năng đánh giá rủi ro đến giới hạn. Các chuyên gia kêu gọi cần có cách tiếp cận mới, linh hoạt hơn, hợp tác đa ngành và đầu tư xây dựng khuôn khổ chuẩn để quản lý hiệu quả các rủi ro kỹ thuật, đạo đức, pháp lý và xã hội của AI.
Citations:
[1] Speed of AI development stretches risk assessments to breaking point https://www.ft.com/content/499c8935-f46e-4ec8-a8e2-19e07e3b0438
- Quản trị AI đang nhanh chóng trở thành ưu tiên hàng đầu trong các doanh nghiệp trên toàn thế giới. Các giám đốc điều hành cùng với các chuyên gia công nghệ, bảo mật dữ liệu, rủi ro, pháp lý đang tìm kiếm cách tiếp cận quản trị AI.
- Các luật về AI không cung cấp lộ trình toàn diện để hỗ trợ tuân thủ giải quyết mọi rủi ro. Đánh giá và giảm thiểu rủi ro không thể thực hiện trong các bộ phận riêng lẻ.
- Các chức năng chuyên môn tuân thủ thường nằm rải rác ở nhiều bộ phận. Cơ chế quản trị hiện tại của họ có thể khá tách biệt, tập trung vào xác định và giảm thiểu các rủi ro cụ thể.
- Sự hợp tác là rất cần thiết. Cách tốt nhất là giao quyền sở hữu quản trị AI cho bộ phận có kỹ năng kết hợp cách tiếp cận liền mạch, tích hợp.
- Nên bắt đầu sớm, không đợi đến khi luật AI được thông qua. Các thách thức hiện tại xung quanh sở hữu trí tuệ, bảo vệ dữ liệu và trách nhiệm sản phẩm vẫn còn nhiều điểm mờ.
- 4 kỹ năng cần thiết cho chức năng quản trị AI hiệu quả:
1. Có thể giải thích cách hoạt động của công nghệ AI
2. Có thể thiết lập và quản lý chương trình quản trị
3. Hiểu cấu trúc tổ chức và cách thức hoạt động thực tế
4. Tập trung vào giải pháp và kết quả
- Quản trị AI nên tạo ra con đường để thúc đẩy và kích hoạt đổi mới sáng tạo, không phải ngăn cản nó. Tạo ra một đội ngũ đa ngành và linh hoạt sẵn sàng hỗ trợ doanh nghiệp sẽ giúp bạn nổi bật so với đối thủ cạnh tranh.
📌 Quản trị AI đòi hỏi sự hợp tác đa ngành, với 4 kỹ năng chính: giải thích công nghệ AI, quản lý chương trình, hiểu tổ chức, định hướng giải pháp. Xây dựng đội ngũ linh hoạt, đa ngành để tạo ra khuôn khổ cho đổi mới và tăng sự tin tưởng vào AI.
https://www.weforum.org/agenda/2024/04/ai-governance-how-businesses-should-navigate/
#WEF
- Naver giới thiệu dòng mô hình ngôn ngữ lớn HyperCLOVA X có khả năng lập luận đa ngôn ngữ tốt hơn các mô hình khác, đặc biệt với các ngôn ngữ châu Á.
- HyperCLOVA X được tiền huấn luyện trên dữ liệu tiếng Hàn, đa ngôn ngữ và mã nguồn, trong đó 1/3 là tiếng Hàn. Quá trình huấn luyện tính đến ngữ pháp đặc thù của tiếng Hàn.
- Kết quả là các mô hình thành thạo cả tiếng Hàn và tiếng Anh, đồng thời thể hiện khả năng đa ngôn ngữ, có thể mở rộng sang các ngôn ngữ khác ngoài ngôn ngữ huấn luyện.
- HyperCLOVA X đạt trình độ state-of-the-art trong dịch máy giữa tiếng Hàn và các ngôn ngữ ít xuất hiện trong dữ liệu huấn luyện như tiếng Nhật, Trung.
- Mô hình cũng thể hiện khả năng chuyển giao chéo ngôn ngữ giữa tiếng Hàn và Anh, khi tinh chỉnh hướng dẫn bằng một ngôn ngữ sẽ dẫn đến khả năng tuân theo hướng dẫn bằng ngôn ngữ kia.
- Kết quả kiểm tra đa ngôn ngữ cho thấy HyperCLOVA X có thể chuyển sang các ngôn ngữ châu Á ít xuất hiện trong dữ liệu tiền huấn luyện.
- AI có chủ quyền đang nổi lên như một năng lực quốc gia cần thiết để đảm bảo an ninh dữ liệu và giảm sự phụ thuộc vào các nhà cung cấp nước ngoài.
- Các mô hình ngôn ngữ lớn chính thống hiện tại có hạn chế trong xử lý và hiểu các ngôn ngữ không phải tiếng Anh như tiếng Hàn do sự chi phối quá mức của tiếng Anh và văn hóa Bắc Mỹ trong kho ngữ liệu tiền huấn luyện.
📌 HyperCLOVA X của Naver thể hiện khả năng lập luận đa ngôn ngữ vượt trội, đặc biệt với các ngôn ngữ châu Á, mở ra tiềm năng phát triển các mô hình ngôn ngữ lớn có chủ quyền cho khu vực. Trong tương lai, Naver sẽ tạo ra AI siêu quy mô chuyên biệt cho nhiều khu vực, quốc gia, đồng thời nghiên cứu tích hợp công cụ, API bên ngoài để mở rộng chức năng mô hình.
https://www.theregister.com/2024/04/08/naver_cloud_hyperclova_llm_sovereign_ai/
- Cách Trung Quốc quản lý ngành công nghệ có thể tưởng như khó lường, nhưng thực ra có quy luật rõ ràng theo 3 giai đoạn: nới lỏng cho phát triển, bất ngờ siết chặt và cuối cùng nới lỏng trở lại.
- Các ông lớn công nghệ Alibaba, Tencent từng được thoải mái mở rộng thâu tóm thị trường, đến năm 2020 chính phủ bất ngờ siết chặt, phạt nặng vi phạm chống độc quyền.
- Chính quyền địa phương thường bảo vệ các công ty công nghệ vì đóng góp thuế và việc làm. Tòa án chi nhiều nguồn lực giúp công ty fintech Lakala giải quyết hơn 130.000 vụ kiện khách hàng.
- AI được coi là then chốt để Trung Quốc đạt mục tiêu tự chủ công nghệ. Chính phủ đóng vai trò nhà hoạch định chính sách, ươm tạo, đầu tư vào startup AI, cung cấp nghiên cứu, khách hàng của ứng dụng AI.
- Quy định AI của Trung Quốc hiện nay lỏng lẻo hơn Mỹ và châu Âu, chỉ siết chặt kiểm soát nội dung chính trị. Các cơ quan chính phủ ủng hộ tăng trưởng đang thắng thế so với phe kiểm duyệt.
- Khi nào AI gây ra lạm dụng nghiêm trọng, đe dọa ổn định xã hội thì Trung Quốc mới quay sang siết chặt quy định một cách đột ngột.
📌Cách Trung Quốc quản lý ngành công nghệ có thể tưởng như khó lường, nhưng thực ra có quy luật rõ ràng theo 3 giai đoạn: nới lỏng cho phát triển, bất ngờ siết chặt và cuối cùng nới lỏng trở lại. Quy định AI của Trung Quốc hiện nay lỏng lẻo hơn Mỹ và châu Âu, chỉ siết chặt kiểm soát nội dung chính trị. Các cơ quan chính phủ ủng hộ tăng trưởng đang thắng thế so với phe kiểm duyệt. AI đang được ưu ái nới lỏng quy định để thúc đẩy tăng trưởng ngành, nhưng nếu xảy ra lạm dụng nghiêm trọng, chính phủ sẽ lập tức quay sang kiểm soát gắt gao bất ngờ.
Citations:
[1] https://www.technologyreview.com/2024/04/09/1091004/china-tech-regulation-harsh-zhang/
#MIT
- Ủy ban Thương mại Công bằng Hàn Quốc (KFTC) đã bắt đầu điều tra thị trường AI trong nước, tập trung vào ChatGPT và Google Gemini để xác định liệu có xảy ra tình trạng độc quyền và gây hại cho người tiêu dùng hay không.
- KFTC sẽ chú ý đến các công ty AI nước ngoài đang hoạt động tích cực trên thị trường nội địa, như OpenAI (ChatGPT) và Google (Gemini), vì sự độc quyền của họ có thể cản trở khả năng cạnh tranh của các công ty trong nước như Naver, Kakao và SK Telecom.
- Thị trường AI tạo sinh đang tăng trưởng nhanh chóng, với tốc độ tăng trưởng hàng năm trung bình dự kiến là 35.6% từ 11.3 tỷ USD (14.9 nghìn tỷ won) năm 2023 lên 51.8 tỷ USD (68.1 nghìn tỷ won) vào năm 2028.
- KFTC sẽ xem xét các vấn đề cấu trúc trong ngành AI, như cản trở sự gia nhập của các đối thủ mới hoặc hạn chế cạnh tranh, đồng thời đánh giá mối lo ngại về thông đồng thuật toán, bất lợi đối với nhà cung cấp nội dung và hạn chế sử dụng sau khi dịch vụ mở cửa.
- KFTC dự kiến sẽ đưa ra báo cáo chính sách về cả thị trường AI và thương mại điện tử, phác thảo cấu trúc của thị trường công nghệ mới nổi và định hướng chính sách để giải quyết các vấn đề liên quan đến cạnh tranh và người tiêu dùng.
- Một số ý kiến cho rằng KFTC sẽ xem xét nhu cầu lập pháp mới để điều chỉnh sự phát triển của các công nghệ mới nổi, vì Đạo luật Độc quyền và Thương mại Công bằng hiện tại có thể không đủ để ngăn chặn sự bóp méo thị trường và đảm bảo cạnh tranh công bằng.
📌 KFTC đang điều tra thị trường AI nội địa, tập trung vào ChatGPT và Google Gemini, để xác định liệu có xảy ra tình trạng độc quyền và gây hại cho người tiêu dùng hay không. Với tốc độ tăng trưởng dự kiến 35.6%/năm, thị trường AI tạo sinh đang phát triển nhanh chóng. KFTC sẽ đánh giá các vấn đề cấu trúc, thông đồng thuật toán và xem xét nhu cầu lập pháp mới để đảm bảo cạnh tranh công bằng.
https://www.chosun.com/english/national-en/2024/04/08/L5EPMOINVZBFZOKWGIRC6EFNUQ/
- Sailor là một họ các mô hình ngôn ngữ mở với số lượng tham số từ 0.5B đến 7B, được phát triển đặc biệt cho sự đa dạng ngôn ngữ của khu vực Đông Nam Á (SEA).
- Các mô hình Sailor dựa trên mô hình ngôn ngữ linh hoạt Qwen1.5 và được tiền huấn luyện liên tục trên một kho ngữ liệu lớn gồm 200B đến 400B token.
- Phần lớn kho ngữ liệu bao gồm tiếng Anh, tiếng Trung, tiếng Việt, tiếng Thái, tiếng Indonesia, tiếng Mã Lai và tiếng Lào.
- Quy trình huấn luyện sử dụng nhiều chiến lược như BPE dropout để tăng cường khả năng tổng quát hóa của mô hình và giảm thiểu vấn đề quá khớp.
- Các quy trình khử trùng lặp và làm sạch dữ liệu nghiêm ngặt được áp dụng để đảm bảo chất lượng của tập huấn luyện, từ đó cải thiện hiệu suất tổng thể của các mô hình Sailor.
- Tỷ lệ kết hợp dữ liệu huấn luyện được tối ưu hóa bằng cách sử dụng các mô hình proxy nhỏ, cho phép điều chỉnh siêu tham số và nâng cao hiệu quả của quá trình huấn luyện.
- Các thử nghiệm trên nhiều tác vụ như kiểm tra, trả lời câu hỏi, đọc hiểu và suy luận thông thường đã chứng minh tính mạnh mẽ và hữu ích của các mô hình Sailor so với các tiêu chuẩn đa dạng.
- Nghiên cứu trình bày một phương pháp toàn diện để phát triển các mô hình ngôn ngữ lớn (LLM) hoạt động hiệu quả trong sự đa dạng ngôn ngữ của khu vực SEA.
📌 Sailor là một bộ mô hình ngôn ngữ mở đầy hứa hẹn với số lượng tham số từ 0.5B đến 7B, được phát triển đặc biệt cho các ngôn ngữ Đông Nam Á. Dựa trên Qwen1.5 và được tiền huấn luyện trên kho ngữ liệu 200B-400B token, Sailor đạt hiệu suất vượt trội trên nhiều tác vụ nhờ các kỹ thuật như BPE dropout, làm sạch dữ liệu và tối ưu hóa tỷ lệ kết hợp dữ liệu huấn luyện.
https://www.marktechpost.com/2024/04/09/meet-sailor-a-family-of-open-language-models-ranging-from-0-5b-to-7b-parameters-for-southeast-asian-sea-languages/
https://arxiv.org/abs/2404.03608
- Đại hội đồng Liên Hợp Quốc đã thông qua dự thảo nghị quyết về cơ hội mà các hệ thống AI được quản lý mang lại cho sự phát triển bền vững và toàn diện trên toàn cầu, với sự ủng hộ của 123 quốc gia thành viên vào giữa tháng 3/2024.
- Nghị quyết không ràng buộc này nhằm khuyến khích các quốc gia thành viên, khu vực tư nhân, xã hội dân sự, tổ chức nghiên cứu và truyền thông phát triển và hỗ trợ các phương pháp tiếp cận quản lý và khung pháp lý liên quan đến các hệ thống AI an toàn, bảo mật và đáng tin cậy.
- Nghị quyết kêu gọi các quốc gia và các bên liên quan chống lại bất bình đẳng kỹ thuật số bằng cách hợp tác và hỗ trợ các nước đang phát triển tiếp cận công bằng và bao trùm các lợi ích của chuyển đổi kỹ thuật số và hệ thống AI an toàn, bảo mật.
- Các hành động được khuyến khích bao gồm nâng cao nhận thức và hiểu biết của công chúng về cách sử dụng hệ thống AI; tăng cường kiến thức về truyền thông và thông tin; thúc đẩy các hệ thống AI bảo tồn đa dạng văn hóa và ngôn ngữ.
- Nghị quyết kêu gọi các nước kiềm chế hoặc ngừng sử dụng các hệ thống AI không thể vận hành tuân thủ luật pháp quốc tế về nhân quyền hoặc gây ra rủi ro quá mức đối với việc thụ hưởng các quyền con người.
- Nghị quyết nhấn mạnh tầm quan trọng của việc thảo luận liên tục về sự phát triển trong quản trị AI để đảm bảo quy định quốc tế phù hợp với sự phát triển nhanh chóng của hệ thống AI.
📌 Nghị quyết lịch sử của Liên Hợp Quốc với sự ủng hộ của 123 quốc gia thành viên đánh dấu bước tiến quan trọng trong việc quản lý lĩnh vực AI, hướng tới phát triển bền vững, bao trùm, bảo vệ nhân quyền và thu hẹp khoảng cách kỹ thuật số giữa các quốc gia.
https://www.computerweekly.com/news/366580096/UN-adopts-landmark-resolution-on-making-AI-safe-and-trustworthy
- NTT và Yomiuri Shimbun sẽ công bố tuyên ngôn AI kêu gọi luật pháp kiểm soát nhanh chóng AI tạo sinh, cảnh báo dân chủ và trật tự xã hội có thể sụp đổ nếu AI không được kiểm soát.
- Tuyên ngôn chỉ ra các công cụ AI đã bắt đầu làm tổn hại nhân phẩm con người vì đôi khi chúng được thiết kế để thu hút sự chú ý của người dùng mà không quan tâm đến đạo đức hay tính chính xác.
- Nếu AI không bị kiềm chế, trong trường hợp xấu nhất, dân chủ và trật tự xã hội có thể sụp đổ, dẫn đến chiến tranh.
- Tuyên ngôn kêu gọi Nhật Bản ngay lập tức thực hiện các biện pháp, bao gồm luật bảo vệ bầu cử và an ninh quốc gia khỏi sự lạm dụng AI tạo sinh.
- Liên minh Châu Âu đã thông qua luật hạn chế một số cách sử dụng AI, yêu cầu các nhà sản xuất mô hình AI mạnh nhất đánh giá an toàn và thông báo cho cơ quan quản lý về các sự cố nghiêm trọng.
- Chính quyền Biden cũng tăng cường giám sát, buộc các công ty AI lớn thông báo cho chính phủ khi phát triển các hệ thống gây rủi ro nghiêm trọng cho an ninh quốc gia.
- NTT và Yomiuri cho biết tuyên ngôn của họ xuất phát từ mối quan tâm về diễn ngôn công khai. Hai công ty này là một trong những công ty có ảnh hưởng nhất về chính sách ở Nhật Bản.
- NTT tích cực nghiên cứu AI và cung cấp sản phẩm AI tạo sinh cho khách hàng doanh nghiệp. Công ty tin rằng công nghệ này có những rủi ro đặc biệt nếu bị lạm dụng để thao túng dư luận.
📌 Tuyên ngôn AI của NTT và Yomiuri Shimbun cảnh báo về nguy cơ sụp đổ trật tự xã hội nếu AI tạo sinh không được kiểm soát. Hai công ty kêu gọi Nhật Bản nhanh chóng ban hành luật để bảo vệ bầu cử và an ninh quốc gia, trong bối cảnh lo ngại gia tăng về các chương trình AI do các công ty Mỹ phát triển. NTT tích cực nghiên cứu AI và cung cấp sản phẩm AI tạo sinh cho khách hàng doanh nghiệp. Công ty tin rằng công nghệ này có những rủi ro đặc biệt nếu bị lạm dụng để thao túng dư luận.
https://www.wsj.com/tech/ai/social-order-could-collapse-in-ai-era-two-top-japan-companies-say-1a71cc1d
#WSJ
- IBM và chính phủ Tây Ban Nha công bố thỏa thuận hợp tác nhằm phát triển và triển khai các công nghệ AI tiên tiến, bao gồm một mô hình ngôn ngữ lớn nguồn mở bằng tiếng Tây Ban Nha.
- Mục tiêu là xây dựng mô hình ngôn ngữ lớn tiếng Tây Ban Nha hàng đầu thế giới, cách mạng hóa cách các quốc gia và tổ chức nói tiếng Tây Ban Nha có thể kinh doanh trong kỷ nguyên AI.
- AI tạo sinh đã tác động đến hầu hết mọi ngành công nghiệp chỉ sau một đêm, nhưng phần lớn công việc cho đến nay được thực hiện bằng tiếng Anh.
- Tiếng Tây Ban Nha là ngôn ngữ được sử dụng nhiều thứ hai trên thế giới với gần nửa tỷ người bản ngữ. Nếu không có công cụ mạnh mẽ được đào tạo trên tài liệu tiếng Tây Ban Nha, hàng trăm triệu người và vô số doanh nghiệp sẽ gặp khó khăn trong việc tiếp cận các ứng dụng AI hiện đại chỉ được đào tạo bằng tiếng Anh.
- Darío Gil, Phó Chủ tịch cấp cao của IBM kiêm Giám đốc IBM Research, đã gặp gỡ Thủ tướng Tây Ban Nha Pedro Sánchez tại Cung điện La Moncloa ở Madrid, trụ sở của Chính phủ Tây Ban Nha.
📌 Thỏa thuận hợp tác giữa IBM và chính phủ Tây Ban Nha nhằm xây dựng mô hình ngôn ngữ lớn tiếng Tây Ban Nha hàng đầu thế giới, mang công nghệ AI tiên tiến đến gần nửa tỷ người nói tiếng Tây Ban Nha, cách mạng hóa cách các quốc gia và doanh nghiệp nói tiếng Tây Ban Nha hoạt động trong kỷ nguyên AI.
https://research.ibm.com/blog/new-spanish-llm-ai
- AI đang được sử dụng ngày càng nhiều trong hệ thống pháp luật của Mỹ để nhận dạng khuôn mặt, vũ khí, biển số xe, hành vi đáng ngờ, phân tích DNA, xử lý bằng chứng, dự báo tội phạm...
- Các luật bảo mật thương mại đang chặn sự giám sát công khai về cách thức hoạt động của các công cụ AI này, tạo ra một "hộp đen" trong hệ thống tư pháp hình sự.
- Không có tiêu chuẩn nào về việc khi nào và như thế nào AI có thể được sử dụng và khi nào phải tiết lộ.
- Nghiên cứu cho thấy các công cụ như nhận dạng khuôn mặt dễ bị sai lệch, ví dụ: nhận dạng sai người da màu vì được huấn luyện chủ yếu trên khuôn mặt da trắng.
- Các sản phẩm của Amazon, IBM, Microsoft đều gặp vấn đề này trong nghiên cứu Gender Shades của MIT, với tỷ lệ lỗi lên tới 33% khi nhận dạng phụ nữ da đen.
- Cảnh sát thường coi kết quả nhận dạng khuôn mặt là manh mối để điều tra thêm chứ không phải bằng chứng. Nhưng nếu tìm thấy bằng chứng bổ sung, đó sẽ là cơ sở để truy tố mà không tiết lộ việc sử dụng AI.
- Các nhà sáng tạo mô hình học máy pháp y bảo vệ tính mờ đục của sản phẩm bằng lý do tiết lộ sẽ dẫn đến tiết lộ bí mật thương mại. Tuy nhiên, họ ủng hộ quy định của chính phủ về việc sử dụng trong tư pháp hình sự.
- Luật sư bào chữa gặp khó khăn cao để chứng minh lỗi trong một manh mối của AI. Họ phải chứng minh mã nguồn AI có khả năng "cần thiết" cho vụ án hình sự.
- Các thẩm phán thường không thấy sự liên quan nếu các manh mối do AI tạo ra không được coi là bằng chứng. Cảnh sát thường không tiết lộ việc sử dụng AI.
- Nguy cơ "dữ liệu bẩn" duy trì sự bất công trong các ứng dụng khác nhau của AI như đánh giá rủi ro, dự báo tội phạm là "rất lớn".
- Chính quyền Biden đã công bố một loạt nỗ lực để đảm bảo các công cụ AI không gây hại cho người Mỹ, nhưng các biện pháp này không có hiệu lực pháp luật.
- Dự luật do Takano và Evans tài trợ sẽ cấm sử dụng đặc quyền bí mật thương mại để từ chối việc luật sư bào chữa chất vấn AI pháp y, yêu cầu thử nghiệm và thẩm định trước khi sử dụng.
📌 AI đang đóng vai trò ngày càng lớn trong hệ thống pháp luật Mỹ nhưng thiếu sự giám sát và minh bạch, dẫn đến nguy cơ sai lệch và bất công cao, đặc biệt với người da màu. Mặc dù chính quyền đã có một số nỗ lực, nhưng cần có luật mạnh hơn để buộc phải thử nghiệm, thẩm định và tiết lộ việc sử dụng AI trong tư pháp hình sự.
Citations:
[1] https://thehill.com/business/personal-finance/4571982-ai-black-box-legal-system/
- Chính phủ Canada công bố gói hỗ trợ trị giá 2.4 tỷ CAD (1.8 tỷ USD) cho ngành AI.
- Trọng tâm là 2 tỷ CAD cho "khả năng tính toán và cơ sở hạ tầng công nghệ" nhằm thúc đẩy nghiên cứu AI, startup và các công ty khác.
- Các khoản tiền khác sẽ được phân bổ để đẩy nhanh việc áp dụng AI trong nông nghiệp và chăm sóc sức khỏe.
- Thủ tướng Trudeau cho biết gói hỗ trợ sẽ giúp Canada tận dụng tiềm năng của AI, tạo việc làm tốt cho người dân, tăng năng suất và phát triển kinh tế.
- Montreal, trung tâm AI của Canada, nơi có sự hiện diện của nhà nghiên cứu AI nổi tiếng Yoshua Bengio.
- Bengio cùng Elon Musk và đồng sáng lập Apple Steve Wozniak kêu gọi tạm dừng huấn luyện các mô hình AI mạnh mẽ.
- Chính phủ thành lập Viện An toàn AI Canada với ngân sách 50 triệu CAD. Bengio hoan nghênh động thái này.
- Canada chưa thông qua Đạo luật AI và Dữ liệu được đề xuất từ năm 2022.
- Năm 2022, Canada có hơn 140.000 chuyên gia AI. Gần 30% hoạt động đầu tư mạo hiểm (8.6 tỷ CAD) liên quan đến AI.
- Chính phủ Canada sẽ yêu cầu thông báo trước khi các công ty nước ngoài đầu tư vào các lĩnh vực công nghệ then chốt như AI và điện toán lượng tử.
📌 Canada đang đẩy mạnh đầu tư vào ngành AI với gói hỗ trợ 1,8 tỷ USD, tập trung vào cơ sở hạ tầng công nghệ. Tuy nhiên, nước này vẫn chưa có luật điều chỉnh AI. Việc thành lập Viện An toàn AI mới với ngân sách 50 triệu CAD cho thấy Canada đang quan tâm đến vấn đề an toàn và đạo đức trong phát triển AI. Năm 2022, Canada có hơn 140.000 chuyên gia AI. Gần 30% hoạt động đầu tư mạo hiểm (8.6 tỷ CAD) liên quan đến AI.
https://www.bloomberg.com/news/articles/2024-04-07/trudeau-unveils-1-8-billion-plan-to-boost-ai-sector-in-canada
- Các nhà nghiên cứu từ NAVER Cloud giới thiệu HyperCLOVA X, tập trung vào tiếng Hàn và văn hóa Hàn Quốc trong khi duy trì thành thạo tiếng Anh và lập trình.
- Sự đổi mới nằm ở sự cân bằng dữ liệu tiếng Hàn, tiếng Anh và mã lập trình, được tinh chỉnh thông qua hướng dẫn trên các bộ dữ liệu chú thích bởi con người chất lượng cao dưới các nguyên tắc an toàn nghiêm ngặt.
- Phương pháp của HyperCLOVA X tích hợp các cải tiến kiến trúc transformer, cụ thể là nhúng vị trí quay và tập trung vào truy vấn theo nhóm, để mở rộng hiểu biết ngữ cảnh và sự ổn định đào tạo.
- Mô hình trải qua Tinh chỉnh có giám sát (SFT) sử dụng các bộ dữ liệu minh họa được chú thích bởi con người, tiếp theo là Học tăng cường từ phản hồi của con người (RLHF) để sắp xếp đầu ra phù hợp với các giá trị của con người.
- HyperCLOVA X đạt độ chính xác 72,07% trong các điểm chuẩn tiếng Hàn toàn diện, vượt qua các tiền nhiệm và thiết lập tiêu chuẩn mới cho việc hiểu ngôn ngữ tiếng Hàn. Nó đạt tỷ lệ chính xác 58,25% trong các tác vụ lập luận tiếng Anh.
- HyperCLOVA X thể hiện tính linh hoạt trong các thử thách lập trình bằng cách đạt tỷ lệ thành công 56,83%, thể hiện sự thành thạo trong các tác vụ ngôn ngữ và đánh giá lập trình kỹ thuật.
📌 HyperCLOVA X của NAVER Cloud đạt được hiểu biết ngôn ngữ và điểm chuẩn lập trình đáng kể với độ chính xác 72,07% cho tiếng Hàn, 58,25% cho tiếng Anh và tỷ lệ thành công 56,83% trong lập trình. Mô hình tích hợp kiến trúc transformer tiên tiến và học liệu, đồng thời chú trọng đến an toàn và đạo đức, thúc đẩy đáng kể khả năng thích ứng ngôn ngữ và văn hóa của AI.
https://www.marktechpost.com/2024/04/06/naver-cloud-researchers-introduce-hyperclova-x-a-multilingual-language-model-tailored-to-korean-language-and-culture/
- Các công ty công nghệ và chính phủ không nên là những thực thể quyết định các giá trị và ý tưởng mà AI được phép thể hiện. Thay vào đó, người dùng nên được trao quyền kiểm soát AI.
- Các chiến lược để trao quyền cho người dùng bao gồm:
• Cho phép người dùng lựa chọn các hàng rào bảo vệ thông qua cơ chế thị trường bằng cách khuyến khích sự đa dạng của các mô hình tinh chỉnh (fine-tuned models).
• Người dùng, nhà báo, tổ chức tôn giáo, xã hội dân sự... có thể tạo ra các phiên bản tùy chỉnh của các mô hình nguồn mở phản ánh giá trị của họ.
• Đối với các hàng rào bảo vệ trung tâm áp dụng cho tất cả các mô hình, cần có cơ chế dân chủ để người dùng đưa ra đề xuất, tranh luận và bỏ phiếu.
- Một số công ty công nghệ đã thử nghiệm dân chủ trong AI như Meta, OpenAI, Anthropic. Tuy nhiên, cần làm nhiều hơn nữa để trao quyền thực sự cho người dùng.
- Bài học từ các thử nghiệm dân chủ trong web3:
• Gắn quyền bỏ phiếu với token có giá trị sử dụng
• Khuyến khích người dùng ủy quyền cho các chuyên gia được xác thực
• Tạo hệ thống phần thưởng khuyến khích sự tham gia
• Đưa hệ thống bỏ phiếu vào hiến pháp rộng hơn quy định phạm vi, quyền phủ quyết của công ty...
- Các nền tảng có thể bắt đầu thử nghiệm dân chủ với quy mô nhỏ, sau đó mở rộng dần quyền lực theo thời gian.
📌Các công ty công nghệ và chính phủ không nên là những thực thể quyết định các giá trị và ý tưởng mà AI được phép thể hiện. Thay vào đó, người dùng nên được trao quyền kiểm soát AI
https://venturebeat.com/ai/how-to-keep-humans-in-charge-of-ai/
• Một thẩm phán ở Washington đã chặn bằng chứng video được "tăng cường bằng AI" trong một vụ án giết người hàng loạt, vì công nghệ AI chỉ đơn giản là thêm thông tin mà không phải thông tin gốc có trong video.
• Thẩm phán Leroy McCullough cho rằng việc sử dụng công nghệ AI để tăng cường video sẽ gây ra "sự nhầm lẫn về vấn đề và làm rối tình tiết nhân chứng".
• Vụ án liên quan đến Joshua Puloka, 46 tuổi, bị cáo buộc giết 3 người và làm bị thương 2 người khác tại một quán bar ngoại ô Seattle năm 2021.
• Luật sư của Puloka muốn đưa ra video từ điện thoại di động của một người đứng xem được tăng cường bằng AI, nhưng không rõ họ tin rằng có thể thu được gì từ đoạn video đã được chỉnh sửa.
• Công nghệ tăng cường hình ảnh bằng AI không cung cấp thông tin hình ảnh rõ ràng hơn, mà chỉ đơn thuần thêm thông tin mới vào hình ảnh.
• Nhiều người tin rằng chạy hình ảnh hoặc video qua các công cụ tăng cường AI có thể cho họ cái nhìn sâu hơn về thông tin hình ảnh đã có, nhưng trên thực tế, phần mềm AI chỉ đơn giản thêm thông tin mới chứ không phải thông tin gốc.
📌 Thẩm phán ở Washington đã chặn bằng chứng video được tăng cường bằng AI vì công nghệ này chỉ thêm thông tin mới mà không phải thông tin gốc có trong video, có thể gây nhầm lẫn và làm rối tình tiết nhân chứng.
https://gizmodo.com/ai-image-chatgpt-court-ban-video-evidence-enhanced-llm-1851382045
- Mỹ và Anh ký Bản ghi nhớ hợp tác để tạo ra cách tiếp cận chung trong việc đánh giá độc lập tính an toàn của các mô hình AI tiên tiến nhất khi chúng ra mắt.
- Viện An toàn AI của Anh và cơ quan tương ứng tại Mỹ sẽ phát triển các bộ kiểm tra để đánh giá rủi ro và đảm bảo an toàn cho các mô hình AI.
- Họ dự định chia sẻ kiến thức kỹ thuật, thông tin và thậm chí cả nhân sự. Một trong những mục tiêu ban đầu là thực hiện kiểm tra chung trên một mô hình AI công khai.
- Bộ trưởng Khoa học Anh Michelle Donelan cho biết cần hành động nhanh chóng vì thế hệ mô hình AI mới dự kiến sẽ ra mắt trong năm tới, có thể là "thay đổi cuộc chơi hoàn toàn".
- Đây là thỏa thuận song phương đầu tiên trên thế giới về an toàn AI. Cả Mỹ và Anh đều có ý định hợp tác với các nước khác trong tương lai.
- Bộ trưởng Thương mại Mỹ Gina Raimondo: "AI là công nghệ định hình thế hệ chúng ta. Sự hợp tác này sẽ thúc đẩy công việc của cả hai Viện trên toàn bộ phổ rủi ro, từ an ninh quốc gia đến xã hội rộng lớn hơn."
- Bên cạnh việc kiểm tra và đánh giá, các chính phủ trên toàn thế giới cũng đang xây dựng các quy định để kiểm soát công cụ AI.
- Tháng 3/2023, Nhà Trắng ký sắc lệnh hành pháp nhằm đảm bảo các cơ quan liên bang chỉ sử dụng công cụ AI không gây nguy hiểm cho quyền và sự an toàn của người dân Mỹ.
- Nghị viện châu Âu phê duyệt luật toàn diện để quản lý AI, cấm AI thao túng hành vi con người, khai thác điểm yếu, hệ thống phân loại sinh trắc học dựa trên đặc điểm nhạy cảm, thu thập khuôn mặt không mục đích từ CCTV và web.
- Deepfake và hình ảnh, video, âm thanh do AI tạo ra sẽ phải được dán nhãn rõ ràng theo quy định.
📌 Mỹ và Anh đã ký thỏa thuận hợp tác song phương đầu tiên trên thế giới về an toàn AI, nhằm tạo ra cách tiếp cận chung trong việc đánh giá độc lập tính an toàn của các mô hình AI tiên tiến nhất. Họ sẽ chia sẻ kiến thức, thông tin và nhân sự để phát triển các bộ kiểm tra đánh giá rủi ro. Bên cạnh đó, các chính phủ cũng đang xây dựng quy định để kiểm soát AI, như cấm AI thao túng hành vi con người hay bắt buộc dán nhãn rõ ràng cho deepfake.
https://www.engadget.com/the-us-and-uk-are-teaming-up-to-test-the-safety-of-ai-models-063002266.html
- Ứng dụng VerifEye do công ty Converus tạo ra, tuyên bố có thể phát hiện nói dối với độ chính xác lên đến 80% bằng cách sử dụng AI.
- Ứng dụng tập trung vào việc phát hiện các chuyển động và hành vi không tự nguyện của mắt để xác định tính trung thực.
- Ý tưởng về mắt có thể cho biết ai đó đang nói dối đã xuất hiện từ những năm 1970, mặc dù một lý thuyết phổ biến về chuyển động mắt đã bị bác bỏ vào năm 2012.
- VerifEye không tuân theo công thức này, mà dựa trên nhiều nghiên cứu bổ sung về khoa học sử dụng dữ liệu mắt để phát hiện sự lừa dối.
- Công ty quảng cáo ứng dụng này như thể mọi người sẽ sử dụng nó trong cuộc sống hàng ngày, không chỉ dành cho các tổ chức.
- Họ đề cập đến việc sử dụng ứng dụng để xác định tính xác thực của một người trên mạng hoặc thậm chí để phát hiện sự không chung thủy.
- Tuyên bố về độ chính xác 80% khó có thể được chấp nhận tại tòa án, đặc biệt là với Đạo luật AI gần đây của Liên minh Châu Âu.
- Ứng dụng này thậm chí có thể bị coi là bất hợp pháp ở một số nơi do những hàm ý đằng sau nó.
- Mặc dù vậy, đây là một phần đang phát triển của ngành công nghiệp và có thể thay đổi trong tương lai.
- Tác giả bài viết nghi ngờ về tính hữu ích của ứng dụng như tuyên bố của công ty.
- Những nghi ngờ và câu hỏi này không ngăn cản những người khác lo lắng về một tương lai đầy áp bức, nơi AI liên tục theo dõi mọi hành động của con người.
- Tất cả những điều này càng trở nên phức tạp hơn khi AI biết cách lừa dối con người.
📌 VerifEye, ứng dụng tuyên bố sử dụng AI để phát hiện nói dối với độ chính xác 80%, đang gây tranh cãi. Mặc dù dựa trên nghiên cứu về hành vi mắt, tính hợp pháp và hữu ích của ứng dụng vẫn bị nghi ngờ. Trong bối cảnh Đạo luật AI mới của EU, tương lai của các ứng dụng như vậy vẫn chưa rõ ràng.
https://bgr.com/tech/this-free-app-claims-to-use-ai-to-tell-if-someone-is-lying/
- Chương trình NAIRR của chính phủ Mỹ nhằm "dân chủ hóa" AI bằng cách cung cấp quyền truy cập vào các mô hình AI lớn và đắt tiền cho các nhà nghiên cứu.
- Tuy nhiên, Sarah Myers West, Giám đốc Viện AI Now, nghi ngờ về mục tiêu của sáng kiến này. Bà cho rằng chính phủ không thể tự triển khai chương trình AI mà không có sự hợp tác có khả năng sinh lợi cho các công ty công nghệ lớn.
- Ngành công nghiệp công nghệ hiện nay rất tập trung, đặc biệt là trong lĩnh vực AI. Một số ít các công ty công nghệ lớn nắm giữ phần lớn các nguồn lực cần thiết để phát triển AI.
- Phiên bản thử nghiệm của NAIRR quy tụ nhiều cơ quan chính phủ và các công ty công nghệ lớn như OpenAI, Anthropic, Nvidia. Nó cung cấp quyền truy cập vào siêu máy tính của chính phủ, bộ dữ liệu của chính phủ và API từ các công ty công nghệ lớn cho các nhà nghiên cứu.
- Trong phiên bản NAIRR hiện tại, một số công ty công nghệ lớn nhất có thể hưởng lợi từ dòng tiền của người đóng thuế vào thị trường AI tập trung này. Các hợp đồng cấp phép cuối cùng có thể chảy vào các công ty điện toán đám mây lớn nhất như Google, Amazon, Microsoft.
- Bà West nghi ngờ liệu việc "dân chủ hóa" AI theo cách này có thực sự mang lại lợi ích cho xã hội hay chỉ phục vụ động cơ lợi nhuận của một số ít công ty. Bà cho rằng cần có cuộc thảo luận rộng rãi hơn về loại AI nào chúng ta muốn xây dựng và vấn đề xã hội nào chúng ta muốn giải quyết.
- Mặc dù AI đang phát triển nhanh chóng, nhưng vẫn còn nhiều cơ hội để định hình lại cấu trúc khuyến khích và mục tiêu của ngành này theo hướng có lợi cho tất cả mọi người.
📌 Chương trình NAIRR của chính phủ Mỹ nhằm "dân chủ hóa" AI, nhưng một số chuyên gia lo ngại nó có thể chủ yếu mang lại lợi ích cho các công ty công nghệ lớn vốn đang thống trị thị trường AI tập trung. Thay vì chỉ tập trung "dân chủ hóa", cần có cuộc thảo luận rộng rãi hơn về việc định hình tương lai của AI theo hướng phục vụ lợi ích của toàn xã hội.
Citations:
[1] https://www.marketplace.org/shows/marketplace-tech/who-benefits-from-a-national-ai-program/
- Hillary Clinton cảnh báo AI đặt ra mối đe dọa ở cấp độ hoàn toàn khác so với mạng xã hội, với deepfake và nội dung do AI tạo ra rất khó phân biệt thật giả.
- Các diễn giả tại sự kiện do Viện Aspen và Đại học Columbia tổ chức đề xuất các công ty công nghệ và chính phủ cần tạo ra các hàng rào bảo vệ mới, đồng thời giáo dục công chúng cách tránh bị lừa bởi thông tin sai lệch.
- Một số diễn giả như Hillary Clinton, cựu CEO Google Eric Schmidt và CEO Rappler Maria Ressa kêu gọi Quốc hội cải cách Mục 230 của Đạo luật Chuẩn mực Truyền thông.
- Cựu Bộ trưởng An ninh Nội địa Mỹ Michael Chertoff lo ngại trong thế giới đầy rẫy deepfake, mọi người có thể cho rằng mọi thứ đều là giả mạo, tạo cơ hội cho các chính phủ độc tài hành động tùy ý.
- Eric Schmidt cho rằng vấn đề thông tin sai lệch sẽ trở nên tồi tệ hơn nếu không có biện pháp như quy tắc thời lượng ngang bằng trên truyền hình ngày xưa.
- Ủy viên Ủy ban Bầu cử Liên bang Dana Lindenbaum thấy cả 2 đảng đều lo ngại và dự đoán sẽ có thay đổi trong tương lai, dù khó xảy ra trước tháng 11/2024.
📌 Trước cuộc bầu cử Mỹ 2024, các quan chức cảnh báo AI đặt ra mối đe dọa lớn hơn nhiều so với mạng xã hội. Hillary Clinton và Eric Schmidt kêu gọi cải cách Mục 230, các công ty công nghệ và chính phủ cần tạo hàng rào bảo vệ mới và giáo dục công chúng về nội dung AI. Tuy nhiên, việc thay đổi khó diễn ra trước tháng 11 tới.
Citations:
[1] https://digiday.com/media/ai-briefing-hillary-clinton-and-googles-eric-schmidt-both-suggest-section-230-reform/
- Chính quyền Tổng thống Mỹ Joe Biden đang tìm cách đẩy nhanh các cuộc đàm phán với các công ty công nghệ khi nhu cầu điện năng để cung cấp cho các trung tâm dữ liệu AI ngày càng tăng.
- Bộ trưởng Năng lượng Jennifer Granholm cho rằng nhu cầu điện năng gia tăng là một "vấn đề", nhưng AI có thể giúp giải quyết vấn đề này.
- Một giải pháp được đề xuất là sử dụng năng lượng hạt nhân. Bộ Năng lượng Mỹ đang cân nhắc ý tưởng đặt các nhà máy điện hạt nhân quy mô nhỏ gần các trung tâm dữ liệu AI khổng lồ của các công ty công nghệ.
- Năm 2023, khoảng 18,6% điện năng của Mỹ được sản xuất từ năng lượng hạt nhân. Nếu Bộ Năng lượng thuyết phục được các công ty công nghệ sử dụng năng lượng hạt nhân, điều này có thể giải quyết nhu cầu tính toán AI và thúc đẩy sử dụng năng lượng sạch ở Mỹ.
- Một số công ty công nghệ lớn như Microsoft đã bắt đầu đầu tư mạnh vào nhiệt hạch, ký hợp đồng mua điện từ máy phát điện nhiệt hạch của Helion Energy.
- Microsoft và OpenAI được cho là đang thảo luận về một siêu máy tính mới có thể tiêu thụ "ít nhất vài gigawatt" điện năng.
- Một lựa chọn khác là sử dụng lò phản ứng modun nhỏ phân hạch hạt nhân, nhưng chi phí cao là một rào cản. Bộ Năng lượng đang cố gắng giảm chi phí để các công ty sẵn sàng cân nhắc sử dụng.
- Các công ty như Microsoft, Google, OpenAI, Amazon và Meta tiếp tục xây dựng các trung tâm dữ liệu và tập trung nghiên cứu AI. Chip Nvidia, AMD và các chip tùy chỉnh khác đòi hỏi rất nhiều điện năng, có thể lên tới hàng megawatt hoặc gigawatt cho một trung tâm dữ liệu.
📌 Chính phủ Mỹ đang tìm cách đáp ứng nhu cầu điện năng ngày càng tăng của các trung tâm dữ liệu AI, xem xét giải pháp sử dụng năng lượng hạt nhân như nhiệt hạch và phân hạch. Năm 2023, 18,6% điện năng Mỹ được sản xuất từ hạt nhân. Các công ty công nghệ lớn như Microsoft đã bắt đầu đầu tư vào nhiệt hạch. Tuy nhiên, chi phí cao là một rào cản cần vượt qua.
https://www.tomshardware.com/tech-industry/artificial-intelligence/us-govt-wants-to-talk-to-tech-companies-about-ai-electricity-demands-eyes-nuclear-fusion-and-fission
- Quốc hội Mỹ đã đặt ra lệnh cấm nghiêm ngặt đối với việc nhân viên quốc hội sử dụng trợ lý AI Copilot của Microsoft.
- Văn phòng An ninh mạng cho rằng ứng dụng Microsoft Copilot gây rủi ro cho người dùng do nguy cơ rò rỉ dữ liệu của Hạ viện sang các dịch vụ đám mây chưa được phê duyệt.
- Microsoft thừa nhận rằng người dùng chính phủ có yêu cầu bảo mật dữ liệu cao hơn.
- Microsoft tuyên bố sẽ cung cấp lộ trình các công cụ AI, như Copilot, đáp ứng các yêu cầu bảo mật và tuân thủ của chính phủ liên bang vào cuối năm nay.
- Các nhà hoạch định chính sách đang xem xét các rủi ro tiềm ẩn trong việc các cơ quan liên bang áp dụng trí tuệ nhân tạo và tính đầy đủ của các biện pháp bảo vệ quyền riêng tư cá nhân và đảm bảo đối xử công bằng.
- Năm ngoái, 4 thượng nghị sĩ Mỹ (2 đảng Dân chủ và 2 đảng Cộng hòa) đã đệ trình dự luật cấm sử dụng AI tạo ra nội dung giả mạo các ứng cử viên trong quảng cáo chính trị nhằm gây ảnh hưởng đến các cuộc bầu cử liên bang.
📌 Quốc hội Mỹ cấm nhân viên sử dụng trợ lý AI Copilot của Microsoft do lo ngại rò rỉ dữ liệu. Microsoft cam kết sẽ cung cấp các công cụ AI đáp ứng yêu cầu bảo mật cao của chính phủ vào cuối năm nay. Các nhà hoạch định chính sách đang xem xét rủi ro và biện pháp bảo vệ khi áp dụng AI trong các cơ quan liên bang.
https://www.reuters.com/technology/us-congress-bans-staff-use-microsofts-ai-copilot-axios-reports-2024-03-29/
- Các chuyên gia pháp lý, nhà lập pháp và ít nhất một thẩm phán Tòa án Tối cao đồng ý rằng các công ty sẽ phải chịu trách nhiệm về những gì AI của họ nói và làm, đặc biệt khi chúng mắc sai lầm. Điều này áp dụng cho cả các công ty công nghệ lớn như Google, Microsoft và các startup như Anthropic, OpenAI.
- Mọi công ty sử dụng AI tạo sinh có thể phải chịu trách nhiệm theo luật chi phối trách nhiệm đối với ngôn từ gây hại và luật chi phối trách nhiệm đối với sản phẩm bị lỗi. Một số chuyên gia pháp lý cho rằng điều này có thể tạo ra làn sóng kiện tụng đối với các công ty ở mọi quy mô.
- Mục 230 của Đạo luật Truyền thông Lịch sự năm 1996 bảo vệ các nền tảng internet không phải chịu trách nhiệm về những gì người dùng nói trên đó. Tuy nhiên, Mục 230 không bao gồm ngôn từ do AI của công ty tạo ra.
- Thẩm phán Tòa án Tối cao Neil Gorsuch tuyên bố rằng các công ty AI và các công ty sử dụng AI sẽ không được bảo vệ bởi luật hiện hành.
- OpenAI đang bị kiện vì tội phỉ báng trong ít nhất 2 vụ việc, trong đó có 1 vụ người dẫn chương trình radio ở Georgia cáo buộc chatbot của công ty đã viết câu trả lời vu khống ông biển thủ. OpenAI lập luận rằng họ không chịu trách nhiệm về nội dung chatbot tạo ra.
- Các chuyên gia pháp lý cho rằng sẽ mất thời gian để tìm hiểu AI có thể gây ra những tổn hại nào. Trong khi đó, sự không chắc chắn về mặt pháp lý đối với các công ty sử dụng AI tạo sinh có thể tạo ra rủi ro pháp lý không bền vững cho nhiều công ty.
📌 Các công ty sử dụng AI tạo sinh có thể phải đối mặt với nhiều vụ kiện tụng và trách nhiệm pháp lý đáng kể, do Mục 230 của Đạo luật Truyền thông Lịch sự năm 1996 không bảo vệ họ. Điều này có thể cản trở sự phát triển của lĩnh vực AI. Tuy nhiên, một số ý kiến cho rằng việc giới hạn cách sử dụng công cụ AI tạo sinh ngày nay có thể giúp giảm thiểu rủi ro pháp lý.
Citations:
[1] https://www.wsj.com/tech/ai/the-ai-industry-is-steaming-toward-a-legal-iceberg-5d9a6ac1
#WSJ
- Đạo luật AI của EU dự kiến sẽ có hiệu lực vào tháng 5 hoặc tháng 6, buộc các công ty phải phát triển và triển khai công nghệ AI một cách có trách nhiệm.
- Đạo luật phân loại các trường hợp sử dụng AI thành các mức độ rủi ro khác nhau: không chấp nhận được, cao, trung bình hoặc thấp. Các trường hợp sử dụng không chấp nhận được sẽ bị cấm.
- Các tổ chức triển khai AI sẽ phải đánh giá kỹ lưỡng các trường hợp sử dụng thông qua một lăng kính rủi ro và kiểm toán để đảm bảo tuân thủ, tránh các hình phạt tiềm ẩn.
- Các tổ chức giới thiệu hoặc vận hành hệ thống AI trên thị trường EU, bất kể trụ sở chính ở đâu, đều phải tuân theo các quy tắc.
- Tương tự như GDPR, Đạo luật AI của EU được kỳ vọng sẽ có ảnh hưởng quốc tế. Nếu các tổ chức Mỹ đáp ứng các yêu cầu của Đạo luật AI, họ có thể sẽ tuân thủ hoặc gần tuân thủ với các quy định trong tương lai.
- Việc điều chỉnh AI sẽ khó khăn hơn nhiều so với điều chỉnh dữ liệu cá nhân. EU cần tạo ra các thực thể khác nhau ở cấp EU và cấp quốc gia thành viên để thực thi hiệu quả các quy tắc.
- Các giám đốc CNTT có thể bắt đầu chuẩn bị cho tổ chức của mình bằng cách nắm rõ công cụ nào đang được sử dụng và cho mục đích gì. Tích lũy hàng tồn kho công cụ và xác định các trường hợp sử dụng cụ thể sẽ giúp phân loại rủi ro.
- Một số tổ chức đã suy nghĩ về triển khai AI và AI tạo sinh với một lăng kính tập trung vào trường hợp sử dụng thay vì quản lý bằng một chiến lược phù hợp cho tất cả.
📌 Đạo luật AI của EU sẽ buộc các công ty Mỹ phải đánh giá nghiêm ngặt các trường hợp sử dụng AI thông qua lăng kính rủi ro, kiểm toán kỹ lưỡng để tuân thủ và tránh các hình phạt tiềm ẩn lên tới 38 triệu USD. Các giám đốc CNTT cần bắt đầu chuẩn bị bằng cách lập kho công cụ AI và xác định rõ mục đích sử dụng để phân loại rủi ro.
https://www.ciodive.com/news/eu-ai-act-CIO-impact-US-generative-ai-risk/711540/
- Trong một thử nghiệm sơ tán khẩn cấp năm 2011, ngay cả khi robot dẫn đường đi sai hướng, mọi người vẫn đi theo nó dù có thể nhìn thấy lối thoát hiểm. Điều này cho thấy con người tin tưởng quá mức vào công nghệ.
- Thách thức lớn về mối quan hệ giữa công nghệ và lòng tin là chúng ta tin tưởng thái quá, khiến bản thân dễ bị tổn thương trước những sai lầm của công nghệ.
- Các công ty công nghệ, đặc biệt trong lĩnh vực AI, cần tìm cách kết hợp chỉ số cảm xúc của con người (EQ) với công nghệ để cung cấp tín hiệu cho mọi người đặt nghi vấn. Người dùng cũng phải luôn cảnh giác.
- Nhiều người đã sử dụng ChatGPT để làm việc dù biết nó có thể mắc sai lầm. Một luật sư bị thẩm phán chỉ trích vì đệ trình bản tóm tắt chứa trích dẫn pháp lý hoàn toàn bịa đặt bởi ChatGPT.
- Cần có quy định và tiêu chuẩn cho AI tương tự như quy định về bóng đèn điện khi mới ra đời để đảm bảo an toàn. Hiện tại bất kỳ ai cũng có thể tham gia tạo sản phẩm AI.
- Chính sách và quy định sẽ rất quan trọng để xây dựng lòng tin với AI. Nhiều quốc gia và bang đang có động thái xây dựng quy định về AI.
- Người dùng AI cần chú ý hơn đến việc nó có thể đưa ra kết quả sai lệch hoàn toàn bất cứ lúc nào. Các mô hình ngôn ngữ lớn (LLM) như ChatGPT sẽ cải thiện độ chính xác lên 99-99.9% trong 3 năm tới.
- Cần để AI thừa nhận khi nó không chắc chắn và truyền đạt điều đó cho người dùng. Thậm chí nên buộc AI giảm mức độ dịch vụ nếu người dùng bỏ qua sự thừa nhận về giới hạn của nó.
- Cần thiết kế tương tác với AI dựa trên giả định rằng nó có ý đồ xấu, tương tự cách mọi người giả định hệ thống mạng và dữ liệu chắc chắn sẽ bị hack.
- Các nhà công nghệ cần hợp tác với các nhà khoa học xã hội, sử học để làm nổi bật cả mặt tích cực và tiêu cực của công nghệ.
📌 Trong một thử nghiệm sơ tán khẩn cấp năm 2011, ngay cả khi robot dẫn đường đi sai hướng, mọi người vẫn đi theo nó dù có thể nhìn thấy lối thoát hiểm. Điều này cho thấy con người tin tưởng quá mức vào công nghệ. Để xây dựng lòng tin với AI, cần có quy định chặt chẽ hơn, hệ thống chính xác hơn, sự trung thực về khả năng đoán mò câu trả lời, và sự cảnh giác cao hơn từ phía người dùng. Các công ty công nghệ cũng cần hợp tác đa ngành để làm rõ cả cơ hội và rủi ro mà công nghệ mang lại.
Citations:
[1] https://sloanreview.mit.edu/article/in-ai-we-trust-too-much/
#MIT
- Liên minh Châu Âu vừa thông qua Đạo luật Trí tuệ Nhân tạo, mang đến những quy định nghiêm ngặt nhất thế giới về AI. Các ứng dụng AI nguy hiểm tiềm tàng sẽ bị cấm, trừ một số trường hợp ngoại lệ.
- Đạo luật sẽ có hiệu lực trong vòng 6-24 tháng tới. Các công ty vi phạm có thể bị phạt lên đến 30 triệu euro hoặc 6% doanh thu toàn cầu.
- Một số ứng dụng AI sẽ bị cấm như: gây ảnh hưởng hành vi có hại, phân loại sinh trắc học để suy luận niềm tin chính trị/tôn giáo, hệ thống tính điểm xã hội dẫn đến phân biệt đối xử, nhận dạng từ xa qua sinh trắc học ở nơi công cộng.
- Đạo luật chia AI thành 3 mức rủi ro: cao, hạn chế và tối thiểu. AI rủi ro cao như xe tự lái, ứng dụng y tế sẽ chịu quy định chặt chẽ hơn về chất lượng và bảo vệ dữ liệu.
- Đạo luật yêu cầu minh bạch tối đa với AI. Hình ảnh do AI tạo ra phải được đánh dấu rõ ràng. Các nhà phát triển hệ thống rủi ro cao phải cung cấp thông tin đầy đủ về cách thức hoạt động, dữ liệu sử dụng.
- Đạo luật cho thấy các chính trị gia bắt đầu có động thái giải quyết thách thức quản lý AI. Các doanh nghiệp cần hiểu rõ công cụ AI của mình nằm ở mức rủi ro nào và đảm bảo hoạt động AI minh bạch nhất có thể.
📌 Đạo luật AI của EU là bộ quy định đầu tiên trên thế giới, dự kiến sẽ có hiệu lực trong 6-24 tháng tới với mức phạt lên đến 30 triệu euro. Các ứng dụng AI gây hại sẽ bị cấm, đồng thời yêu cầu minh bạch cao với AI rủi ro cao. Doanh nghiệp cần thấu hiểu và chuẩn bị cho những thay đổi sắp tới trong cách quản lý AI.
Citations:
[1]https://www.forbes.com/sites/bernardmarr/2024/03/25/what-every-ceo-needs-to-know-about-the-new-ai-act/
- Trí tuệ nhân tạo (AI) đang ngày càng trở nên thiết yếu trong hoạt động pháp lý. Các công cụ AI tạo sinh như ChatGPT đang thu hút sự chú ý lớn của giới luật sư.
- ChatGPT đạt 1 triệu người dùng chỉ trong vòng 1 tháng, nhanh hơn bất kỳ dịch vụ trực tuyến nào trước đây. 91% chuyên gia pháp lý đã nghe nói về ChatGPT.
- Các mô hình ngôn ngữ lớn (LLM) là nền tảng của AI tạo sinh. Khi được huấn luyện trên bộ dữ liệu đủ lớn, độ chính xác của chúng tăng vọt đáng kể.
- Ngành luật rất phù hợp để áp dụng AI tạo sinh vì công việc chủ yếu xoay quanh văn bản, tài liệu. Tuy nhiên, độ chính xác là yếu tố then chốt.
- Để đảm bảo độ tin cậy, các hệ thống AI pháp lý cần sử dụng phương pháp AI tạo sinh được tăng cường bởi truy xuất (RAG), chạy trên cơ sở dữ liệu pháp lý đáng tin cậy.
- Nhiều yếu tố thúc đẩy sự chấp nhận AI trong ngành luật: khả năng tự động hóa cao, sự cởi mở của luật sư, nhu cầu tăng chi tiêu pháp lý của doanh nghiệp.
- Chuyên môn pháp lý của con người đóng vai trò then chốt trong việc đảm bảo AI hoạt động hiệu quả. AI sẽ giúp luật sư phát huy kiến thức, kinh nghiệm của mình.
- Các ứng dụng AI phổ biến hiện nay trong luật bao gồm: quản lý và phân tích hợp đồng, nghiên cứu pháp lý, khám phá điện tử (e-discovery), phân tích vụ kiện dựa trên dữ liệu.
- AI tạo sinh đặt ra những yêu cầu mới về niềm tin, bảo mật, tích hợp công việc, khai thác chuyên môn và tương tác người-máy cho các công ty luật, phòng pháp chế.
📌Ngành luật rất phù hợp để áp dụng AI tạo sinh vì công việc chủ yếu xoay quanh văn bản, tài liệu. Tuy nhiên, độ chính xác là yếu tố then chốt. Để đảm bảo độ tin cậy, các hệ thống AI pháp lý cần sử dụng phương pháp Tạo sinh được tăng cường bởi truy xuất (RAG), chạy trên cơ sở dữ liệu pháp lý đáng tin cậy. 82% luật sư tin rằng công nghệ này có thể áp dụng vào công việc pháp lý.
Citations:
[1]https://abovethelaw.com/2024/03/generative-ai-for-legal-professionals-what-to-know-and-what-to-do-right-now/
- Tennessee đã trở thành tiểu bang đầu tiên của Hoa Kỳ thông qua luật bảo vệ các nhạc sĩ khỏi AI với Đạo luật Đảm bảo An ninh Giống giọng nói và Hình ảnh (ELVIS).
- Sự hiện diện của AI trong sáng tác âm nhạc có thể được truy nguyên từ những năm 1950, nhưng những tiến bộ đột phá gần đây trong AI tạo sinh đã chia rẽ ý kiến trong ngành công nghiệp âm nhạc.
- Nhiều chuyên gia cho rằng AI đặt ra những mối quan ngại về mặt pháp lý và đạo đức.
- Luật của Tennessee cập nhật luật bảo vệ quyền cá nhân của tiểu bang để bao gồm "sự bảo vệ cho các nhạc sĩ, nghệ sĩ biểu diễn và chuyên gia trong ngành công nghiệp âm nhạc trước việc lạm dụng trí tuệ nhân tạo".
- Ngành công nghiệp âm nhạc của Tennessee hỗ trợ hơn 61.617 việc làm trên toàn tiểu bang, đóng góp 5,8 tỷ USD vào tổng sản phẩm quốc nội và lấp đầy hơn 4.500 địa điểm âm nhạc.
- Luật hiện hành của Tennessee đã bảo vệ tên, hình ảnh và giống giọng nói, nhưng nó không đề cập cụ thể đến các mô hình và dịch vụ nhân bản AI tạo sinh cá nhân hóa mới cho phép mạo danh con người và cho phép người dùng tạo ra các tác phẩm giả mạo trái phép theo hình ảnh và giọng nói của người khác.
- Sự trỗi dậy của AI cũng nuôi dưỡng nhiều mối lo ngại khác, bao gồm nỗi sợ rằng nó có thể được sử dụng để phá vỡ quy trình dân chủ, gia tăng gian lận hoặc dẫn đến mất việc làm.
- Châu Âu đi trước Hoa Kỳ về các quy định xung quanh AI, với các nhà lập pháp ở đó đang soạn thảo các quy tắc.
📌 Tennessee đã trở thành tiểu bang đầu tiên của Hoa Kỳ thông qua Đạo luật ELVIS nhằm bảo vệ các nhạc sĩ, nghệ sĩ biểu diễn và chuyên gia trong ngành công nghiệp âm nhạc trước sự lạm dụng của AI. Luật mới này đáp ứng những lo ngại về đạo đức và pháp lý do sự phát triển của AI tạo sinh gây ra, trong bối cảnh ngành công nghiệp âm nhạc đóng vai trò quan trọng đối với nền kinh tế của tiểu bang.
Citations:
[1]https://economictimes.indiatimes.com/tech/technology/tennessee-becomes-first-us-state-with-law-protecting-musicians-from-ai/articleshow/108693613.cms
- Gần đây, nhiều quốc gia trên thế giới, trong đó có Malaysia, đang đề xuất các quy định để kiểm soát công nghệ AI. EU tự hào về khuôn khổ pháp lý mới cho AI.
- Tuy nhiên, quy định quá sớm sẽ kìm hãm sự phát triển của ngành công nghiệp AI non trẻ ở Malaysia. Các công ty và nhân tài AI sẽ tránh xa Malaysia vì các rào cản pháp lý.
- Quy định thường có lợi cho các công ty lớn có nguồn lực tài chính dồi dào hơn các startup nhỏ. Nó cũng làm chậm tốc độ đổi mới trong lĩnh vực đòi hỏi tốc độ như AI.
- Mỹ không có quy định AI nên các công ty như OpenAI mới có thể phát triển đột phá như ChatGPT. Ấn Độ cũng đã rút lại yêu cầu phê duyệt với mô hình AI mới.
- Thay vì nghĩ đến quy định, chính phủ Malaysia nên thể hiện là một quốc gia thân thiện với AI, cung cấp các khoản trợ cấp và ưu đãi cho các công ty AI. Ví dụ như hợp tác gần đây giữa YTL và NVIDIA.
- Malaysia cần trở thành người dẫn đầu đổi mới sáng tạo, chứ không phải cản trở tiến bộ bằng các quy định quá sớm. Nếu không, nhân tài sẽ ra đi.
📌 Malaysia đang đi sai hướng khi xem xét áp đặt khuôn khổ pháp lý cho AI khi ngành này còn non trẻ. Thay vì noi gương EU, Malaysia nên học hỏi cách tiếp cận cởi mở của Mỹ và Ấn Độ để khuyến khích phát triển AI thông qua các ưu đãi, tránh để mất nhân tài và cơ hội đổi mới sáng tạo.
https://malaysia.news.yahoo.com/malaysia-wants-to-create-a-regulatory-framework-for-ai-this-is-a-terrible-idea-060055306.html
- Hạ viện Mỹ giới thiệu dự luật mới yêu cầu gắn tuyên bố miễn trừ trên nội dung do AI tạo ra trên internet.
- Dự luật được cả đảng Dân chủ và Cộng hòa ủng hộ, đòi hỏi nội dung AI phải có chữ ký số trong siêu dữ liệu.
- Nội dung AI trên các nền tảng như YouTube, TikTok phải có tuyên bố miễn trừ mà người dùng nhận biết được.
- Đại diện Anna Eshoo (Dân chủ) và Neal Dunn (Cộng hòa) cho rằng người dân Mỹ xứng đáng được biết nội dung có phải deepfake hay không.
- Ủy ban Thương mại Liên bang (FTC) sẽ thực thi quy định cuối cùng. Người vi phạm có thể đối mặt với kiện tụng dân sự.
- Tháng 7/2023, các công ty lớn như Amazon, Google, Meta, Microsoft, OpenAI đã đồng ý tuân thủ hướng dẫn mới của chính quyền Biden về kiểm tra bảo mật, chia sẻ thông tin và thực hành tuyên bố miễn trừ.
- Google và Meta thiết lập quy tắc yêu cầu nhãn tiết lộ trên nội dung quảng cáo chính trị có yếu tố AI.
- Tổng thống Biden ký sắc lệnh hành pháp điều chỉnh việc sử dụng AI của các cơ quan liên bang.
- Các cơ quan quản lý EU đã đặt ra quy tắc toàn diện về sử dụng AI, có hiệu lực đầy đủ vào năm 2025.
📌 Hạ viện Mỹ đề xuất dự luật yêu cầu gắn nhãn cảnh báo và chữ ký số trên nội dung do AI tạo ra, nhằm giúp người xem phân biệt với nội dung thật. Ủy ban Thương mại Liên bang (FTC) sẽ thực thi quy định cuối cùng. Người vi phạm có thể đối mặt với kiện tụng dân sự.
https://scrippsnews.com/stories/house-floats-a-new-bill-for-warning-labels-on-ai-generated-content/
- Một nghiên cứu mới của Copenhagen Economics chỉ ra rằng không có "mối lo ngại cạnh tranh trước mắt" trong lĩnh vực AI tạo sinh của châu Âu cần can thiệp quy định.
- CCIA Europe, đơn vị ủy thác báo cáo, cảnh báo can thiệp quy định sẽ là quá sớm, làm chậm đổi mới và tăng trưởng, đồng thời giảm sự lựa chọn của người tiêu dùng trong AI tạo sinh.
- Nghiên cứu ghi nhận số lượng ngày càng tăng các nhà phát triển mô hình nền tảng hoạt động tại EU như Mistral AI và Aleph Alpha, cho thấy lĩnh vực GenAI sôi động của châu Âu.
- Tuy nhiên, các công ty khởi nghiệp GenAI có thể gặp thách thức trong tăng trưởng và chi phí quy định, chẳng hạn từ Đạo luật AI của EU.
- Các mối lo ngại cạnh tranh tiềm ẩn khác bao gồm hạn chế tiếp cận dữ liệu, quan hệ đối tác giữa các công ty lớn và nhỏ, và hành vi tận dụng của các công ty lớn.
- Mistral AI của Pháp là một ví dụ điển hình khi hợp tác với Microsoft, cung cấp mô hình ngôn ngữ lớn (LLM) cho khách hàng Microsoft Azure và cho Microsoft một phần nhỏ cổ phần.
📌 Nghiên cứu kết luận rằng các quy định bổ sung như Đạo luật AI của EU cần được theo dõi chặt chẽ để tránh gây ra gánh nặng chi phí tuân thủ và thủ tục hành chính không cần thiết cho các nhà phát triển AI sáng tạo, điều này có thể cản trở đổi mới và tăng trưởng trong lĩnh vực AI tạo sinh đang phát triển mạnh mẽ ở châu Âu.
https://www.euronews.com/next/2024/03/22/could-the-new-eu-ai-act-stifle-genai-innovation-in-europe-a-new-study-says-it-could
- EU và Mỹ đang có những cách tiếp cận khác biệt trong việc điều chỉnh AI. EU được coi là đi đầu với các quy định mang tính bao quát và ràng buộc, trong khi Mỹ áp dụng cách tiếp cận liên bang.
- EU AI Act đặt ra các quy tắc ràng buộc và toàn diện áp dụng trực tiếp cho các doanh nghiệp trong chuỗi giá trị AI. Các yêu cầu nghiêm ngặt nhất áp dụng cho các nhà cung cấp hệ thống AI, bao gồm cả AI bị cấm hoặc có rủi ro cao, hoặc các mô hình AI đa mục đích (GPAI).
- Lệnh hành pháp của Tổng thống Biden tập trung vào việc duy trì vị thế dẫn đầu của Mỹ trong lĩnh vực AI và yêu cầu các cơ quan liên bang phát triển các thông lệ tốt nhất, hướng dẫn và luật pháp trên 8 lĩnh vực chung.
- Cả EU AI Act và lệnh hành pháp của Mỹ đều có định nghĩa tương tự về các mô hình mà họ muốn điều chỉnh, bao gồm GPAI và các mô hình nền tảng có khả năng sử dụng kép.
- EU AI Act sẽ áp dụng cho các tổ chức ngoài EU, chẳng hạn như nhà cung cấp Mỹ đưa hệ thống AI hoặc mô hình GPAI vào thị trường EU. Tác động của lệnh hành pháp đối với các công ty ngoài Mỹ sẽ phụ thuộc vào từng cơ quan và quy định cụ thể.
- Tác động của EU AI Act cần được xem xét trong bối cảnh quy định rộng hơn ở cấp độ các quốc gia thành viên và EU. Lệnh hành pháp của Mỹ cần được xem xét cùng với các phát triển của các cơ quan liên bang và hàng chục dự luật AI mới của các tiểu bang.
- Các phát triển ở EU và Mỹ phản ánh sự phát triển AI trên toàn thế giới, bao gồm các quy tắc và quy định mục tiêu ở khu vực châu Á - Thái Bình Dương và Trung Quốc đại lục.
📌 EU và Mỹ đang dẫn đầu trong việc xây dựng khuôn khổ pháp lý cho AI, với EU đi theo hướng quy định bao quát và ràng buộc, trong khi Mỹ áp dụng cách tiếp cận liên bang. Mặc dù có sự khác biệt, cả hai đều hướng tới mục tiêu bảo vệ quyền lợi người dùng và thúc đẩy đổi mới. Các tổ chức toàn cầu cần theo dõi sát sao sự phát triển của các quy định này để đảm bảo tuân thủ.
https://news.bloomberglaw.com/us-law-week/eu-and-us-ai-regulatory-push-overlaps-across-global-business
- Nghị quyết do Mỹ dẫn đầu kêu gọi các quốc gia thành viên LHQ đảm bảo các hệ thống AI "an toàn, bảo mật và đáng tin cậy", được phát triển một cách có trách nhiệm và tôn trọng nhân quyền cũng như luật pháp quốc tế.
- Mặc dù không ràng buộc về mặt pháp lý và thiếu cơ chế thực thi, các quan chức Mỹ nhấn mạnh tầm quan trọng của việc thông qua nghị quyết với sự nhất trí là bước đi quan trọng trong việc thiết lập các rào cản toàn cầu đối với AI.
- Tính đến chiều 22/3, đã có 97 quốc gia đồng bảo trợ nghị quyết và con số này đang tăng lên "theo đúng nghĩa đen là từng giờ".
- Các cuộc tranh luận về cách điều tiết AI đã chi phối các diễn đàn song phương và đa phương hơn một năm qua, từ Hội nghị thượng đỉnh G7 ở Nhật Bản đến Hội nghị thượng đỉnh về An toàn AI do Vương quốc Anh tổ chức.
- Liên minh Châu Âu đã thông qua Đạo luật AI của EU sau gần 2 năm thảo luận, trong khi các cơ quan chức năng Trung Quốc đã thiết lập lưới điều tiết ngày càng mở rộng và liên tục phát triển để kiểm soát các công nghệ AI.
- Chính quyền Biden đã đưa ra sắc lệnh hành pháp vào tháng 10 năm ngoái, phản ánh nhiều mục tiêu được đưa vào nghị quyết của LHQ.
- LHQ cũng có nhiều sáng kiến khác, bao gồm một cơ quan tư vấn AI mới và tổ chức thiết lập tiêu chuẩn toàn cầu ITU. Những nỗ lực này sẽ tiếp tục, nhưng nghị quyết tuần này có thể làm cho cuộc trò chuyện trở nên quan trọng hơn.
📌 Nghị quyết đầu tiên của LHQ về AI đã được 193 quốc gia thành viên nhất trí thông qua, đánh dấu bước tiến quan trọng trong việc thiết lập các chuẩn mực toàn cầu nhằm quản lý công nghệ đang phát triển nhanh chóng này. Mặc dù không ràng buộc về mặt pháp lý, nghị quyết phản ánh nỗ lực của chính quyền Biden và bổ sung cho các sáng kiến AI khác của LHQ.
https://foreignpolicy.com/2024/03/21/un-ai-regulation-vote-resolution-artifical-intelligence-human-rights/
#FP
- Các nhà hoạch định chính sách đằng sau Đạo luật AI của EU, được Nghị viện Châu Âu thông qua với đa số phiếu lớn vào ngày 13/3, nhằm thiết lập một tiêu chuẩn toàn cầu mới để quản lý công nghệ này. Tuy nhiên, không phải ai cũng đồng ý rằng tác động sẽ lớn như lời hứa.
- Hầu hết các chuyên gia đều đồng ý rằng "Hiệu ứng Brussels" sẽ được cảm nhận với Đạo luật AI. EU đã trở nên rất giỏi trong việc thực thi các quy tắc của mình.
- Đạo luật AI không quy định mọi trường hợp sử dụng AI và không tuân theo các tiền lệ lâu dài như GDPR. Luật AI là sự đổi mới trong việc quy định công nghệ cụ thể và đặt ra các quy tắc dựa trên rủi ro dự kiến.
- Các nước khác đã tạo ra quy tắc riêng cho AI trước khi đạo luật được bỏ phiếu. Chính phủ Anh cho rằng cần có luật về AI khi hiểu rõ các rủi ro liên quan, điều này chưa xảy ra ngày nay.
- Có tranh cãi về việc liệu Đạo luật AI có nuôi dưỡng sự đổi mới ở Châu Âu hay không. Các công ty AI Châu Âu thu hút một lượng vốn rất nhỏ so với các đối tác Mỹ hoặc Trung Quốc.
- Một số bên liên quan khẳng định rằng việc thực hiện Đạo luật AI là chìa khóa đối với đổi mới. Các công ty hoạt động ở Châu Âu sẽ phải đối mặt với gánh nặng mà đối thủ cạnh tranh của họ không phải chịu.
📌 Mặc dù Đạo luật AI của EU nhằm thiết lập tiêu chuẩn toàn cầu, các chuyên gia cho rằng tác động có thể bị phóng đại. Luật sẽ ảnh hưởng trên toàn thế giới, nhưng mức độ và khả năng giữ chân đầu tư vẫn gây tranh cãi. Việc thực thi nhanh chóng và hiệu quả sẽ là chìa khóa để có được sự chắc chắn về mặt pháp lý cần thiết.
https://www.euractiv.com/section/artificial-intelligence/news/ai-acts-global-effects-might-be-overstated-experts-say/
Dưới đây là bản tóm tắt nội dung bài viết:
Nội dung SEO:
1. Meta description: Đạo luật AI của EU đã hoàn thành. Bài viết phân tích những gì sẽ thay đổi và không thay đổi khi luật có hiệu lực, tác động đến người dùng, doanh nghiệp công nghệ và xã hội.
2. Meta keywords: đạo luật ai, liên minh châu âu, quy định ai, tác động, thay đổi, doanh nghiệp công nghệ, người dùng
3. Tiêu đề SEO: Đạo luật AI của EU chính thức thông qua: những điều sẽ đổi thay và giữ nguyên
Tóm tắt chi tiết:
- Đạo luật AI của EU đã chính thức được thông qua sau 3 năm soạn thảo. Luật sẽ có hiệu lực từ tháng 5 và người dùng EU sẽ thấy những thay đổi từ cuối năm nay.
- Một số trường hợp sử dụng AI gây rủi ro cao sẽ bị cấm vào cuối năm như: khai thác người dễ bị tổn thương, suy luận đặc điểm nhạy cảm, nhận dạng khuôn mặt thời gian thực nơi công cộng. Tuy nhiên vẫn có ngoại lệ cho cơ quan thực thi pháp luật trong một số trường hợp.
- Các công ty công nghệ sẽ phải dán nhãn nội dung do AI tạo ra và thông báo khi người dùng tương tác với chatbot/hệ thống AI. Điều này giúp chống tin giả nhưng công nghệ vẫn chưa đủ tiên tiến.
- Công dân EU có thể khiếu nại nếu bị AI gây hại và được giải thích lý do quyết định của AI. Tuy nhiên điều này đòi hỏi hiểu biết về AI ở người dùng.
- Các công ty phát triển AI trong lĩnh vực rủi ro cao như y tế, cơ sở hạ tầng sẽ phải tuân thủ quy định về quản trị dữ liệu, giám sát của con người, đánh giá tác động đến quyền con người.
- Các mô hình AI đa năng như GPT-4 sẽ phải công khai tài liệu kỹ thuật, dữ liệu huấn luyện, đánh giá rủi ro. Mô hình AI mã nguồn mở miễn nhiều nghĩa vụ trong Đạo luật.
📌 Đạo luật AI của EU đánh dấu bước ngoặt quan trọng trong việc quản lý công nghệ mới nổi này. Luật sẽ hạn chế một số trường hợp sử dụng gây rủi ro cao, tăng tính minh bạch và trách nhiệm giải trình của các công ty công nghệ. Tuy nhiên, việc thực thi luật vẫn là thách thức lớn đòi hỏi nỗ lực từ cơ quan quản lý và sự hợp tác của doanh nghiệp trong 1-3 năm tới.
Citations:
[1] https://www.technologyreview.com/2024/03/19/1089919/the-ai-act-is-done-heres-what-will-and-wont-change/
#MIT
- Các chuyên gia AI hàng đầu từ Trung Quốc và phương Tây cảnh báo rằng việc giải quyết các rủi ro từ công nghệ AI đòi hỏi sự hợp tác toàn cầu tương tự như nỗ lực thời Chiến tranh Lạnh để tránh xung đột hạt nhân.
- Tại Đối thoại Quốc tế về An toàn AI ở Bắc Kinh tuần trước, các chuyên gia đã xác định các "lằn ranh đỏ" trong phát triển AI, bao gồm việc chế tạo vũ khí sinh học và tiến hành tấn công mạng.
- Các học giả cảnh báo rằng cần có cách tiếp cận chung về an toàn AI để ngăn chặn "các rủi ro thảm khốc hoặc thậm chí hiện sinh đối với nhân loại trong cuộc đời chúng ta".
- Những người ký tên bao gồm Geoffrey Hinton, Yoshua Bengio, Stuart Russell và Andrew Yao - những nhà khoa học máy tính nổi tiếng thế giới.
- Tuyên bố này được đưa ra sau cuộc họp ở Bắc Kinh, có sự tham gia của các quan chức chính phủ Trung Quốc, cho thấy sự ủng hộ ngầm của chính quyền đối với diễn đàn và kết quả của nó.
- Tổng thống Mỹ Joe Biden và Chủ tịch Trung Quốc Tập Cận Bình đã thảo luận về an toàn AI vào tháng 11 và nhất trí thiết lập đối thoại về vấn đề này.
- Vào tháng 11, 28 quốc gia và các công ty AI hàng đầu đã đồng ý hợp tác để giải quyết các rủi ro hiện sinh từ AI tiên tiến.
- Tại Bắc Kinh, các chuyên gia thảo luận về các mối đe dọa liên quan đến phát triển "trí tuệ nhân tạo tổng quát" (AGI).
- Các nhà khoa học nêu rõ không hệ thống AI nào được phép tự sao chép hoặc cải thiện mà không có sự chấp thuận và hỗ trợ rõ ràng của con người, tăng khả năng thiết kế vũ khí hủy diệt hàng loạt, vi phạm công ước vũ khí sinh học hoặc hóa học, hoặc tự thực hiện các cuộc tấn công mạng gây thiệt hại tài chính nghiêm trọng.
📌 Các chuyên gia AI hàng đầu từ Trung Quốc và phương Tây đã cảnh báo về các rủi ro hiện sinh từ AI và kêu gọi hợp tác toàn cầu tương tự như thời Chiến tranh Lạnh. Tại Đối thoại Quốc tế về An toàn AI ở Bắc Kinh, họ xác định các "lằn ranh đỏ" như cấm AI tự cải tiến mà không có sự chấp thuận của con người, tăng khả năng chế tạo vũ khí hủy diệt hàng loạt, hoặc tự thực hiện tấn công mạng gây thiệt hại nghiêm trọng.
https://www.ft.com/content/375f4e2d-1f72-49c8-b212-0ab2a173b8cb
- Microsoft báo cáo với các cơ quan quản lý chống độc quyền châu Âu rằng Google có lợi thế cạnh tranh trong AI tạo sinh nhờ kho dữ liệu khổng lồ và chip tối ưu hóa AI.
- Các công cụ AI tạo sinh như ChatGPT và Gemini có thể tạo ra nội dung giống con người, nhưng gây lo ngại về thông tin sai lệch và vi phạm sở hữu trí tuệ.
- Theo Microsoft, chip bán dẫn AI của Google sẽ mang lại lợi thế cạnh tranh trong nhiều năm tới. Bộ dữ liệu độc quyền lớn từ Google Search và YouTube giúp Google huấn luyện các mô hình ngôn ngữ lớn.
- Trợ lý ảo như Google Assistant và Siri cũng mang lại lợi thế cho Google và Apple trong AI tạo sinh.
- Google phản bác báo cáo của Microsoft, kêu gọi Ủy ban xem xét các công ty khóa khách hàng vào hợp đồng và không cung cấp dịch vụ đám mây mở.
- Khoản đầu tư hơn 10 tỷ USD của Microsoft vào OpenAI đang bị giám sát. Microsoft cho rằng việc các công ty lớn hợp tác với các startup như Anthropic, Cohere, Mistral sẽ giúp ngăn chặn lợi thế chống cạnh tranh.
📌 Microsoft cáo buộc Google có lợi thế trong AI tạo sinh nhờ chip AI và kho dữ liệu khổng lồ từ YouTube, Google Search. Tuy nhiên, Google phản bác lại và kêu gọi giám sát các công ty khóa người dùng. Khoản đầu tư 10 tỷ USD của Microsoft vào OpenAI cũng đang bị xem xét về khía cạnh chống độc quyền.
https://www.foxbusiness.com/technology/microsoft-tells-european-regulators-google-has-edge-generative-ai
- Tổng thống Hàn Quốc Yoon Suk Yeol cho rằng tin giả và thông tin sai lệch dựa trên AI và công nghệ số vi phạm quyền tự do cá nhân, nhân quyền và đe dọa hệ thống dân chủ.
- Hàn Quốc đang tổ chức Hội nghị thượng đỉnh về dân chủ lần thứ 3, một sáng kiến của Tổng thống Mỹ Joe Biden nhằm thảo luận các cách ngăn chặn sự suy thoái dân chủ và xói mòn quyền tự do.
- Các mối đe dọa kỹ thuật số đối với dân chủ và cách công nghệ có thể thúc đẩy dân chủ và nhân quyền phổ quát là chương trình nghị sự chính của hội nghị kéo dài 3 ngày.
- Ngoại trưởng Mỹ Antony Blinken cho rằng năm 2024 là "năm bầu cử phi thường" để làm nổi bật các rủi ro của thông tin sai lệch và giả mạo trong không gian mạng. Ông cũng lặp lại cáo buộc của Washington rằng Nga và Trung Quốc đứng sau các chiến dịch toàn cầu nhằm thao túng thông tin.
- Một số quan chức châu Âu cũng cáo buộc Nga tiến hành các chiến dịch thông tin sai lệch sử dụng AI.
- Hội nghị cũng diễn ra ngay sau khi Tổng thống Nga Vladimir Putin được tuyên bố là người chiến thắng trong cuộc bầu cử tổng thống hôm Chủ nhật với tỷ lệ phiếu bầu kỷ lục.
- Phó Thủ tướng Anh Oliver Dowden cho rằng nền dân chủ đang đối mặt với nhiều mối đe dọa, bao gồm các cuộc tấn công mạng gây rối chiến dịch, chủ nghĩa dân túy ôm lấy những điều sai trái và "các nhà độc tài tổ chức các cuộc bầu cử giả".
- Ngoại trưởng Blinken cho biết Washington đang công bố hướng dẫn đầu tiên cho các công ty công nghệ để giúp ngăn chặn các cuộc tấn công nhằm vào những người bảo vệ nhân quyền trực tuyến.
📌 Hội nghị thượng đỉnh về dân chủ tại Hàn Quốc nhấn mạnh các mối đe dọa của AI và công nghệ số đối với nền dân chủ, bao gồm tin giả, thông tin sai lệch và các chiến dịch thao túng thông tin. Các quan chức Mỹ và châu Âu cáo buộc Nga và Trung Quốc đứng sau những hoạt động này. Hội nghị cũng diễn ra trong bối cảnh bầu cử tổng thống Nga gây tranh cãi và Washington công bố hướng dẫn mới để bảo vệ các nhà hoạt động nhân quyền trực tuyến.
https://www.aol.com/news/south-koreas-yoon-warns-tech-035914411.html
- iPhone 15, ra mắt vào năm 2023, sử dụng cổng USB-C cho việc sạc ở cả Châu Âu, Mỹ và các khu vực khác, thay đổi này được thúc đẩy bởi quy định của các nhà quản lý Châu Âu.
- Quy định về sạc chung của Ủy ban Châu Âu được đề xuất vào tháng 9/2021 và thông qua vào năm 2022, có hiệu lực từ năm 2024, nhằm giảm lượng rác thải điện tử và sự bất tiện cho người tiêu dùng.
- GDPR, áp dụng từ tháng 5/2018, đã gây ra chi phí tuân thủ đáng kể cho các công ty, với một số công ty chi trung bình 1.3 triệu USD và 40% công ty toàn cầu chi hơn 10 triệu USD cho việc tuân thủ ban đầu.
- Digital Markets Act (DMA) và Digital Services Act (DSA) là các quy định mới của EU, ảnh hưởng đến cách thức hoạt động của các công ty công nghệ lớn, nhiều trong số đó là công ty Mỹ, bằng cách đặt ra các hạn chế đối với các hoạt động kinh doanh và quản lý nội dung trực tuyến.
- AI Act của Châu Âu, được thông qua vào tháng 12, tạo ra các yêu cầu nghiêm ngặt đối với công nghệ AI, mặc dù một số quốc gia như Đức, Pháp và Ý đang thúc đẩy tự quản lý AI.
- Các quy định công nghệ của EU không chỉ ảnh hưởng đến Châu Âu mà còn có tác động toàn cầu, khiến các công ty áp dụng các thay đổi này trên phạm vi toàn cầu, từ đó ảnh hưởng đến người tiêu dùng và doanh nghiệp Mỹ.
- Các quy định này có thể làm giảm sự đổi mới công nghệ và an ninh mạng, đồng thời tăng cường quyền kiểm soát của chính phủ đối với công nghệ và nội dung trực tuyến, thậm chí ảnh hưởng đến quyền tự do ngôn luận tại Mỹ.
- Một số chính trị gia Mỹ đã chỉ trích quy định của EU nhưng cũng có những người khác coi đó là một mô hình để Mỹ học hỏi, dẫn đến sự hợp tác giữa các cơ quan quản lý Mỹ và EU.
📌 Các quy định công nghệ của EU không chỉ tạo ra thách thức về chi phí và tuân thủ cho các công ty mà còn có khả năng hạn chế sự đổi mới và an ninh mạng. Sự lan rộng của các quy định này ra ngoài biên giới Châu Âu đặt ra câu hỏi về ai sẽ định hình tương lai của công nghệ: chính phủ hay những người đổi mới.
Citations:
[1] https://reason.com/2024/03/16/when-bureaucrats-play-product-designer/
#hay
- EU đã thông qua Đạo luật Trí tuệ nhân tạo (AI Act) đầu tiên trên thế giới, áp dụng cách tiếp cận dựa trên rủi ro để đảm bảo các sản phẩm AI tuân thủ luật pháp trước khi ra mắt công chúng.
- Ủy ban Châu Âu yêu cầu các công ty công nghệ lớn như Google, Meta, TikTok báo cáo cách họ hạn chế rủi ro từ AI tạo sinh.
- Một số chuyên gia cho rằng luật chưa đủ mạnh để kiểm soát các mô hình nền tảng lớn và độc quyền công nghệ, trong khi một số khác lo ngại nó sẽ gây khó khăn cho các công ty với "các ràng buộc bổ sung".
- Các công ty khởi nghiệp hoan nghênh sự rõ ràng mà luật mới mang lại. Luật phân loại rủi ro dựa trên sức mạnh tính toán huấn luyện mô hình AI.
- Tuy nhiên, một số ý kiến cho rằng AI trong không gian thông tin cần được xếp vào loại rủi ro cao và tuân theo quy tắc nghiêm ngặt hơn.
- Các doanh nghiệp cần chủ động chuẩn bị cho luật có hiệu lực, cập nhật danh mục hệ thống AI và xác định trách nhiệm pháp lý của mình.
- Pháp luật có thể tạo ra rào cản pháp lý bổ sung, gây bất lợi cho các công ty châu Âu trước sự cạnh tranh từ Mỹ và Trung Quốc.
- Việc thực thi hiệu quả Đạo luật AI đòi hỏi sự chú ý đến các luật bổ sung như Chỉ thị về Trách nhiệm AI và Văn phòng AI của EU.
📌 Đạo luật AI của EU được đánh giá là bước đi lịch sử nhưng cũng gây tranh cãi. Luật mang lại sự minh bạch, đạo đức nhưng cũng tạo rào cản pháp lý, có thể gây bất lợi cho 25.000 công ty châu Âu trước đối thủ Mỹ, Trung Quốc. Thách thức tiếp theo là thực thi hiệu quả, cần sự phối hợp với các luật liên quan.
Citations:
[1]https://www.euronews.com/next/2024/03/16/eu-ai-act-reaction-tech-experts-say-the-worlds-first-ai-law-is-historic-but-bittersweet
- Nhiều quốc gia và khu vực trên thế giới đang xem xét hoặc cố gắng thực thi các quy định về việc huấn luyện và sử dụng trí tuệ nhân tạo (AI).
- Tổng thống Mỹ Joe Biden đã ký Sắc lệnh hành pháp yêu cầu các nhà phát triển hệ thống AI có thể gây rủi ro cho an ninh quốc gia, kinh tế, sức khỏe cộng đồng hoặc an toàn phải chia sẻ kết quả kiểm tra an toàn với chính phủ Mỹ trước khi công bố. Sắc lệnh cũng kêu gọi Bộ Thương mại phát triển hướng dẫn xác thực nội dung và thủy vân để gắn nhãn rõ ràng nội dung do AI tạo ra.
- Liên minh Châu Âu (EU) đã thông qua Đạo luật AI, thiết lập 4 cấp độ rủi ro cho AI từ tối thiểu đến không thể chấp nhận được. Các quy định mới của EU quy định các tiêu chuẩn bảo mật mạnh hơn, luật minh bạch nghiêm ngặt hơn và các hình phạt không tuân thủ lên tới 30 triệu euro hoặc 6% thu nhập toàn cầu.
- Pháp, Đức và Ý đã đồng ý "tự điều chỉnh bắt buộc thông qua các quy tắc ứng xử". Các nhà phát triển mô hình nền tảng học máy của AI sẽ phải cung cấp thông tin về mô hình của họ.
- Brazil đã phát triển một khuôn khổ để phân loại các công cụ AI và cấm những công cụ có rủi ro quá mức. Luật cũng thiết lập một cơ quan quản lý mới để thực thi luật.
- Tại Mỹ, Bản thiết kế Dự luật Quyền AI và Khuôn khổ Quản lý Rủi ro AI của Viện Tiêu chuẩn và Công nghệ Quốc gia đã được phát hành nhưng không ràng buộc. Nhiều thượng nghị sĩ đang soạn thảo các dự luật liên quan đến AI.
- Canada đã ban hành Bộ quy tắc ứng xử tự nguyện về Phát triển và Quản lý có trách nhiệm các Hệ thống AI Tạo sinh Tiên tiến. Các nhà lãnh đạo G7 đã thống nhất một bộ nguyên tắc hướng dẫn quốc tế để điều chỉnh AI.
- Trung Quốc đã ban hành 3 bộ quy định liên quan đến AI, nhắm vào các hệ thống giới thiệu thuật toán, nội dung tổng hợp và sử dụng AI tạo sinh. Các quy định yêu cầu nhà phát triển nộp hồ sơ cho kho thuật toán mới của Trung Quốc.
- Châu Phi chậm chạp trong việc áp dụng công nghệ AI. Mauritius, Ai Cập, Kenya, Rwanda và Nigeria đã có một số bước đi ban đầu trong việc phát triển chiến lược và chính sách AI.
- Việc điều chỉnh AI là cần thiết để giải quyết các vấn đề như thông tin sai lệch, nhận dạng khuôn mặt. Luật lý tưởng sẽ bao gồm các điều khoản về tính minh bạch của thuật toán và thủy vân.
📌 Nhiều quốc gia và khu vực trên thế giới đang tích cực xây dựng khuôn khổ pháp lý để quản lý AI, từ luật toàn diện như Đạo luật AI của EU đến các hướng dẫn tự nguyện. Mỹ đã có sắc lệnh hành pháp và nhiều dự luật đang được soạn thảo. Trung Quốc ban hành 3 bộ quy định, trong khi châu Phi còn chậm chạp áp dụng AI. Các chuyên gia kêu gọi cần có luật để giải quyết các rủi ro của AI.
Citations:
[1] https://cacm.acm.org/news/governments-setting-limits-on-ai/
- Bộ Điện tử và Công nghệ thông tin Ấn Độ đã chia sẻ một bản cập nhật hướng dẫn về AI, không còn yêu cầu các công ty phải xin phép Chính phủ trước khi triển khai mô hình AI tới người dùng.
- Thay vào đó, hướng dẫn khuyến nghị các công ty gắn nhãn các mô hình AI chưa được thử nghiệm đầy đủ và không đáng tin cậy để thông báo cho người dùng về khả năng sai sót hoặc không đáng tin cậy.
- Sự thay đổi này diễn ra sau khi hướng dẫn ban đầu hồi đầu tháng 3 nhận nhiều chỉ trích từ các doanh nhân và nhà đầu tư trong và ngoài nước.
- Hướng dẫn mới nhấn mạnh rằng các mô hình AI không nên được sử dụng để chia sẻ nội dung bất hợp pháp, cho phép thiên vị, phân biệt đối xử hoặc đe dọa tính toàn vẹn của quy trình bầu cử.
- Các trung gian được khuyến nghị sử dụng "popup đồng ý" hoặc cơ chế tương tự để thông báo rõ ràng cho người dùng về tính không đáng tin cậy của kết quả do AI tạo ra.
- Bộ vẫn giữ quan điểm nhấn mạnh việc đảm bảo deepfake và thông tin sai lệch dễ dàng bị phát hiện, khuyến nghị các trung gian gắn nhãn hoặc nhúng metadata hoặc định danh duy nhất vào nội dung.
📌 Ấn Độ đã rút lại kế hoạch yêu cầu các công ty phải xin phép Chính phủ trước khi triển khai mô hình AI, thay vào đó khuyến nghị gắn nhãn các mô hình chưa được thử nghiệm kỹ và không đáng tin cậy. Động thái này diễn ra sau khi hướng dẫn ban đầu gây tranh cãi và chỉ trích từ nhiều doanh nhân, nhà đầu tư trong và ngoài nước.
https://techcrunch.com/2024/03/15/india-drops-plan-to-require-approval-for-ai-model-launches/
- Nghị viện Châu Âu đã thông qua Đạo luật AI, bộ quy tắc ràng buộc và toàn diện đầu tiên trên thế giới về AI đáng tin cậy. Luật mới sẽ điều chỉnh các mô hình AI tác động cao, đa mục đích và các hệ thống AI rủi ro cao.
- Các quy định yêu cầu tuân thủ nghĩa vụ minh bạch chi tiết và quy định bản quyền của EU. Nó hạn chế khả năng chính phủ sử dụng giám sát sinh trắc học thời gian thực ở các khu vực công cộng.
- Giáo sư Timothy E Bates cho rằng các quy định được soạn thảo chu đáo có thể thúc đẩy niềm tin và độ tin cậy trong các ứng dụng AI, nhưng các quy định quá mức hoặc cứng nhắc có thể cản trở tốc độ đổi mới.
- Đạo luật AI EU phân loại công nghệ AI dựa trên mức độ rủi ro, từ rủi ro "không thể chấp nhận" dẫn đến cấm đến các loại rủi ro cao, trung bình và thấp. Luật đã được thông qua với 523 phiếu thuận, 46 phiếu chống và 49 phiếu trắng.
- Ủy viên Châu Âu Thierry Breton tuyên bố Châu Âu hiện là người thiết lập tiêu chuẩn toàn cầu về AI. Các quy tắc sẽ được thực hiện theo từng giai đoạn bắt đầu từ năm 2025.
- Ủy ban Châu Âu đã đưa ra các câu hỏi cho 8 nền tảng và công cụ tìm kiếm về chiến lược giảm thiểu rủi ro AI tạo sinh. EU đang sử dụng Đạo luật Dịch vụ Kỹ thuật số (DSA) để quản lý các thách thức của AI trong khi chờ đợi Đạo luật AI được thực hiện.
- Donny White, CEO của Satisfi Labs, cho rằng các doanh nghiệp sẽ cần tăng cường các biện pháp bảo mật để đảm bảo tuân thủ và điều này có thể tạo ra rào cản gia nhập cho các công ty nhỏ.
- Jonas Jacobi, CEO của ValidMind, lập luận rằng các quy định không phải là giải pháp độc lập và trách nhiệm kiềm chế AI nguy hiểm chủ yếu thuộc về các công ty công nghệ doanh nghiệp.
- Các nhà quan sát ngành đang theo dõi chặt chẽ xem liệu Hoa Kỳ có thông qua dự luật AI riêng của mình hay không. Giáo sư Bates cho rằng ngày càng có xu hướng thống nhất về các nguyên tắc cơ bản, mặc dù cách tiếp cận của Hoa Kỳ có thể nghiêng về khuôn khổ quy định cụ thể theo từng lĩnh vực.
📌 Đạo luật AI của EU, bộ quy tắc toàn diện và ràng buộc đầu tiên trên thế giới về AI, đã được thông qua với 523 phiếu thuận. Luật mới sẽ điều chỉnh các mô hình và hệ thống AI rủi ro cao, yêu cầu minh bạch và tuân thủ bản quyền. Mặc dù được ca ngợi là thiết lập tiêu chuẩn toàn cầu, một số lo ngại các quy định quá mức có thể cản trở đổi mới. Các doanh nghiệp sẽ cần tăng cường bảo mật để tuân thủ khi luật có hiệu lực từ 2025.
https://www.pymnts.com/artificial-intelligence-2/2024/eus-new-ai-rules-spark-debate-over-innovation-barrier/
- Ngày 23/01/2024, Cơ quan Văn hóa Nhật Bản (ACA) đã công bố dự thảo "Cách tiếp cận AI và Bản quyền", làm rõ việc sử dụng tài liệu có bản quyền để đào tạo AI ở Nhật Bản.
- Luật Bản quyền sửa đổi của Nhật Bản có hiệu lực từ 01/01/2019, cho phép quyền rộng rãi trong việc sử dụng tác phẩm có bản quyền để phân tích thông tin, bao gồm cả mục đích đào tạo mô hình AI, kể cả cho mục đích thương mại.
- Nhật Bản thông qua các quy định năm 2019 vì AI được coi là giải pháp tiềm năng cho dân số già hóa nhanh chóng. Tuy nhiên, các nhà sáng tạo nội dung ở Nhật Bản và quốc tế đã phản đối việc thiếu bảo vệ bản quyền.
- Ủy ban ACA kết luận rằng việc sử dụng tài liệu có bản quyền để đào tạo AI là được phép nếu không ảnh hưởng đáng kể đến thị trường liên quan và không vi phạm lợi ích của chủ sở hữu bản quyền. Tuy nhiên, việc sử dụng để tạo ra các sản phẩm có thể được coi là biểu hiện sáng tạo của tác phẩm có bản quyền là không được phép.
- Ủy ban khuyến khích chủ sở hữu bản quyền áp dụng các biện pháp kỹ thuật để bảo vệ nội dung của họ và cấp phép nội dung để đào tạo AI. Họ cũng khuyến khích ACA tiếp tục các biện pháp chống lại nạn cướp bản quyền.
- Để xác định liệu một sản phẩm đầu ra của AI có vi phạm bản quyền hay không, cần chứng minh cả "sự tương đồng" và "sự phụ thuộc" vào một tác phẩm có bản quyền hiện có.
📌 Dự thảo hướng dẫn mới củaCơ quan Văn hóa Nhật Bản cho phép sử dụng rộng rãi tài liệu có bản quyền để đào tạo AI ở Nhật Bản, nhưng cũng nêu bật những hạn chế nhằm bảo vệ quyền lợi của chủ sở hữu bản quyền. Ủy ban kết luận rằng mối quan hệ giữa AI và bản quyền sẽ cần được xác định theo từng trường hợp cụ thể, dựa trên các tiền lệ và quyết định tư pháp trong bối cảnh sự phát triển nhanh chóng và khó đoán của công nghệ.
Citations:
[1] https://www.natlawreview.com/article/japans-new-draft-guidelines-ai-and-copyright-it-really-ok-train-ai-using-pirated
- AI đang mở rộng trên khắp lục địa châu Phi và các chính sách mới đang dần hình thành. Ước tính cho thấy 4 quốc gia châu Phi có thể thu về tới 136 tỷ USD lợi ích kinh tế vào năm 2030 nếu doanh nghiệp bắt đầu sử dụng nhiều công cụ AI hơn.
- Liên minh châu Phi đang chuẩn bị một chính sách AI đầy tham vọng hướng tới con đường phát triển và điều tiết công nghệ này theo định hướng của châu Phi. Tuy nhiên, các cuộc tranh luận về thời điểm cần thiết để điều tiết AI và lo ngại về việc kìm hãm đổi mới sáng tạo có thể gây cản trở.
- 7 quốc gia châu Phi đã xây dựng các chính sách và chiến lược AI quốc gia. Ngày 29/2, Cơ quan Phát triển Liên minh châu Phi công bố dự thảo chính sách đưa ra lộ trình quy định về AI cho các quốc gia châu Phi.
- Một số nhà nghiên cứu châu Phi cho rằng còn quá sớm để nghĩ về điều tiết AI do ngành công nghiệp còn non trẻ. Họ lập luận rằng châu Phi nên ưu tiên phát triển ngành công nghiệp AI trước khi cố gắng điều tiết công nghệ này.
- Tuy nhiên, các chuyên gia khác cho rằng châu Phi cần chủ động xây dựng các quy định để bảo vệ người dân khỏi việc lạm dụng công nghệ và tránh tụt hậu về kinh tế. Họ chỉ ra rằng một số quốc gia châu Phi đã chứng kiến tình trạng bóc lột lao động bởi các công ty AI.
- Liên minh châu Phi thiếu quyền lực để thực thi các chính sách và luật trên toàn lục địa. Ngay cả khi dự thảo chiến lược AI được thông qua, các quốc gia châu Phi vẫn phải triển khai thông qua các chính sách và luật AI quốc gia.
📌 Châu Phi đang chứng kiến sự phát triển của AI với 136 tỷ USD lợi ích kinh tế tiềm năng vào năm 2030. Liên minh châu Phi đang soạn thảo chính sách AI đầy tham vọng, nhưng còn nhiều tranh luận về thời điểm điều tiết phù hợp. 7 quốc gia đã có chiến lược AI riêng, song cơ sở hạ tầng kỹ thuật số yếu kém và thiếu thống nhất có thể cản trở việc áp dụng rộng rãi công nghệ này trên toàn lục địa.
Citations:
[1] https://www.technologyreview.com/2024/03/15/1089844/africa-ai-artificial-intelligence-regulation-au-policy/
#MIT
- ChatGPT đã khiến các nhà quản lý bất ngờ khi châm ngòi cho cuộc đua AI mới
- Khi các công ty đua nhau phát triển và phát hành các mô hình ngày càng mạnh mẽ, các nhà lập pháp và cơ quan quản lý trên toàn thế giới đang tìm cách bắt kịp và kiềm chế sự phát triển
- Văn phòng AI châu Âu và chính phủ Anh đang cố gắng thuê các chuyên gia để nghiên cứu và quản lý sự bùng nổ AI
- Tuy nhiên, mức lương mà họ đề xuất thấp hơn rất nhiều so với mức lương trong ngành công nghiệp
- Điều này gây khó khăn cho các cơ quan quản lý trong việc thu hút nhân tài AI hàng đầu
- Các chuyên gia cho rằng mức lương thấp sẽ khiến các cơ quan quản lý khó có thể đưa ra các quy định hiệu quả
- Họ kêu gọi các chính phủ cần đầu tư nhiều hơn để thu hút chuyên gia giỏi nhằm đảm bảo quản lý tốt sự phát triển của AI
📌 Sự bùng nổ của AI đã khiến các cơ quan quản lý lúng túng. Văn phòng AI châu Âu và chính phủ Anh đang tìm cách thuê chuyên gia để nghiên cứu và quản lý, nhưng mức lương thấp khiến họ khó thu hút nhân tài hàng đầu. Các chuyên gia kêu gọi cần đầu tư nhiều hơn để có thể đưa ra các quy định hiệu quả cho sự phát triển của AI.
https://www.wired.com/story/regulators-need-ai-expertise-cant-afford-it/
- Nghị viện Châu Âu đã thông qua Đạo luật Trí tuệ Nhân tạo với 523 phiếu thuận, 46 phiếu chống và 49 phiếu trắng.
- Đạo luật này được đề xuất từ năm 2021, dự kiến phân loại rủi ro của AI và cấm các trường hợp sử dụng không thể chấp nhận được.
- Chuyên gia Henry Ajder cảnh báo điều này có thể khiến các công ty tránh phát triển ở những khu vực có quy định chặt chẽ, tạo ra "thiên đường thuế chính sách AI".
- Đạo luật chia rủi ro của ứng dụng AI thành 3 loại: rủi ro không chấp nhận được sẽ bị cấm, rủi ro cao chịu các yêu cầu pháp lý cụ thể, rủi ro thấp ít bị quy định.
- Neil Serebryany, CEO Calypso AI, cho rằng Đạo luật là cột mốc quan trọng, tạo cơ hội phát triển AI có trách nhiệm và minh bạch hơn.
- Quy định dự kiến có hiệu lực từ tháng 5 và được triển khai từ năm 2025. Các công ty cần chuẩn bị để tuân thủ.
- Avani Desai, CEO Schellman, cho rằng Đạo luật có thể tác động tương tự GDPR, buộc các công ty Mỹ đáp ứng yêu cầu nhất định để hoạt động ở Châu Âu.
📌 Đạo luật Trí tuệ Nhân tạo của EU đã được thông qua với đa số phiếu thuận, đánh dấu bước tiến quan trọng trong kiểm soát AI. Tuy nhiên, một số chuyên gia lo ngại quy định chặt chẽ có thể khiến các công ty tránh phát triển ở Châu Âu, tạo ra "thiên đường thuế chính sách AI". Các doanh nghiệp cần theo dõi và chuẩn bị để tuân thủ Đạo luật có hiệu lực từ 2025.
https://www.businessinsider.com/european-union-trying-regulate-ai-artificial-intelligence-could-backfire-2024-3
• Thủ tướng Lý Cường đã kêu gọi nỗ lực thúc đẩy ứng dụng trí tuệ nhân tạo (AI) sau khi Trung Quốc đặt mục tiêu phát triển lực lượng sản xuất chất lượng mới với tốc độ nhanh hơn trong Báo cáo Công tác Chính phủ năm nay.
• Trong chuyến thăm một ngày tại Bắc Kinh, ông Lý đã đến thăm khu vực thí điểm lái xe tự động tiên tiến, tập đoàn công nghệ Baidu, nhà sản xuất chip Naura Technology Group và Viện Nghiên cứu Trí tuệ Nhân tạo Bắc Kinh.
• Khái niệm "lực lượng sản xuất chất lượng mới" được Chủ tịch Tập Cận Bình đưa ra lần đầu trong chuyến thăm tỉnh Hắc Long Giang vào tháng 9 năm ngoái, đề cập đến năng suất tiên tiến được giải phóng khỏi mô hình tăng trưởng kinh tế truyền thống và con đường phát triển năng suất, đặc trưng bởi công nghệ đột phá, hiệu quả cao và chất lượng cao.
• Tại một hội nghị sau chuyến đi, ông Lý cho biết AI là động lực quan trọng cho sự phát triển của lực lượng sản xuất chất lượng mới. Cần tăng cường quy hoạch dự báo, nâng cao sức mạnh tính toán, đạt được đột phá trong thuật toán và thúc đẩy phát triển và sử dụng dữ liệu.
• Ông Lý nhấn mạnh cần tập trung phát triển lực lượng sản xuất chất lượng mới, đẩy nhanh đột phá công nghệ cốt lõi trong các lĩnh vực then chốt và thúc đẩy đổi mới công nghiệp thông qua đổi mới khoa học và công nghệ để thúc đẩy phát triển chất lượng cao.
• Tại khu vực thí điểm lái xe tự động tiên tiến, ông kêu gọi nâng cấp công nghệ lái xe tự động để thúc đẩy phát triển ngành ô tô và xây dựng đô thị thông minh của Trung Quốc.
• Tại Baidu, ông nhấn mạnh cần mở rộng các kịch bản ứng dụng của AI và tạo ra môi trường thuận lợi hơn cho phát triển ngành AI của đất nước.
• Trong chuyến thăm Naura Technology Group, ông khuyến khích công ty tăng đầu tư vào khoa học và công nghệ, đẩy nhanh nghiên cứu và phát triển thiết bị tiên tiến, đóng vai trò tốt hơn trong việc tích hợp đổi mới với toàn bộ chuỗi công nghiệp.
• Tại Viện Nghiên cứu Trí tuệ Nhân tạo Bắc Kinh, ông yêu cầu nỗ lực đạt được đột phá công nghệ cốt lõi trong các lĩnh vực then chốt nhằm đạt tới trình độ tiên tiến quốc tế.
📌 Thủ tướng Lý Cường cho biết AI là động lực quan trọng cho sự phát triển của lực lượng sản xuất chất lượng mới. Cần tăng cường quy hoạch dự báo, nâng cao sức mạnh tính toán, đạt được đột phá trong thuật toán và thúc đẩy phát triển và sử dụng dữ liệu. Ông kêu gọi đẩy nhanh đột phá công nghệ cốt lõi, mở rộng các kịch bản ứng dụng của AI và tạo ra môi trường thuận lợi hơn cho phát triển ngành AI của đất nước.
https://enapp.chinadaily.com.cn/a/202403/14/AP65f2324ea310115ef066e1ff.html
• Ngày 14/3, Nghị viện Châu Âu đã thông qua Đạo luật AI với đa số phiếu 523/705. Đây được coi là nỗ lực lớn đầu tiên trên thế giới nhằm quản lý AI.
• Luật áp dụng cách tiếp cận dựa trên mức độ rủi ro đối với các dịch vụ và sản phẩm sử dụng AI. Ví dụ: hệ thống gợi ý nội dung được coi là rủi ro thấp nên giám sát lỏng lẻo, trong khi thiết bị y tế phải chịu sự giám sát chặt chẽ hơn về dữ liệu và minh bạch.
• Tuy nhiên, một số người lo ngại Đạo luật AI quá thiên vị lợi ích của ngành công nghiệp và e sợ nó tạo tiền lệ xấu cho các nước khác.
• Công việc soạn thảo luật bắt đầu từ năm 2021, trước khi ChatGPT ra đời. Sau khi ChatGPT phát hành vào tháng 11/2022, các nhà lập pháp đã vội vã sửa đổi luật để bao gồm AI tạo sinh.
• Các công ty công nghệ đã vận động hành lang thành công để đảm bảo các quy tắc không quá hạn chế sự phát triển của họ. OpenAI được cho là đã thay đổi ngôn từ trong một bản nháp trước đó của đạo luật.
• Điều khoản gây tranh cãi 6(3) cho phép các nhà phát triển AI tạo sinh tuyên bố sản phẩm của họ có rủi ro thấp hơn, qua đó tránh một số quy tắc giám sát.
• Một số nhà hoạt động lo ngại Đạo luật AI đã đặt ra tiêu chuẩn toàn cầu mới, giống như GDPR năm 2018, nhưng lại quá lỏng lẻo. Họ cho rằng đây là chiến thắng cho ngành công nghiệp và cơ quan thực thi pháp luật.
📌 Đạo luật AI của EU đánh dấu bước ngoặt quan trọng trong nỗ lực quản lý AI toàn cầu, nhưng vẫn gây tranh cãi. Luật áp dụng cách tiếp cận dựa trên rủi ro, nhưng bị cho là quá thiên vị doanh nghiệp, đặc biệt với AI tạo sinh. Nhiều nhà hoạt động lo ngại nó tạo tiền lệ xấu và là thất bại trong việc hạn chế các ứng dụng AI nguy hiểm nhất.
https://www.fastcompany.com/91058443/eu-ai-act-nowhere-near-enough-bite
- Liên minh châu Âu đã thông qua quy định mới nhằm bảo vệ công dân khỏi AI rủi ro cao, đồng thời thúc đẩy đổi mới và thiết lập châu Âu trở thành người dẫn đầu trong lĩnh vực này.
- Luật cấm các ứng dụng AI như hệ thống phân loại sinh trắc học dựa trên đặc điểm nhạy cảm, cào dữ liệu khuôn mặt từ internet hoặc CCTV để tạo cơ sở dữ liệu nhận dạng khuôn mặt, nhận dạng cảm xúc tại nơi làm việc và trường học, xếp hạng xã hội, dự đoán tội phạm dựa trên lập hồ sơ cá nhân, AI thao túng hành vi con người hoặc lợi dụng điểm yếu của con người.
- Có ngoại lệ cho thực thi pháp luật, nhưng một số loại ứng dụng vẫn bị cấm hoặc chỉ được sử dụng trong các tình huống rất cụ thể. Ví dụ: hệ thống nhận dạng sinh trắc học thời gian thực chỉ được triển khai nếu đáp ứng các biện pháp bảo vệ nghiêm ngặt.
- Hệ thống AI đa năng (GPAI) sẽ phải đáp ứng các yêu cầu minh bạch của EU. Hệ thống GPAI rất mạnh sẽ phải đáp ứng các yêu cầu bổ sung như đánh giá rủi ro hệ thống và báo cáo sự cố. Tất cả nội dung hình ảnh, âm thanh hoặc video nhân tạo hoặc bị thao túng (thường được gọi là deepfake) sẽ phải được dán nhãn rõ ràng.
- Luật AI vẫn phải trải qua một số kiểm tra cuối cùng và cần được Hội đồng châu Âu chính thức thông qua. Nó sẽ có hiệu lực 20 ngày sau khi được công bố trên Tạp chí chính thức của EU và sẽ được áp dụng đầy đủ sau 2 năm - ngoại trừ một số trường hợp nghiêm trọng hơn như các hoạt động bị cấm, trong trường hợp đó nó sẽ áp dụng 6 tháng sau khi có hiệu lực.
📌 Luật AI mới của EU đặt ra các quy tắc ràng buộc toàn diện đầu tiên trên thế giới cho AI đáng tin cậy, cấm các hoạt động AI rủi ro cao như xếp hạng xã hội, hạn chế nhận dạng sinh trắc học, bảo vệ quyền cơ bản của công dân, đồng thời thúc đẩy đổi mới và thiết lập châu Âu trở thành người dẫn đầu trong lĩnh vực này. Luật sẽ có hiệu lực sau 20 ngày được công bố và áp dụng đầy đủ sau 2 năm.
https://sea.mashable.com/tech/31658/eus-landmark-new-ai-law-bans-social-scoring-limits-biometric-identification
- Nghị viện châu Âu đã chính thức thông qua Đạo luật AI, quy định toàn diện đầu tiên về các hệ thống AI có rủi ro cao, tính minh bạch cho AI tương tác với con người và các hệ thống AI trong sản phẩm được quản lý.
- Đạo luật dự kiến sẽ có hiệu lực vào tháng 5 năm nay. Dân biểu Ý Brando Benifei gọi đây là "một ngày lịch sử".
- Các công ty Mỹ cần chuẩn bị để tuân thủ Đạo luật AI của EU trong khi vẫn tiếp tục triển khai AI. Họ phải đảm bảo có đủ các rào cản phù hợp để tuân thủ mà không làm chậm tiến trình tạo ra giá trị từ AI tạo sinh.
- Đạo luật thiết lập tiêu chuẩn "trên thực tế" cho AI đáng tin cậy, giảm thiểu rủi ro AI và AI có trách nhiệm. Các khu vực khác chỉ có thể bắt kịp.
- Hầu hết các tổ chức toàn cầu sử dụng AI phải tuân thủ Đạo luật do hiệu lực ngoài lãnh thổ, mức phạt nặng và các yêu cầu lan tỏa trong chuỗi giá trị AI.
- Các tổ chức cần thành lập "nhóm tuân thủ AI" để bắt đầu chuẩn bị, đòi hỏi sự hợp tác chặt chẽ giữa các nhóm và sự hỗ trợ từ lãnh đạo cấp cao.
- IBM và Salesforce đều ủng hộ Đạo luật, cho rằng nó phù hợp với cam kết của họ về thực hành AI đạo đức và đóng góp vào xây dựng hệ sinh thái AI cởi mở, đáng tin cậy.
📌 Đạo luật AI của EU thiết lập tiêu chuẩn toàn cầu cho AI đáng tin cậy, yêu cầu các công ty trên thế giới phải tuân thủ ngay trong năm nay. Các tổ chức cần nhanh chóng thành lập nhóm để đáp ứng với sự phối hợp chặt chẽ giữa nhiều bộ phận. Các công ty công nghệ lớn như IBM, Salesforce ủng hộ Đạo luật, cho rằng nó thúc đẩy AI có đạo đức và trách nhiệm.
https://venturebeat.com/ai/eu-parliament-officially-adopts-ai-act-landmark-regulation-likely-to-become-law-in-may/
- Sự phát triển của AI tương tác đang đặt ra những thách thức bảo mật mới cho doanh nghiệp. Các mô hình AI chưa kiểm duyệt và chức năng ngoại tuyến gây khó khăn cho việc theo dõi, kiểm soát.
- Doanh nghiệp cần ưu tiên bảo vệ dữ liệu, kiểm soát truy cập nghiêm ngặt, giám sát liên tục và hợp tác với AI để tăng cường bảo mật. Cần có hướng dẫn đạo đức rõ ràng và đào tạo nhân viên.
- Các nhà nghiên cứu đưa ra kịch bản giả định rằng AI có thể thay thế tất cả âm nhạc bằng phiên bản của Taylor Swift, xóa các nghệ sĩ khác khỏi lịch sử. Họ chứng minh khả năng này bằng cách tạo ra các bản "Taylor's Versions".
- Các chuyên gia tranh luận về mức độ nghiêm trọng của mối đe dọa này. Một số kêu gọi thận trọng, số khác cho rằng rủi ro không lớn. Cần có các biện pháp kiểm tra, cân bằng và tích hợp AI một cách cẩn trọng.
- Thị trường tiền điện tử đang trải qua đợt tăng giá đáng kể nhờ sự gia nhập của các tổ chức tài chính lớn. Đây là cơ hội cho nhiều dự án tiềm năng như ScapesMania, Ripple, Jito, Maverick Protocol, Magic Square phát triển.
- ScapesMania vừa niêm yết thành công trên sàn PancakeSwap với khối lượng giao dịch lớn. Dự án có tiềm năng phát triển mạnh mẽ nhờ mô hình kinh doanh sáng tạo và cộng đồng người dùng hùng hậu.
- Ripple đang vướng vào vụ kiện với SEC, ảnh hưởng tiêu cực đến giá và khối lượng giao dịch. Tuy nhiên, việc ra mắt tùy chọn XRP USDT trên BNB có thể mang lại tín hiệu tích cực.
- Jito tăng giá mạnh nhờ các tính năng sáng tạo trên hệ sinh thái Solana. Dự án cần tiếp tục đổi mới và hỗ trợ hệ sinh thái để duy trì đà tăng trưởng.
- Maverick Protocol hợp tác với BNB trong chiến dịch airdrop nhằm thưởng cho người dùng giao dịch và cung cấp thanh khoản. Giá MAV tăng sau thông báo nhưng đã điều chỉnh lại.
- Magic Square công bố quỹ hỗ trợ hệ sinh thái trị giá 66 triệu USD nhằm thúc đẩy đổi mới. Động thái này sẽ thu hút nhiều nhà phát triển và người dùng, góp phần phát triển nền tảng.
📌 Sự phát triển của AI đang mang lại cả cơ hội và thách thức cho doanh nghiệp và xã hội. Cần có các biện pháp bảo mật, kiểm soát và tích hợp AI một cách thận trọng. Thị trường tiền điện tử đang bước vào giai đoạn phát triển mới với sự xuất hiện của nhiều dự án tiềm năng như ScapesMania, Ripple, Jito, Maverick Protocol và Magic Square. Tuy nhiên, nhà đầu tư cần cân nhắc kỹ lưỡng trước khi ra quyết định.
Citations:
[1] https://ppl-ai-file-upload.s3.amazonaws.com/web/direct-files/131695/176ceb89-8b69-4454-befb-d9cacb61de82/paste.txt
https://www.cryptopolitan.com/impact-of-ai-on-business-cybersecurity/
• Bộ Điện tử và Công nghệ Thông tin (MeitY) Ấn Độ đã ban hành hướng dẫn triển khai AI cho các cơ quan chính phủ và công ty tư nhân, nhấn mạnh tầm quan trọng của tính minh bạch, trách nhiệm giải trình và bảo vệ quyền riêng tư.
• Tata Consultancy Services (TCS) tập trung vào việc xây dựng các hệ thống AI có thể giải thích được, sử dụng các kỹ thuật như tạo sinh được tăng cường bởi truy xuất dữ liệu ngoài (retrieval augmented generation) để cải thiện tính minh bạch và khả năng giải thích.
• Infosys đang phát triển các khung làm việc và môi trường thử nghiệm (testbed) để đánh giá và kiểm tra các hệ thống AI, đảm bảo tuân thủ các tiêu chuẩn đạo đức và quy định.
• Wipro tập trung vào việc xây dựng các hệ thống AI đa phương thức (Multimodal), tích hợp xử lý ngôn ngữ tự nhiên và thị giác máy tính để tạo ra trải nghiệm tương tác tự nhiên hơn với người dùng.
• Các công ty cũng đang đầu tư vào nghiên cứu và phát triển AI, hợp tác với các viện nghiên cứu và trường đại học để thúc đẩy đổi mới và xây dựng năng lực AI.
📌 Hướng dẫn triển khai AI của Bộ Điện tử và Công nghệ Thông tin Ấn Độ đã thúc đẩy các công ty CNTT hàng đầu như TCS, Infosys và Wipro điều chỉnh chiến lược AI của họ. Họ tập trung vào việc cải thiện tính minh bạch, trách nhiệm giải trình và bảo vệ quyền riêng tư thông qua các kỹ thuật như AI có thể giải thích được, khung làm việc đánh giá và kiểm tra, cũng như phát triển các hệ thống AI đa phương thức để tuân thủ các quy định mới.
https://government.economictimes.indiatimes.com/news/policy/meitys-ai-deployment-advisory-how-are-it-companies-tailoring-their-approach-to-align-with-govt-policy/108370967
- Tại cuộc họp lập pháp hàng năm của Trung Quốc, AI trở thành chủ đề nóng khi nước này tìm cách tận dụng công nghệ tương tự ChatGPT để thúc đẩy tăng trưởng kinh tế nhưng vẫn duy trì sự kiểm soát quy định nghiêm ngặt.
- Các đại biểu công nghệ và học thuật tại Quốc hội Nhân dân (NPC) và Hội nghị Hiệp thương Chính trị Nhân dân Trung Quốc (CPPCC) đã đưa ra nhiều đề xuất để thúc đẩy AI, từ việc tập trung cơ sở hạ tầng đào tạo thuật toán đến việc nhận được nhiều hỗ trợ hơn từ Bắc Kinh để đảm bảo Trung Quốc không tụt hậu trong cuộc đua vũ trang AI toàn cầu.
- Yu Xiaohui, người đứng đầu Học viện Công nghệ Thông tin và Truyền thông Trung Quốc (CAICT), đề xuất chính phủ nên tập trung nguồn lực để xây dựng "thị trường quốc gia thống nhất" về dịch vụ tính toán.
- Zhang Yunquan, một thành viên CPPCC và một nhà nghiên cứu từ Học viện Khoa học Trung Quốc, đề xuất nỗ lực do nhà nước dẫn dắt để phối hợp nguồn lực học thuật và công nghiệp nhằm xây dựng một "LLM chủ quyền".
- Cao Peng, chủ tịch ủy ban công nghệ tại tập đoàn thương mại điện tử khổng lồ của Trung Quốc JD.com và người đứng đầu đơn vị đám mây của nó, kêu gọi phát triển chip AI nội địa để vượt qua các hạn chế xuất khẩu của Washington.
- Liu Qingfeng, chủ tịch tại iFlyTek, một chuyên gia AI của Trung Quốc nổi tiếng với khả năng nhận dạng giọng nói, kêu gọi một cách tiếp cận cấp quốc gia để "thúc đẩy một cách hệ thống và nhanh chóng sự phát triển trí tuệ nhân tạo tổng quát của đất nước chúng ta".
- Thủ tướng Lý Cường đã giới thiệu sáng kiến AI+ tại cuộc họp lập pháp hàng năm của Trung Quốc, nhấn mạnh việc tích hợp AI vào các ngành truyền thống để thúc đẩy tăng trưởng kinh tế và nâng cấp công nghệ.
- Sáng kiến AI+ nhằm mục tiêu tận dụng tối đa sức mạnh của AI, không chỉ trong lĩnh vực công nghệ mà còn mở rộng sang các ngành nghề khác như sản xuất, y tế và giáo dục, qua đó tạo ra sự đổi mới và tăng trưởng kinh tế bền vững.
- Trong bối cảnh cuộc cạnh tranh AI toàn cầu ngày càng khốc liệt, sáng kiến AI+ của Trung Quốc được xem là bước đi chiến lược nhằm không chỉ bắt kịp mà còn vượt qua Mỹ trong lĩnh vực công nghệ AI.
- Các nhà lập pháp và chính trị gia Trung Quốc cũng bày tỏ sự quan tâm đến việc kiểm soát và quản lý AI, đề xuất việc thiết lập hệ thống trách nhiệm để đảm bảo các dịch vụ AI tuân thủ quy định và không gây ra rủi ro cho xã hội.
- Đề xuất này đi kèm với việc Trung Quốc đã triển khai hệ thống đăng ký yêu cầu các LLM địa phương áp dụng phê duyệt trước khi cung cấp dịch vụ công cộng, với hơn 40 LLM, chiếm khoảng một phần năm tổng số LLM của đất nước, đã được phê duyệt cho phát hành công khai.
📌 Sáng kiến AI+ của Thủ tướng Lý Cường là một bước tiến quan trọng trong việc thúc đẩy tăng trưởng kinh tế và nâng cấp công nghệ tại Trung Quốc, thông qua việc tích hợp AI vào các ngành truyền thống. Điều này không chỉ nhấn mạnh tầm quan trọng của AI trong tương lai của Trung Quốc mà còn cho thấy quyết tâm của nước này trong việc dẫn đầu cuộc đua công nghệ toàn cầu, đồng thời duy trì sự kiểm soát và quản lý chặt chẽ đối với sự phát triển của AI.
📌 Trung Quốc đang tăng cường nỗ lực phát triển AI để không bị tụt hậu so với Mỹ, với các đề xuất từ việc tập trung nguồn lực cho đến phát triển chip AI nội địa. Các nhà lập pháp và chuyên gia công nghệ nhấn mạnh tầm quan trọng của việc tạo dựng một hệ thống cơ sở hạ tầng tính toán quốc gia thống nhất và phát triển "LLM chủ quyền" để củng cố vị thế của Trung Quốc trong cuộc đua AI toàn cầu.
https://www.scmp.com/tech/policy/article/3254851/two-sessions-2024-chinas-lawmakers-call-more-ai-development-catch-us-while-keeping-it-under
#AIhay
1. Chỉ số Tác động Kinh tế AI của chúng tôi cho thấy:
- Mỹ sẽ dẫn đầu và là một trong những nước hưởng lợi chính từ cuộc cách mạng AI. Điều này sẽ làm gia tăng khoảng cách với Eurozone.
- Mỹ vượt trội hơn hẳn về đổi mới AI, phần lớn nhờ sự năng động của khu vực tư nhân. Mỹ đầu tư nhiều nhất vào AI và có số lượng startup AI lớn nhất.
- Trung Quốc sẽ ở gần tuyến đầu trong một số khía cạnh đổi mới AI nhưng gặp khó khăn trong việc tận dụng đầy đủ các khả năng mà công nghệ này mang lại. Một phần do AI có thể trở thành đường đứt gãy mới trong sự phân mảnh của nền kinh tế toàn cầu.
- Trung Quốc xếp thứ 18, cao nhất trong các nước mới nổi lớn nhưng vẫn ở mức trung bình. Trung Quốc có thể đóng vai trò quan trọng trong cạnh tranh giữa các công ty AI phương Tây và Trung Quốc.
2. Các nền kinh tế Hổ châu Á (Hồng Kông, Singapore, Hàn Quốc và Đài Loan) xếp hạng cao.
- Singapore đứng thứ hai, Hàn Quốc và Hồng Kông cũng nằm trong top 10. Các nền kinh tế này hoạt động tốt về phổ biến và thích ứng công nghệ.
- Các nước Hổ châu Á có thể hành động khẩn trương hơn để triển khai AI nhằm đối phó với tác động của già hóa dân số.
- Vương quốc Anh đứng thứ ba với hệ thống giáo dục đại học hàng đầu thế giới thu hút nhân tài từ khắp nơi. Nền kinh tế định hướng dịch vụ cũng giúp áp dụng nhanh AI.
3. Nhật Bản và hầu hết các nền kinh tế Eurozone nằm ở vị trí trung gian giữa Mỹ và Trung Quốc.
- Nhật Bản (thứ 16) có tiềm năng đổi mới công nghệ mạnh nhưng gần đây kém trong việc phổ biến công nghệ mới. Văn hóa né tránh rủi ro có thể là một yếu tố.
- Eurozone gặp nhiều hạn chế như ngành công nghiệp vốn mạo hiểm kém phát triển, cơ sở hạ tầng điện toán đám mây tương đối yếu. Các vấn đề cơ cấu quen thuộc cũng cản trở việc phổ biến AI.
- Các nhà hoạch định chính sách châu Âu có thể quy định AI chặt chẽ hơn. Hơn 100 quốc gia triển khai Google Bard trước khi nó hoạt động ở EU.
4. Các nước mới nổi, đặc biệt là ngoài châu Á, xếp hạng thấp hơn đáng kể so với các nước phát triển.
- Sự thiếu năng động trong khu vực tư nhân, ngành CNTT nhỏ và kém phát triển, đầu tư R&D tương đối thấp sẽ cản trở việc đổi mới và phổ biến công nghệ.
- Chi phí, thiếu lao động có kỹ năng, vấn đề kiểm duyệt cũng là rào cản với AI ở các nước mới nổi.
- Ngành dịch vụ gia công quy trình kinh doanh (BPO) ở Ấn Độ, Philippines có thể bị ảnh hưởng tiêu cực bởi AI. Tuy nhiên, tác động trực tiếp lên tăng trưởng GDP sẽ không quá lớn (khoảng 0.3-0.4%/năm).
- Mối đe dọa lớn hơn là nếu AI thay thế công nhân trong các ngành sản xuất - con đường truyền thống để hội tụ thu nhập.
- Các ứng dụng AI có thể giúp lấp đầy khoảng trống phát triển ở các nước thu nhập thấp như y tế, giáo dục.
5. Tăng trưởng năng suất ở G7 có thể quay trở lại mức thời kỳ cách mạng ICT những năm 1990, nhưng sẽ có sự khác biệt đáng kể giữa các nước.
- Mỹ dự kiến đạt mức tăng năng suất 2.3%/năm trong thập niên 2030, tương đương thời kỳ bùng nổ ICT những năm 1990.
- Canada, Anh quanh mức 1.5%/năm. Nhật, Pháp, Đức khoảng 1-1.5%/năm. Italy dưới 1%/năm.
- Trung Quốc sẽ được AI thúc đẩy năng suất nhưng không bù đắp được các cơn gió ngược cơ cấu khác. Tương tự Eurozone những năm 1990.
- Các nước mới nổi sẽ nhận được cú hích năng suất từ AI muộn hơn, có thể từ giữa những năm 2030.
6. Cuộc cách mạng AI sẽ định hình lại nền kinh tế toàn cầu:
- Nếu AI thúc đẩy các nền kinh tế phát triển nhiều hơn các nước mới nổi, điều này sẽ làm chậm tốc độ hội tụ thu nhập so với "Thời kỳ hoàng kim của EM" trong những năm 2000 và đầu những năm 2010.
- AI sẽ giúp kinh tế Mỹ duy trì vị thế dẫn đầu so với Trung Quốc xét về GDP theo tỷ giá thị trường. Kỳ vọng Trung Quốc vượt Mỹ sẽ phải điều chỉnh lại.
- Ấn Độ sẽ vươn lên vị trí nền kinh tế lớn thứ 3 thế giới, nhưng trong thập kỷ tới AI sẽ cản trở đà tăng trưởng của họ.
- 6/10 nền kinh tế lớn nhất thế giới năm 2040 có khả năng sẽ là các nước phát triển. Điều này củng cố sự thống trị của Mỹ và đồng minh, gây khó khăn cho Trung Quốc trong việc cạnh tranh công nghệ và giảm sự phụ thuộc vào phương Tây.
📌 Chỉ số Tác động Kinh tế AI cho thấy Mỹ sẽ dẫn đầu cuộc cách mạng AI, trong khi Trung Quốc gặp nhiều trở ngại. Điều này sẽ làm gia tăng khoảng cách giữa Mỹ với Eurozone và khiến việc hội tụ thu nhập của các nước mới nổi trở nên khó khăn hơn. Tuy nhiên, các ứng dụng AI cũng mang lại cơ hội cải thiện y tế, giáo dục cho nhiều quốc gia thu nhập thấp. Cuộc cách mạng AI sẽ định hình lại trật tự kinh tế toàn cầu, giúp Mỹ và đồng minh củng cố vị thế thống trị, đồng thời tạo thêm thách thức cho tham vọng công nghệ và phát triển của Trung Quốc.
----------------------------------------------------------------
CONCLUSIONS
Three broad conclusions can be drawn from this Chapter. First, our proprietary AI Economic Impact Index suggests that the US will lead the AI revolution, with the Asian Tigers, UK, Israel, and parts of the Nordics also well-placed to benefit. In contrast, economic, political and institutional factors mean that the pace of adoption is likely to be slower in Germany and France, and even more so in Italy and Spain. The AI revolution is likely to accentuate the outperformance of the US economy over that of the euro-zone.
Second, China will lead some aspects of the AI revolution but struggle in others. This is in part because AI is likely to become a new fault line in the fracturing of the global economy, which will reduce China’s access to US technology and mean it will need to develop AI capabilities domestically. China will experience productivity gains, but they are likely to be smaller than those felt in the US. As other headwinds combine to sap China’s growth, the AI revolution is another reason to think that the US will remain the world’s largest economy over the coming decades. And in the context of the geopolitical contest between the two largest powers, AI is likely to bolster the position of the US and its allies relative to China.
Third, the AI revolution will make EM income convergence harder as richer economies are better equipped to deploy the technology on a wide scale. It poses a headwind to the services-driven economic development pursued by India and the Philippines, but is less of a threat to the more traditional path of manufacturing-led growth, at least for now. And the good news is that many potential applications of AI could help plug development gaps and improve health and educational outcomes in many low-income countries.
Citations:
[1] https://www.capitaleconomics.com/publications/ce-spotlight/chapter-5-ai-and-global-economic-order
#hay
- Các tiểu bang Hoa Kỳ đang đề xuất các dự luật nhằm giải quyết vấn đề thiên vị trong các hệ thống AI, đặc biệt trong lĩnh vực tuyển dụng, cho thuê nhà ở và chăm sóc y tế.
- Ít nhất 7 tiểu bang đang dẫn đầu nỗ lực lập pháp, tuy nhiên việc đàm phán với các bên liên quan và tốc độ phát triển công nghệ đang là thách thức lớn.
- Các dự luật chủ yếu tập trung vào yêu cầu các công ty thực hiện đánh giá tác động để xác định và giảm thiểu sự phân biệt đối xử trong thuật toán AI.
- Tuy nhiên, các chuyên gia cho rằng các biện pháp này thiếu tính cụ thể và chưa đủ để giải quyết vấn đề một cách hiệu quả.
- Cần có các khuôn khổ mạnh mẽ hơn để giám sát và đánh giá hệ thống AI, bao gồm kiểm toán bắt buộc và công khai kết quả.
- Sự hợp tác giữa các nhà lập pháp, các bên liên quan trong ngành và các nhóm vận động là rất quan trọng để vượt qua những thách thức phức tạp mà công nghệ AI đặt ra.
📌 Mặc dù các nỗ lực lập pháp của các tiểu bang Hoa Kỳ đánh dấu bước tiến quan trọng trong việc giải quyết sự thiên vị của AI, vẫn cần những biện pháp toàn diện hơn để đảm bảo trách nhiệm giải trình và minh bạch. Việc thiết lập các khuôn khổ mạnh mẽ, thúc đẩy sự hợp tác đa bên và ưu tiên bảo vệ quyền của cá nhân sẽ giúp giảm thiểu tác động tiêu cực của sự thiên vị và duy trì niềm tin của công chúng vào đổi mới công nghệ.
https://www.cryptopolitan.com/state-legislatures-addressing-ai-bias/
- Rakuten Symphony, công ty con của Rakuten Mobile, dự định đầu tư 10 triệu USD vào Ấn Độ trong năm nay để nâng cao khả năng AI và nghiên cứu về 6G tại trung tâm R&D ở Bengaluru.
- Sáng kiến này sẽ tập trung vào việc mở rộng trung tâm, với trọng tâm ban đầu là "AI-nization".
- Rakuten có khoảng 3.000 nhân viên tại Rakuten Symphony tham gia vào các nhiệm vụ nghiên cứu, phát triển và vận hành đa dạng.
- Rakuten đã bắt đầu thảo luận với ba nhà mạng lớn của Ấn Độ là Reliance Jio, Bharti Airtel và Vodafone Idea để triển khai small cells dựa trên công nghệ Open RAN.
- Công nghệ Open RAN giúp các nhà mạng có thể mua phần cứng và phần mềm từ các nhà cung cấp khác nhau, chấm dứt sự phụ thuộc vào một nhà cung cấp duy nhất.
- Rakuten là một trong những công ty đầu tiên áp dụng AI và đã phát triển các thuật toán AI cho mảng thương mại điện tử tại Nhật Bản.
- Rakuten cũng sẽ hợp tác với OpenAI để phát triển các giải pháp AI cho mạng di động, bao gồm dịch vụ khách hàng, tối ưu hóa mạng và bảo trì dự đoán cho mạng viễn thông.
📌 Rakuten Symphony sẽ đầu tư 10 triệu USD vào Ấn Độ để nâng cao AI và nghiên cứu 6G, tập trung vào trung tâm R&D 3.000 nhân viên ở Bengaluru. Họ cũng đang thảo luận với 3 nhà mạng lớn của Ấn Độ để triển khai small cells với công nghệ Open RAN, đồng thời hợp tác với OpenAI phát triển giải pháp AI cho mạng di động.
https://www.livemint.com/companies/news/japans-rakuten-to-invest-10-mn-in-ai-6g-development-in-india-11709890326240.html
- Chính phủ Ấn Độ phê duyệt khoản đầu tư 1,24 tỷ USD cho sứ mệnh IndiaAI nhằm tạo ra hệ sinh thái AI nội địa.
- Phần lớn ngân sách sẽ được phân bổ để xây dựng một hệ thống siêu máy tính hiệu năng cao (HPC) mới với 10.000 GPU trở lên, phục vụ cả khu vực công và tư nhân.
- Trung tâm Đổi mới IndiaAI sẽ phát triển các mô hình ngôn ngữ lớn đa phương thức (LMMs) và mô hình nền tảng đặc thù miền, hỗ trợ 23 ngôn ngữ chính thức của Ấn Độ.
- Nền tảng Tập dữ liệu IndiaAI cung cấp quyền truy cập vào các cơ sở dữ liệu chất lượng cao "phi cá nhân" thông qua một nền tảng dữ liệu thống nhất.
- Sáng kiến IndiaAI FutureSkills nhằm đào tạo nhân lực có kỹ năng mới cho thị trường việc làm AI đang phát triển.
- Chương trình IndiaAI Startup Financing thúc đẩy sự phát triển của khu vực tư nhân AI và các dự án AI tương lai.
- IndiaAI tập trung phát triển các sáng kiến AI an toàn và có trách nhiệm thông qua các khuôn khổ phần mềm, hướng dẫn của chính phủ và các biện pháp bảo vệ thích hợp.
📌 Sứ mệnh IndiaAI trị giá 1,24 tỷ USD của Ấn Độ nhằm xây dựng một hệ sinh thái AI nội địa toàn diện, với siêu máy tính 10.000 GPU, các mô hình ngôn ngữ đa dạng, nền tảng dữ liệu thống nhất, đào tạo kỹ năng và hỗ trợ khởi nghiệp. Chính phủ Modi muốn chứng minh rằng công nghệ học máy có thể được khai thác vì lợi ích xã hội, tránh xa các nỗ lực lấy lợi nhuận làm trung tâm như ChatGPT.
https://www.techspot.com/news/102191-india-build-10000-gpu-supercomputer-autarchic-ai-development.html
#hay
- Tổng thống Biden kêu gọi Quốc hội thông qua luật bảo vệ quyền riêng tư trẻ em trực tuyến, khai thác tiềm năng của AI và bảo vệ khỏi những mối nguy hại, cấm công nghệ AI mạo danh giọng nói.
- Công nghệ nhân bản giọng nói đang được phát triển bởi các công ty như ElevenLabs và myShell.
- Trước thềm bầu cử sơ bộ New Hampshire 2024, giọng nói của Biden đã bị mạo danh trong chiến dịch robocall kêu gọi không bỏ phiếu.
- Tổng chưởng lý New Hampshire đã thuê Industry Traceback Group truy xuất cuộc gọi đến công ty Life Corporation và chủ sở hữu Walter Monk ở Texas, cùng công ty Lingo Telecom.
- Tháng 2/2024, Ủy ban Truyền thông Liên bang (FCC) đã ra lệnh cho Lingo ngừng hoạt động.
- Câu hỏi đặt ra là liệu các công ty như ElevenLabs, myShell có bị ảnh hưởng và Quốc hội có thông qua luật cấm công nghệ này hay không.
📌 Phát biểu tại Quốc hội, Tổng thống Biden kêu gọi cấm công nghệ AI mạo danh giọng nói, bảo vệ trẻ em trực tuyến và khai thác tiềm năng của AI. Trước đó, giọng nói của ông đã bị mạo danh trong chiến dịch robocall ở New Hampshire. FCC đã ra lệnh cho công ty liên quan ngừng hoạt động. Câu hỏi đặt ra là liệu Quốc hội có hành động theo lời kêu gọi của Tổng thống hay không.
https://venturebeat.com/ai/pres-biden-calls-upon-congress-to-ban-ai-voice-impersonation-in-state-of-the-union-address/
#sec
• Linwei (Leon) Ding, 38 tuổi, cựu kỹ sư phần mềm của Google, bị buộc tội đánh cắp bí mật thương mại về công nghệ AI của Google và chuyển giao cho hai công ty tại Trung Quốc.
• Thông tin bí mật bị đánh cắp liên quan đến công nghệ quan trọng của các trung tâm dữ liệu siêu máy tính tiên tiến của Google, cần thiết để đào tạo và lưu trữ các mô hình AI lớn.
• Ding đã đánh cắp thông tin về kiến trúc và chức năng của chip GPU, TPU và hệ thống; phần mềm cho phép các chip giao tiếp và thực thi tác vụ; Hệ thống Quản lý Cụm (CMS) điều phối hàng nghìn chip thành siêu máy tính.
• Trong gần một năm, từ tháng 5.2022, Ding đã tải lên hơn 500 tệp tin bí mật lên tài khoản Google Cloud cá nhân.
• Ding chuyển các tệp tin chứa thông tin mật đến Trung Quốc, cho một công ty AI mà ông làm Giám đốc Công nghệ và một công ty khác do ông sáng lập.
• Ding không thông báo cho Google về mối liên hệ với các công ty này và không khai báo các chuyến đi đến Trung Quốc.
• Sau khi Google phát hiện hoạt động chuyển dữ liệu trái phép, Ding nói dối với điều tra viên và ký giấy tuyên bố xóa vĩnh viễn dữ liệu mật nhưng không thực hiện.
• Ding bị bắt ngày 5.3.2024 tại California, đối mặt với mức án tối đa 10 năm tù giam và phạt tới 1 triệu USD.
📌 Cựu kỹ sư Google bị bắt vì đánh cắp hơn 500 tệp tin bí mật về công nghệ AI tiên tiến, chuyển cho 2 công ty Trung Quốc, đối mặt 10 năm tù và phạt 1 triệu USD.
https://www.bleepingcomputer.com/news/google/google-engineer-caught-stealing-ai-tech-secrets-for-chinese-firms/
- Chính phủ Ấn Độ thông báo kế hoạch đầu tư 1,2 tỷ USD vào các dự án AI trong 4 năm tới.
- Mục tiêu là thúc đẩy nghiên cứu, đổi mới và ứng dụng AI vào các lĩnh vực then chốt của nền kinh tế.
- Khoản đầu tư sẽ được sử dụng để thành lập 3 Trung tâm Xuất sắc về AI và 20 Trung tâm Đổi mới về AI trên toàn quốc.
- Chính phủ cũng sẽ thành lập một nền tảng dữ liệu quốc gia để thúc đẩy nghiên cứu và phát triển AI.
- Ấn Độ muốn trở thành trung tâm toàn cầu về AI và tận dụng tiềm năng to lớn của công nghệ này.
- Bộ trưởng Công nghệ Ấn Độ Rajeev Chandrasekhar cho biết AI sẽ đóng vai trò quan trọng trong tương lai của đất nước.
- Ấn Độ đã có một số thành tựu đáng kể trong lĩnh vực AI, như phát triển siêu máy tính mạnh nhất thế giới và đóng góp vào nghiên cứu AI toàn cầu.
📌 Ấn Độ công bố kế hoạch đầu tư 1,2 tỷ USD vào các dự án AI trong 4 năm tới, bao gồm thành lập 3 Trung tâm Xuất sắc và 20 Trung tâm Đổi mới về AI, cũng như xây dựng nền tảng dữ liệu quốc gia. Mục tiêu là biến Ấn Độ thành trung tâm AI toàn cầu, tận dụng tiềm năng to lớn của công nghệ này để thúc đẩy phát triển kinh tế và xã hội.
https://www.reuters.com/technology/india-announces-12-bln-investment-ai-projects-2024-03-07/
• Microsoft hợp tác với SkillsFuture Singapore để trang bị kiến thức về công cụ AI cho 2.000 SMBs trong vòng ba năm.
• Công ty cũng làm việc với Institute for Adult Learning để tích hợp AI vào chương trình giáo dục, phát triển và thử nghiệm công cụ và phương pháp AI.
• Microsoft hợp tác với NTUC LearningHub để đào tạo tới 100.000 thành viên NTUC về kỹ năng AI cơ bản, nhằm nâng cao trình độ hiểu biết về AI và chuẩn bị cho thị trường lao động đang thay đổi.
• Các chương trình đào tạo trực tuyến và trực tiếp tập trung vào việc áp dụng AI tại nơi làm việc đã được triển khai.
• Microsoft cũng làm việc với EnterpriseSG và AI Singapore để thúc đẩy việc áp dụng Microsoft Copilot trong SMBs địa phương và phát triển tài nguyên hỗ trợ SMBs trong quản lý thay đổi và tái thiết kế quy trình kinh doanh.
• Microsoft giới thiệu sáng kiến Microsoft AI Pinnacle Program để phát triển giải pháp AI cho các ngành công nghiệp chủ chốt, bao gồm việc thiết lập một Trung tâm Năng lực AI.
• Laurence Liew từ AI Singapore kêu gọi các nhà cung cấp phần mềm AI tạo sinh tích hợp mô hình dữ liệu khu vực và địa phương để phản ánh đa dạng dân số toàn cầu.
• Chính phủ Singapore dành ít nhất SG$1 tỷ để thúc đẩy phát triển AI trong nước, bao gồm cả việc nâng cấp mạng lưới băng thông rộng quốc gia và xây dựng trung tâm chỉ huy an ninh mạng mới.
📌 Microsoft đang thúc đẩy việc áp dụng AI tại Singapore thông qua các hợp tác đào tạo và phát triển với các tổ chức như SkillsFuture Singapore, Institute for Adult Learning, và NTUC LearningHub, cũng như hợp tác với EnterpriseSG và AI Singapore để thúc đẩy việc sử dụng Microsoft Copilot. Sáng kiến Microsoft AI Pinnacle Program nhằm phát triển giải pháp AI cho các ngành công nghiệp chủ chốt, cùng với việc chính phủ Singapore dành ngân sách lớn cho AI, cho thấy cam kết mạnh mẽ trong việc áp dụng công nghệ này.
https://www.zdnet.com/article/microsoft-inks-pact-to-train-singapore-smbs-in-ai/
- Bộ Điện tử và Công nghệ Thông tin Ấn Độ (MeitY) đã phát hành một thông báo thứ hai yêu cầu các nền tảng truyền thông xã hội phải xin phép rõ ràng từ Chính phủ trước khi triển khai các mô hình Trí tuệ Nhân tạo (AI) đang trong quá trình thử nghiệm tại Ấn Độ.
- Thông báo này được đưa ra sau hơn hai tháng kể từ khi bộ này phát hành một thông báo vào tháng 12 năm trước, yêu cầu các nền tảng mạng xã hội tuân thủ các quy định IT hiện hành để giải quyết vấn đề deepfakes.
- Các nền tảng trung gian được yêu cầu đảm bảo rằng việc sử dụng các mô hình AI, phần mềm hoặc thuật toán không cho phép người dùng đăng tải, hiển thị, tải lên, chỉnh sửa, xuất bản, truyền tải, lưu trữ, cập nhật hoặc chia sẻ bất kỳ nội dung bất hợp pháp nào theo quy định tại Điều 3(1)(b) của Quy tắc IT hoặc vi phạm bất kỳ quy định nào khác của Đạo luật IT.
- Thông báo cũng nhấn mạnh rằng các nền tảng không được phép tạo ra bất kỳ sự thiên vị, phân biệt đối xử nào hoặc đe dọa tính toàn vẹn của quá trình bầu cử thông qua việc sử dụng các mô hình AI, phần mềm hoặc thuật toán.
- Việc sử dụng các mô hình AI đang trong quá trình thử nghiệm hoặc không đáng tin cậy và việc cung cấp chúng cho người dùng trên Internet Ấn Độ phải được thực hiện với sự cho phép rõ ràng của Chính phủ Ấn Độ và chỉ được triển khai sau khi đã được gắn nhãn một cách thích hợp.
📌 Kể từ tháng 12 năm trước, Chính phủ Ấn Độ đã thể hiện quyết tâm trong việc kiểm soát và quản lý việc triển khai các mô hình AI trên các nền tảng mạng xã hội, nhằm giải quyết các vấn đề như deepfakes và đảm bảo tuân thủ các quy định CNTT hiện hành. Thông báo mới nhất từ Bộ Điện tử và Công nghệ Thông tin Ấn Độ yêu cầu các nền tảng phải xin phép trước khi triển khai các mô hình AI, nhấn mạnh việc cần thiết phải đảm bảo tính minh bạch, trách nhiệm và tuân thủ pháp luật trong quá trình sử dụng công nghệ AI. Điều này không chỉ giúp bảo vệ người dùng mà còn góp phần vào việc duy trì tính toàn vẹn và công bằng trong quá trình bầu cử, cũng như ngăn chặn sự phân biệt đối xử thông qua việc sử dụng công nghệ.
Citations:
[1] https://ciso.economictimes.indiatimes.com/news/grc/seek-nod-before-launching-ai-models-in-india-centre-to-social-media-platforms/108194373
- Bộ trưởng Bộ Công nghệ thông tin Ấn Độ, Rajeev Chandrasekhar, thông báo trên trang mạng xã hội X rằng hướng dẫn mới về AI của chính phủ không áp dụng cho các startup.
- Hướng dẫn này nhằm vào các nền tảng lớn và chỉ yêu cầu sự cho phép từ Bộ Công nghệ thông tin đối với các nền tảng lớn, không áp dụng cho các startup.
- Mục tiêu của hướng dẫn là ngăn chặn việc triển khai các nền tảng AI chưa được kiểm định trên Internet Ấn Độ.
- Quy trình xin phép, gắn nhãn và tiết lộ dựa trên sự đồng ý với người dùng về các nền tảng chưa được kiểm định được mô tả như một "chính sách bảo hiểm" cho các nền tảng có thể bị người tiêu dùng kiện.
- Hướng dẫn của chính phủ đã bị chỉ trích trên toàn cầu bởi các chuyên gia AI hàng đầu. Bindu Reddy, CEO của Abacus.ai, bình luận rằng "Ấn Độ vừa từ biệt tương lai của mình!"
- Hướng dẫn của chính phủ, công bố vào ngày 1 tháng 3, yêu cầu tất cả các trung gian hoặc nền tảng đảm bảo rằng việc sử dụng mô hình Trí tuệ nhân tạo/LLM/Gen AI, phần mềm hoặc thuật toán trên hoặc thông qua tài nguyên máy tính của mình không cho phép người dùng đăng tải, hiển thị, tải lên, chỉnh sửa, xuất bản, truyền tải, lưu trữ, cập nhật hoặc chia sẻ bất kỳ nội dung bất hợp pháp nào như được nêu trong Quy tắc 3(1)(b) của Quy tắc IT hoặc vi phạm bất kỳ quy định nào khác của Đạo luật IT.
📌 Hướng dẫn mới về AI của chính phủ Ấn Độ, được công bố bởi Bộ trưởng Bộ Công nghệ thông tin Rajeev Chandrasekhar, đã tạo ra một làn sóng phản ứng trên toàn cầu. Mặc dù hướng dẫn này không áp dụng cho các startup, nhưng nó đặt ra các yêu cầu nghiêm ngặt đối với các nền tảng lớn, bao gồm việc xin phép trước khi triển khai các mô hình AI chưa được kiểm định. Điều này được xem là một biện pháp bảo vệ trước rủi ro pháp lý, nhưng cũng bị nhiều chuyên gia trong ngành coi là một bước lùi đối với sự phát triển của AI tại Ấn Độ. Phản ứng từ cộng đồng quốc tế, bao gồm cả những lời chỉ trích từ các CEO và giáo sư khoa học máy tính hàng đầu, cho thấy mức độ quan ngại sâu sắc về tác động tiềm ẩn của hướng dẫn này đối với ngành công nghiệp AI đang phát triển nhanh chóng.
Citations:
[1] https://economictimes.indiatimes.com/tech/technology/govts-ai-advisory-will-not-apply-to-startups-mos-it-rajeev-chandrasekhar/articleshow/108197797.cms
- Ít nhất 17 chính quyền thành phố ở Trung Quốc, bao gồm cả Thượng Hải, đã cam kết cung cấp "voucher tính toán" để hỗ trợ các start-up AI đối mặt với chi phí trung tâm dữ liệu tăng cao do sự khan hiếm chip quan trọng.
- Các voucher này có giá trị tương đương từ 140.000 đến 280.000 đô la Mỹ, có thể được sử dụng cho thời gian tại các trung tâm dữ liệu AI để huấn luyện và chạy các mô hình ngôn ngữ lớn (LLMs) và nội dung khác.
- Các công ty internet với dịch vụ điện toán đám mây đã hủy hợp đồng do các kiểm soát chặt chẽ hơn của Mỹ, khiến họ "chiếm dụng GPU [đơn vị xử lý đồ họa] cho chính họ", theo một nhà sáng lập AI.
- Alibaba, Tencent và ByteDance đã hạn chế việc cho thuê GPU của Nvidia và đã dành phần lớn những bộ xử lý AI này cho sử dụng nội bộ và khách hàng quan trọng.
- Chính quyền Biden đã thắt chặt quyền truy cập của Trung Quốc vào chip AI quan trọng, dẫn đến việc các công ty tích trữ trước lệnh cấm, sử dụng lại chip chơi game của Nvidia hoặc tìm đến thị trường đen.
- Các chương trình trợ cấp chỉ giải quyết một phần vấn đề, vì "voucher tính toán giúp giảm bớt rào cản về chi phí nhưng không giải quyết được sự khan hiếm nguồn lực", theo một nhà phân tích.
- Bắc Kinh sẽ sớm triển khai chương trình trợ cấp cho các nhóm AI sử dụng chip trong nước, nhằm tăng cường nỗ lực thay thế linh kiện nước ngoài.
- Trung Quốc cũng đang tạo ra một lựa chọn thay thế cho các trung tâm dữ liệu và dịch vụ đám mây của Big Tech bằng cách xây dựng một mạng lưới trung tâm dữ liệu và nền tảng trực tuyến do nhà nước quản lý.
📌 Ít nhất 17 chính quyền thành phố ở Trung Quốc, bao gồm cả Thượng Hải, đã cam kết cung cấp "voucher tính toán" để hỗ trợ các start-up AI đối mặt với chi phí trung tâm dữ liệu tăng cao do sự khan hiếm chip quan trọng. Các voucher này có giá trị tương đương từ 140.000 đến 280.000 đô la Mỹ. Các biện pháp này bao gồm việc hạn chế cho thuê GPU của Nvidia, tích trữ chip AI, và phát triển các trung tâm dữ liệu do nhà nước quản lý. Mặc dù các chương trình trợ cấp có thể giúp giảm bớt rào cản về chi phí, sự khan hiếm nguồn lực vẫn là một thách thức lớn. Bắc Kinh cũng đang tìm cách thúc đẩy sử dụng chip trong nước và tăng cường hiệu quả phân bổ nguồn lực thông qua việc xây dựng các cụm trung tâm dữ liệu và khuyến khích sử dụng các nền tảng giao dịch nguồn lực tính toán do nhà nước điều hành.
https://www.ft.com/content/9d67cda3-b157-47a0-98cb-e8e9842b2c90
- Bộ trưởng Ngoại giao S Jaishankar đã cảnh báo về những nguy cơ mà công nghệ mới nổi như trí tuệ nhân tạo (AI) và deepfakes đặt ra cho an ninh quốc gia.
- Ông nhấn mạnh về sự gia tăng các trường hợp can thiệp nước ngoài thông qua lĩnh vực mạng và nhấn mạnh tầm quan trọng của việc cảnh giác trước những thách thức đang phát triển này.
- Trong một phiên tương tác tại một think-tank, Jaishankar đã chỉ ra rằng phạm vi lo ngại về an ninh đang mở rộng ra ngoài những khái niệm truyền thống về phòng thủ biên giới và chống khủng bố.
- Ông cũng nhấn mạnh sự dễ bị tổn thương ngày càng tăng của các hoạt động hàng ngày trước sự thao túng và sự gia tăng can thiệp nước ngoài tại Ấn Độ.
- Jaishankar nhấn mạnh tầm quan trọng của việc nâng cao nhận thức công chúng về bối cảnh toàn cầu đang thay đổi, được đặc trưng bởi sự tiến bộ trong AI và sự phổ biến của deepfakes.
- Ông cảnh báo về sự tự mãn và kêu gọi công dân nhận ra bản chất đang thay đổi của các mối đe dọa trong thời đại số.
- Phản hồi trước lo ngại về việc Ấn Độ trở thành một nhà nước giám sát, Jaishankar làm rõ rằng chính phủ có trách nhiệm giải quyết các mối đe dọa an ninh chính đáng.
- Ông phân biệt giữa hành động nhà nước có trách nhiệm và sự giám sát quá mức, nhấn mạnh cần phải tìm kiếm sự cân bằng giữa tự do và trách nhiệm.
📌 Bộ trưởng Ngoại giao Ấn Độ đã nêu bật những nguy cơ mà AI và deepfakes mang lại cho an ninh quốc gia, đồng thời kêu gọi một lập trường cảnh giác cao độ trước sự can thiệp nước ngoài trong lĩnh vực mạng. Ông nhấn mạnh sự cần thiết của việc nâng cao nhận thức công chúng và phát triển một văn hóa cảnh giác để bảo vệ lợi ích và đảm bảo an ninh cho công dân Ấn Độ trong bối cảnh kỹ thuật số đang phát triển nhanh chóng. Các phát biểu của ông là một lời kêu gọi hành động để đối phó với những thách thức an ninh quốc gia mới nổi, đồng thời tìm kiếm sự cân bằng giữa tự do và trách nhiệm trong việc giải quyết các mối đe dọa này.
Citations:
[1] https://www.oneindia.com/india/national-security-risks-ai-deepfakes-gen-3764799.html
- Hội nghị Web Summit tại Qatar mở màn với sự chú ý đặc biệt vào lĩnh vực AI, với sự tham gia của các tên tuổi lớn trong ngành công nghệ và báo chí như Julia Sieger từ France 24.
- Trong một phiên họp nổi bật, Sachin Dev Duggal từ Builder.ai và Mohammed Al-Hardan từ Quỹ Đầu tư Qatar đã thu hút sự chú ý khi thảo luận về việc Qatar đầu tư vào Builder.ai.
- Động thái này không chỉ đơn thuần là đầu tư vốn mà còn nhằm mục đích hình thành tương lai của công nghệ tại khu vực.
- Builder.ai là một nền tảng giúp việc tạo ứng dụng trở nên dễ dàng cho mọi người, kể cả những người không am hiểu công nghệ, nhờ vào việc sử dụng AI để thiết kế giao diện ứng dụng hoàn hảo.
- Sự kiện đáng chú ý là việc Builder.ai nhận được khoản đầu tư $250 triệu trong vòng gọi vốn Series D, do Quỹ Đầu tư Qatar dẫn đầu, nhấn mạnh vào việc Qatar đặt cược lớn vào Builder.ai như một bước đi chiến lược.
📌 Qatar đã thực hiện một bước đi quan trọng trong việc đầu tư vào tương lai của AI, đặc biệt là thông qua việc hỗ trợ tài chính 250 triệu đô la cho Builder.ai. Builder.ai là một nền tảng giúp việc tạo ứng dụng trở nên dễ dàng cho mọi người, kể cả những người không am hiểu công nghệ, nhờ vào việc sử dụng AI để thiết kế giao diện ứng dụng hoàn hảo. Sự kiện này không chỉ là một minh chứng cho thấy sự quan tâm và cam kết của Qatar đối với lĩnh vực công nghệ cao, mà còn là một dấu hiệu cho thấy khu vực này đang trở thành một trung tâm quan trọng cho sự phát triển của AI.
Citations:
[1] https://www.cryptopolitan.com/qatar-takes-a-big-move-and-invests-in-ai/
- Chính phủ Ấn Độ đang tăng cường các biện pháp để đảm bảo Trí tuệ nhân tạo (AI) không làm ảnh hưởng đến tính toàn vẹn của cuộc bầu cử Lok Sabha sắp tới vào mùa hè này.
- Bộ Điện tử và Công nghệ Thông tin Ấn Độ đã yêu cầu các công ty sở hữu nền tảng AI phải đảm bảo rằng dịch vụ của họ không tạo ra các phản hồi có thể "đe dọa đến tính toàn vẹn của quá trình bầu cử".
- Các công ty như Google và OpenAI, cũng như các công ty khác vận hành nền tảng tương tự, đã nhận được thông báo này.
- Các nền tảng cung cấp hệ thống AI "đang thử nghiệm/không đáng tin cậy" hoặc Mô hình Ngôn ngữ Lớn (LLMs) cho người dùng Ấn Độ cũng phải gắn nhãn về khả năng "sai sót... hoặc không đáng tin cậy của kết quả được tạo ra".
- Nền tảng AI Gemini của Google đã gặp phải chỉ trích vì các câu trả lời mà nền tảng này tạo ra liên quan đến Thủ tướng Narendra Modi.
- Bộ trưởng Bộ Điện tử và Công nghệ Thông tin Rajeev Chandrasekhar cho biết thông báo này là "tín hiệu cho hướng đi của các hành động lập pháp mà Ấn Độ sẽ thực hiện để kiểm soát các nền tảng AI tạo sinh".
- Chính phủ có thể yêu cầu các công ty thực hiện demo nền tảng AI của họ, bao gồm cả cấu trúc đồng ý mà họ tuân theo.
- Các công ty được yêu cầu nộp báo cáo hành động đã thực hiện trong vòng 15 ngày.
📌 Chính phủ Ấn Độ đang thực hiện các bước quan trọng để bảo vệ tính toàn vẹn của cuộc bầu cử Lok Sabha 2024 khỏi những rủi ro có thể xuất phát từ Trí tuệ nhân tạo. Việc yêu cầu các công ty công nghệ lớn như Google và OpenAI gắn nhãn định danh duy nhất cho các phản hồi do AI tạo sinh và báo cáo về các biện pháp đã thực hiện là một phần của nỗ lực này. Động thái này không chỉ nhằm ngăn chặn thông tin sai lệch và deepfake mà còn là một bước chuẩn bị cho các hành động lập pháp mà Ấn Độ có thể áp dụng trong tương lai để kiểm soát mạnh mẽ hơn đối với các nền tảng AI tạo sinh.
Citations:
[1] https://www.wionews.com/india-news/india-steps-up-efforts-to-ensure-artificial-intelligence-does-not-threaten-integrity-of-elections-696132
- Singapore đã phát động nhiều chương trình nhằm tăng cường lợi thế cho lực lượng lao động trong tương lai của AI, bao gồm việc dành tới 500 triệu đô la để đảm bảo các chip máy tính tiên tiến.
- Ít nhất 27 triệu đô la sẽ được sử dụng để xây dựng chuyên môn trong lĩnh vực AI, thông qua việc cung cấp 100 học bổng AI cho sinh viên Singapore và thu hút chuyên gia toàn cầu hợp tác với Singapore.
- Bộ trưởng Bộ Thông tin và Truyền thông Josephine Teo cho biết kế hoạch này sẽ góp phần xây dựng 3 cộng đồng AI tại đây, bao gồm người dùng, người sáng tạo và người thực hành như nhà khoa học dữ liệu và kỹ sư học máy.
- Bộ đã cung cấp bảng phân bổ ngân sách 1 tỷ đô la cam kết cho AI, với mục tiêu phát triển nguồn nhân lực AI tại đây, bổ sung cho kế hoạch đã công bố trước đó là tăng gấp ba lực lượng lao động AI lên ít nhất 15.000 người trong vòng 5 năm tới.
- Chiến lược AI quốc gia 2.0 đã được làm mới vào tháng 12 năm 2023, khi Phó Thủ tướng Wong chi tiết kế hoạch của Singapore nhằm trở thành một nhà lãnh đạo trong lĩnh vực AI và nhu cầu cho tất cả các ngành công nghiệp phải làm quen với AI.
- Một phần ngân sách sẽ được phân bổ để trao giải cho một nhóm 5 giáo sư AI thăm viếng trong lô đầu tiên trong vòng 5 năm tới để thúc đẩy nghiên cứu tại đây và cung cấp cơ hội đào tạo cho sinh viên địa phương.
📌 Singapore đang thực hiện các bước tiến quan trọng trong việc áp dụng AI để đảm bảo tương lai cho lực lượng lao động của mình. Với việc dành ra 500 triệu đô la cho phần cứng tiên tiến và ít nhất 27 triệu đô la cho việc xây dựng chuyên môn AI, Singapore không chỉ đầu tư vào cơ sở hạ tầng mà còn vào nguồn nhân lực. Kế hoạch này phân bổ ngân sách 1 tỷ đô la cam kết cho AI nhằm mục tiêu xây dựng 3 cộng đồng AI mạnh mẽ, tăng gấp 3 lực lượng lao động AI lên ít nhất 15.000 người trong 5 năm tới, và thu hút chuyên gia toàn cầu. Chiến lược AI quốc gia 2.0 cho thấy cam kết mạnh mẽ của Singapore trong việc trở thành một nhà lãnh đạo AI, đồng thời nhấn mạnh tầm quan trọng của việc trang bị kỹ năng AI cho lực lượng lao động để đối phó với sự thay đổi công việc do AI gây ra.
Citations:
[1] https://www.straitstimes.com/singapore/politics/s-pore-goes-full-throttle-on-ai-to-secure-future-for-workforce-allocates-500m-for-advanced-hardware
- Chính phủ Ấn Độ đã ban hành một chỉ thị quan trọng nhằm quản lý việc sử dụng Trí tuệ nhân tạo (AI) bởi các công ty công nghệ lớn, yêu cầu tất cả các mô hình AI phải nhận được sự phê duyệt chính thức trước khi được triển khai.
- Rajeev Chandrasekhar, Bộ trưởng Liên bang về Điện tử và Công nghệ Thông tin, nhấn mạnh sự cần thiết của chỉ thị này, đề cao tầm quan trọng của việc tuân thủ nghiêm ngặt các Quy tắc IT 2021.
- Chính phủ đã bày tỏ lo ngại về việc lạm dụng công nghệ AI, bao gồm các vấn đề về định kiến, phân biệt đối xử và mối đe dọa đối với tính toàn vẹn của quá trình bầu cử.
- Bộ Điện tử và Công nghệ Thông tin (MeitY) đã phát đi một thông báo, nhấn mạnh nhu cầu của các nền tảng số để giải quyết hậu quả do người dùng gây ra và thông tin sai lệch, đặc biệt là trong bối cảnh của deepfakes.
- Chỉ thị này yêu cầu các nền tảng số phải tuân thủ ngay lập tức, bao gồm việc nộp một báo cáo chi tiết về các hành động đã thực hiện để đáp ứng với các yêu cầu.
- Sáng kiến này không chỉ nhấn mạnh tầm quan trọng của việc sử dụng AI một cách đạo đức mà còn tạo tiền lệ cho các quốc gia khác đang đối mặt với những thách thức tương tự.
📌 Chính phủ Ấn Độ đã thực hiện một bước tiến quan trọng trong việc quản lý và điều chỉnh việc sử dụng AI bởi các công ty công nghệ lớn, thông qua việc yêu cầu phê duyệt chính thức cho các mô hình AI trước khi chúng được triển khai. Điều này không chỉ nhằm mục đích đảm bảo tính minh bạch và trách nhiệm giải trình từ phía các nền tảng số mà còn nhấn mạnh sự cần thiết của việc bảo vệ người dùng khỏi hậu quả tiêu cực và thông tin sai lệch, đặc biệt là liên quan đến deepfakes. Bằng cách thiết lập các hướng dẫn rõ ràng cho việc tuân thủ và khuyến khích một môi trường sống đáng tin cậy và an toàn, chính phủ Ấn Độ đang đặt ra một mô hình cho các quốc gia khác trong việc quản lý công nghệ AI.
Citations:
[1] https://www.cryptopolitan.com/government-mandates-for-big-tech-ai-models/
- Ủy ban Châu Âu đang điều tra khoản đầu tư 15 triệu euro của Microsoft vào startup AI Pháp Mistral, ngay sau khi Mistral phát hành một mô hình ngôn ngữ lớn để cạnh tranh với ChatGPT của OpenAI.
- Mistral, được sáng lập bởi các nhà nghiên cứu từ Google DeepMind và Meta vào năm 2023, đã huy động được hơn 385 triệu euro từ các nhà đầu tư như Andreessen Horowitz và Lightspeed, với giá trị hiện tại khoảng 1,8 tỷ euro.
- Mistral vừa công bố mô hình ngôn ngữ lớn mới nhất và mạnh mẽ nhất của mình, Mistral Large, và đã phát hành một ứng dụng web cho phép người dùng thử nghiệm với chatbot được cung cấp bởi mô hình này.
- Mistral cũng đã giới thiệu một mô hình nhỏ hơn, Mistral Small, tối ưu hóa để nhanh hơn và gọn nhẹ hơn, cũng như mô hình Mistral-7B với bảy tỷ tham số vào tháng 9.
- Microsoft sẽ hỗ trợ Mistral bằng cách cung cấp phần cứng và cơ sở hạ tầng từ nền tảng điện toán đám mây của mình để đào tạo và vận hành các hệ thống tương lai của Mistral.
- Đồng sáng lập và CEO của Mistral, Arthur Mensch, đã bày tỏ sự ủng hộ mạnh mẽ đối với thỏa thuận này trong một tuyên bố của Microsoft, nhấn mạnh vào tiến bộ có ảnh hưởng trong ngành công nghiệp AI và mang lại giá trị không tương đương cho khách hàng và đối tác trên toàn cầu.
- Tháng trước, các nhà quản lý của EU đã khởi xướng một cuộc điều tra vào cổ phần của Microsoft trong OpenAI, với mục tiêu mời doanh nghiệp và chuyên gia chia sẻ về bất kỳ vấn đề cạnh tranh nào mà họ có thể nhận thấy trong ngành công nghiệp này.
📌 Khoản đầu tư 15 triệu euro của Microsoft vào startup AI Mistral đang dưới sự điều tra của Ủy ban Châu Âu, đặc biệt sau khi Mistral công bố mô hình ngôn ngữ lớn mới nhất của mình, nhằm cạnh tranh trực tiếp với ChatGPT của OpenAI. Mistral, với sự đồng sáng lập từ các nhà nghiên cứu hàng đầu và đã huy động được một lượng vốn đáng kể từ các nhà đầu tư lớn, đang hợp tác với Microsoft để mở rộng quyền truy cập vào công nghệ của mình thông qua Azure. Cuộc điều tra này diễn ra trong bối cảnh EU đang tăng cường giám sát các quan hệ đối tác AI để đảm bảo chúng không làm méo mó động lực thị trường.
Citations:
[1] https://www.theregister.com/2024/02/28/eu_microsoft_mistral/
- Air Canada thua kiện tại tòa án nhỏ với một hành khách đang tang chế khi chatbot AI của hãng cung cấp thông tin sai lệch về chính sách giá vé tang lễ.
- Hành khách đã được chatbot thông báo rằng có thể áp dụng giá vé tang lễ một cách hồi tố, điều này không phù hợp với chính sách thực tế của hãng.
- Tòa án đã phán quyết ủng hộ hành khách và buộc Air Canada phải bồi thường $812.02 cho chi phí và phí tòa án.
- Air Canada không thể giải thích tại sao trang web với tiêu đề "Bereavement travel" lại đáng tin cậy hơn chatbot, cũng như không lý giải tại sao khách hàng cần phải kiểm tra lại thông tin trên một phần của website với phần khác.
- Vụ việc đặt ra câu hỏi về trách nhiệm pháp lý của các hãng hàng không đối với hiệu suất của hệ thống AI và có thể tạo tiền lệ cho các vấn đề tương tự trong tương lai.
📌 Vụ kiện của Air Canada đã làm dấy lên những quan ngại về việc các hãng hàng không đầu tư vào AI mà không đảm bảo tính chính xác và đáng tin cậy của thông tin mà chatbot cung cấp. Sự cố này không chỉ khiến Air Canada phải bồi thường một khoản tiền nhỏ mà còn ảnh hưởng đến hình ảnh và uy tín của hãng trong mắt công chúng. Với việc tòa án nhấn mạnh rằng Air Canada "không thực hiện đúng mức độ cẩn trọng cần thiết để đảm bảo chatbot của họ cung cấp thông tin chính xác", vụ việc còn là một lời cảnh báo cho các hãng hàng không khác về việc áp dụng công nghệ AI mà không có những biện pháp kiểm soát và xác minh thông tin cần thiết.
Citations:
[1] https://www.forbes.com/sites/marisagarcia/2024/02/19/what-air-canada-lost-in-remarkable-lying-ai-chatbot-case/?fbclid=IwAR1Umt9VQbogBbRQPBB7bK26Kj4rr8VeZ5wlw3xVrJcFm14EuCgaOn6ZxuU&sh=753dcfba696f
- Mistral là sự kết hợp hoàn hảo giữa giáo dục kỹ thuật Pháp và các công ty công nghệ lớn của Mỹ, với 3 trong số 6 người sáng lập là sản phẩm của các trường kỹ thuật hàng đầu của Pháp.
- Các nhà sáng lập Mistral có kinh nghiệm làm việc tại các phòng thí nghiệm nghiên cứu của Google và Meta, đặc biệt là trong việc xây dựng các mô hình ngôn ngữ lớn (LLMs) tại Paris.
- Mistral đã đặc biệt giỏi trong việc thu thập dữ liệu để huấn luyện mô hình của mình, cho phép các mô hình của họ nhỏ hơn nhiều so với các mô hình khác như GPT-4 của OpenAI.
- Sự tập trung vào việc lựa chọn dữ liệu của Mistral giúp công ty sử dụng sức mạnh tính toán một cách hiệu quả hơn, với chi phí huấn luyện mô hình mới thấp hơn nhiều so với 100 triệu USD mà OpenAI đã chi cho GPT-4.
- Mistral cũng tận dụng lợi thế của người đi sau, học hỏi từ công việc mà OpenAI và các công ty khác đã làm, và kết hợp với sự hiểu biết về chính trị, điều này rất có lợi khi nhiều chính phủ coi LLMs nội địa là lợi thế kinh tế và chiến lược.
- Cédric O, một trong những người đồng sáng lập Mistral và cựu Bộ trưởng Kỹ thuật số Pháp, giữ mối liên hệ trực tiếp với Tổng thống Emmanuel Macron, người đã quan tâm sâu sắc đến AI và đã hỗ trợ Mistral trong việc chống lại các quy định của Liên minh Châu Âu về AI.
📌 Mistral đã chứng minh sự thành công của mình thông qua việc kết hợp tài năng kỹ thuật từ các trường kỹ thuật hàng đầu của Pháp và kinh nghiệm từ các công ty công nghệ lớn như Google và Meta. Sự thông minh trong việc lựa chọn và quản lý dữ liệu đã giúp Mistral tạo ra các mô hình AI hiệu quả hơn với chi phí thấp hơn, đồng thời tận dụng lợi thế của người đi sau để phát triển nhanh chóng. Sự kết hợp giữa chuyên môn kỹ thuật và sự hiểu biết về chính trị, cùng với sự hỗ trợ từ cựu Bộ trưởng Kỹ thuật số Pháp và Tổng thống Emmanuel Macron, đã tạo nên một lợi thế cạnh tranh mạnh mẽ cho Mistral trong ngành công nghiệp AI đang phát triển nhanh chóng.
Citations:
[1] https://www.economist.com/business/2024/02/26/meet-the-french-startup-hoping-to-take-on-openai
- Microsoft đã công bố một khuôn khổ mới có tên là "Nguyên tắc Truy cập AI", bao gồm một kế hoạch 11 điểm nhằm điều chỉnh cách họ vận hành cơ sở hạ tầng dữ liệu AI và các tài sản AI quan trọng khác trên toàn thế giới.
- Các điểm chính bao gồm việc xây dựng và vận hành một cửa hàng ứng dụng để cho phép doanh nghiệp lựa chọn các LLM và sản phẩm AI khác nhau, cam kết giữ dữ liệu độc quyền của công ty ra khỏi mô hình đào tạo của mình.
- Microsoft cũng cam kết cho phép khách hàng thay đổi nhà cung cấp đám mây hoặc dịch vụ trong đám mây nếu họ chọn.
- Công ty tập trung vào việc xây dựng an ninh mạng xung quanh các dịch vụ AI và chú trọng đến việc xây dựng trung tâm dữ liệu và cơ sở hạ tầng khác một cách bền vững.
📌 Microsoft đã công bố "Nguyên tắc Truy cập AI" như một phần của nỗ lực giảm bớt lo ngại về việc họ cản trở cạnh tranh thông qua quan hệ đối tác sâu rộng và cổ phần tài chính trong OpenAI. Kế hoạch 11 điểm này nhấn mạnh sự cam kết của Microsoft trong việc tạo điều kiện cho sự cạnh tranh lành mạnh, bảo vệ dữ liệu độc quyền của công ty, và tăng cường an ninh mạng xung quanh các dịch vụ AI. Điều này không chỉ thể hiện sự chuyển mình trong cách tiếp cận cạnh tranh của Microsoft mà còn nhấn mạnh tầm quan trọng của việc xây dựng một hệ sinh thái AI mở và bền vững, nơi các doanh nghiệp có thể lựa chọn và chuyển đổi giữa các dịch vụ một cách linh hoạt.
Citations:
[1] https://techcrunch.com/2024/02/26/microsoft-ai-access-principles-openai/
- Hàn Quốc đề xuất một chiến lược AI quốc gia gồm hai giai đoạn nhằm nuôi dưỡng sự phát triển của hệ sinh thái AI trong nước: Tài trợ ban đầu cho các tiên phong AI.
- Trong giai đoạn đầu, chính phủ dự định xác định hai công ty phù hợp với mục tiêu chiến lược quốc gia và cung cấp hỗ trợ tài chính đáng kể cho họ. Mỗi công ty được chọn sẽ nhận được 100 tỷ won dưới dạng vay lãi suất thấp trong vòng năm năm để thúc đẩy các sáng kiến AI và thu hút thêm đầu tư.
- Trong bối cảnh AI phát triển nhanh chóng, Hàn Quốc đứng trước bước ngoặt quan trọng, với các chuyên gia kêu gọi chính phủ áp dụng cách tiếp cận tích cực để khai thác công nghệ biến đổi này. Hàn Quốc được khuyến khích tạo ra lĩnh vực riêng và thiết lập một chiến lược quốc gia toàn diện để thúc đẩy ngành công nghiệp AI của mình.
- Mặc dù Hàn Quốc có nhiều công ty tích cực tham gia vào nghiên cứu và phát triển AI, nhưng có sự đồng thuận trong giới chuyên gia rằng một chiến lược quốc gia đồng nhất vẫn chưa được thực hiện đầy đủ. Với cuộc đua AI toàn cầu đang nóng lên, lời kêu gọi Hàn Quốc tăng cường khả năng AI của mình ngày càng lớn.
- Chiến lược quốc gia AI được đề xuất đại diện cho bước tiến quan trọng hướng tới việc đảm bảo vị thế của Hàn Quốc như một người chơi chính trong ngành công nghiệp AI. Bằng cách tận dụng các khoản đầu tư mục tiêu và nuôi dưỡng các quan hệ đối tác chiến lược, Hàn Quốc nhằm phát triển một hệ sinh thái AI sôi động có khả năng thúc đẩy đổi mới và tăng trưởng kinh tế trong những năm tới.
📌 Chiến lược AI quốc gia của Hàn Quốc là một bước tiến quan trọng nhằm tăng cường sự cạnh tranh toàn cầu của quốc gia trong lĩnh vực công nghệ thông tin và trí tuệ nhân tạo. Với kế hoạch cung cấp tài trợ ban đầu cho các tiên phong AI thông qua việc chọn lựa và hỗ trợ tài chính đáng kể cho hai công ty, Hàn Quốc đặt mục tiêu tạo dựng một hệ sinh thái AI mạnh mẽ. Sự nhấn mạnh vào việc thiết lập một chiến lược quốc gia đồng nhất và toàn diện cho thấy sự quyết tâm của Hàn Quốc trong việc không chỉ theo kịp mà còn dẫn đầu trong cuộc đua AI toàn cầu, đồng thời khẳng định vị thế của mình như một trung tâm đổi mới và tăng trưởng kinh tế trong tương lai.
Citations:
[1] https://www.cryptopolitan.com/koreas-national-ai-strategy/
- Singapore đã sớm áp dụng AI, phát hành chiến lược AI quốc gia đầu tiên vào năm 2019 với mục tiêu để cá nhân, doanh nghiệp và cộng đồng sử dụng AI "với sự tự tin, sáng suốt và tin cậy".
- Singapore bắt đầu thử nghiệm công cụ AI tạo sinh trong các tòa án vào năm ngoái và sử dụng chúng trong trường học và cơ quan chính phủ.
- Chiến lược quốc gia thứ hai được phát hành vào tháng 12 với sứ mệnh "AI vì lợi ích công cộng, cho Singapore và thế giới".
- Bộ trưởng Bộ Thông tin và Truyền thông, Josephine Teo, nhấn mạnh về việc "AI cho tất cả mọi người" và quan điểm không tập trung vào quy định mà là xây dựng cơ sở hạ tầng hỗ trợ hoạt động AI.
- Denise Wong, một phó tổng giám đốc tại Infocomm Media Development Authority (IMDA), cho biết Singapore tập trung vào việc áp dụng AI trong khu vực công và ngành công nghiệp, và xây dựng môi trường hỗ trợ nghiên cứu, kỹ năng và hợp tác.
- Singapore đứng thứ năm trong chỉ số đổi mới toàn cầu năm ngoái, nhờ vào các cơ quan, vốn nhân lực và cơ sở hạ tầng vững chắc.
📌 Singapore đã tiếp cận AI một cách chiến lược, với việc triển khai chiến lược AI quốc gia từ năm 2019 và tiếp tục phát triển chiến lược thứ hai vào tháng 12. Quốc gia này nhấn mạnh vào việc sử dụng AI "với sự tự tin, sáng suốt và tin cậy", và không chỉ tập trung vào quy định mà còn xây dựng cơ sở hạ tầng hỗ trợ hoạt động AI. Điều này thể hiện qua việc áp dụng AI trong các tòa án, trường học và cơ quan chính phủ, cũng như việc tạo ra một môi trường đáng tin cậy để công chúng có thể sử dụng AI một cách tự tin. Với vị thế là một trong những quốc gia đứng đầu về chỉ số đổi mới toàn cầu, Singapore đang chứng minh rằng họ là một đối tác quan trọng trong lĩnh vực AI, không chỉ cho chính họ mà còn cho cả thế giới.
Citations:
[1] https://www.eco-business.com/news/singapore-embraces-ai-to-solve-everyday-problems/
- Chính phủ Nhật Bản đang nỗ lực hỗ trợ các startup AI trong nước bằng cách cung cấp quyền truy cập miễn phí vào tài nguyên tính toán AI.
- Sự khan hiếm tài nguyên tính toán AI xảy ra do sự bùng nổ của AI toàn cầu kể từ khi OpenAI ra mắt Chat GPT.
- Trong tuần trước, một số startup AI Nhật Bản đã bắt đầu huấn luyện mô hình ngôn ngữ lớn của họ trên các máy chủ Google được trang bị bộ xử lý đồ họa H100 mới nhất của Nvidia.
- Sáng kiến này, có tên là Generative AI Accelerator Challenge, được tài trợ bởi Bộ Kinh tế, Thương mại và Công nghiệp Nhật Bản (METI).
- Mục tiêu của chương trình là làm cho việc tiếp cận với các chip AI trở nên dễ dàng hơn cho các startup.
📌 Chính phủ Nhật Bản đang tích cực hỗ trợ các startup AI trong nước thông qua sáng kiến Generative AI Accelerator Challenge, nhằm giảm bớt gánh nặng từ tình trạng thiếu hụt bộ xử lý Nvidia trên toàn cầu. Các startup đã có cơ hội huấn luyện mô hình ngôn ngữ lớn của họ trên máy chủ Google với GPU H100, một bước tiến quan trọng để phát triển công nghệ AI tại Nhật Bản. Sự hỗ trợ này từ METI không chỉ giúp các startup tiết kiệm chi phí mà còn thúc đẩy sự đổi mới và cạnh tranh trong lĩnh vực AI, mở ra cơ hội phát triển và mở rộng quy mô cho các doanh nghiệp công nghệ mới.
Citations:
[1] https://asia.nikkei.com/Business/Startups/Japan-races-to-back-AI-startups-amid-Nvidia-processor-shortage
- Khi yêu cầu AI tạo hình ảnh về các Nhà sáng lập Hoa Kỳ hoặc nhóm lính Đức từ năm 1943, người dùng kỳ vọng nhận được hình ảnh phản ánh lịch sử chính xác.
- Google Gemini lại tạo ra những hình ảnh không chính xác về lịch sử, chú trọng vào đa dạng hóa mà thiếu đi tính chính xác.
- ChatGPT đôi khi đưa ra câu trả lời không liên quan hoặc vô nghĩa, gây bối rối cho người dùng.
- Trong tập mới nhất của The Vergecast, các vấn đề liên quan đến AI được thảo luận, bao gồm cả thỏa thuận dữ liệu đào tạo AI lớn của Reddit với Google trước thềm IPO của công ty.
- Reddit đã nộp hồ sơ S-1 cho IPO ngay khi kết thúc việc ghi âm tập này, và sẽ có thêm thông tin về hành trình IPO của Reddit vào tuần sau.
- Cuộc thảo luận cũng đề cập đến việc đặt tên cho các hệ thống AI của Google và kết luận rằng việc này gần như là không thể.
- Sau phần thảo luận về AI, chương trình chuyển sang hai vòng thảo luận nhanh về TV Vizio.
📌 Trong những ngày gần đây, thế giới AI đã chứng kiến những sự cố đáng chú ý từ Google Gemini và ChatGPT, khiến cộng đồng công nghệ và người dùng đặt câu hỏi về mục tiêu và mong muốn thực sự của họ đối với AI. Google Gemini đã tạo ra hình ảnh không chính xác về lịch sử, trong khi ChatGPT đưa ra những câu trả lời không có ý nghĩa, làm dấy lên mối quan tâm về khả năng của AI trong việc xử lý thông tin một cách chính xác và đáng tin cậy. Thêm vào đó, sự kiện Reddit ký kết thỏa thuận dữ liệu đào tạo AI lớn với Google trước IPO của mình cũng là một diễn biến đáng chú ý, hứa hẹn sẽ mang lại nhiều thông tin thú vị trong tương lai về quá trình phát triển và ứng dụng của AI trong lĩnh vực công nghệ và truyền thông.
Citations:
[1] https://www.theverge.com/2024/2/23/24080579/gemini-chatgpt-problems-images-reddit-ipo-vergecast
- Phỏng vấn Jensen Huang về nhiều chủ đề như AI chủ quyền, tình hình sa thải trong ngành game, hoạt động kinh doanh của Intel Foundry và những cơ hội tại Trung Quốc.
- Thảo luận về khái niệm AI chủ quyền và lý do tại sao các trung tâm dữ liệu AI cần phải có tính lãnh thổ, tức là được đặt tại mỗi quốc gia.
- Cuộc phỏng vấn cung cấp cái nhìn sâu sắc về tương lai của AI và ảnh hưởng của nó đối với các ngành công nghiệp khác nhau.
📌 Kỷ nguyên của AI chủ quyền đang đến gần, và cuộc phỏng vấn với Jensen Huang đã mở ra những hiểu biết mới về cách thức AI có thể được triển khai trên phạm vi toàn cầu. Các vấn đề như việc sa thải trong ngành game, hoạt động của Intel Foundry, và cơ hội tại Trung Quốc cũng được đề cập. Thảo luận về khái niệm AI chủ quyền và lý do tại sao các trung tâm dữ liệu AI cần phải có tính lãnh thổ, tức là được đặt tại mỗi quốc gia.
Citations:
[1] Get ready for the age of sovereign AI | Jensen Huang interview https://venturebeat.com/ai/get-ready-for-the-age-of-sovereign-ai-jensen-huang-interview/
- Bộ Tư pháp Mỹ đã bổ nhiệm giáo sư Princeton và nhà nghiên cứu pháp luật công nghệ Jonathan Mayer làm sĩ quan AI đầu tiên.
- Bộ trưởng Tư pháp Merrick Garland nhấn mạnh việc bổ nhiệm sĩ quan AI là quan trọng để bộ có thể theo kịp với sự phát triển nhanh chóng của khoa học và công nghệ.
- Một trong những trách nhiệm của Mayer sẽ là xây dựng một đội ngũ chuyên gia kỹ thuật và chính sách về an ninh mạng và AI.
- Mayer cũng sẽ đóng vai trò là cố vấn khoa học và công nghệ chính của bộ và giúp tuyển dụng tài năng công nghệ.
- Chính phủ được yêu cầu bởi sắc lệnh hành pháp về AI của chính quyền Biden để tăng cường tài năng AI và tạo ra hướng dẫn về việc sử dụng công nghệ trong dịch vụ của họ.
- Sắc lệnh hành pháp cũng bao gồm việc thiết lập tiêu chuẩn để đảm bảo công bằng nếu AI được sử dụng cho việc tuyên án, parole và giám sát - những hành động thuộc thẩm quyền của Bộ Tư pháp.
- Mayer đã giữ vai trò công nghệ trong chính phủ trước khi nhận vị trí mới tại Bộ Tư pháp, từng là cố vấn về pháp luật và chính sách công nghệ cho Phó Tổng thống Kamala Harris khi bà còn là Thượng nghị sĩ và là chuyên gia công nghệ chính trong văn phòng thực thi của Ủy ban Truyền thông Liên bang.
📌 Bộ Tư pháp Mỹ đã đưa ra bước đi quan trọng trong việc tích hợp AI vào thực thi pháp luật bằng cách bổ nhiệm Jonathan Mayer làm giám đốc AI đầu tiên. Việc này không chỉ nhấn mạnh tầm quan trọng của việc theo kịp với sự phát triển của công nghệ mà còn đặt nền móng cho việc xây dựng một đội ngũ chuyên gia về an ninh mạng và AI. Mayer, với kinh nghiệm trước đây trong chính phủ và vai trò là cố vấn cho các nhà lãnh đạo, được kỳ vọng sẽ dẫn dắt Bộ Tư pháp trong việc tạo ra các tiêu chuẩn và hướng dẫn sử dụng AI một cách công bằng và hiệu quả.
Citations:
[1] https://www.theverge.com/2024/2/22/24080167/justice-department-chief-ai-officer-law-enforcement
- Google DeepMind đã thông báo thành lập tổ chức mới AI Safety and Alignment với mục tiêu tăng cường an toàn AI.
- Tổ chức này bao gồm các đội ngũ hiện có và mở rộng nhiệm vụ phát triển các biện pháp bảo vệ cho mô hình Gemini của Google, cả hiện tại và đang phát triển.
- Một số trọng tâm ngắn hạn của tổ chức bao gồm ngăn chặn thông tin y tế sai lệch, đảm bảo an toàn cho trẻ em và ngăn chặn sự gia tăng của định kiến và bất công khác.
- Các công cụ GenAI của Google, như mô hình Gemini, có thể tạo ra nội dung lừa đảo hoặc thông tin sai lệch nếu được nhắc nhở đúng cách.
- Sự phản ứng từ các nhà hoạch định chính sách đã thúc đẩy Google đầu tư vào an toàn AI, đặc biệt sau khi công ty giảm bớt hàng nghìn việc làm so với quý tài chính trước.
- Tổ chức mới này có sứ mệnh tương tự như đội Superalignment của đối thủ OpenAI, và sẽ làm việc cùng với đội nghiên cứu an toàn AI có trụ sở tại London của DeepMind, Scalable Alignment.
- Scalable Alignment đang khám phá giải pháp cho thách thức kỹ thuật kiểm soát AI siêu thông minh chưa được hiện thực hóa.
📌 Google DeepMind đã chính thức thành lập tổ chức AI Safety and Alignment nhằm đối phó với những thách thức về an toàn AI, đặc biệt là với mô hình Gemini. Tổ chức này sẽ tập trung vào việc phát triển các biện pháp bảo vệ để ngăn chặn thông tin y tế sai lệch, bảo vệ trẻ em và chống lại sự gia tăng của định kiến và bất công. Sự ra đời của tổ chức này là phản ứng trước áp lực từ các nhà hoạch định chính sách và là bước đi quan trọng của Google trong việc đầu tư vào an toàn AI, sau khi công ty đã cắt giảm đáng kể số lượng nhân sự. Tổ chức này cũng sẽ làm việc cùng với đội Scalable Alignment tại London, nghiên cứu về cách kiểm soát AI siêu thông minh trong tương lai.
Citations:
[1] https://techcrunch.com/2024/02/21/google-deepmind-forms-a-new-org-focused-on-ai-safety/
- Các chuyên gia AI và giám đốc điều hành, bao gồm Yoshua Bengio, đã ký một bức thư ngỏ kêu gọi quy định chặt chẽ hơn đối với việc tạo ra deepfake.
- Bức thư do Andrew Critch, nhà nghiên cứu AI tại UC Berkeley, soạn thảo, nhấn mạnh rủi ro từ hình ảnh, âm thanh và video giả mạo do AI tạo ra, đặc biệt là trong lĩnh vực khiêu dâm trẻ em, gian lận và thông tin sai lệch chính trị.
- Đề xuất trong bức thư bao gồm hình sự hóa hoàn toàn việc tạo ra deepfake khiêu dâm trẻ em, áp dụng hình phạt hình sự cho những người cố ý tạo ra hoặc phát tán deepfake có hại và yêu cầu các công ty AI ngăn chặn sản phẩm của họ tạo ra deepfake có hại.
- Hơn 400 cá nhân từ nhiều ngành nghề khác nhau đã ký vào bức thư, bao gồm Steven Pinker, giáo sư tâm lý học tại Harvard, hai cựu tổng thống Estonia, các nhà nghiên cứu tại Google DeepMind và một nhà nghiên cứu từ OpenAI.
- Việc đảm bảo các hệ thống AI không gây hại cho xã hội đã trở thành ưu tiên cho các nhà quản lý kể từ khi OpenAI, được Microsoft hỗ trợ, ra mắt ChatGPT vào cuối năm 2022.
- Đã có nhiều cảnh báo từ các cá nhân nổi tiếng về rủi ro AI, đáng chú ý là bức thư do Elon Musk ký năm ngoái kêu gọi tạm dừng phát triển các hệ thống mạnh mẽ hơn mô hình AI GPT-4 của OpenAI.
📌 Bức thư ngỏ có "bố già AI" Yoshua Bengio ký tên kêu gọi quy định chặt chẽ hơn về deepfake là một bước tiến quan trọng trong việc định hình chính sách công nghệ và bảo vệ xã hội khỏi những tác động tiêu cực của AI. Sự tham gia của hơn 400 chuyên gia từ nhiều lĩnh vực khác nhau, bao gồm cả những cá nhân có ảnh hưởng như Steven Pinker và các nhà nghiên cứu từ Google DeepMind và OpenAI, cho thấy mức độ nghiêm trọng của vấn đề và sự cần thiết phải hành động ngay lập tức. Các đề xuất trong bức thư như hình sự hóa việc tạo ra deepfake khiêu dâm trẻ em và áp dụng hình phạt cho việc tạo hoặc phát tán deepfake có hại là những biện pháp cụ thể có thể giúp ngăn chặn sự lạm dụng công nghệ này.
Citations:
[1] https://www.reuters.com/technology/cybersecurity/ai-godfather-others-urge-more-deepfake-regulation-open-letter-2024-02-21/
- Chủ tịch Microsoft Brad Smith gần đây đã thảo luận về AI trong một cuộc phỏng vấn, bao gồm các chủ đề như điều chỉnh, liệu trí tuệ nhân tạo có thay thế công việc không, và những kiểm soát nào cần được đặt ra.
- Smith nhấn mạnh rằng Copilot là một công cụ và so sánh nó với máy in hoặc các phát triển công nghệ khác mà con người đã thích nghi để sử dụng.
- Chủ tịch Microsoft cũng đã thảo luận về "mối đe dọa tồn vong cho nhân loại" mà nhiều người đưa ra khi thảo luận về AI và những gì cần được làm để ngăn chặn các vấn đề có thể xảy ra.
- Trí tuệ nhân tạo là một trong những chủ đề nóng nhất của năm 2024, và Microsoft đang đầu tư hàng tỷ đô la vào AI và làm việc để kết hợp một số hình thức trí tuệ nhân tạo vào tất cả phần mềm của mình.
- Smith đã nói nhiều lần rằng Microsoft nên giúp thúc đẩy việc điều chỉnh AI. Ông tái khẳng định quan điểm này và làm rõ điểm đó bằng một phép ẩn dụ.
📌 Trong cuộc phỏng vấn với EL PAÍS, Chủ tịch Microsoft Brad Smith đã đưa ra cái nhìn sâu sắc về tiềm năng của AI trong việc thúc đẩy xã hội và các biện pháp được thực hiện để giảm thiểu các mối đe dọa tiềm ẩn. Ông nhấn mạnh tầm quan trọng của việc điều chỉnh AI và so sánh Copilot với các phát minh công nghệ quan trọng khác như máy in mà loài người đã thích nghi. Smith cũng đề cập đến việc AI có thể được sử dụng cho các cuộc tấn công mạng và mối đe dọa tồn vong cho nhân loại mà nhiều người lo ngại khi thảo luận về AI.
Citations:
[1] https://www.windowscentral.com/microsoft/microsoft-president-compares-artificial-intelligence-to-terminator-says-we-better-have-a-way-to-slow-down-or-turn-off-ai
- Google thông báo tạm ngưng tính năng tạo hình ảnh AI Gemini sau khi nhận thấy "sai sót" trong việc tạo hình ảnh lịch sử.
- Người dùng trên mạng xã hội phàn nàn rằng công cụ AI tạo ra hình ảnh của các nhân vật lịch sử, như các Cha Đẻ sáng lập nước Mỹ, dưới hình dạng người da màu, điều này được cho là không chính xác.
- Google đăng tải một thông báo cập nhật vào thứ Năm, cho biết họ sẽ tạm dừng tính năng tạo hình ảnh của con người trên Gemini và sẽ sớm phát hành phiên bản "cải thiện".
- Công cụ tạo hình ảnh này được ra mắt vào đầu tháng Hai thông qua Gemini, trước đây có tên là Bard.
- Gemini gặp khó khăn khi Google đang cố gắng bắt kịp với OpenAI, được Microsoft hậu thuẫn.
- Gemini không tạo ra bất kỳ hình ảnh nào vào sáng thứ Năm khi một phóng viên của CNBC thử nghiệm.
- Trong khi Google đang gặp vấn đề với việc tạo hình ảnh của Gemini, OpenAI đã ra mắt Sora, mô hình AI tạo sinh mới có khả năng tạo video từ các lệnh văn bản của người dùng vào tuần trước.
📌 Google đã quyết định tạm ngưng tính năng tạo hình ảnh của Gemini sau khi nhận được phản hồi từ cộng đồng mạng về việc công cụ này tạo ra hình ảnh không chính xác của các nhân vật lịch sử như các Cha Đẻ sáng lập nước Mỹ, dưới hình dạng người da màu. Sự cố này xảy ra trong bối cảnh Google đang nỗ lực cạnh tranh với OpenAI, công ty có sự hỗ trợ của Microsoft và mới đây đã giới thiệu mô hình AI tạo sinh mới có tên Sora. Google cam kết sẽ cải thiện và phát hành lại phiên bản được cải thiện của Gemini trong thời gian sớm nhất, nhưng không có thông tin cụ thể về thời gian cụ thể cho việc này.
Citations:
[1] https://www.cnbc.com/2024/02/22/google-pauses-gemini-ai-image-generator-after-inaccuracies.html
- Quan hệ đối tác giữa Scale AI và Lầu Năm Góc nhằm thử nghiệm và đánh giá các mô hình ngôn ngữ lớn (LLMs) cho việc sử dụng trong quân sự.
- Mục tiêu của dự án là đảm bảo các mô hình AI an toàn và đáng tin cậy cho việc hỗ trợ và cải thiện kế hoạch và quyết định quân sự.
- Văn phòng Kỹ thuật số và Trí tuệ nhân tạo (CDAO) của Lầu Năm Góc cần phương pháp thử nghiệm và đánh giá AI để sử dụng trong môi trường quân sự.
- Quá trình T&E (kiểm thử và đánh giá) sẽ bao gồm việc tạo ra "bộ dữ liệu giữ lại" để đánh giá và xem xét các cặp phản hồi, đảm bảo chất lượng tương đương với con người.
- Mục tiêu là tăng cường độ bền vững và khả năng phục hồi của hệ thống AI trong môi trường phân loại, cho phép áp dụng công nghệ LLM trong môi trường an toàn.
- Scale AI dự định tự động hóa quá trình phát triển càng nhiều càng tốt để có cái nhìn cơ bản về hiệu suất của các mô hình mới.
📌 Quan hệ đối tác giữa Scale AI và Lầu Năm Góc đánh dấu một bước tiến quan trọng trong việc thử nghiệm và đánh giá các mô hình AI ngôn ngữ lớn (LLMs) để sử dụng an toàn và hiệu quả trong quân sự. Việc tạo ra khung kiểm thử và đánh giá cho phép đánh giá chính xác các mô hình AI, đảm bảo chúng đáng tin cậy và an toàn khi triển khai. Sự hợp tác này không chỉ mang lại lợi ích cho Lầu Năm Góc mà còn cho Scale AI, qua việc mở rộng kinh nghiệm và chuyên môn trong lĩnh vực AI sinh tạo và đánh giá công nghệ.
Citations:
[1] https://www.cryptopolitan.com/the-pentagon-is-testing-new-ai-models/
- Lãnh đạo Hạ viện từ cả hai phe đã công bố một lực lượng đặc nhiệm lưỡng đảng mới vào thứ Ba để giải quyết sự phát triển nhanh chóng của trí tuệ nhân tạo.
- Chủ tịch Mike Johnson (R-La.) và Lãnh đạo thiểu số Hakeem Jeffries (D-NY) đã công bố một bảng gồm 24 thành viên sẽ soạn thảo một báo cáo toàn diện về các biện pháp bảo vệ cần thiết cho công nghệ mới nổi này.
- Báo cáo cũng sẽ đề xuất các bước chính sách mà Quốc hội có thể thực hiện để đảm bảo Mỹ tiếp tục dẫn đầu toàn cầu về AI.
- Lực lượng đặc nhiệm về Trí tuệ Nhân tạo mới được thành lập sẽ do Jay Obernolte (R-Calif.) và Ted Lieu (D-Calif.) dẫn dắt.
- Jay Obernolte có bằng thạc sĩ về AI và là chủ sở hữu của công ty trò chơi video FarSight Studios. Ted Lieu đã làm việc về lập pháp để quản lý AI.
- Các nghị sĩ Dân chủ trong bảng gồm Bill Foster từ Illinois; Brittany Pettersen từ Colorado; Haley Stevens từ Michigan; Suzanne Bonamici từ Oregon; Valerie Foushee từ North Carolina; Don Beyer từ Virginia; Yvette Clarke và Alexandria Ocasio-Cortez, cả hai từ New York; cũng như Anna Eshoo, Ami Bera và Sara Jacobs, tất cả từ California.
- Các nỗ lực lập pháp để giải quyết công nghệ tiên tiến nhanh chóng này đã phần lớn bị đình trệ tại Quốc hội.
📌 Lãnh đạo Hạ viện Mỹ đã thể hiện sự quyết tâm trong việc giải quyết các thách thức và cơ hội mà AI mang lại bằng cách thành lập một lực lượng đặc nhiệm lưỡng đảng. Sự hợp tác này nhấn mạnh tầm quan trọng của việc Quốc hội làm việc cùng nhau để hiểu và lên kế hoạch cho cả những hứa hẹn và phức tạp của công nghệ biến đổi này. Với sự dẫn dắt của Jay Obernolte và Ted Lieu, cả hai đều có kinh nghiệm và kiến thức sâu rộng về AI, lực lượng đặc nhiệm này hứa hẹn sẽ đưa ra các báo cáo toàn diện và đề xuất chính sách để đảm bảo Mỹ tiếp tục dẫn đầu toàn cầu trong lĩnh vực AI.
Citations:
[1] https://nypost.com/2024/02/20/us-news/johnson-and-jeffries-team-up-and-form-a-bipartisan-ai-task-force/
- Wisconsin đã thông qua một số dự luật để quản lý việc tạo và phân phối nội dung do AI tạo sinh, đặc biệt là trong bầu cử và sản xuất nội dung khiêu dâm trẻ em.
- Dự luật chống lại việc AI tạo sinh nội dung khiêu dâm trẻ em đã được thông qua, hình sự hóa việc sở hữu và sản xuất nội dung này với hình phạt lên đến 25 năm tù.
- Một dự luật khác yêu cầu các ứng cử viên và nhóm chính trị phải tiết lộ việc sử dụng AI trong quảng cáo của họ, nhằm bảo vệ tính toàn vẹn của các cuộc bầu cử vào tháng Mười Một.
- Quốc hội Wisconsin cũng đã thông qua một dự luật nhằm kiểm toán việc sử dụng AI trong các cơ quan nhà nước, đòi hỏi các cơ quan này phải đánh giá và báo cáo về cách công nghệ AI có thể cải thiện hiệu quả hoạt động mà không nhất thiết thay thế con người.
- Các nỗ lực lập pháp của Wisconsin là một phần của xu hướng chung tại Hoa Kỳ, nơi các bang ngày càng nhận thức được nhu cầu quy định AI.
📌 Wisconsin đang tiên phong trong việc thiết lập các quy định mới đối với AI, với các dự luật nhằm vào việc sử dụng công nghệ này trong bầu cử và chống lại việc tạo sinh nội dung khiêu dâm trẻ em. Các biện pháp mạnh mẽ như hình phạt lên đến 25 năm tù cho thấy quyết tâm của bang trong việc đối phó với những lạm dụng của AI. Đồng thời, việc kiểm toán sử dụng AI trong các cơ quan nhà nước cho thấy Wisconsin đang tìm cách tối ưu hóa lợi ích của công nghệ này mà vẫn giữ được vai trò của con người trong quá trình làm việc. Những nỗ lực này không chỉ góp phần vào việc định hình chính sách AI ở cấp bang mà còn là một phần của xu hướng quy định AI rộng lớn hơn trên toàn Hoa Kỳ.
Citations:
[1] https://www.cryptopolitan.com/wisconsin-moves-to-tighten-ai-regulations/
- Seydina Moussa Ndiaye, chuyên gia AI người Senegal, cảnh báo về nguy cơ thuộc địa hóa số ở Châu Phi do sự khai thác dữ liệu của các công ty nước ngoài mà không có sự tham gia của các bên liên quan địa phương.
- Ndiaye là một trong 38 thành viên của cơ quan tư vấn mới của Liên Hợp Quốc về máy học, đã chia sẻ về tương lai của AI ở Châu Phi dựa trên kinh nghiệm của mình trong việc thúc đẩy chuyển đổi số ở Senegal và đóng góp cho Chiến lược toàn Châu Phi về AI và Đối tác Toàn cầu về Trí tuệ Nhân tạo (GPAI).
- AI có tiềm năng giải quyết nhiều vấn đề lớn ở Châu Phi, từ nông nghiệp đến ngành y tế, nhưng cũng đối mặt với nguy cơ bị các tập đoàn đa quốc gia áp đặt giải pháp mà không tạo điều kiện cho việc phát triển giải pháp địa phương.
- Hầu hết dữ liệu được tạo ra ở Châu Phi hiện nay thuộc sở hữu của các tập đoàn đa quốc gia với cơ sở hạ tầng phát triển ngoài lục địa, nơi hầu hết các chuyên gia AI Châu Phi cũng hoạt động, dẫn đến mất mát tài năng của Châu Phi.
- Ndiaye nhấn mạnh tầm quan trọng của việc phát triển bản sắc văn hóa thông qua AI, giúp bản sắc văn hóa Châu Phi được biết đến và đánh giá cao hơn trên toàn thế giới.
📌 AI có khả năng giải quyết các vấn đề lớn từ nông nghiệp đến y tế ở châu Phi, đồng thời cảnh báo về nguy cơ "thuộc địa hóa số" do sự kiểm soát dữ liệu của các công ty nước ngoài. Việc mất mát tài năng và sự phụ thuộc vào giải pháp từ bên ngoài có thể cản trở sự phát triển của giải pháp địa phương và bản sắc văn hóa Châu Phi. Hầu hết dữ liệu được tạo ra ở Châu Phi hiện nay thuộc sở hữu của các tập đoàn đa quốc gia với cơ sở hạ tầng phát triển ngoài lục địa, nơi hầu hết các chuyên gia AI Châu Phi cũng hoạt động, dẫn đến mất mát tài năng của Châu Phi.
Citations:
[1] https://www.ipsnews.net/2024/02/interview-ai-expert-warns-digital-colonization-africa/
- Anthropic, công ty đứng sau chatbot Claude, đối thủ của ChatGPT, đã công bố các chính sách nghiêm ngặt để ngăn chặn việc lạm dụng công cụ AI của mình trong các chiến dịch chính trị hoặc nỗ lực vận động.
- Các chính sách "lạm dụng bầu cử" của Anthropic cấm các ứng cử viên sử dụng Claude để tạo ra chatbot giả mạo họ hoặc thực hiện các chiến dịch chính trị mục tiêu. Vi phạm chính sách này có thể dẫn đến cảnh báo và có khả năng bị đình chỉ truy cập vào dịch vụ của Anthropic.
- Công ty cũng tiến hành kiểm tra kỹ lưỡng, bao gồm các bài tập "red-teaming", để đánh giá khả năng lạm dụng hệ thống AI của mình.
- Ngoài việc thực thi các chính sách chống lạm dụng liên quan đến bầu cử, Anthropic còn hợp tác với các tổ chức như TurboVote để cung cấp thông tin đáng tin cậy cho cử tri. Ví dụ, nếu người dùng ở Hoa Kỳ yêu cầu thông tin bầu cử, họ sẽ được chuyển hướng đến TurboVote, một nguồn thông tin do tổ chức phi đảng phái Democracy Works cung cấp.
- Các công ty công nghệ lớn khác, bao gồm Facebook và Microsoft, cũng đang triển khai các sáng kiến để chống lại sự lan truyền của nội dung chính trị được tạo ra bởi AI gây hiểu lầm. Microsoft, ví dụ, đã giới thiệu "Content Credentials as a Service" và phát động một Trung tâm Giao tiếp Bầu cử để chống lại thông tin sai lệch.
📌 Anthropic đã đưa ra một bước đi quan trọng trong việc ngăn chặn việc lạm dụng AI trong chính trị bằng cách cấm các ứng cử viên sử dụng chatbot Claude của mình cho mục đích chiến dịch. Các biện pháp này không chỉ bao gồm việc cấm tạo chatbot giả mạo và chiến dịch chính trị mục tiêu mà còn bao gồm việc kiểm tra kỹ lưỡng và hợp tác với các tổ chức cung cấp thông tin bầu cử đáng tin cậy. Sự hợp tác giữa Anthropic và các tổ chức như TurboVote, cùng với các sáng kiến của các công ty công nghệ khác như Microsoft, cho thấy một nỗ lực toàn ngành nhằm giải quyết thách thức mà AI đặt ra đối với quy trình dân chủ, đặc biệt là trong bối cảnh ngày càng có nhiều lo ngại về việc lan truyền thông tin sai lệch và việc lạm dụng công nghệ.
Citations:
[1] https://www.cryptopolitan.com/anthropic-claude-political-candidates/
- Các quốc gia Liên minh Châu Âu (EU) đang chuẩn bị áp dụng bộ luật đầu tiên trên thế giới để quản lý trí tuệ nhân tạo (AI), với mục tiêu đảm bảo an toàn và tôn trọng quyền cơ bản và giá trị của EU.
- Luật AI của EU áp dụng các quy tắc nghiêm ngặt nhất cho các mô hình AI có rủi ro cao và được thiết kế để đảm bảo các hệ thống AI an toàn, minh bạch và không phân biệt đối xử.
- Các chính phủ của các quốc gia EU đã phê duyệt dự luật vào ngày 2 tháng 2, và bây giờ chỉ cần sự chấp thuận cuối cùng từ Nghị viện Châu Âu, dự kiến sẽ diễn ra vào tháng 4. Nếu văn bản không thay đổi, luật sẽ có hiệu lực vào năm 2026.
- Một số nhà nghiên cứu hoan nghênh đạo luật vì tiềm năng khuyến khích khoa học mở, trong khi những người khác lo ngại rằng nó có thể làm chậm sự đổi mới.
- EU chọn cách quản lý các mô hình AI dựa trên rủi ro tiềm ẩn của chúng, áp dụng quy tắc nghiêm ngặt hơn cho các ứng dụng rủi ro cao và đề ra quy định riêng biệt cho các mô hình AI đa dụng như GPT.
- Các mô hình AI mạnh mẽ như GPT sẽ được quản lý trong hai hạng mục riêng biệt, với yêu cầu về minh bạch, phương pháp đào tạo, tiêu thụ năng lượng và tuân thủ luật bản quyền.
- Đạo luật cũng khuyến khích AI nguồn mở, làm cho thông tin AI có thể truy cập, sao chép và minh bạch, điều này phản ánh tinh thần của phong trào nguồn mở.
- Ủy ban Châu Âu sẽ tạo ra một Văn phòng AI để giám sát các mô hình đa dụng, với sự tư vấn từ các chuyên gia độc lập, phát triển cách đánh giá năng lực của các mô hình này và giám sát rủi ro liên quan.
📌 Luật AI của EU áp dụng các quy tắc nghiêm ngặt nhất cho các mô hình AI có rủi ro cao và được thiết kế để đảm bảo các hệ thống AI an toàn, minh bạch và không phân biệt đối xử. Các mô hình AI mạnh mẽ như GPT sẽ được quản lý trong hai hạng mục riêng biệt, với yêu cầu về minh bạch, phương pháp đào tạo, tiêu thụ năng lượng và tuân thủ luật bản quyền. Đạo luật cũng khuyến khích AI nguồn mở, làm cho thông tin AI có thể truy cập, sao chép và minh bạch, điều này phản ánh tinh thần của phong trào nguồn mở. Ủy ban Châu Âu sẽ tạo ra một Văn phòng AI để giám sát các mô hình đa dụng, với sự tư vấn từ các chuyên gia độc lập, phát triển cách đánh giá năng lực của các mô hình này và giám sát rủi ro liên quan.
https://www.nature.com/articles/d41586-024-00497-8
- Tuần trước, Thượng nghị sĩ bang California Scott Wiener (D-San Francisco) đã giới thiệu một dự luật AI mới nhằm "thiết lập các tiêu chuẩn an toàn rõ ràng, dễ dự đoán, mang tính thực tiễn cho các nhà phát triển hệ thống AI lớn và mạnh mẽ."
- Dự luật này được viết một cách thông minh, sắc sảo về chính trị, tập trung hẹp vào các công ty xây dựng các mô hình quy mô lớn và khả năng những nỗ lực khổng lồ này có thể gây ra thiệt hại hàng loạt.
- California có thể cung cấp một mô hình cho quy định quốc gia, dự kiến sẽ mất nhiều thời gian hơn. Dù dự luật của Wiener có được thông qua ở quốc hội bang trong hình thức hiện tại hay không, sự tồn tại của nó phản ánh việc các chính trị gia bắt đầu nghiêm túc với các nhà lãnh đạo công nghệ.
- Dự luật California được phát triển với sự tham vấn đáng kể từ các nhà khoa học AI hàng đầu và được công bố với sự ủng hộ từ các nhà nghiên cứu AI hàng đầu, các nhà lãnh đạo ngành công nghiệp công nghệ, và những người ủng hộ AI có trách nhiệm.
- Yoshua Bengio, một trong những người đỡ đầu của AI hiện đại và là nhà nghiên cứu AI hàng đầu, đã nói về dự luật đề xuất: "Các hệ thống AI vượt qua một mức độ năng lực nhất định có thể đặt ra những rủi ro có ý nghĩa đối với dân chủ và an toàn công cộng."
📌 Dự luật mới của California về an toàn AI, được giới thiệu bởi Thượng nghị sĩ Scott Wiener, nhấn mạnh việc thiết lập các tiêu chuẩn an toàn cho các hệ thống AI lớn và mạnh mẽ. Điều này không chỉ thể hiện sự nghiêm túc của các chính trị gia đối với ngành công nghiệp công nghệ mà còn phản ánh sự đồng thuận giữa các nhà khoa học AI, lãnh đạo công nghiệp, và những người ủng hộ AI có trách nhiệm. Sự tham vấn từ các chuyên gia hàng đầu và sự ủng hộ rộng rãi cho thấy dự luật này có thể là bước tiến quan trọng trong việc định hình chính sách an toàn AI, không chỉ ở California mà còn có khả năng trở thành mô hình cho quy định quốc gia.
Citations:
[1] https://www.vox.com/future-perfect/2024/2/16/24074360/artificial-intelligence-california-regulation-openai-google-chatgpt-existential-risk
- An toàn cho người dùng có nguy cơ trên internet là thiết yếu, đặc biệt là đối với nội dung do AI tạo sinh.
- Việc phân biệt giữa thực tế và giả mạo ngày càng trở nên khó khăn khi các công ty đầu tư vào trí tuệ nhân tạo nhằm mục đích phát triển công nghệ tương tác và tăng lợi nhuận.
- Cần thiết phải có quy định minh bạch đối với nội dung do AI tạo sinh, đặc biệt khi công việc và các thỏa thuận thương hiệu lợi nhuận cao cho các influencer thực sự, người tạo nội dung, và toàn bộ nền kinh tế gig đang chịu đựng dưới sự tích hợp ngày càng tăng của AI.
📌 Nội dung do AI tạo sinh đang gây ra những thách thức lớn cho an toàn trên internet, đặc biệt là đối với những người dùng có nguy cơ. Khả năng phân biệt giữa thực tế và giả mạo đang trở nên khó khăn hơn bao giờ hết, điều này đặt ra nhu cầu cấp thiết cho việc quy định minh bạch và chặt chẽ đối với nội dung do AI tạo sinh. Điều này không chỉ ảnh hưởng đến người dùng cá nhân mà còn đến cả nền kinh tế gig, bao gồm cả những người tạo nội dung và influencer, khi họ phải đối mặt với sự cạnh tranh không công bằng từ nội dung do AI tạo sinh, ảnh hưởng đến công việc và thu nhập của họ.
Citations:
[1] https://wealthofgeeks.com/ai-generated-content-damaging/
- Jack Clark, đồng sáng lập của startup AI Anthropic, đã đến Washington để cảnh báo các nhà lập pháp về nguy cơ học thuật - những người đổi mới ban đầu trong AI - bị bỏ lại phía sau nếu không đầu tư hàng tỷ vào nguồn lực cho họ.
- Clark nhấn mạnh tầm quan trọng của việc tài trợ cho tính toán quy mô lớn công cộng để tránh tình trạng chỉ có một số ít người chơi lớn nắm giữ kiến thức quan trọng khó xuất bản.
- Tiến bộ trong AI đang tăng tốc nhanh chóng, chủ yếu diễn ra trong khu vực tư nhân với các phát hành như khung AI mới mạnh mẽ của Meta (V-JEPA), mô hình ngôn ngữ lớn đa phương tiện mới nhất của Google DeepMind (Gemini 1.5), và cái nhìn đầu tiên về dịch vụ chuyển đổi văn bản thành video của OpenAI (Sora).
- Sự phát hành ChatGPT đã thúc đẩy cuộc đua thương mại hóa nghiên cứu AI tiên tiến, thay đổi cách các công ty công nghệ xem xét việc công bố thành tựu của họ, với một số nhân viên được yêu cầu giữ bí mật hoặc thậm chí ngừng xuất bản nghiên cứu hoàn toàn.
- Trong nhiều thập kỷ, lý thuyết về học sâu và mạng nơ-ron - các kỹ thuật AI dẫn dắt làn sóng tiến bộ hiện nay - đã được phát triển và tiến hóa trong học thuật trước khi công nghệ điện toán đám mây và thu thập dữ liệu quy mô lớn trong kỷ nguyên mạng xã hội giúp các công ty công nghệ thu hút những bộ óc giỏi nhất trong lĩnh vực này.
📌 Tình trạng các công ty công nghệ giữ kín thông tin về tiến bộ AI đang đặt ra một thách thức lớn cho sự đổi mới và phát triển của ngành. Sự chuyển dịch này không chỉ làm giảm khả năng hợp tác giữa học thuật và khu vực tư nhân mà còn cản trở sự tiến bộ của toàn bộ lĩnh vực. Jack Clark từ Anthropic đã nhấn mạnh tầm quan trọng của việc đầu tư vào tính toán quy mô lớn công cộng để đảm bảo rằng học thuật không bị bỏ lại phía sau, đồng thời giữ cho chu trình đổi mới giữa học thuật và khu vực tư nhân tiếp tục diễn ra. Sự phát triển nhanh chóng của AI trong khu vực tư nhân với các sản phẩm như V-JEPA, Gemini 1.5, và Sora chỉ làm tăng thêm mối quan ngại này, đặc biệt khi các công ty lớn bắt đầu hạn chế việc công bố nghiên cứu.
Citations:
[1] https://www.semafor.com/article/02/16/2024/tech-companies-go-dark-about-ai-advances
- Báo cáo mới đề xuất quản lý sức mạnh tính toán của AI như một biện pháp giảm thiểu rủi ro, tập trung vào việc ưu tiên nguồn lực cho nghiên cứu có lợi ích lớn nhất cho xã hội như năng lượng xanh, sức khỏe và giáo dục.
- Đề xuất bao gồm việc tạo ra các "dự án AI lớn" quốc tế giải quyết các vấn đề toàn cầu bằng cách tổng hợp nguồn lực tính toán.
- Nghiên cứu chỉ ra rằng quy định hiện tại tập trung vào hệ thống AI chứ không phải sức mạnh tính toán đằng sau chúng. Các chip AI và trung tâm dữ liệu được xem là mục tiêu hiệu quả hơn cho sự giám sát và quản lý an toàn AI.
- Các ý tưởng chính sách được chia thành ba lĩnh vực: tăng cường khả năng nhìn thấy toàn cầu về tính toán AI, phân bổ nguồn lực tính toán cho lợi ích lớn nhất của xã hội, và thực thi hạn chế về sức mạnh tính toán.
- Các nhà nghiên cứu đề xuất các biện pháp kiểm soát bao gồm giới hạn vật lý về kết nối chip-to-chip và công nghệ mật mã cho phép vô hiệu hóa từ xa các chip AI trong trường hợp cực đoan.
📌 Báo cáo "Computing Power and the Governance of Artificial Intelligence" đề xuất một cách tiếp cận mới trong việc giảm thiểu rủi ro của AI, bằng cách quản lý sức mạnh tính toán thay vì chỉ tập trung vào hệ thống AI. Điều này bao gồm việc ưu tiên nguồn lực cho các nghiên cứu mang lại lợi ích lớn nhất cho xã hội và tạo ra các dự án AI lớn quốc tế. Nghiên cứu nhấn mạnh sự cần thiết của việc tăng cường khả năng nhìn thấy toàn cầu về tính toán AI, phân bổ nguồn lực một cách công bằng và thực thi các hạn chế về sức mạnh tính toán để ngăn chặn sử dụng AI cho mục đích xấu. Các biện pháp kiểm soát đề xuất như giới hạn vật lý về kết nối chip-to-chip và công nghệ mật mã cho phép vô hiệu hóa từ xa các chip AI trong trường hợp cực đoan.
Citations:
[1] https://www.datacenterdynamics.com/en/news/report-regulate-compute-power-to-mitigate-risks-of-ai/
- Báo cáo của McKinsey Institute for Black Economic Mobility chỉ ra rằng Generative AI có khả năng làm rộng khoảng cách tài sản chủng tộc giữa người Mỹ da đen và da trắng thêm 43 tỷ USD mỗi năm trong vòng 20 năm tới.
- Nếu Generative AI được áp dụng một cách công bằng, nó có thể giúp thu hẹp khoảng cách tài sản chủng tộc và loại bỏ các rào cản đối với sự di chuyển kinh tế của người Mỹ da đen.
📌 Báo cáo từ McKinsey Institute for Black Economic Mobility cung cấp một cái nhìn sâu sắc về tác động tiềm năng của Generative AI đối với khoảng cách tài sản chủng tộc ở Mỹ. Với khả năng làm tăng khoảng cách này thêm 43 tỷ USD hàng năm, Generative AI đặt ra một thách thức lớn cho sự bình đẳng kinh tế. Tuy nhiên, nếu công nghệ này được triển khai một cách cân nhắc và công bằng, nó cũng có thể trở thành công cụ mạnh mẽ để giảm bớt những bất công hiện tại và thúc đẩy sự tiến bộ kinh tế cho cộng đồng người Mỹ da đen.
Citations:
[1] https://publicintegrity.org/inside-publici/newsletters/watchdog-newsletter/generative-ai-racial-wealth-gap/
- FTC đề xuất cập nhật quy định nhằm chống lại mối đe dọa từ công nghệ deepfake, cấm sử dụng nội dung do AI tạo sinh để mạo danh doanh nghiệp hoặc cơ quan chính phủ.
- Các thay đổi được đề xuất nhằm bảo vệ người tiêu dùng khỏi các vụ lừa đảo mạo danh, với mục tiêu ngăn chặn hậu quả tiềm ẩn.
- FTC tăng cường nỗ lực chống lại lừa đảo do AI thúc đẩy, bảo vệ người tiêu dùng khỏi sự lừa dối.
- Chủ tịch FTC, Lina Khan, nhấn mạnh tầm quan trọng của vấn đề, chỉ ra sự gia tăng của các vụ lừa đảo sử dụng công nghệ AI như sao chép giọng nói.
- Nếu được thực hiện, quy định cập nhật sẽ trao quyền cho FTC hành động trực tiếp chống lại những kẻ lừa đảo sử dụng AI để mạo danh các thực thể chính phủ hoặc doanh nghiệp.
- Các thay đổi đề xuất nhằm răn đe các tác nhân xấu sử dụng công nghệ AI vào mục đích lừa đảo bằng cách cung cấp cho FTC khả năng thực thi pháp luật mạnh mẽ hơn.
- Mặc dù luật liên bang hiện tại không cụ thể đề cập đến việc tạo hoặc chia sẻ hình ảnh deepfake, một số nhà lập pháp đang chủ động giải quyết khoảng trống pháp lý này.
- Công nghệ deepfake tiếp tục phát triển, nỗ lực quản lý nhằm bảo vệ người tiêu dùng.
📌 Ủy ban Thương mại Liên bang Hoa Kỳ (FTC) đang đề xuất cập nhật quy định để đối phó với mối đe dọa từ công nghệ deepfake, nhấn mạnh việc cấm sử dụng nội dung do AI tạo sinh cho mục đích mạo danh. Các biện pháp được đề xuất không chỉ nhằm bảo vệ người tiêu dùng khỏi các vụ lừa đảo mạo danh mà còn tăng cường khả năng thực thi pháp luật của FTC chống lại những kẻ lừa đảo sử dụng công nghệ này. Mặc dù luật liên bang chưa cụ thể đề cập đến deepfake, các nỗ lực quản lý đang được thúc đẩy để bảo vệ người tiêu dùng trong bối cảnh công nghệ này ngày càng phát triển.
Citations:
[1] https://www.cryptopolitan.com/ftc-response-to-deepfake-threats/
- AI đang hình thành để trở thành vũ khí địa chính trị vĩ đại nhất trong lịch sử, với sự xuất hiện của một người chơi mới trong cuộc đua sản xuất chip do Sam Altman, người đứng đầu OpenAI, công bố.
- Nvidia, một công ty của Mỹ, đã trở nên nổi bật như một trong những công ty lớn nhất thế giới về giá trị vốn hóa thị trường, nhờ vào nhu cầu không ngừng của AI đối với các chip chuyên biệt.
- Bài viết mang tiêu đề "Levi Strauss và địa chính trị của trí tuệ nhân tạo" đã đề cập đến việc ai cung cấp "cái cuốc và cái xẻng" cho cơn sốt phát triển AI sẽ trở thành công ty giàu có nhất trên trái đất.
- Các "cái cuốc và cái xẻng" được nói đến là CPU, hoặc chính xác hơn là GPU - một loại CPU đặc biệt được tối ưu hóa cho xử lý song song.
- Nvidia hiện đang dẫn đầu cuộc đua cung cấp GPU, và giải thưởng cho việc chiến thắng không chỉ là tiền bạc mà còn là quyền kiểm soát chính trị.
📌 AI đang dần khẳng định vị thế của mình như một công cụ địa chính trị quan trọng, với sự tham gia của các công ty lớn như Nvidia và sự hỗ trợ từ các tổ chức hàng đầu như OpenAI. Cuộc đua sản xuất chip, đặc biệt là GPU, không chỉ là một trận chiến về công nghệ mà còn là một cuộc chiến về quyền lực và ảnh hưởng chính trị. Việc ai sẽ dẫn đầu trong lĩnh vực này không chỉ quyết định về mặt tài chính mà còn có ảnh hưởng sâu rộng đến cục diện địa chính trị toàn cầu.
Citations:
[1] https://www.dailymaverick.co.za/article/2024-02-12-ai-shaping-up-to-become-the-greatest-geopolitical-weapon-in-history/
- AI tạo sinh là chủ đề nóng tại Hội nghị Thượng đỉnh Chính phủ Thế giới ở Dubai.
- ChatGPT ra mắt vào tháng 11/2022 đã kích thích sự quan tâm đối với AI tạo sinh trên toàn cầu.
- Các quốc gia GCC như UAE và Ả Rập Saudi có tỷ lệ người lao động sử dụng AI tạo sinh ít nhất một lần mỗi tuần lần lượt là 74% và 68%.
- Một cuộc khảo sát 19 quốc gia với hơn 25,000 người lao động cho thấy chỉ có Ấn Độ cao hơn, với 83%.
- Trung bình toàn cầu đã cao với 55%.
- Các quốc gia GCC đã dẫn đầu trong việc thiết lập chiến lược AI quốc gia từ lâu trước khi ChatGPT xuất hiện.
- Các quốc gia trong khu vực đang đầu tư mạnh mẽ vào mô hình AI tạo sinh cơ bản.
- Mặc dù GCC dẫn đầu trong việc áp dụng AI tạo sinh, nhưng các công ty khu vực không luôn đào tạo nhân viên sử dụng công cụ một cách an toàn.
- Có 82% người lao động UAE lo ngại AI tạo sinh sẽ làm cho công việc của họ trở nên thừa thãi, cao hơn mức trung bình toàn cầu là 60%.
📌 GCC đang là một trong những khu vực dẫn đầu thế giới trong việc sử dụng AI tạo sinh, với tỷ lệ người lao động sử dụng công nghệ này hàng tuần ở UAE và Ả Rập Saudi lần lượt là 74% và 68%, cao hơn nhiều so với mức trung bình toàn cầu là 55%. Sự quan tâm mạnh mẽ này được thể hiện qua việc các quốc gia này đã thiết lập chiến lược AI quốc gia và đầu tư vào mô hình AI cơ bản từ trước khi ChatGPT ra đời. Tuy nhiên, sự lo ngại về việc AI có thể làm mất việc làm cũng rất cao, với 82% người lao động UAE bày tỏ mối lo này. Điều này cho thấy, mặc dù có sự tiếp nhận công nghệ mạnh mẽ, nhưng cần có sự đầu tư vào đào tạo và phát triển kỹ năng để người lao động có thể sử dụng AI một cách an toàn và hiệu quả, đồng thời giảm bớt những lo ngại về tương lai của họ trong kỷ nguyên AI.
Citations:
[1] https://www.eurasiareview.com/15022024-gcc-is-a-world-leader-in-ai-usage-but-that-comes-with-risks-analysis/
- CEO của OpenAI, Sam Altman, đã đề xuất UAE làm "sân chơi thử nghiệm quy định" toàn cầu cho công nghệ AI.
- UAE được chọn làm địa điểm thử nghiệm AI do cam kết mạnh mẽ với đổi mới AI và vị trí chiến lược trên trường quốc tế.
- UAE đầu tư chiến lược và chính sách nhằm thúc đẩy sự phát triển của công nghệ AI, thể hiện tham vọng không chỉ áp dụng mà còn hình thành đối thoại toàn cầu về sử dụng AI đạo đức.
- Việc thiết lập UAE như một "sân chơi thử nghiệm quy định" là bước tiến quan trọng để giải quyết thách thức quy định phức tạp từ sự tiến bộ nhanh chóng của công nghệ AI.
- Có nhiều thách thức trong việc tạo ra một khung quy định toàn cầu thống nhất do sự đa dạng về pháp lý, văn hóa và kinh tế giữa các quốc gia.
- UAE có thể cung cấp cái nhìn sâu sắc về cơ chế quy định linh hoạt và có thể thích ứng cần thiết để chấp nhận sự đa dạng này.
📌 Việc UAE được đề xuất làm sandbox cho công nghệ AI toàn cầu bởi CEO của OpenAI, Sam Altman, là một động thái chiến lược quan trọng. Đề xuất này không chỉ phản ánh cam kết của UAE đối với đổi mới AI mà còn nhấn mạnh tầm quan trọng của việc hợp tác quốc tế trong việc quản lý và điều chỉnh công nghệ AI. UAE, với các khoản đầu tư chiến lược và chính sách hỗ trợ, đang hướng tới việc không chỉ áp dụng mà còn định hình cuộc đối thoại toàn cầu về việc sử dụng AI một cách đạo đức. Tuy nhiên, việc tạo ra một khung quy định toàn cầu đồng nhất đối mặt với nhiều thách thức do sự khác biệt về pháp lý, văn hóa và kinh tế giữa các quốc gia. UAE, với vai trò là một testbed, có thể cung cấp những hiểu biết quý báu về cơ chế quy định cần thiết để đáp ứng sự đa dạng này.
Citations:
[1] https://www.cryptopolitan.com/uae-positioned-as-ai-regulatory-sandbox/
- Singapore đặt mục tiêu trở thành trung tâm AI toàn cầu vào năm 2024, tập trung vào các mô hình AI phục vụ thị trường Đông Nam Á.
- Sáng kiến AI Singapore dẫn đầu trong việc phát triển mô hình AI của quốc gia, đặc biệt là những mô hình phục vụ cộng đồng địa phương.
- SEA-LION là mô hình ngôn ngữ lớn (LLM) nguồn mở giống ChatGPT, được xây dựng bởi AI Singapore để đại diện cho ngôn ngữ và văn hóa Đông Nam Á.
- Mô hình SEA-LION đã được huấn luyện trên dữ liệu của 11 ngôn ngữ như tiếng Việt, Thái và Bahasa Indonesia, dự kiến sẽ sẵn sàng vào năm 2024.
- Dr. Leslie Teo, giám đốc cấp cao về sản phẩm AI tại AI Singapore, cho biết họ dự định phát hành một mô hình được điều chỉnh hướng dẫn tốt hơn trong vài tuần tới.
- Singapore nổi tiếng là quốc gia dẫn đầu và là trung tâm cho sự phát triển công nghệ tiền mã hóa và blockchain.
- Một giám đốc của Google Cloud nói với CNBC rằng Singapore có tiềm năng "rất cao" để thêm AI vào danh sách đó nhờ môi trường thúc đẩy sự đổi mới.
- AI Singapore dự định mở rộng mạng lưới cộng tác của mình để phát triển khả năng của SEA-LION và thúc đẩy việc áp dụng mô hình bởi các tổ chức khác nhau trong khu vực.
- Vào cuối năm 2023, Singapore đã công bố Chiến lược AI Quốc gia 2.0, trong đó tiết lộ kế hoạch cho 15.000 chuyên gia AI, nâng cao năng lực chính phủ, xây dựng...
📌 Singapore đang tiến gần hơn tới mục tiêu trở thành trung tâm AI toàn cầu với việc phát triển mô hình SEA-LION, một mô hình ngôn ngữ lớn nguồn mở hỗ trợ 11 ngôn ngữ Đông Nam Á, trong đó có tiếng Việt. Sự hợp tác và môi trường đổi mới tại Singapore đã tạo điều kiện thuận lợi cho việc phát triển công nghệ AI, đặc biệt là trong lĩnh vực xử lý ngôn ngữ tự nhiên. Với kế hoạch phát hành một phiên bản mô hình được điều chỉnh hướng dẫn tốt hơn trong vài tuần tới, AI Singapore đang mở rộng mạng lưới cộng tác và thúc đẩy việc áp dụng mô hình SEA-LION bởi các tổ chức trong khu vực. Chiến lược AI Quốc gia 2.0 của Singapore cũng phản ánh cam kết mạnh mẽ của quốc gia này trong việc đào tạo 15.000 chuyên gia AI, nâng cao năng lực chính phủ...
Citations:
[1] https://cointelegraph.com/news/singapore-ai-hub-local-languages
- Viện An toàn AI của Vương quốc Anh được khuyến nghị nên trở thành nhà lãnh đạo toàn cầu trong việc thiết lập các tiêu chuẩn kiểm tra cho AI, thay vì tự thực hiện các bài kiểm tra.
- Các chuyên gia cho rằng Viện nên đóng vai trò quan trọng trong việc đặt ra các tiêu chuẩn cho toàn thế giới, giúp nâng cao hiểu biết và an toàn trong lĩnh vực AI.
- Bộ Khoa học, Đổi mới và Công nghệ của Vương quốc Anh nhấn mạnh vai trò của các chính phủ trên toàn thế giới trong việc kiểm tra mô hình AI, với Vương quốc Anh dẫn đầu nỗ lực này thông qua Viện An toàn AI đầu tiên trên thế giới.
- Viện An toàn AI đang tiến hành các đánh giá, nghiên cứu và chia sẻ thông tin, đồng thời nâng cao sự hiểu biết chung về an toàn AI trên toàn cầu.
- Công việc của viện sẽ tiếp tục hỗ trợ các nhà hoạch định chính sách trên toàn thế giới về an toàn AI.
📌 Viện An toàn AI của Vương quốc Anh được khuyến khích phải đặt ra các tiêu chuẩn cho lĩnh vực AI thay vì tự mình thực hiện các bài kiểm tra. Điều này nhằm mục đích biến Viện thành nhà lãnh đạo toàn cầu trong việc thiết lập tiêu chuẩn kiểm tra, đồng thời nâng cao sự hiểu biết và an toàn trong lĩnh vực AI. Bộ Khoa học, Đổi mới và Công nghệ của Vương quốc Anh cũng nhấn mạnh tầm quan trọng của việc các chính phủ trên toàn thế giới tham gia vào quá trình kiểm tra mô hình AI. Viện An toàn AI đang tiến hành các hoạt động như đánh giá, nghiên cứu và chia sẻ thông tin, qua đó hỗ trợ các nhà hoạch định chính sách toàn cầu trong việc hiểu và đảm bảo an toàn AI.
Citations:
[1] https://www.theguardian.com/technology/2024/feb/11/ai-safety-institute-needs-to-set-standards-rather-than-do-testing
- CEO Jensen Huang của Nvidia nhấn mạnh tại Hội nghị Thượng đỉnh Chính phủ Thế giới ở Dubai rằng mỗi quốc gia cần có cơ sở hạ tầng trí tuệ nhân tạo (AI) riêng để tận dụng tiềm năng kinh tế và bảo vệ văn hóa của mình.
- Ông Huang cảnh báo rằng không thể để việc xây dựng cơ sở hạ tầng AI được thực hiện bởi người khác.
- Nvidia, công ty có giá trị thị trường cổ phiếu lên đến 1,73 nghìn tỷ USD nhờ thị phần lớn trong lĩnh vực chip AI cao cấp, đang "dân chủ hóa" quyền truy cập vào AI nhờ vào sự tăng cường hiệu quả nhanh chóng trong tính toán AI.
- Huang cho rằng lo ngại về nguy hiểm của AI là quá đáng và lưu ý rằng các công nghệ và ngành công nghiệp mới khác như ô tô và hàng không đã được quản lý thành công.
- Ông chỉ trích quan điểm cho rằng nên sợ hãi công nghệ mới, cho rằng đó là một sai lầm khi khuyến khích mọi người không hành động và phụ thuộc vào người khác.
- Sau khi Mỹ áp đặt hạn chế mới vào tháng 10 đối với một số chip AI của Nvidia, công ty đã thông báo vào tháng 11 rằng họ đang làm việc với khách hàng ở Trung Quốc và Trung Đông để có được giấy phép xuất khẩu cho các sản phẩm mới tuân thủ quy định của Mỹ.
- CEO không đề cập đến vấn đề này trong bài phát biểu ngày thứ Hai.
- Nvidia dự kiến sẽ báo cáo thu nhập quý thứ tư vào ngày 21 tháng 2.
📌 CEO Jensen Huang của Nvidia đã nhấn mạnh tầm quan trọng của việc mỗi quốc gia xây dựng cơ sở hạ tầng AI riêng biệt để khai thác tiềm năng kinh tế và bảo vệ văn hóa. Ông cảnh báo rằng không nên để người khác thực hiện việc này và cho rằng lo ngại về AI là không cần thiết, so sánh với cách mà các ngành công nghiệp như ô tô và hàng không đã được quản lý. Nvidia, với giá trị thị trường cổ phiếu lên đến 1,73 nghìn tỷ USD, đang nỗ lực "dân chủ hóa" AI và đang làm việc để tuân thủ các quy định xuất khẩu mới của Mỹ.
- Chính phủ Anh đã đầu tư đáng kể vào AI, với mục tiêu đưa quốc gia này lên hàng đầu về đổi mới AI.
- Một phần của chiến lược này là việc tài trợ cho các dự án tiên tiến trong nhiều lĩnh vực như y tế, giáo dục, tài chính và giao thông.
- Chính phủ Anh cũng khuyến khích sự hợp tác giữa các cơ quan chính phủ, học giả và ngành công nghiệp để tận dụng chung các nguồn lực và chuyên môn.
- Trong năm qua, Mỹ đã đầu tư nhiều nhất vào AI với tổng cộng 261,350 triệu bảng, trong khi Anh đứng thứ ba với tổng cộng 20,317 triệu bảng đầu tư vào AI.
- Khi xem xét mức đầu tư so với GDP, Singapore dẫn đầu với 15,01 đô la cho mỗi ngàn đô la GDP, cao hơn 16% so với mức đầu tư của Mỹ.
- Thống kê từ AIPRM cho thấy Mỹ là quốc gia đầu tư nhiều nhất vào AI, với 261,350 triệu bảng tiêu trong năm qua. Trung Quốc đứng thứ hai với 105,531 triệu bảng, trong khi Anh đứng thứ ba với 20,317 triệu bảng.
- Khi xem xét mức đầu tư AI so với GDP, Singapore dẫn đầu, tiếp theo là Thụy Điển, Mỹ, Estonia và Anh.
📌 Chính phủ Anh đã nhận thức được tiềm năng biến đổi của AI và đã đầu tư đáng kể vào lĩnh vực này. Anh đứng thứ ba toàn cầu về mức đầu tư vào AI, sau Mỹ và Trung Quốc. Tuy nhiên, khi xem xét mức đầu tư so với GDP, Anh đứng thứ năm, sau Singapore, Thụy Điển, Mỹ và Estonia. Singapore dẫn đầu với 15,01 đô la cho mỗi ngàn đô la GDP, cao hơn 16% so với mức đầu tư của Mỹ. Điều này cho thấy, mặc dù Anh đã đầu tư đáng kể vào AI, nhưng so với kích thước kinh tế tổng thể, mức đầu tư này vẫn còn thấp hơn một số quốc gia khác.
- Hội nghị Thượng đỉnh Chính phủ Thế giới 2024 nhấn mạnh vai trò của sự hợp tác quốc tế và phát triển AI có trách nhiệm.
- AI đang tiếp tục hình thành tương lai của quản trị và xã hội, đặt ra nhu cầu về một lộ trình rõ ràng để tận dụng AI cho lợi ích của tất cả mọi người.
- Hội nghị thu hút sự tham gia của nhiều người nổi tiếng và diễn ra nhiều cuộc thảo luận đa dạng, hứa hẹn sẽ định hình một tương lai tốt đẹp hơn nhờ vào AI.
📌 Hội nghị Thượng đỉnh Chính phủ Thế giới 2024 (WGS) sắp tới tại Dubai từ ngày 12-14 tháng 2 đã đặt AI vào vị trí trung tâm, nhấn mạnh sự cần thiết của sự hợp tác quốc tế và phát triển AI một cách có trách nhiệm. Sự kiện này không chỉ là một diễn đàn cho các cuộc thảo luận về tương lai của quản trị và xã hội dưới ảnh hưởng của AI mà còn là một bước tiến quan trọng hướng tới việc khai thác tiềm năng của AI để mang lại lợi ích cho toàn nhân loại.
Citations:
[1] https://www.cryptopolitan.com/ai-at-world-government-summit-2024/
- Bài viết thảo luận về khả năng của AI tự chủ trong việc cầu nối các rạn nứt văn hóa trong bối cảnh AI toàn cầu.
- Mặc dù AI tự chủ mang lại nhiều lợi ích tiềm năng, nhưng con đường phía trước đầy thách thức và không chắc chắn.
- Sự phân mảnh của hệ sinh thái số toàn cầu có thể làm tăng căng thẳng chính trị và làm trầm trọng thêm các rạn nứt hiện có, đe dọa đến sự ổn định và hợp tác quốc tế.
- Sự lan rộng của các chiến lược AI quốc gia có thể dẫn đến tư duy trò chơi không tổng hòa, nơi các quốc gia ưu tiên lợi ích của mình mà không quan tâm đến sự tiến bộ chung.
- Khi AI tự chủ ngày càng nổi bật, các quốc gia đối mặt với nhiệm vụ khó khăn là tìm ra sự cân nhắc giữa tự chủ công nghệ và hợp tác toàn cầu.
- Trong khi việc theo đuổi khả năng AI quốc gia là thiết yếu để bảo vệ chủ quyền và thúc đẩy cạnh tranh kinh tế, nhưng nó không nên đến mức phá hủy sự hợp tác quốc tế.
- Khi AI tự chủ trở thành trung tâm trong cuộc đối thoại toàn cầu, tương lai của quản lý AI đang bị đặt dưới sự cân nhắc.
📌 Bài viết đã thảo luận về khả năng của AI tự chủ trong việc cầu nối các rạn nứt văn hóa trong bối cảnh AI toàn cầu. Mặc dù AI tự chủ mang lại nhiều lợi ích tiềm năng, nhưng con đường phía trước đầy thách thức và không chắc chắn. Sự phân mảnh của hệ sinh thái số toàn cầu có thể làm tăng căng thẳng chính trị và làm trầm trọng thêm các rạn nứt hiện có, đe dọa đến sự ổn định và hợp tác quốc tế. Khi AI tự chủ ngày càng nổi bật, các quốc gia đối mặt với nhiệm vụ khó khăn là tìm ra sự cân nhắc giữa tự chủ công nghệ và hợp tác toàn cầu.
Citations:
[1] https://www.cryptopolitan.com/sovereign-ai-bridge-cultural-divides-global/
- Jason Kwon của OpenAI cho rằng AI là vấn đề toàn cầu và cần một cách tiếp cận toàn cầu để quản lý nó[1].
- OpenAI sẽ tổ chức một số hội nghị phát triển ở Ấn Độ năm nay để thúc đẩy sự hợp tác giữa các nhà phát triển Silicon Valley và nhà phát triển địa phương[1].
- Kwon cho biết Ấn Độ có cộng đồng nhà phát triển lớn nhất thế giới, một số tài năng ấn tượng nhất trong lĩnh vực này, và một lịch sử phát triển các doanh nghiệp công nghệ phi thường[1].
- OpenAI muốn tiếp tục đầu tư vào cộng đồng nhà phát triển ở Ấn Độ[1].
- Kwon cho biết AI có thể giúp hoàn thành công việc nhanh hơn 25% và cải thiện chất lượng lên đến 40%, giảm chi phí của trí thông minh bằng cách làm cho việc viết mã nhanh hơn, giải phóng kỹ sư cho các nhiệm vụ khác[1].
📌 Jason Kwon của OpenAI nhấn mạnh rằng AI là vấn đề toàn cầu và cần một cách tiếp cận toàn cầu để quản lý nó. OpenAI sẽ tổ chức một số hội nghị phát triển ở Ấn Độ năm nay, nhằm thúc đẩy sự hợp tác giữa các nhà phát triển Silicon Valley và nhà phát triển địa phương. Kwon cũng nhấn mạnh rằng Ấn Độ có cộng đồng nhà phát triển lớn nhất thế giới, một số tài năng ấn tượng nhất trong lĩnh vực này, và một lịch sử phát triển các doanh nghiệp công nghệ phi thường. OpenAI muốn tiếp tục đầu tư vào cộng đồng nhà phát triển ở Ấn Độ. Cuối cùng, Kwon cho biết AI có thể giúp hoàn thành công việc nhanh hơn 25% và cải thiện chất lượng lên đến 40%[1].
Citations:
[1] https://economictimes.indiatimes.com/tech/technology/ai-is-a-global-issue-we-need-a-global-approach-to-govern-it-openais-jason-kwon/articleshow/107589504.cms
- Trong những năm gần đây, người dân California đã chứng kiến sự can thiệp của chính phủ tăng lên mạnh mẽ. Từ việc hạn chế sử dụng nước đến việc siết chặt "nền kinh tế gig", Sacramento đã chỉ đạo chúng ta cách sống và điều hành doanh nghiệp của mình.
- Bây giờ, chính phủ tiểu bang đang nhắm đến một trong những quyền cơ bản nhất của chúng ta: tự do ký kết hợp đồng. Việc ký kết hợp đồng là trái ngược với quy định của chính phủ. Nó cho phép mọi người thỏa thuận lợi ích chung mà không cần sự ép buộc từ quyền lực nhà nước.
- Khi nói đến hợp đồng sử dụng hình ảnh số của một người, Sacramento hiện muốn hạn chế quyền tự do này, do lo ngại về AI tạo sinh.
- Dự luật 459 của Quốc hội nhắm vào những "bản sao số", đó là những biểu hiện ảo của con người thật. Những người sáng tạo đã sử dụng bản sao này trong nhiều thập kỷ, sử dụng đội ngũ những người hoạt hình tài năng và hình ảnh được tạo ra bởi máy tính (CGI). AI giúp đơn giản hóa và giảm bớt rào cản.
📌 Trong bối cảnh chính phủ California đang cố gắng hạn chế quyền tự do ký kết hợp đồng trong việc sử dụng hình ảnh số của một người, đặc biệt là trong lĩnh vực AI tạo sinh, người dân và doanh nghiệp cần phải nắm bắt và hiểu rõ về những quy định mới này. Dự luật 459 của Quốc hội đang nhắm vào "bản sao số", những biểu hiện ảo của con người thật, mà AI đã giúp đơn giản hóa quá trình tạo ra chúng và giảm bớt rào cản. Sự can thiệp của chính phủ vào quyền tự do ký kết hợp đồng có thể tạo ra những hệ lụy không mong muốn cho sự phát triển của công nghệ và nền kinh tế số.
Citations:
[1] https://www.sbsun.com/2024/02/10/california-doesnt-own-ai-policy/
- CEO của Nvidia, Jensen Huang, tuyên bố thế giới đang trải qua làn sóng thứ hai của AI. Làn sóng đầu tiên do ngành tư nhân thúc đẩy, trong khi làn sóng thứ hai được kích hoạt bởi sự tham gia của chính phủ và nhận thức rằng mỗi khu vực và quốc gia cần xây dựng AI tạo sinh của riêng mình[1].
- CEO của IBM, Arvind Krishna, cũng đã kêu gọi tương tự: "Tôi tin rằng mỗi quốc gia nên có khả năng tạo sinh AI riêng, bao gồm cả mô hình ngôn ngữ lớn cho AI"[1].
- AI tạo sinh quốc gia liên quan đến việc các chính phủ quốc gia phát triển và triển khai chiến lược AI để bảo vệ chủ quyền quốc gia, an ninh, cạnh tranh kinh tế và phúc lợi xã hội[1].
- AI tạo sinh quốc gia bao gồm cách tiếp cận của một quốc gia để khai thác AI cho ngữ cảnh kinh tế xã hội, văn hóa và chính trị địa chính trị của nó[1].
- Có nhiều ví dụ về các chiến lược AI tạo sinh quốc gia đang xuất hiện trên toàn thế giới[1].
- AI tạo sinh quốc gia đại diện cho sự thay đổi đáng kể trong cách các quốc gia tiếp cận công nghệ trong thời đại AI[1].
📌 AI tạo sinh quốc gia đang trở thành một xu hướng toàn cầu, với các CEO của Nvidia và IBM đều kêu gọi mỗi quốc gia phát triển khả năng AI tạo sinh riêng của mình. Điều này liên quan đến việc các chính phủ quốc gia phát triển và triển khai chiến lược AI để bảo vệ chủ quyền quốc gia, an ninh, cạnh tranh kinh tế và phúc lợi xã hội. Có nhiều ví dụ về các chiến lược AI tạo sinh quốc gia đang xuất hiện trên toàn thế giới, đánh dấu sự thay đổi đáng kể trong cách các quốc gia tiếp cận công nghệ trong thời đại AI[1].
Citations:
[1] https://siliconangle.com/2024/02/10/rising-tide-sovereign-ai/
- Tháng trước, một nhà bình luận đã đưa ra quan điểm rằng "AI nguồn mở đặc biệt nguy hiểm", phản ánh lời kêu gọi đăng ký và cấp phép cho các mô hình AI.
- Cuộc tranh luận này đang nổi lên trong những nỗ lực gần đây để quản lý AI. Đầu tiên, Liên minh châu Âu đã hoàn thiện AI Act của mình để quản lý việc phát triển và triển khai các hệ thống AI.
- Một trong những điều khoản gây tranh cãi nhất là liệu có nên áp dụng các quy tắc này cho các mô hình "miễn phí và nguồn mở" hay không.
- Thứ hai, theo lệnh hành pháp của Tổng thống Biden về AI, chính phủ Hoa Kỳ đã bắt đầu yêu cầu các nhà phát triển của một số mô hình AI báo cáo, và sẽ sớm khởi xướng một cuộc điều tra công cộng về việc quản lý các mô hình AI "rộng rãi".
- Dù chính phủ chúng ta lựa chọn quản lý AI như thế nào, chúng ta cần thúc đẩy một hệ sinh thái AI đa dạng: từ các công ty lớn xây dựng siêu trí tuệ sở hữu đến những người thích tinker hàng ngày thử nghiệm với công nghệ mở.
- Các mô hình mở là nền tảng cho sự đổi mới từ cội rễ trong AI.
📌 Trong bối cảnh cuộc tranh luận về việc quản lý AI đang trở nên gay gắt, bài viết trên IEEE Spectrum đã thảo luận về việc liệu AI nguồn mở có tốt cho chúng ta hay không. Một số điểm quan trọng được đề cập bao gồm việc Liên minh châu Âu đã hoàn thiện AI Act của mình để quản lý việc phát triển và triển khai các hệ thống AI, và chính phủ Hoa Kỳ đã bắt đầu yêu cầu các nhà phát triển của một số mô hình AI báo cáo. Dù chính phủ chúng ta lựa chọn quản lý AI như thế nào, chúng ta cần thúc đẩy một hệ sinh thái AI đa dạng, từ các công ty lớn xây dựng siêu trí tuệ sở hữu đến những người thích tinker hàng ngày thử nghiệm với công nghệ mở.
Citations:
[1] https://spectrum.ieee.org/open-source-ai-good
- Singapore được đánh giá cao về tiềm năng trở thành trung tâm AI toàn cầu.
- Môi trường tại Singapore thúc đẩy sự đổi mới, là yếu tố quan trọng cho sự phát triển của AI.
- Caroline Yap từ Google Cloud nhấn mạnh sự cần thiết của quan hệ đối tác công và tư để AI phát huy hết tiềm năng.
- Sáng kiến AI Trailblazers đã giúp 43 tổ chức từ nhiều lĩnh vực khác nhau xây dựng giải pháp AI tạo sinh của riêng mình.
- Singapore đã tạo ra cơ sở vững chắc để phát triển thành một trung tâm AI toàn cầu.
- Chính phủ Singapore đã triển khai nhiều sáng kiến AI, hỗ trợ nghiên cứu AI trong nước và tham vấn doanh nghiệp công nghệ trong quá trình hoạch định chính sách.
- Trung tâm An ninh và Công nghệ mới nổi (CSET) nhận định rằng Singapore đang ngày càng khẳng định vị thế là một trung tâm AI, mở ra cơ hội hợp tác quốc tế.
- Các sáng kiến như đẩy nhanh quá trình phê duyệt bằng sáng chế, khuyến khích đầu tư tư nhân và giải quyết thiếu hụt nhân tài đang giúp Singapore phát triển nhanh chóng.
📌 Singapore đang trên đà trở thành một trung tâm AI toàn cầu với nhiều yếu tố thuận lợi như môi trường đổi mới, sự hợp tác giữa công và tư, và các sáng kiến hỗ trợ từ chính phủ. Sự tham gia của các tổ chức trong và ngoài nước thông qua sáng kiến AI Trailblazers, cùng với việc chính phủ tham vấn doanh nghiệp công nghệ trong quá trình hoạch định chính sách, đã tạo nền tảng vững chắc cho sự phát triển của AI tại đây. Các chính sách như đẩy nhanh quá trình phê duyệt bằng sáng chế và khuyến khích đầu tư tư nhân cũng góp phần làm cho Singapore trở thành điểm đến hấp dẫn cho các hoạt động nghiên cứu và phát triển AI, đồng thời giải quyết vấn đề thiếu hụt nhân tài trong lĩnh vực này.
Citations:
[1] https://www.cnbc.com/2024/02/07/google-says-singapore-has-very-high-potential-to-be-a-global-ai-hub.html
- Sáng kiến AI Trailblazers đã giúp 43 tổ chức trong chính phủ và ngành công nghiệp sử dụng thành công hệ thống AI đồng nhất của Google Cloud để xây dựng các giải pháp AI tạo sinh của riêng mình.
- AI Trailblazers 2.0, một sáng kiến mở rộn với mục tiêu hỗ trợ cho đến 150 tổ chức khác nhanh chóng xây dựng các giải pháp AI tạo sinh của riêng mình, sẽ được ra mắt trong những tuần tới.
- Được ra mắt lần đầu tiên, chương trình tăng tốc tập trung vào AI tạo sinh để hỗ trợ phát triển các startup AI tiềm năng, với ứng dụng hiện đã mở cho đợt đầu tiên của chương trình này.
- Cập nhật các chương trình đào tạo hiện có của Google để tăng cường nguồn lực AI địa phương, với trọng tâm là các chuyên gia giữa sự nghiệp và sinh viên từ các viện đại học.
- Các sáng kiến này được công bố nhằm hỗ trợ Chiến lược AI quốc gia thứ hai của Singapore (NAIS 2.0).
📌Các sáng kiến mới được công bố bởi MCI, DISG, SNG, EnterpriseSG, và Google Cloud nhằm thúc đẩy việc tiếp nhận AI trên toàn chính phủ và ngành công nghiệp; nuôi dưỡng một hệ sinh thái đầy sức sống của các startup AI; và xây dựng một nguồn nhân lực AI bền vững, hỗ trợ Chiến lược AI quốc gia thứ hai của Singapore (NAIS 2.0). Điểm đáng chú ý là sáng kiến AI Trailblazers 2.0, nhằm hỗ trợ cho đến 150 tổ chức khác nhanh chóng xây dựng các giải pháp AI tạo sinh của riêng mình. Đồng thời, chương trình tăng tốc tập trung vào AI tạo sinh cũng được ra mắt để hỗ trợ phát triển các startup AI tiềm năng. Các sáng kiến này không chỉ thúc đẩy sự phát triển của AI tại Singapore, mà còn tạo điều kiện cho các tổ chức và cá nhân tiếp cận và tận dụng công nghệ AI một cách hiệu quả hơn.
- Các công ty trí tuệ nhân tạo (AI) lớn nhất thế giới đang thúc giục chính phủ Vương quốc Anh đẩy nhanh quá trình kiểm tra an toàn cho các hệ thống AI, trong bối cảnh tranh cãi về mong muốn của Anh trong việc đóng vai trò dẫn đầu trong việc quản lý công nghệ phát triển nhanh chóng này.
- OpenAI, Google DeepMind, Microsoft và Meta là những nhóm công nghệ đã ký cam kết tự nguyện vào tháng 11 để mở cửa các mô hình AI tạo sinh mới nhất của họ cho việc đánh giá của Viện An toàn AI mới của Anh. Lúc đó, các công ty đã cam kết sẽ điều chỉnh mô hình của họ nếu viện phát hiện ra lỗi trong công nghệ.
- Các công ty AI đang tìm kiếm sự rõ ràng về các bài kiểm tra mà AISI đang thực hiện, thời gian thực hiện và quy trình phản hồi nếu phát hiện rủi ro.
- Một bài đăng trên LinkedIn từ Ian Hogarth, chủ tịch AISI, cho biết: "Các công ty đã đồng ý rằng chính phủ nên kiểm tra mô hình của họ trước khi chúng được phát hành: Viện An toàn AI đang thực hiện điều này."
- Chính phủ Anh cho biết việc kiểm tra mô hình đã được tiến hành và chào đón quyền truy cập liên tục vào các mô hình AI mạnh mẽ nhất cho việc kiểm tra trước khi triển khai.
- Mâu thuẫn với các công ty công nghệ tiết lộ giới hạn của việc dựa vào các thỏa thuận tự nguyện để thiết lập các tham số cho sự phát triển công nghệ nhanh chóng. Chính phủ đã nêu rõ nhu cầu về "yêu cầu ràng buộc trong tương lai" cho các nhà phát triển AI hàng đầu để đảm bảo họ chịu trách nhiệm giữ an toàn cho hệ thống.
- AISI đã bắt đầu kiểm tra các mô hình AI hiện có và có quyền truy cập vào các mô hình chưa được phát hành, bao gồm cả Gemini Ultra của Google.
- Viện An toàn AI của Anh có quyền truy cập vào một số mô hình mạnh mẽ nhất của chúng tôi cho mục đích nghiên cứu và an toàn để xây dựng chuyên môn và năng lực lâu dài, Google DeepMind cho biết.
📌 Trong bối cảnh công nghệ AI phát triển nhanh chóng, việc các công ty AI lớn nhất thế giới như OpenAI, Google DeepMind, Microsoft và Meta cam kết mở cửa mô hình AI tạo sinh mới nhất của họ cho Viện An toàn AI của Anh đánh dấu một bước tiến quan trọng trong việc quản lý an toàn công nghệ. Tuy nhiên, sự mâu thuẫn giữa các công ty công nghệ và chính phủ Anh về tốc độ và quy trình kiểm tra an toàn cho thấy những thách thức trong việc thiết lập các thỏa thuận tự nguyện như một phương tiện để kiểm soát sự phát triển công nghệ.
- Liên minh Châu Âu (EU) đã đạt được thỏa thuận về văn bản cuối cùng của Đạo luật AI vào cuối tuần trước, đánh dấu một bước ngoặt quan trọng trong việc điều chỉnh công nghệ AI.
- Đạo luật AI của EU được đánh giá là cực kỳ phức tạp, với nhiều yêu cầu mà các doanh nghiệp cần tuân thủ, điều này không hề dễ dàng cho việc điều hướng.
- Văn phòng AI mới của EU sẽ có quyền lực quyết định liệu các mối quan hệ đối tác giữa các startup AI và các gã khổng lồ công nghệ lớn có làm giảm cạnh tranh hay không, ví dụ như mối quan hệ giữa OpenAI và Microsoft, hay sự sở hữu của Alphabet đối với DeepMind.
- Trong khi EU đang tăng cường quy định, chính phủ Anh lại có cách tiếp cận rất khác khi công bố phương hướng chính sách AI của mình.
- Chính phủ Anh quyết định không cập nhật bất kỳ luật lệ nào của đất nước để giải quyết các vấn đề mới nảy sinh từ AI, mà thay vào đó để các cơ quan quản lý hiện tại tìm cách áp dụng luật lệ hiện hành cho công nghệ mới.
- Cách tiếp cận của Anh có thể sẽ cho phép doanh nghiệp triển khai AI nhanh chóng hơn so với các quy định nặng nề hơn của EU.
📌 Sự phân hóa trong cách tiếp cận quy định AI giữa Liên minh Châu Âu và Anh đã trở nên rõ ràng. EU đã thiết lập một Đạo luật AI phức tạp và khắt khe, đòi hỏi các doanh nghiệp phải tuân thủ nhiều yêu cầu và đối mặt với thách thức trong việc điều hướng quy định. Ngược lại, Anh lại chọn một lộ trình linh hoạt hơn, không cập nhật luật lệ mới mà để các cơ quan quản lý hiện tại giải quyết các vấn đề phát sinh từ AI. Điều này có thể tạo điều kiện cho các doanh nghiệp Anh áp dụng AI nhanh chóng hơn, nhưng cũng đặt ra câu hỏi về việc liệu sự tiếp cận này có đảm bảo được sự cân nhắc cần thiết về các vấn đề liên quan đến cạnh tranh và quyền lợi người tiêu dùng hay không.
Citations:
[1] https://fortune.com/2024/02/06/eu-ai-act-uk-ai-regulation-diverge/
- Giám đốc điều hành của Nvidia, Jensen Huang, cho biết nhu cầu về sản phẩm của công ty sẽ tăng lên do các quốc gia trên thế giới đang hướng tới việc xây dựng và vận hành cơ sở hạ tầng trí tuệ nhân tạo (AI) của riêng họ.
- Các quốc gia như Ấn Độ, Nhật Bản, Pháp và Canada đang nhấn mạnh tầm quan trọng của việc đầu tư vào "năng lực AI chủ quyền".
- Huang nói trong một cuộc phỏng vấn với Bloomberg Television rằng dữ liệu - tài nguyên tự nhiên của họ - nên được tinh chế và sản xuất cho đất nước của họ.
- Ông nhấn mạnh rằng sự nhận thức về năng lực AI chủ quyền là một xu hướng toàn cầu.
📌 Việc các quốc gia trên thế giới đang chú trọng đến việc phát triển năng lực AI chủ quyền của mình là một động lực mạnh mẽ thúc đẩy nhu cầu cho các sản phẩm của Nvidia. Sự nhấn mạnh vào việc sử dụng dữ liệu như một tài nguyên tự nhiên cần được tinh chế và phục vụ cho lợi ích quốc gia cho thấy một xu hướng toàn cầu về đầu tư vào AI. Các quốc gia như Ấn Độ, Nhật Bản, Pháp và Canada đã bắt đầu thảo luận về tầm quan trọng của việc này, điều này không chỉ góp phần vào sự phát triển của AI mà còn mở ra cơ hội kinh doanh lớn cho các công ty công nghệ như Nvidia, đặc biệt là trong việc cung cấp cơ sở hạ tầng cần thiết để hỗ trợ năng lực AI chủ quyền.
- Năm 2024 đánh dấu sự chú ý đặc biệt đối với sự giao thoa giữa bảo vệ dữ liệu và trí tuệ nhân tạo (AI) không chỉ ở Anh mà còn trên toàn cầu.
- Dự luật AI của EU, được mô tả là "luật AI toàn diện đầu tiên trên thế giới", đang tiến gần đến giai đoạn thực thi. Vào tháng 12/2023, Nghị viện Châu Âu và Hội đồng Châu Âu đã đạt được thỏa thuận sơ bộ về nội dung của nó.
- Dự kiến sẽ được thông qua vào đầu năm 2024 và sẽ có hiệu lực toàn bộ sau hai năm. Các nhà tuyển dụng sử dụng AI trong việc làm mang tính rủi ro cao, theo định nghĩa của luật, sẽ phải đối mặt với các nghĩa vụ tuân thủ và biện pháp bảo vệ bổ sung.
- Dự luật AI của EU sẽ có tác động toàn cầu, ảnh hưởng đến các công ty quốc tế sử dụng AI trong EU, bất kể trụ sở của họ ở đâu. Vi phạm quy định này có thể dẫn đến các khoản phạt lớn, lên đến 35 triệu EUR hoặc 7% doanh thu hàng năm toàn cầu.
- Trái ngược với cách tiếp cận nghiêm ngặt của EU, Anh đang theo đuổi một lộ trình khác biệt, không giới thiệu luật AI toàn diện mà tập trung vào việc thúc đẩy đổi mới và quy định cụ thể cho từng ngành.
- Văn phòng Ủy viên Thông tin (ICO) của Anh, cơ quan quản lý bảo vệ dữ liệu của Anh, dự kiến sẽ phát hành thêm hướng dẫn phản hồi trước sự phát triển của công nghệ và pháp luật, bao gồm tài nguyên AI mở rộng và lời khuyên dành cho nhà tuyển dụng, đặc biệt trong các lĩnh vực chuyển giao quốc tế và thực hành tốt nhất.
- Năm 2024 được dự đoán là một năm quan trọng đối với quy định về bảo vệ dữ liệu và AI ở Anh và EU. Trong khi Dự luật AI của EU hứa hẹn mang lại sự thay đổi lớn, Anh lại chọn một hướng đi riêng biệt, tập trung vào đổi mới và quy định cụ thể cho từng ngành.
📌 Năm 2024 sẽ là một năm quan trọng cho quy định về bảo vệ dữ liệu và AI ở Anh và EU, với việc triển khai Dự luật AI của EU và cách tiếp cận khác biệt của Anh. Dự luật AI của EU, được coi là luật AI toàn diện đầu tiên trên thế giới, sẽ đặt ra các nghĩa vụ tuân thủ và biện pháp bảo vệ bổ sung cho các nhà tuyển dụng sử dụng AI trong việc làm mang tính rủi ro cao. Cùng lúc đó, Anh tập trung vào việc thúc đẩy đổi mới và quy định cụ thể cho từng ngành, với sự hỗ trợ từ ICO thông qua việc phát hành thêm hướng dẫn.
- Chính phủ Anh, các công ty AI và tổ chức sáng tạo không đạt được sự đồng thuận về một bộ quy tắc đề xuất sẽ đặt ra hướng dẫn rõ ràng cho việc đào tạo mô hình AI trên tài liệu có bản quyền.
- Trong gần một năm, Văn phòng Sở hữu Trí tuệ (IPO) đã tham vấn với các công ty bao gồm Microsoft, Google DeepMind và Stability AI cũng như các tổ chức nghệ thuật và tin tức như BBC, Thư viện Anh và Financial Times.
- Mục đích của các cuộc thảo luận là tạo ra một cuốn cẩm nang về khai thác văn bản và dữ liệu, nơi mà các mô hình AI được đào tạo trên các tài liệu như sách, hình ảnh và phim do con người sản xuất - thường có bản quyền.
- Tuy nhiên, liên minh do IPO làm trung gian không thể thống nhất về một bộ quy tắc tự nguyện, theo báo cáo của Financial Times.
- Điều này có nghĩa là IPO đã trả lại trách nhiệm cho các quan chức tại Bộ Khoa học, Đổi mới và Công nghệ, nơi không có khả năng đưa ra các chính sách cụ thể trong thời gian sớm, theo nguồn tin từ báo chí.
- Chỉ riêng năm 2023, hàng trăm trang kiện tụng và vô số bài báo đã cáo buộc các công ty công nghệ ăn cắp tác phẩm của nghệ sĩ để đào tạo mô hình AI của họ.
- Trong số những vụ kiện nổi tiếng nhất là ở Mỹ, nơi tờ New York Times gần đây đã kiện OpenAI và Microsoft vì vi phạm bản quyền.
- Sử dụng AI đã phát triển nhanh chóng trong ngành công nghiệp giải trí trong những năm gần đây, từ sách nói tự động và trợ lý giọng nói đến video deepfake và công cụ chuyển văn bản thành giọng nói.
- Nhưng pháp luật đã không theo kịp với sự phát triển này.
- Tại Anh, Equity, một công đoàn đại diện cho 50.000 diễn viên và người thực hành sáng tạo, đã phát động chiến dịch Stop AI Stealing the Show để vận động chính phủ cập nhật luật pháp và bảo vệ tốt hơn nguồn sống của nghệ sĩ.
- Nhưng không chỉ có nghệ sĩ kêu gọi sử dụng AI công bằng. Người tiên phong AI tạo sinh Ed Newton-Rex đã từ chức tại Stability AI vào tháng 11 vì việc sử dụng nội dung có bản quyền của công ty khởi nghiệp.
- Vào tháng 1, ông đã thành lập một tổ chức phi lợi nhuận có tên là Fairly Trained, chứng nhận các công ty AI sử dụng dữ liệu một cách công bằng.
📌 Chính phủ Anh và các bên liên quan không thể đạt được thỏa thuận về quy tắc bản quyền AI, gây tổn thất lớn cho nghệ sĩ. Sự không đồng thuận này sau gần một năm thảo luận cho thấy sự phức tạp trong việc cân bằng quyền lợi giữa các công ty công nghệ và người sáng tạo. Với sự gia tăng sử dụng AI trong ngành giải trí và các vụ kiện liên quan đến vi phạm bản quyền, rõ ràng là cần có hướng dẫn pháp lý rõ ràng hơn để bảo vệ tác phẩm sáng tạo. Các nghệ sĩ và người tiên phong trong lĩnh vực AI đang kêu gọi một cách tiếp cận công bằng hơn trong việc sử dụng nội dung có bản quyền.
📌 Việc EU phê duyệt Đạo luật AI đánh dấu một bước tiến quan trọng trong việc điều chỉnh công nghệ trí tuệ nhân tạo, tạo ra một tiền lệ cho việc điều chỉnh toàn diện nhằm cân bằng giữa an toàn và đổi mới trong công nghệ AI. Tuy nhiên, khi quá trình lập pháp tiếp tục, các bên liên quan cần phải luôn cảnh giác, đảm bảo rằng các quy định của Đạo luật phù hợp với nhu cầu phát triển của lĩnh vực AI. Khi Châu Âu định hình lộ trình của mình trong lĩnh vực AI, câu hỏi vẫn còn là Đạo luật AI sẽ định hình tương lai của quản lý và đổi mới AI trên toàn cầu như thế nào?
📌 FCC đang thực hiện các bước quan trọng để chống lại sự lạm dụng công nghệ AI trong các cuộc gọi robocall không mong muốn, đặc biệt sau sự việc liên quan đến giọng nói giả mạo của Tổng thống Joe Biden. Các biện pháp pháp lý được đề xuất nhằm vào việc mở rộng quyền lực của các tổng chưởng lý bang trong việc truy cứu trách nhiệm pháp lý đối với việc sử dụng công nghệ AI trong robocall, thể hiện cam kết mạnh mẽ của FCC trong việc bảo vệ người tiêu dùng khỏi các hành vi lừa đảo và gian lận ngày càng tinh vi. Sự hỗ trợ từ các tổ chức như AARP cho thấy tầm quan trọng của việc bảo vệ nhóm người dễ bị tổn thương, đặc biệt là người cao tuổi, khỏi những nguy cơ này.
📌Mỹ đang sắp ban hành luật nhằm chống lại sự lan truyền của deepfake tình dục không có sự đồng ý, được kích hoạt bởi việc lưu hành hình ảnh AI nhạy cảm về các nhân vật nổi tiếng như Taylor Swift. Dự luật được giới thiệu bởi một số thượng nghị sĩ Mỹ vào ngày 30 tháng 1 năm 2024, nhắm vào những người tạo hoặc chia sẻ deepfake tình dục mà không có sự đồng ý của đối tượng, từ đó đưa họ vào tình trạng có thể phải đối mặt với hình phạt hình sự.
- Đáp ứng sự phát triển của chatbot AI tiếng Trung như ChatGPT và ERNIE Bot của Baidu, Đài Loan phát triển LLM (Mô Hình Ngôn Ngữ Lớn) đầu tiên bằng tiếng Quan Thoại của mình, có tên là TAIDE, nhằm bảo vệ văn hóa và an ninh trước nguy cơ từ công nghệ AI nước ngoài.
- Dự án TAIDE, được dẫn dắt bởi Hội đồng Khoa học và Công nghệ Quốc gia Đài Loan và các nhà nghiên cứu từ học viện và cơ quan chính phủ, tập trung phát triển một động cơ đối thoại AI đáng tin cậy, phù hợp với đặc trưng ngôn ngữ của Đài Loan.
- Dù gặp thách thức về tài chính và nguồn lực, dự án TAIDE vẫn tiến lên, sử dụng nguồn dữ liệu từ chính phủ và các phương tiện truyền thông để huấn luyện mô hình hiệu quả.
📌 Đáp ứng sự phát triển của chatbot AI tiếng Trung như ChatGPT và ERNIE Bot của Baidu, Đài Loan phát triển LLM (Mô Hình Ngôn Ngữ Lớn) đầu tiên bằng tiếng Quan Thoại của mình, có tên là TAIDE, nhằm bảo vệ văn hóa và an ninh trước nguy cơ từ công nghệ AI nước ngoài. Dự án này không chỉ nhấn mạnh tầm quan trọng của việc phát triển mô hình AI phản ánh các biến thể ngôn ngữ khu vực mà còn góp phần nuôi dưỡng tài năng AI và xây dựng hệ sinh thái AI địa phương tại Đài Loan.
📌 Singapore đang tiến hành hoàn thiện khung quản trị AI mẫu cho AI tạo sinh, dự kiến sẽ hoàn thành vào giữa năm 2024, với mục tiêu thiết lập các nguyên tắc và thực tiễn quản lý đáng tin cậy cho việc sử dụng AI tạo sinh một cách an toàn và hiệu quả, đồng thời thúc đẩy hội thoại quốc tế và sự hợp tác giữa các nhà hoạch định chính sách trên toàn cầu.
📌 Cuộc họp giữa Cố vấn An ninh Quốc gia Mỹ Jake Sullivan và Bộ trưởng Ngoại giao Trung Quốc Vương Nghị đã đặt nền tảng để tổ chức đối thoại Mỹ-Trung về AI vào mùa xuân này, mở ra cơ hội cho sự hợp tác và hiểu biết lẫn nhau giữa hai cường quốc, nhằm quản lý cạnh tranh trong lĩnh vực công nghệ cao một cách có trách nhiệm và hiệu quả.
📌 Các nhóm lợi ích công nghệ, các nhà lập pháp Đảng Cộng hòa và hoạt động viên bảo thủ đang cố gắng ngăn chặn sắc lệnh AI của Tổng thống Biden trước những hạn chót quan trọng, phản đối việc sử dụng Đạo luật Sản xuất Quốc phòng, một đạo luật cho phép chính phủ liên bang có quyền lực rộng lớn đối với các công ty tư nhân để yêu cầu các công ty công nghệ báo cáo về các dự án AI tiên tiến.
📌 Dự án thử nghiệm Tài nguyên AI Quốc gia (NAIRR) của Mỹ đã nhận tài trợ 50 triệu USD, bao gồm 30 triệu USD từ Nvidia và 20 triệu USD từ Microsoft Azure, nhằm mục tiêu thúc đẩy nghiên cứu AI có trách nhiệm, mở rộng quyền truy cập vào nguồn lực cần thiết cho đổi mới. Dự án 2 năm này kỳ vọng sẽ nhận được hàng chục triệu USD từ các cơ quan liên bang và số tiền tương đương từ khu vực tư nhân không chỉ tăng cường cơ hội nghiên cứu mà còn góp phần vào tăng trưởng kinh tế và hình thành các tiêu chuẩn quốc tế. Với kế hoạch hỗ trợ ban đầu cho tới 50 dự án nghiên cứu, NAIRR có thể mở rộng lên tới 400 dự án trong tương lai
📌 NSF đã phát động Chương trình Thử nghiệm Tài nguyên AI Quốc gia (NAIRR) với sự hợp tác của Microsoft, NVIDIA, OpenAI và hơn 20 tổ chức khác, nhằm mục tiêu mở rộng quyền truy cập vào cơ sở hạ tầng nghiên cứu AI cho cộng đồng khoa học. Chương trình này tập trung vào phát triển AI an toàn, bảo mật và đáng tin cậy, đồng thời thúc đẩy sự cộng tác giữa các ngành công nghiệp thông qua việc ươm mầm các ứng dụng và giải pháp AI có giá trị thương mại. NAIRR đánh dấu sự hợp tác giữa chính phủ và doanh nghiệp trong lĩnh vực AI, tăng cường vị thế cạnh tranh toàn cầu của Hoa Kỳ trong công nghệ AI. Các nhà nghiên cứu được khuyến khích nộp đơn vào mùa xuân 2024 để có cơ hội tham gia vào chương trình này.
📌 Báo cáo mới nhất chỉ ra rằng Bắc Triều Tiên đang tích cực phát triển công nghệ AI, điều này gây ra lo ngại về khả năng vi phạm các biện pháp trừng phạt quốc tế và tăng cường khả năng giám sát cũng như tấn công mạng. Các chuyên gia kêu gọi cộng đồng quốc tế nên theo dõi chặt chẽ hoạt động này để đảm bảo rằng các hạn chế hiện hành được tuân thủ.
📌 AI đang mở ra cơ hội lớn trong việc thúc đẩy phát triển ở các quốc gia đang phát triển, với khả năng cải thiện đáng kể chất lượng giáo dục và y tế. Trong giáo dục, AI có tiềm năng thu hẹp khoảng cách học vấn, ví dụ như tại phía Nam Sahara, học sinh chỉ giữ được 3 năm kiến thức sau 6 năm học, so với 16 năm kiến thức cho 14 năm học ở Nhật Bản. Trong y tế, AI hứa hẹn giảm thiểu tỷ lệ tử vong do sai sót y tế, vốn gây ra hơn 8 triệu ca tử vong hàng năm ở các quốc gia đang phát triển. Ngoài ra, AI còn cung cấp giải pháp cho các vấn đề phức tạp như phân tích dữ liệu nông nghiệp và dự báo thời tiết chính xác hơn. Tuy nhiên, việc triển khai AI đòi hỏi sự cân nhắc về tính bền vững và công bằng trong tiếp cận công nghệ, đặc biệt là trong bối cảnh Ấn Độ đã có 790 triệu người dùng Internet di động, mở ra cơ hội lớn cho việc áp dụng AI rộng rãi.
📌 Dự luật AI của EU đã được rò rỉ, gây ra một cuộc tranh cãi sôi nổi xung quanh tác động của nó đối với đổi mới công nghệ. Với việc đại sứ EU dự kiến thông qua dự luật vào ngày 2 tháng 2 và triển khai trước cuộc bầu cử Nghị viện Châu Âu vào tháng 6, các tổ chức và doanh nghiệp chỉ còn ít thời gian để thích ứng với các quy định mới. Các chuyên gia đưa ra cảnh báo sớm và khuyến nghị nên lập tức bắt đầu lập kế hoạch, thành lập một nhóm nhiệm vụ tuân thủ AI, và xây dựng lộ trình tuân thủ kịp thời. Ngoài ra, với quy định có ảnh hưởng ngoại lãnh thổ, dự luật sẽ không chỉ ảnh hưởng đến các công ty công nghệ của EU mà còn đến các tổ chức toàn cầu. Điều này dự kiến sẽ thúc đẩy nhu cầu về chương trình quản lý AI và các chuyên gia trong lĩnh vực này. Tuy nhiên, mối lo ngại về việc dự luật có thể tạo ra gánh nặng quá mức và khuyến khích một môi trường tránh rủi ro, có thể kìm hãm lợi ích của AI, cũng đang được đề cập.
📌 Công nghệ AI đang mở ra cánh cửa đầy hứa hẹn cho các nước đang phát triển, với khả năng cải tiến dịch vụ công, nâng cao giáo dục và y tế. AI có tiềm năng đáng kể trong việc cung cấp giải pháp cho các vấn đề địa phương, nhờ vào sự phổ cập của điện thoại di động. Đầu tư vào kết nối, quản lý và quy định sẽ là chìa khóa để tối đa hóa lợi ích của AI, đặc biệt là ở khu vực Nam châu Phi. Đối mặt với thách thức là tỉ lệ cao người lao động có thể bị thay thế bởi AI (20-25% ở các nước đang phát triển so với 33% ở các nước giàu), việc thực hiện các bước đi chiến lược sẽ quyết định liệu các quốc gia này có thể tận dụng cơ hội mà AI mang lại hay không.
📌 Điểm nổi bật của Diễn đàn Kinh tế Thế giới lần này chính là sự chú trọng vào AI, với 40% lực lượng lao động toàn cầu có khả năng bị ảnh hưởng bởi AI và nhu cầu cấp thiết để giáo dục về AI. Bài viết trích lời 10 nhà lãnh đạo kêu gọi sự giám sát và quản lý rủi ro, cũng như việc tăng cường khả năng tiếp cận công nghệ này cho các nền kinh tế đang phát triển để tránh sự chia rẽ số hóa mở rộng. Sự tham gia của các nhà lãnh đạo từ nhiều quốc gia và tổ chức khác nhau như EU, Liên Hợp Quốc, IMF, Trung Quốc, Microsoft, OpenAI và Rwanda là minh chứng cho tính cấp thiết và toàn cầu của vấn đề này, đồng thời cung cấp một sự đa dạng quan điểm và giải pháp.
📌 Trong bối cảnh AI ngày càng phát triển mạnh mẽ, các vấn đề phát sinh về chất lượng và pháp lý đang trở nên đáng kể. Với việc 57% nội dung trên internet có khả năng do AI tạo ra, nguy cơ phân biệt đối xử, thiên vị ngôn ngữ và khu vực là không thể tránh khỏi. Các công ty lớn như Microsoft và OpenAI đang đối mặt với thách thức khi sử dụng nội dung không được cấp phép, cùng với các công cụ như Nightshade và Glaze xuất hiện nhằm bảo vệ quyền sở hữu trí tuệ. Không chỉ thao túng thông tin với 47 chính phủ sử dụng AI, mà AI còn có tiềm năng thay thế 40% công việc, đặt ra nguy cơ tăng cường bất bình đẳng. Mặc dù vậy, AI vẫn chứng tỏ vai trò tích cực trong việc hỗ trợ giáo dục và nghiên cứu, mang lại triển vọng cho tương lai.
📌 Cuộc khảo sát của Deloitte AI InstituteTM, với sự tham gia của hơn 2.800 lãnh đạo từ cấp giám đốc đến C-suite trên toàn cầu, cho thấy mặc dù 79% nhà lãnh đạo kỳ vọng AI tạo sinh (Gen AI) sẽ biến đổi tổ chức của họ trong vòng ba năm, chỉ có 25% tin rằng tổ chức của họ đã chuẩn bị kỹ lưỡng về quản trị và rủi ro liên quan đến việc áp dụng AI tạo sinh. Bên cạnh đó, chỉ 47% trong số họ cho biết tổ chức của họ đã giáo dục đủ cho nhân viên về khả năng, lợi ích và giá trị của AI tạo sinh. Hơn nữa, 51% lo ngại rằng việc sử dụng rộng rãi AI tạo sinh có thể tăng bất bình đẳng kinh tế toàn cầu. Những số liệu này phản ánh rằng, mặc dù AI tạo sinh được nhìn nhận như một công cụ đầy tiềm năng, các tổ chức vẫn cần đối mặt với thách thức lớn trong việc quản lý rủi ro, quản trị và giáo dục nhân sự để tận dụng hiệu quả công nghệ này.
📌 Tại Davos 2024, quản lý AI tạo sinh đã trở thành chủ đề chính, thu hút sự quan tâm của cộng đồng quốc tế. Satya Nadella và các nhà lãnh đạo khác đã chia sẻ quan điểm và thảo luận về việc phát triển các khuôn khổ quản lý để giảm thiểu rủi ro. Thách thức trong việc tìm kiếm sự đồng thuận quốc tế, đặc biệt là giữa Châu Âu và Trung Quốc, đã được nhấn mạnh. Cuộc trao đổi tại Davos không chỉ gói gọn trong các quy định mà còn đề cập đến các vấn đề đạo đức và tác động của AI tạo sinh đối với xã hội, cho thấy sự thấu đáo và toàn diện trong cách tiếp cận vấn đề này.
📌 Amit Sheth, cố vấn AI của Thủ tướng Narendra Modi, đang hợp tác với các tổ chức giáo dục Ấn Độ để phát triển nghiên cứu AI, nhấn mạnh tầm quan trọng của sự đổi mới và xuất khẩu sản phẩm AI. Ông đề xuất việc xây dựng các mô hình AI cho ngôn ngữ Indic và áp dụng chúng trong y tế, đồng thời kêu gọi hợp tác giữa học thuật và tư nhân cũng như sự hỗ trợ của chính phủ. Sheth cũng là phần của dự án trường đại học nghiên cứu tư nhân Ekagrid và ủng hộ việc giáo dục AI từ giai đoạn trung học cơ sở.
📌 UAE đang thực hiện bước tiến đột phá với việc triển khai Chiến lược AI Quốc gia 2031, hướng đến việc đào tạo lực lượng lao động kỹ thuật số thông qua giáo dục. Đến nay, đã có gần 52% nhân viên tham gia các khóa nâng cao kỹ năng AI và hơn 20 trường đại học đã đưa ra các chương trình liên quan đến AI. Sự đồng thuận từ hơn 70% CEO cho thấy một tương lai lạc quan với sự hỗ trợ mạnh mẽ từ phía doanh nghiệp. Mặc dù đối mặt với rủi ro từ chính sách quốc tế và vấn đề quyền con người, UAE kiên định với việc tích hợp AI vào ngành giáo dục từ sớm, với sự chỉ đạo của UNESCO và sử dụng blockchain doanh nghiệp để củng cố tiến trình này.
📌 AI cải thiện hiệu quả, giảm chi phí và dân chủ hóa dịch vụ pháp lý, nhưng cũng mang đến thách thức về đạo đức và quy định. Việc huấn luyện AI trên dữ liệu có thể phản ánh và tăng cường định kiến xã hội, và sự không minh bạch trong quyết định của AI có thể làm giảm niềm tin. Để giải quyết, cần huấn luyện mô hình AI trên dữ liệu đa dạng, sử dụng công cụ AI giải thích được (XAI) để tăng minh bạch, và thiết lập quy định pháp lý rõ ràng cùng với giám sát độc lập. Mục tiêu là không thay thế luật sư bằng AI, mà là tăng cường khả năng của họ để tập trung vào yếu tố nhân văn của luật pháp.
Tài liệu "Dự thảo mục tiêu về tiêu chuẩn hóa AI Trung Quốc" cung cấp một kế hoạch chi tiết cho việc xây dựng một hệ thống tiêu chuẩn hóa trong lĩnh vực AI tại Trung Quốc. Tài liệu này bao gồm các phần sau:
Phát Triển Công Nghiệp AI: Tài liệu mô tả AI là một công nghệ cốt lõi đang được tích hợp sâu rộng vào kinh tế, có ảnh hưởng mạnh mẽ đến cách thức sản xuất công nghiệp và mô hình phát triển kinh tế.
Yêu Cầu Tổng Thể: Đề xuất một loạt các yêu cầu tổng quát từ việc theo dõi tư tưởng lãnh đạo hiện đại của Trung Quốc cho đến mục tiêu cụ thể như phát triển 50 tiêu chuẩn quốc gia và ngành, cùng với việc tham gia xây dựng hơn 20 tiêu chuẩn quốc tế.
Hướng Xây Dựng: Tài liệu đề xuất một cấu trúc tiêu chuẩn hóa cho AI gồm 6 phần: tiêu chuẩn cơ bản, hỗ trợ cơ bản, công nghệ chủ chốt, sản phẩm và dịch vụ thông minh, tiêu chuẩn ứng dụng ngành và tiêu chuẩn an ninh/quản trị.
Các Hướng Phát Triển Chính: Chi tiết hóa các tiêu chuẩn trong từng lĩnh vực như tiêu chuẩn chung, hỗ trợ cơ bản, công nghệ chủ chốt, sản phẩm và dịch vụ thông minh, ứng dụng ngành cụ thể, và tiêu chuẩn an ninh/quản trị.
Biện Pháp Đảm Bảo: Đề cập đến các biện pháp như cải thiện cơ cấu tổ chức, xây dựng đội ngũ nhân tài, và tăng cường quảng bá và triển khai các tiêu chuẩn.
📌Dự thảo cấu trúc tiêu chuẩn hóa cho AI Trung Quốc gồm 6 phần: tiêu chuẩn cơ bản, hỗ trợ cơ bản, công nghệ chủ chốt, sản phẩm và dịch vụ thông minh, tiêu chuẩn ứng dụng ngành và tiêu chuẩn an ninh/quản trị.
Mục tiêu về tiêu chuẩn hóa AI Trung Quốc đến năm 2026:
- Tỷ lệ các dự án kế hoạch chung và phát triển ứng dụng quan trọng tạo ra kết quả tiêu chuẩn sẽ đạt trên 60%. Liên tục nâng cao mức độ liên kết giữa tiêu chuẩn và sự đổi mới kỹ thuật công nghiệp.
- Xây dựng hơn 50 tiêu chuẩn quốc gia và ngành mới, thúc đẩy hệ thống tiêu chuẩn cho sự phát triển chất lượng cao của ngành công nghiệp AI.
- Hơn 1000 doanh nghiệp sẽ thực hiện quảng bá và áp dụng các tiêu chuẩn, làm nổi bật hiệu quả của tiêu chuẩn trong việc hỗ trợ sự phát triển đổi mới của doanh nghiệp.
- Tham gia vào việc xây dựng hơn 20 tiêu chuẩn quốc tế, thúc đẩy sự phát triển toàn cầu hóa của ngành công nghiệp AI
📌 Đề xuất của Philippines về khung quy định AI cho ASEAN là một bước tiến quan trọng, phản ánh nhu cầu cấp thiết của việc quản lý công nghệ AI một cách có trách nhiệm. Với việc chủ trì ASEAN vào năm 2026, Philippines đặt ra mục tiêu thiết lập hướng dẫn đạo đức và sử dụng AI một cách an toàn, đồng thời thúc đẩy sự đổi mới và đảm bảo an ninh mạng trong khu vực. Sự khác biệt trong cách tiếp cận giữa các quốc gia ASEAN làm nổi bật tầm quan trọng của việc tìm kiếm tiếng nói chung, đặc biệt trong bối cảnh ngành BPO Philippines đang đối mặt với những thách thức lớn và cần được chuyển đổi để phù hợp với xu hướng AI mới.
📌 OpenAI đang nỗ lực đóng góp vào việc giữ gìn sự chính xác thông tin trong đợt bầu cử toàn cầu năm 2024 bằng cách triển khai bộ biện pháp bảo vệ AI mới. Các biện pháp này bao gồm hợp tác với các tổ chức tin tức để cung cấp thông tin đáng tin cậy qua ChatGPT, áp dụng thủy vân số C2PA, và phát triển công cụ phân loại nguồn gốc hình ảnh. Dù chưa thể xác định hiệu quả toàn diện, nhưng qua các bước đi này, OpenAI thể hiện rõ cam kết trong việc đối phó với thông tin giả mạo và tăng cường minh bạch trong thời đại số.
📌 Dự luật AI Labeling Act của 2023 được đưa ra nhằm đối phó với tình trạng lạm dụng AI gây ra nội dung khiêu dâm và bảo vệ người dùng, đặc biệt là trẻ em. Sự cộng tác giữa các đại biểu hai đảng tại Quốc hội Hoa Kỳ cho thấy cam kết chung trong việc bảo vệ cá nhân khỏi những mặt tối của công nghệ AI. Tuy nhiên, sự trì hoãn trong việc tiến hành các phiên điều trần cho các dự luật đề xuất đang gây ra những câu hỏi về độ nhanh chóng của quá trình hành động lập pháp. 96% nạn nhân của AI bị lạm dụng là phụ nữ và trẻ em, làm nổi bật nhu cầu cấp bách phải có quy định rõ ràng để bảo vệ các nhóm dễ bị tổn thương.
📌 OpenAI đang áp dụng nhiều biện pháp để ngăn chặn thông tin sai lệch trong bầu cử như cấm tạo chatbots giả mạo, không cho phép ứng dụng với mục đích chính trị, đánh dấu thủy vân cho hình ảnh do AI tạo ra và hợp tác với CanIVote.org. Tuy nhiên, vấn đề không chỉ nằm ở việc triển khai các biện pháp này mà còn ở việc đảm bảo rằng chúng được thực hiện hiệu quả và không để sót thông tin. Đồng thời, sự tồn tại của nhiều công ty công nghệ khác không áp dụng các biện pháp tương tự cũng làm tăng nguy cơ thông tin sai lệch lan truyền. Cần có sự hợp tác rộng rãi giữa các công ty công nghệ và chính phủ để tạo ra một hệ thống giám sát hiệu quả, bảo vệ quá trình bầu cử khỏi tác động tiêu cực của AI tạo sinh.
📌 Trong năm 2024, chúng ta có thể mong đợi những bước tiến đáng kể trong quy định AI toàn cầu. Hoa Kỳ sẽ mở rộng chính sách AI với việc thực thi lệnh hành pháp của Tổng thống Biden và có thể sẽ cân nhắc thêm luật mới. EU sẽ chứng kiến sự thực thi của Đạo luật AI với các tiêu chuẩn mới cho các công ty AI, trong khi Trung Quốc cũng có thể sẽ tiếp tục hành trình hợp nhất quy định AI của mình. Các công ty AI sẽ phải đối mặt với yêu cầu minh bạch và trách nhiệm cao hơn, cũng như chuẩn bị cho các tiêu chuẩn và quy định mới trong khi các quốc gia tiếp tục định hình hệ thống pháp lý quản lý công nghệ AI tiên tiến.
📌 Trong năm 2023, đã diễn ra một sự gia tăng đáng kể trong việc đề xuất và thông qua các dự luật liên quan đến AI ở Mỹ, với ít nhất 25 tiểu bang cùng Puerto Rico và Quận Columbia tham gia. Các biện pháp này nhằm mục đích thiết lập các tiêu chuẩn và quy trình đảm bảo rằng AI được triển khai một cách công bằng và không gây ra phân biệt đối xử hoặc tác động tiêu cực. Điều này cho thấy một sự nhận thức rõ ràng về tầm quan trọng của việc quản lý công nghệ AI, cũng như nhu cầu phát triển các chính sách có thông tin và có trách nhiệm để hướng dẫn sự phát triển của nó. Tính đến 12/1/2024, 18 tiểu bang và Puerto Rico đã thông qua các luật hoặc nghị quyết cụ thể, phản ánh xu hướng chung về việc tăng cường quản lý AI trên toàn quốc.
📌 Bài viết từ Diễn đàn kinh tế thế giới về rủi ro pháp lý liên quan đến AI tạo sinh đòi hỏi sự chú ý và hành động cấp bách từ các Giám đốc pháp lý (CLO). Trách nhiệm bao gồm việc đảm bảo tuân thủ quyền sở hữu trí tuệ, quản lý dữ liệu đào tạo AI cẩn thận, và nắm vững quy định pháp luật đang thay đổi. Để doanh nghiệp không chỉ tồn tại nhưng còn phát triển bền vững trong thời đại số, Giám đốc pháp lý cần phải xây dựng chính sách rõ ràng và quy trình quản lý AI tạo sinh một cách minh bạch và có trách nhiệm.
Bộ trưởng Công nghiệp và Khoa học Úc Ed Husic cho biết chính phủ sẽ ban hành luật để kiểm soát việc sử dụng trí tuệ nhân tạo (AI) trong các lĩnh vực có rủi ro cao như thực thi pháp luật, tuyển dụng và chăm sóc sức khỏe.
Một cơ quan tư vấn mới sẽ hợp tác với chính phủ, doanh nghiệp và học giả để xây dựng khung pháp lý tốt nhất, xác định công nghệ và ứng dụng AI nào là rủi ro cao.
Các lĩnh vực ưu tiên là những nơi ảnh hưởng đến sự an toàn của con người, tương lai nghề nghiệp, pháp luật.
Mục tiêu là đảm bảo AI hoạt động đúng mục đích và con người tin tưởng vào công nghệ.
Úc sẽ không cấm hoàn toàn một số ứng dụng AI như EU, nhưng sẽ cân nhắc nếu các biện pháp của EU phù hợp.
Cơ quan tư vấn sẽ xem xét các biện pháp an toàn pháp lý cần thiết, dưới dạng một Đạo luật AI riêng biệt hay sửa đổi luật hiện hành.
Mục tiêu là thúc đẩy đổi mới sáng tạo đồng thời bảo vệ xã hội khỏi các tác hại tiềm tàng của AI.
📌 Mustafa Suleyman, đồng sáng lập DeepMind, nhấn mạnh tầm quan trọng của việc quản lý AI theo một chế độ cấp phép tương tự như các phương pháp điều trị y khoa như vaccine và thuốc chữa ung thư. Ông cảnh báo về tốc độ phát triển nhanh chóng của AI và các khả năng mới xuất hiện mỗi tuần, đồng thời chỉ ra rằng việc triển khai không kiểm soát có thể dẫn đến những hậu quả không lường trước được. Trong cuốn sách "The Coming Wave", Suleyman đề xuất một cách tiếp cận thận trọng hơn trong việc triển khai AI, với việc chính phủ cần có sự chấp thuận trước khi các công nghệ này được đưa vào sử dụng rộng rãi.
📌 Sự phát triển mạnh mẽ của AI đã trở thành chủ đề chính trong các diễn đàn quốc tế năm 2023, như Diễn đàn kinh tế thế giới (WEF), với việc thiết lập các sáng kiến và tiêu chuẩn quốc tế. Điều này nhằm đảm bảo sử dụng AI an toàn và bảo mật trong bối cảnh nhiều lo ngại về việc lạm dụng công nghệ, mất việc làm và rối loạn kinh tế. Đáng chú ý là sự nhấn mạnh về việc phát triển AI một cách có trách nhiệm và đạo đức, cũng như sự cần thiết của việc hợp tác giữa khu vực công và tư nhằm tạo ra chính sách và pháp luật hợp lý. Liên minh AIGA, dưới sự dẫn dắt của WEF, đã và đang tiên phong trong việc tạo dựng tiêu chuẩn cho việc sử dụng AI một cách an toàn và có trách nhiệm trên toàn cầu.
📌 Trong bối cảnh 25% công ty luật ở Vương quốc Anh đã áp dụng AI và gần 50% đang khám phá các cơ hội tích hợp, việc thận trọng vẫn được ưu tiên. Với 10% bày tỏ sự do dự, ngành luật thể hiện sự cân nhắc sâu sắc về rủi ro từ sai sót trong ra quyết định đến bảo mật dữ liệu. Các giải pháp được tùy chỉnh để đáp ứng nhu cầu đặc thù, và mối quan hệ chiến lược với các tổ chức phần mềm chuyên biệt cho ngành luật đảm bảo an toàn và tuân thủ pháp lý khi triển khai công cụ AI.
📌 Trong cuộc đua giành ưu thế AI, các nước phải cân nhắc giữa đổi mới công nghệ và quản lý rủi ro. EU và Trung Quốc đang dẫn đầu trong việc thiết lập quy định, trong khi Mỹ tiếp tục đổi mới công nghệ. Để thách thức Trung Quốc, phương Tây cần đầu tư vào hệ thống AI tiên tiến, thúc đẩy quy định chặt chẽ và minh bạch, đồng thời chứng minh khả năng tích cực của AI đối với thế giới.
📌 Khảo sát của Forrester Consulting chỉ ra lo ngại về rủi ro liên quan đến AI tạo sinh và rào cản áp dụng công nghệ này. Các trở ngại trong việc áp dụng bao gồm vi phạm luật bảo vệ dữ liệu (31%) và thách thức phát triển kỹ năng và quản lý (31%). Hơn 50% nhấn mạnh rủi ro từ định kiến và "ảo giác" ảnh hưởng đến chất lượng output của AI tạo sinh. Vấn đề cơ sở hạ tầng dữ liệu không đủ mạnh là một rào cản lớn, với 35% người tham gia khảo sát chỉ ra điểm yếu này. Các thách thức khác bao gồm tích hợp với cơ sở hạ tầng hiện tại và giới hạn tính toán. Đầu tư vào cơ sở hạ tầng dữ liệu và phát triển kỹ năng là chìa khóa để giải quyết những rào cản này, nhằm khai thác đầy đủ tiềm năng của công nghệ có khả năng tăng cường lợi nhuận doanh nghiệp.
- California đối mặt với thâm hụt ngân sách lên đến 68 tỷ đô la, đòi hỏi phải có những biện pháp sáng tạo để giải quyết.
- Trong bối cảnh năm bầu cử, các nhà lập pháp cần giành lại niềm tin của cử tri khi đưa ra quyết định cắt giảm ngân sách và chính sách tài chính.
- California, trung tâm công nghệ AI hàng đầu, đang cần các quy định để quản lý AI, đặc biệt về quyền riêng tư, phân biệt đối xử, an ninh việc làm và thông tin sai lệch.
- Dự luật của Bauer-Kahan nhằm cấm các hệ thống AI phân biệt đối xử và yêu cầu công ty đánh giá thuật toán để tiết lộ rủi ro về phân biệt.
- Kalra đề xuất hạn chế việc sử dụng AI để sao chép công việc của nghệ sĩ mà không cần sự đồng ý của họ.
- Wiener chuẩn bị giới thiệu luật toàn diện để thiết lập khung an toàn cho công nghệ AI, bao gồm các vấn đề từ vũ khí sinh học AI cho đến chiến dịch thông tin sai lệch.
📌 Trong khi California đối diện với cuộc khủng hoảng ngân sách, nhà lập pháp còn tập trung vào việc thiết lập quy định AI trong một năm bầu cử đầy thách thức. Với thâm hụt 68 tỷ đô la và nhu cầu quản lý AI ngày càng cao, quyết sách của họ sẽ định hình tài chính và tương lai công nghệ của tiểu bang. Các nhà lập pháp cần đối mặt với những vấn đề này một cách cẩn trọng và tầm nhìn để phục vụ tốt nhất cho người dân California.
📌 Sự phát triển của AI đang định hình lại cuộc cạnh tranh công nghệ toàn cầu, với Mỹ và Trung Quốc dẫn đầu và nhiều quốc gia khác không muốn bị tụt hậu. Mỹ và Trung Quốc đã hứa đầu tư 40-50 tỷ đô la cho AI. Các quốc gia khác không muốn bị bỏ lại phía sau hoặc phụ thuộc vào công nghệ nước ngoài mà họ không kiểm soát được. 5 quốc gia khác, gồm Anh, Pháp, Đức, Ấn Độ, Saudi Arabia và Các Tiểu Vương Quốc Ả Rập Thống nhất (UAE), đã hứa hỗ trợ AI với tổng số tiền khoảng 40 tỷ đô la. Mặc dù có những lo ngại về việc sử dụng AI, nhưng tiềm năng của nó trong việc thay đổi nhiều lĩnh vực, từ y tế đến ngân hàng, đang được công nhận rộng rãi. Sự hỗ trợ từ các chính phủ cho thấy sự cam kết mạnh mẽ đối với AI, mặc dù phương pháp tiếp cận và mức độ can thiệp của nhà nước có thể khác nhau
📌 AI đang trở thành một vấn đề lớn trong xã hội hiện đại, với nhiều quan điểm và hướng phát triển khác nhau. Sự kiện gần đây tại OpenAI chỉ ra sự không chắc chắn và khác biệt trong cách tiếp cận AI. Các nhà lập pháp đã giới thiệu 191 dự luật liên quan đến AI trong năm nay, tăng 440% so với năm 2022.
Một số đề xuất quy định mới từ các chính trị gia nhưng cũng có quan ngại về việc kiểm soát quy định.
Có lo ngại rằng quy định quá mức có thể làm giảm sự đổi mới và tạo lợi thế cho các công ty lớn.
Tuy nhiên, cũng có ý kiến cho rằng chúng ta không nên quá tin tưởng vào một công ty hoặc cá nhân nào trong lĩnh vực AI.
- Trí tuệ nhân tạo tạo sinh (Generative AI) đang ngày càng chiếm ưu thế tại Nhật Bản, thúc đẩy sự chuyển mình mạnh mẽ trong chiến lược chuyển đổi số.
- Các doanh nghiệp Nhật Bản, ban đầu e ngại, nay đã nhanh chóng áp dụng Generative AI để nâng cao hiệu quả và tạo ra giá trị.
- Trong lĩnh vực công, Yokosuka tiên phong, đã chứng minh hiệu quả cải thiện và đổi mới chính sách thông qua việc sử dụng ChatGPT trong quản trị.
- Generative AI đã được hơn 20,000 nhân viên tại NEC sử dụng, giảm đáng kể thời gian chuẩn bị tài liệu và tăng cường an ninh mạng qua phân tích mối đe dọa.
- NEC kỳ vọng đạt 50 tỷ yên (khoảng 355 triệu đô la) doanh thu từ mảng kinh doanh Generative AI trong vòng ba năm.
- Thành phố Yokosuka đã tiến hành thử nghiệm ChatGPT trong hoạt động hành chính, với 80% quan chức thừa nhận sự cải thiện về hiệu quả.
- ChatGPT được sử dụng để xử lý khoảng 20 triệu ký tự mỗi tháng ở Yokosuka, cải thiện không chỉ hiệu quả công việc mà còn trong việc đưa ra chính sách đổi mới.
📌 Sự tăng trưởng của AI tạo sinh tại Nhật Bản đã mở ra cánh cửa mới cho các doanh nghiệp và cơ quan chính phủ trong việc chuyển đổi số. Thành phố Yokosuka đã tiến hành thử nghiệm ChatGPT trong hoạt động hành chính, với 80% quan chức thừa nhận sự cải thiện về hiệu quả. ChatGPT được sử dụng để xử lý khoảng 20 triệu ký tự mỗi tháng ở Yokosuka. Rõ ràng AI tạo sinh không chỉ cải thiện hiệu quả làm việc mà còn tạo ra cơ hội mới cho việc tạo ra giá trị. Khả năng này được kỳ vọng sẽ thay đổi cảnh quan công nghệ của Nhật Bản trong nhiều năm tới.
📌 Trong bối cảnh "Năm của AI tạo sinh" kết thúc, các tổ chức đang đối mặt với thách thức về việc cấp phép công cụ AI tạo sinh từ bên thứ ba. Với hơn 50% tổ chức đang thử nghiệm hoặc sử dụng AI tạo sinh, việc quản lý rủi ro liên quan đến quyền dữ liệu, vi phạm quyền sở hữu trí tuệ, và tuân thủ quy định về quyền riêng tư là quan trọng. Các vụ kiện và thảo luận quy định hiện tại đề xuất các thực tiễn tốt nhất như hiểu rõ mục đích sử dụng, tiến hành kiểm toán kỹ lưỡng và xác định rõ ràng trách nhiệm và trách nhiệm pháp lý trong hợp đồng.
- AI phụ thuộc vào cơ sở hạ tầng điện toán đám mây để hoạt động. Theo Tạp chí Wall Street, điều này khiến chi phí đám mây do AI tạo ra khó kiểm soát và không lường trước được.
- Giá cả cơ sở hạ tầng đám mây đang tăng lên. Giá dịch vụ lưu trữ đám mây như AWS tăng khoảng 38% so với năm ngoái. Giá các ứng dụng đám mây SaaS cũng tăng 8-12%.
- Dịch vụ đám mây chiếm trung bình 68% ngân sách CNTT của các công ty. Các hóa đơn cơ sở hạ tầng dưới dạng dịch vụ hay IaaS thường khó kiểm soát, dễ vượt ngân sách.
- 61% công ty đã vượt chi ngân sách đám mây so với dự kiến ban đầu. Con số trung bình vượt chi là 33%.
- AI, đặc biệt là AI tạo sinh (Generative AI), đang đẩy thêm một lớp nợ kỹ thuật mới cho doanh nghiệp do đòi hỏi về tài nguyên tính toán cao.
☑️ Chi phí đám mây ẩn do sử dụng AI ngày càng cao có thể dẫn đến nguy cơ phá sản đổi mới sáng tạo công nghệ nếu các công ty không chuẩn bị ngân sách cẩn thận. 61% công ty đã vượt chi ngân sách đám mây so với dự kiến ban đầu. Con số trung bình vượt chi là 33% do giá dịch vụ lưu trữ đám mây như AWS tăng khoảng 38% so với năm ngoái. Giá các ứng dụng đám mây SaaS cũng tăng 8-12%.
📌 Narrow AI mang lại cơ hội đổi mới lớn cho nhiều ngành công nghiệp, từ y tế đến sản xuất và tài chính, bằng cách tối ưu hóa quy trình và tăng hiệu quả. Doanh nghiệp cần chú ý đến những cơ hội và thách thức từ công nghệ này để tận dụng tối đa lợi ích và đối mặt với rủi ro.
Chính phủ Trung Quốc đang siết chặt kiểm soát internet, gọi là "tường lửa vĩ đại", để đối phó với kỷ nguyên trí tuệ nhân tạo (AI).
Mục tiêu là thúc đẩy đổi mới sáng tạo để phát triển kinh tế nhưng vẫn kiểm soát được các công nghệ tiềm ẩn gây mất ổn định chính trị.
Trung Quốc áp dụng các quy định rất nghiêm ngặt đối với AI tiêu dùng, yêu cầu đăng ký và kiểm duyệt mọi nội dung. Tuy nhiên, lại khuyến khích áp dụng AI vào lĩnh vực doanh nghiệp.
Tháng 7/2023, chính phủ ban hành quy định yêu cầu mọi nội dung AI phải "thể hiện giá trị xã hội chủ nghĩa". Tháng 9 đăng ký 110 dịch vụ AI tiêu dùng.
Chính phủ Trung Quốc đầu tư mạnh mẽ vào AI doanh nghiệp. Thành phố Thâm Quyến thành lập quỹ đầu tư 100 tỷ nhân dân tệ vào AI, lớn nhất thế giới.
Chính phủ khuyến khích các công ty chia sẻ dữ liệu, thiết lập các sàn giao dịch dữ liệu do nhà nước dẫn dắt. Hiện có khoảng 50 sàn như vậy.
Chiến lược này giúp Trung Quốc phát triển AI trong doanh nghiệp mà không lo ngại về nội dung gây mất ổn định. Nhưng việc kiểm soát quá chặt chẽ cũng có thể cản trở đổi mới sáng tạo.
✂️ Trung Quốc đang cố gắng cân bằng giữa khuyến khích đổi mới sáng tạo AI và kiểm soát chặt chẽ công nghệ để duy trì sự ổn định về chính trị. Chính phủ Trung Quốc áp dụng các quy định rất nghiêm ngặt đối với AI tiêu dùng, yêu cầu đăng ký và kiểm duyệt mọi nội dung nhưng đầu tư mạnh mẽ vào AI doanh nghiệp. Thành phố Thâm Quyến thành lập quỹ đầu tư 100 tỷ nhân dân tệ vào AI, lớn nhất thế giới. Khuyến khích các công ty chia sẻ dữ liệu, thiết lập các sàn giao dịch dữ liệu do nhà nước dẫn dắt. Hiện có khoảng 50 sàn như vậy.
📌 Dự luật "AI Foundation Model Transparency Act" sẽ yêu cầu sự minh bạch trong việc tiết lộ dữ liệu đào tạo có bản quyền, đảm bảo rằng các mô hình AI được đào tạo một cách công bằng và tuân thủ quy định, tạo ra một tiêu chuẩn mới cho ngành công nghệ AI trong việc xử lý dữ liệu. Luật mới về AI: Các yêu cầu báo cáo và tiêu chuẩn cho mô hình AI trong tương lai.
📌 Dự luật được soạn thảo bởi ChatGPT ở Brazil đã mở ra một cuộc thảo luận về tiềm năng và rủi ro của việc sử dụng AI trong quá trình lập pháp. Mặc dù ChatGPT có thể tăng cường hiệu suất và sáng tạo trong việc soạn thảo các văn bản pháp lý, các vấn đề về định kiến, thiết kế lỗi, và hạn chế về thông tin cập nhật đặt ra những thách thức lớn. Sự cần thiết của con người trong việc giám sát và cân nhắc các quyết định dựa trên AI vẫn là cực kỳ quan trọng.
📌 Tổng thư ký Hội đồng Ngân khố Anita Anand đã trình bày cam kết của chính phủ liên bang trong việc đối phó với những lo ngại về AI trong tuyển dụng và thúc đẩy bình đẳng. Kế hoạch cải tiến công nghệ cũ và việc áp dụng Dự luật C-27 là những bước tiến quan trọng để xây dựng lòng tin của công dân vào chính phủ, đồng thời duy trì sự cân bằng giữa sự tiến bộ công nghệ và sự tiếp xúc trực tiếp với con người trong dịch vụ công.
📌 Trung Quốc tiếp cận AI một cách thực dụng, tập trung vào các ứng dụng cụ thể và quản lý rủi ro, trái ngược với quan điểm "doomerism AI" phổ biến ở phương Tây. Việc tập trung vào các vấn đề cấp bách hơn thay vì lo lắng về những kịch bản tận thế AI giúp Trung Quốc tăng cường sức cạnh tranh quốc gia và thể hiện rõ ràng trong chính sách và quản lý rủi ro AI của họ.
📌 Trong bối cảnh AI ngày càng trở nên giống con người, việc quản lý và phát triển nó theo hướng đảm bảo lợi ích cộng đồng trở nên quan trọng hơn bao giờ hết. Các chuyên gia và nhà lập pháp nhấn mạnh tầm quan trọng của việc mở rộng quyền truy cập vào AI, cũng như cần thiết phải tạo ra một mô hình quản lý mới cho AI, tránh xa mô hình tập trung lợi nhuận của Big Tech. Nỗ lực hiện tại nhằm đầu tư vào nghiên cứu và hỗ trợ các tổ chức nhỏ và startup trong lĩnh vực AI là bước đi cần thiết để đảm bảo một tương lai công bằng và sáng tạo, nơi AI phục vụ cho lợi ích của toàn xã hội chứ không chỉ một nhóm người.
Snapdragon Spaces
AI trong tin tức
AI Tools & Apps Spotlight
Hướng dẫn & mẹo: Bard vs ChatGPT
📌 Trong tuần này, vấn đề nổi bật nhất là về sự an toàn và đạo đức trong việc sử dụng dữ liệu để đào tạo mô hình AI, cũng như sự cần thiết của việc kiểm soát và bảo vệ dữ liệu. Sự việc LAION-5B là một lời nhắc nhở về trách nhiệm của các công ty công nghệ trong việc đảm bảo an toàn và tính đạo đức của dữ liệu mà họ sử dụng.
Nhân viên Bộ An ninh Nội địa Mỹ bày tỏ sự quan tâm tới việc sử dụng công cụ AI tạo sinh công cộng như ChatGPT.
Bộ đã ban hành hướng dẫn sử dụng công cụ AI công cộng và cho phép sử dụng có điều kiện các hệ thống như ChatGPT.
Nhân viên phải xin phép cấp trên và tham gia khóa đào tạo AI sinh tạo của Bộ trước khi được sử dụng.
Bộ đang xây dựng mối quan hệ với các công ty AI như Anthropic và OpenAI để đảm bảo sử dụng đúng chính sách.
Bộ cũng có kế hoạch thí điểm AI tạo sinh riêng và sẽ công bố trong thời gian tới.
Các cơ quan liên bang đang tăng tốc triển khai AI tạo sinh sau sắc lệnh AI mới.
Bộ An ninh Nội địa Mỹ đang thúc đẩy ứng dụng AI tạo sinh trong khi xây dựng chính sách quản lý sử dụng.
📌 Bài viết từ DataScienceCentral.com trình bày một cái nhìn sâu sắc về khả năng "nhốt" trí tuệ nhân tạo và thách thức liên quan đến việc giới hạn sự phát triển của AI, trong khi nhấn mạnh tới sự đa dạng và khả năng thích ứng của trí tuệ trong mọi hình thức.
📌 Bài báo nhấn mạnh tầm quan trọng của việc quản lý AI trên phạm vi toàn cầu, đề xuất cần có khung pháp lý chung và vai trò của các tổ chức quốc tế trong việc thiết lập nguyên tắc quản lý AI, nhằm bảo vệ quyền riêng tư, giảm thiểu định kiến và tăng cường an ninh mạng.
Bài viết từ Cryptopolitan mô tả công việc của Nhóm An toàn OpenAI, nhấn mạnh nỗ lực của họ trong việc đảm bảo an toàn và đạo đức trong phát triển AI, cũng như ứng phó với các thách thức như quyền riêng tư, an ninh mạng và đầu độc dữ liệu.
Bài viết từ MarketWatch phân tích rủi ro tiềm ẩn của AI, nhấn mạnh việc cần thiết lập chuẩn mực đạo đức và quy định, cũng như giáo dục và hợp tác quốc tế để đảm bảo AI mang lại lợi ích mà không gây hậu quả tiêu cực.
Báo cáo được đề cập trong bài báo của VentureBeat nhấn mạnh tầm quan trọng của việc quản lý chất lượng và an toàn trong phát triển công cụ AI, đồng thời chỉ ra những hạn chế hiện tại trong việc giám sát và sửa chữa lỗi AI.
Kết luận: AI đang đóng một vai trò quan trọng trong các chiến dịch bầu cử tổng thống năm 2024, từ việc phân tích dữ liệu đến sản xuất nội dung. Tuy nhiên, nguy cơ từ deepfakes và việc thiếu quy định về AI đặt ra các thách thức đối với tính xác thực của thông tin trong mùa bầu cử. Các chuyên gia kêu gọi cần có giải pháp để kiểm soát nội dung AI tạo ra, trong bối cảnh các công ty công nghệ đang giảm bớt nhân viên chống tin giả.
Bài viết trên Cryptopolitan tiết lộ vai trò của RAND Corporation trong việc định hình chính sách AI của chính phủ Mỹ dưới thời Tổng thống Biden. RAND đã đóng góp quan trọng trong việc soạn thảo sắc lệnh của Tổng thống về AI, đặc biệt là yêu cầu báo cáo đối với các hệ thống AI tiên tiến, nhằm giảm thiểu các rủi ro tiềm ẩn. Sự ảnh hưởng của Open Philanthropy, đặc biệt qua việc tài trợ hơn 15 triệu đô la trong năm, và sự tham gia của các nhân vật nổi bật trong phong trào từ thiện hiệu quả tại RAND, đã làm dấy lên mối lo ngại về sự thiên vị trong quá trình phát triển chính sách. Mặc dù RAND khẳng định sự tham gia của họ phản ánh sứ mệnh cung cấp chuyên môn cho người hoạch định chính sách, nhưng vẫn có những lo lắng về ảnh hưởng của Open Philanthropy và phong trào từ thiện hiệu quả. Trong khi AI ngày càng tiến bộ và đóng vai trò quan trọng trong xã hội, sự minh bạch và khách quan là cần thiết để đảm bảo phát triển công nghệ này một cách có trách nhiệm.
Andrew Ng đã nhận định vị thế dẫn đầu của Ấn Độ trong ngành AI tạo sinh dựa trên tỷ lệ thâm nhập kỹ năng AI và sự quan tâm mạnh mẽ từ cộng đồng. Với 20,000 trong số 90,000 người đăng ký khóa học AI tạo sinh tại Coursera chỉ trong tháng đầu tiên đến từ Ấn Độ, cùng với đánh giá cao từ báo cáo của Đại học Stanford, tương lai của AI tại Ấn Độ đang được đánh giá rất tích cực.
- Bài viết trên OpenGov Asia đề cập đến kế hoạch của Indonesia trong việc phát triển trí tuệ nhân tạo (AI) một cách có trách nhiệm.
- Chính phủ Indonesia đã công bố một "Lộ trình AI" nhằm hướng dẫn sự phát triển của AI trong nước một cách bền vững và có trách nhiệm.
- Lộ trình này tập trung vào việc tạo ra một môi trường hỗ trợ cho các doanh nghiệp và cơ sở nghiên cứu để phát triển AI.
- Mục tiêu chính là đảm bảo rằng AI được phát triển một cách an toàn, đạo đức, và bảo vệ quyền lợi của người dùng.
- Các nguyên tắc đạo đức AI được nhấn mạnh trong lộ trình, như minh bạch, công bằng, và không phân biệt đối xử.
- Chính phủ Indonesia kỳ vọng rằng lộ trình này sẽ thúc đẩy sự đổi mới và giúp Indonesia trở thành một trung tâm AI trong khu vực.
- Lộ trình cũng bao gồm các chính sách hỗ trợ phát triển kỹ năng và năng lực AI cho công dân.
Kết luận: Lộ trình AI của Indonesia nhằm thiết lập một hướng đi bền vững và có trách nhiệm cho sự phát triển của AI trong nước. Bằng cách tập trung vào các nguyên tắc đạo đức và minh bạch, lộ trình này không chỉ hỗ trợ sự đổi mới mà còn đảm bảo sự phát triển công bằng và an toàn của công nghệ AI, hướng tới mục tiêu biến Indonesia thành một trung tâm AI khu vực.
Lộ trình AI của Indonesia và ảnh hưởng đến phát triển công nghệ trong khu vực.
Chính sách đạo đức AI của Indonesia: Minh bạch và công bằng.
Indonesia định hình tương lai công nghệ AI ở Đông Nam Á.
Tìm hiểu về Lộ trình AI của Indonesia - Định hình tương lai công nghệ.
"Sóng AI, Lộ trình AI Indonesia, Phát triển công nghệ, Đạo đức AI, Minh bạch, Công bằng, Phân biệt đối xử, Đổi mới công nghệ, Trung tâm AI khu vực, Phát triển kỹ năng AI."
Indonesia và Đường lối Phát triển AI: Tiến tới một Tương lai Minh bạch và Công bằng.
- Các công ty AI tạo sinh như OpenAI và Anthropic đã phát hành các mô hình ngôn ngữ lớn (LLM) như GPT-3 (175 tỷ tham số) và LLaMA (540 tỷ tham số) trực tiếp ra công chúng mà chưa qua kiểm thử chi tiết.
- Đây được coi là thử nghiệm sử dụng cộng đồng mạng với hàng tỷ người dùng để phát hiện lỗi, thay vì kiểm thử hàng nghìn giờ như truyền thống.
- Có lo ngại về khả năng lạm dụng và thiếu chính xác do LLM thiếu hướng dẫn đạo đức và kiểm soát chất lượng. Các LLM có thể thiên vị dựa trên dữ liệu huấn luyện.
- 60% dữ liệu huấn luyện GPT-3 và 67% LLaMA đến từ CommonCrawl - dữ liệu web thiếu kiểm soát chất lượng. Trách nhiệm nằm ở nhà phát triển khi lựa chọn dữ liệu.
- Điều khoản dịch vụ của LLM không đảm bảo độ chính xác, không chịu trách nhiệm pháp lý và dựa vào sự cân nhắc của người dùng.
- Chưa rõ ràng về trách nhiệm pháp lý khi lỗi xảy ra - nhà cung cấp LLM, hay người dùng?
- Người sáng tạo nội dung nên có quyền từ chối LLM sử dụng dữ liệu của họ mà không xin phép.
- Luật hiện hành về bản quyền và quyền riêng tư dữ liệu chưa theo kịp tác động của LLM. Đã có các vụ kiện xảy ra.
Kết luận:
- Cần sớm có các quy định và kiểm soát chặt chẽ hơn đối với LLM, tránh lạm dụng và đảm bảo sử dụng đạo đức. Các công ty công nghệ cần cân nhắc kỹ trước khi phát hành công nghệ mới có thể gây hậu quả nghiêm trọng.
- Chính phủ Scotland không được mời tham dự hội nghị AI do Westminster tổ chức, dù Scotland được công nhận là người dẫn đầu trong lĩnh vực AI.
- Scotland đã phát triển Chiến lược AI của mình từ tháng 3/2021, với mục tiêu trở thành trung tâm hàng đầu về phát triển và ứng dụng AI.
- Hội nghị AI tại Westminster thu hút sự chú ý quốc tế với sự tham gia của các nhà lãnh đạo thế giới và chuyên gia từ nhiều lĩnh vực.
- Sự vắng mặt của Scotland gây ngạc nhiên và đặt ra nhiều câu hỏi về lí do tại sao họ lại bị loại trừ khỏi sự kiện quan trọng này.
- Bộ Trưởng đổi mới Scotland tỏ ra ngạc nhiên và chỉ trích quyết định này, nhấn mạnh vai trò và đóng góp của Scotland trong an toàn AI.
- Downing Street phủ nhận việc loại trừ Scotland ra khỏi hội nghị và khẳng định hội nghị vẫn thu hút được sự tham gia đa dạng.
- Sự loại trừ này đã nhận được phản ứng và chỉ trích từ nhiều phía, đòi hỏi sự minh bạch về cách chọn lựa người tham gia hội nghị.
Kết luận: Sự loại trừ Chính phủ Scotland khỏi hội nghị AI của Westminster gây ra tranh cãi lớn, đặc biệt khi Scotland được biết đến là người tiên phong trong lĩnh vực AI. Các câu hỏi quanh quyết định này vẫn chưa có lời giải đáp, trong khi Downing Street phủ nhận mọi sự loại trừ. Sự kiện này làm nổi bật tầm quan trọng của việc hợp tác và tính bao trùm trong các cuộc thảo luận về tương lai của AI.
- Israel Tech Guard là một tổ chức phi lợi nhuận với hơn 200 tình nguyện viên từ cộng đồng công nghệ Israel, thành lập ngày 7 tháng 10.
- Được sáng lập bởi Mor Ram-On, Ron Balter, và Lior Mizrahi. Mục tiêu là gây quỹ 2 triệu USD để phát triển nhanh các sáng kiến bảo vệ quốc gia.
- Các dự án bao gồm Blood Donation Bot, Rehab Track, Guardian X, Last Seen, Drone Finder, và Social Watchdog sử dụng AI tạo sinh và máy học.
- Helpy Bot hỗ trợ kết nối tình nguyện viên với người cần giúp đỡ thông qua bot WhatsApp.
- Quỹ sẽ được dùng để trả lương quản lý, dịch vụ SaaS, không gian văn phòng, và thiết bị cho lab prototyping nhanh.
Kết luận: Israel Tech Guard là minh chứng cho sự đóng góp không ngừng của cộng đồng công nghệ Israel trong việc bảo vệ và phục vụ xã hội. Với việc phát triển nhanh các giải pháp công nghệ từ AI tạo sinh đến máy học, tổ chức này đang nỗ lực gây quỹ 2 triệu USD để mở rộng và tối ưu hóa hoạt động của mình.
Tìm hiểu về Israel Tech Guard: Sáng kiến công nghệ bảo vệ người dân Israel
Israel Tech Guard, AI tạo sinh, giải pháp công nghệ, tình nguyện viên công nghệ, gây quỹ công nghệ bảo vệ
Israel Tech Guard và Sứ Mệnh Bảo Vệ Công Dân Israel Bằng Công Nghệ Tiên Tiến
- Rajeev Chandrasekhar, Bộ trưởng Liên bang Ấn Độ về Điện tử & CNTT, nhấn mạnh AI sẽ phát triển mạnh mẽ và đóng vai trò quan trọng trong nền kinh tế số nhanh chóng của Ấn Độ.
- Chính phủ sẽ tài trợ xây dựng mô hình cơ sở, Mô hình Ngôn ngữ Lớn (LLMs), và hỗ trợ khởi nghiệp thông qua các chương trình tương tự như mô hình bán dẫn.
- Ấn Độ đang xây dựng hệ sinh thái nghiên cứu bao gồm học thuật, công nghiệp và khởi nghiệp, được gọi là Trung tâm Đổi mới và Nghiên cứu.
- Khó khăn hiện tại là thiếu hụt chip, nhưng dự kiến sẽ được giải quyết nhanh chóng. Trọng tâm hiện nay là phát triển tài năng trong ngành, cần các nhà nghiên cứu sau tiến sĩ, tiến sĩ và thạc sĩ.
- Bộ trưởng cũng đề cập đến sự cần thiết của một khung làm việc toàn cầu, không chỉ riêng của Mỹ hay châu Âu, để đối phó với các vấn đề liên quan đến internet như deepfakes và thông tin sai lệch.
Kết luận: Bộ trưởng Rajeev Chandrasekhar đề xuất sự cần thiết của một khung làm việc toàn cầu cho AI, nhấn mạnh vai trò của AI trong kinh tế số Ấn Độ, và tầm quan trọng của việc xây dựng tài năng để phát triển ngành công nghiệp chip và AI. Chính phủ Ấn Độ sẽ đầu tư vào các mô hình AI và hỗ trợ cho khởi nghiệp, đồng thời giải quyết vấn đề thiếu hụt chip và đối phó với các thách thức do internet mang lại.
- EU AI Act nhận phản ứng trái chiều từ ngành công nghệ khi có thể hạn chế cạnh tranh.
- Quy định phân loại ứng dụng AI thành 4 mức rủi ro, áp đặt quy tắc nghiêm ngặt cho AI rủi ro cao và cấm đoán.
- Macron của Pháp lo ngại quá trình quản lý quá mức sẽ ảnh hưởng đến việc sáng tạo, chỉ ra sự chênh lệch giữa Châu Âu với Trung Quốc và Mỹ.
- Quy định về AI tạo sinh và nguồn mở khiến các công ty lo ngại việc phải công bố mô hình kinh doanh, tạo cơ hội cho đối thủ sao chép.
- Mức phạt vi phạm quy định lên tới €35 triệu hoặc 7% doanh thu toàn cầu.
- GESAC ủng hộ quy định bản quyền, trong khi ngành công nghiệp bảo mật lo ngại về các tiêu chuẩn vẫn đang được phát triển.
- Bầu cử Nghị viện Châu Âu năm 2024 có thể thay đổi quy định về AI, trong đó có AI tạo sinh và nguồn mở.
Kết luận: EU AI Act, dù được đánh giá là bước tiến lịch sử, lại đang gây ra mối lo ngại lớn cho ngành công nghiệp công nghệ cao, với nguy cơ hạn chế sự đổi mới và cạnh tranh. Với mức phạt cao và quy định nghiêm ngặt, đặc biệt đối với AI tạo sinh và nguồn mở, nhiều tổ chức cảnh báo về nguy cơ làm chậm tiến trình sáng tạo và phát triển của các doanh nghiệp Châu Âu.