Khung AI mới của Vương quốc Anh (UK) đặt văn hóa lên trước mã

Thứ ba - 08/07/2025 06:36
Credit: Shutterstock
Credit: Shutterstock

UK’s new AI framework puts culture before code

Jun 5, 2025

Theo: https://www.computerworld.com/article/4002450/uks-new-ai-framework-puts-culture-before-code.html

Bài được đưa lên Internet ngày: 05/06/2025

Hướng dẫn do chính phủ Anh hậu thuẫn khuyến khích các doanh nghiệp ưu tiên sự sẵn sàng về mặt hành vi và tổ chức hơn là các giải pháp kỹ thuật khi triển khai AI tạo sinh.

Chính phủ Anh muốn các doanh nghiệp ngừng coi việc áp dụng AI là một thách thức về công nghệ và bắt đầu coi đó là vấn đề của con người. Trong nỗ lực mới nhất nhằm áp dụng AI tạo sinh có trách nhiệm, chính phủ đã đưa ra một khung tự nguyện kêu gọi các doanh nghiệp nhìn xa hơn mã và tập trung vào văn hóa, hành vi và các quyết định hàng ngày của con người.

Cốt lõi của cách tiếp cận này là hai công cụ thiết thực — “Yếu tố con người” và “Giảm thiểu rủi ro AI tiềm ẩn” — được thiết kế để giúp các tổ chức giải quyết các vấn đề thường bị che giấu dưới sự cường điệu — sự tự tin thái quá vào tự động hóa, sự phán xét của con người bị xói mòn và sự phản kháng thầm lặng từ người dùng. Chính phủ cho biết những rủi ro này cũng nguy hiểm như các mô hình có thiên vị hoặc các chatbot ảo giác.

Được xây dựng xung quanh mô hình Áp dụng, Duy trì, Tối ưu hóa - ASO (Adopt, Sustain, Optimize), hướng dẫn chuyển trọng tâm từ quy định, chẳng hạn như Đạo luật AI của EU, sang tính sẵn sàng, quản trị nội bộ và khả năng sử dụng trong thế giới thực. Hướng dẫn này hướng đến các CIO, nhà lãnh đạo kỹ thuật số và người đứng đầu bộ phận quản trị được giao nhiệm vụ mở rộng AI mà không mất đi sự giám sát của con người.

Mặc dù về mặt kỹ thuật, khung này không mang tính ràng buộc, nhưng nó không mang tính tùy chọn, và bổ sung cho Sổ tay AI dành cho Chính phủ Vương quốc Anh và Tiêu chuẩn dịch vụ của Chính phủ Vương quốc Anh. Với 34 tỷ đô la (25 tỷ bảng Anh) đã cam kết cho các trung tâm dữ liệu của Vương quốc Anh và 19 tỷ đô la khác (14 tỷ bảng Anh) nhằm thúc đẩy việc áp dụng AI trong các ngành, rõ ràng đây là một phần trong chiến lược quốc gia của Vương quốc Anh.

Prabhat Mishra, nhà phân tích tại QKS Group cho biết: "Các khung này đã tạo ra tính toàn vẹn về mặt cấu trúc cần thiết để áp dụng AI có trách nhiệm trên toàn doanh nghiệp". Mishra tuyên bố rằng các khung tự nguyện và mô hình quản trị nội bộ đang được đưa vào vận hành, không chỉ là lý thuyết.

Điều đó đã diễn ra trong chính phủ. Dịch vụ truyền thông của Vương quốc Anh đã sử dụng khung này để xây dựng và mở rộng quy mô "Assist" (Trợ giúp), một công cụ AI tạo sinh nội địa hiện đang được sử dụng trên 200 sở ban ngành và cơ quan công, với tỷ lệ áp dụng 70% và đang tăng lên. Đối với nhiều tổ chức, nghiên cứu điển hình đó có thể khiến ASO không còn giống như hướng dẫn mà giống như một sổ tay hướng dẫn hơn.

Cốt lõi lấy con người làm trung tâm của mô hình ASO

Phương pháp tiếp cận ba giai đoạn của khung — Áp dụng, Duy trì, Tối ưu hóa — giải quyết các khía cạnh con người của quá trình tích hợp AI. Trong giai đoạn Áp dụng, các tổ chức phải đối mặt trực tiếp với các rào cản áp dụng, với các giao thức cụ thể để xác định và giải quyết sự hoài nghi của nhân viên.

"Việc triển khai AI không thể chỉ tập trung vào công nghệ", khung này khẳng định. "Nó phải xem xét những người liên quan, nhu cầu của họ và các rào cản mà họ có thể gặp phải khi áp dụng và sử dụng AI một cách hiệu quả và an toàn, để đảm bảo rằng các lợi ích có thể được hiện thực hóa".

Nghiên cứu được trích dẫn trong các tài liệu cho thấy một khoảng cách đáng kể về lòng tin, với 50% người lớn ở Vương quốc Anh báo cáo không sử dụng AI hàng ngày, chỉ có 5% là người dùng thường xuyên. Mô hình này tìm cách thu hẹp khoảng cách này bằng cách làm cho AI dễ tiếp cận, không gây sợ hãi.

"Duy trì" chuyển trọng tâm sang các thách thức quản trị dài hạn, quy định các chế độ đào tạo liên tục và các cấu trúc hỗ trợ. Hướng dẫn nhấn mạnh rằng việc triển khai kỹ thuật chỉ là một thành phần. Việc áp dụng thành công đòi hỏi sự chú ý ngang nhau đến việc thích ứng hành vi và thiết kế lại quy trình.

Giai đoạn “Tối ưu hóa” cuối cùng giới thiệu các cơ chế để tinh chỉnh liên tục, bao gồm giám sát sự thiên vị và các biện pháp bảo vệ chống lại sự phụ thuộc quá mức. Bộ công cụ Giảm thiểu Rủi ro AI Ẩn trang bị cho các nhóm các công cụ như Sổ đăng ký Rủi ro Ẩn để phát hiện và giải quyết các vấn đề tinh vi, bao gồm cả các thiên vị không mong muốn len lỏi vào quá trình ra quyết định.

Mô hình ASO cũng dựa trên công trình trước đó của chính phủ, đặc biệt là báo cáo tháng 1/2025 — Hướng dẫn mới để Đánh giá Tác động của Công cụ AI — nêu ra các phương pháp đánh giá các tác động kinh tế, xã hội và môi trường rộng hơn của AI.

Xử lý các rủi ro vô hình khi áp dụng AI

Khung đưa ra lời chỉ trích nghiêm khắc về các biện pháp an toàn AI hiện tại. Báo cáo nêu rõ: “Không có phương pháp tiếp cận nào hiện có — chủ yếu là kỹ thuật — đối với an toàn AI được trang bị để xử lý những rủi ro 'ẩn' này”.

Trong khi sự lo lắng của công chúng tập trung vào những thất bại nghiêm trọng của AI — lừa đảo deepfake, thuật toán tuyển dụng thiên vị hoặc chatbot bịa đặt thông tin — thì Bộ công cụ Rủi ro Ẩn cho thấy thói quen thường ngày ở nơi làm việc thường gây ra nhiều thiệt hại hơn.

Bộ công cụ này lập bản đồ sáu loại lỗ hổng như vậy, bao gồm hành vi của người dùng, văn hóa nơi làm việc, khoảng cách trách nhiệm, và sự mệt mỏi khi ra quyết định. Đó là sự thay đổi trong tư duy từ việc xây dựng các thuật toán thông minh hơn sang thiết kế các hệ thống sử dụng an toàn hơn.

Sự thay đổi hành vi này phản ánh những thay đổi trong khu vực tư nhân. Mishra cho biết: "Khung tự nguyện của Vương quốc Anh là một bước đi chu đáo". "Các công ty như Tech Mahindra đang áp dụng các mô hình AI có Chủ quyền tôn trọng dữ liệu cục bộ, chuẩn mực văn hóa và giới hạn pháp lý — mà không ảnh hưởng đến quy mô". Những nỗ lực tương tự đang được tiến hành tại TCS với các LLM được phân định địa lý dành cho khách hàng tài chính và tại Capgemini, nơi 'AI có trách nhiệm theo thiết kế' đang được điều chỉnh để đáp ứng các yêu cầu của Đạo luật AI của EU, theo Mishra.

Nhưng khi triển khai AI tăng tốc, thì rủi ro cũng tăng theo. "Đối với các doanh nghiệp đang chạy đua để mở rộng quy mô AI, các rào cản không còn là tùy chọn nữa", Abhishek Ks Gupta, đối tác và là người đứng đầu ngành này của quốc gia tại KPMG Ấn Độ, cảnh báo. "Những gì từng là về giảm thiểu rủi ro giờ đây đã trở thành hiện thực".

Rào cản triển khai ASO

Phương pháp tiếp cận lấy con người làm trung tâm của mô hình ASO đánh dấu một bước tiến lớn trong quản trị AI, nhưng việc áp dụng trong thế giới thực phải đối mặt với những rào cản đáng kể. Các ngành công nghiệp truyền thống, như sản xuất, phải vật lộn với các cuộc kiểm toán an toàn tâm lý trong các nền văn hóa phân cấp, nơi nhân viên có thể ngần ngại chỉ trích các hệ thống AI.

Đối với các công ty đa quốc gia, khung này làm tăng thêm tính phức tạp cho bối cảnh quản lý vốn đã phân mảnh. Mishra cho biết: "Việc cân bằng các quy tắc AI theo từng quốc gia là không bền vững". "Đó là lý do tại sao các tiêu chuẩn như ISO 42001 và Nguyên tắc AI của OECD lại rất quan trọng - chúng cho phép các công ty xây dựng một nền tảng quản trị cho nhiều khu vực pháp lý". Mishra cho biết mặc dù mang tính sáng tạo, nhưng nó có nguy cơ trở thành một silo khác trừ khi phù hợp với các chuẩn mực toàn cầu. "Sự khác biệt có thể cản trở việc áp dụng quốc tế".

Tuy nhiên, khung này xuất hiện vào thời điểm quan trọng trong quá trình trưởng thành của quản trị AI. Mishra cho biết: "Chúng tôi đã vượt ra ngoài việc coi AI có trách nhiệm là một tiện ích bổ sung tùy chọn". "Các tổ chức hàng đầu hiện đang tích hợp khả năng giải thích, khả năng kiểm toán và phát hiện thiên vị ngay từ giai đoạn thiết kế ban đầu, và đây không phải là những suy nghĩ sau này mà là các yêu cầu cốt lõi".

Mishra nhấn mạnh rằng thành công của khung này phụ thuộc vào sự thống nhất toàn cầu. Với các tiêu chuẩn chung và các công cụ trực quan, ASO có thể hướng dẫn các công ty áp dụng AI một cách có trách nhiệm, không chỉ vội vàng triển khai.

Các câu trả lời thông minh của Computerworld

Học hỏi thêm

Khám phá các câu hỏi liên quan

The UK government-backed guidance urges businesses to prioritize behavioral and organizational readiness over technical fixes when deploying generative AI.

The UK government wants businesses to stop thinking of AI adoption as a tech challenge and start treating it as a people problem. In its latest push for adopting responsible generative AI, it has introduced a voluntary framework urging enterprises to look beyond code and focus on culture, behavior, and day-to-day human decisions.

At the core of this approach are two practical tools — “The People Factor” and “Mitigating Hidden AI Risks”— that are designed to help organizations tackle issues often buried under the hype — overconfidence in automation, eroded human judgment, and silent resistance from users. These risks, the government said, are just as dangerous as biased models or hallucinating chatbots.

Structured around an Adopt, Sustain, Optimize(ASO) model, the guidance shifts emphasis from regulation, such as the EU’s AI Act, to readiness, internal governance, and real-world usability. It’s aimed at CIOs, digital leaders, and governance heads tasked with scaling AI without losing sight of human oversight.

While the framework is technically non-binding, it doesn’t feel optional, and complements the AI Playbook for the UK Government and the UK Government’s Service Standard. With $34 billion (£25 billion) already committed to UK data centers and another $19 billion (£14 billion) aimed at driving AI adoption across industries, it’s clear that it’s part of the UK’s national strategy.

“These frameworks have created the structural integrity needed for responsible, enterprise-wide AI adoption,” said Prabhat Mishra, Analyst at QKS Group. Voluntary frameworks and internal governance models are being operationalized, not just theorized, stated Mishra.

That’s already playing out inside the government. The UK’s own Communication Service used the framework to build and scale “Assist,” a homegrown generative AI tool now in use across 200 departments and public bodies, with a 70% adoption rate and rising. For many organizations, that case study may make ASO feel less like guidance and more like a playbook.

The human-centric core of the ASO model

The framework’s three-phase approach — Adopt, Sustain, Optimize — addresses the human dimensions of AI integration. In the Adopt phase, organizations confront adoption barriers head-on, with specific protocols for identifying and addressing employee skepticism.

“AI implementation can’t be solely techno-centric,” asserted the framework. “It must consider the people involved, their needs, and the barriers they may experience in adopting and using AI effectively and safely, to ensure that the benefits can be realised.”

Research cited in the documents reveals a significant trust gap, with 50% of UK adults reporting no daily AI use, with only 5% being frequent users. The model seeks to bridge this gap by making AI approachable, not intimidating.

“Sustain” shifts focus to long-term governance challenges, prescribing continuous training regimens and support structures. The guidance emphasizes that technical implementation represents just one component. Successful adoption requires equal attention to behavioral adaptation and process redesign.

The final “Optimize phase introduces mechanisms for ongoing refinement, including bias monitoring and over-reliance safeguards. The Mitigating Hidden AI Risks Toolkit equips teams with tools like the Hidden Risks Register to spot and tackle subtle issues, including unintended biases that creep into decision-making.

The ASO model also builds on earlier government work, especially its January 2025 report — New Guidance for Evaluating the Impact of AI Tools which laid out methods to assess AI’s broader economic, societal, and environmental implications.

Tackling the invisible risks of AI adoption

The framework delivers a sobering critique of current AI safety measures. “None of the existing — predominantly technical — approaches to AI safety are equipped to handle these ‘hidden’ risks,’” the report stated bluntly.

While public anxiety focuses on dramatic AI failures — deepfake scams, biased hiring algorithms, or chatbots fabricating information — the Hidden Risks Toolkit reveals how mundane workplace habits often prove more damaging.

The toolkit maps six categories of such vulnerabilities, spanning user behavior, workplace culture, accountability gaps, and decision fatigue. It’s a shift in mindset from building smarter algorithms to designing safer systems of use.

This behavioral shift mirrors changes in the private sector. “The UK’s voluntary framework is a thoughtful step,” said Mishra. “Firms like Tech Mahindra are adopting Sovereign AI models that respect local data, cultural norms, and legal limits — without sacrificing scale.” Similar efforts are underway at TCS with geo-fenced LLMs for financial clients, and at Capgemini, where ‘Responsible AI by Design’ is being tailored to meet EU AI Act requirements, according to Mishra.

But as AI deployments accelerate, so do the stakes. “For enterprises racing to scale AI, guardrails are no longer optional,” warned Abhishek Ks Gupta, partner and national sector leader at KPMG India. “What was once about risk mitigation is now existential.”

ASO’s implementation barriers

The ASO model’s human-centric approach marks a major advance in AI governance, but real-world adoption faces significant hurdles. Traditional industries, like manufacturing, struggle with psychological safety audits in hierarchical cultures where employees may hesitate to critique AI systems.

For multinationals, the framework adds complexity to an already fragmented regulatory landscape. “Juggling country-specific AI rules isn’t sustainable,” Mishra said. “That’s why standards like ISO 42001 and the OECD AI Principles are critical—they let companies build one governance foundation for multiple jurisdictions.” While innovative, it risks becoming another silo unless aligned with global norms, said Mishra. “Divergence could hinder international adoption.”

However, the framework arrives at a pivotal moment in AI governance maturity. “We’ve moved beyond treating responsible AI as an optional add-on,” Mishra said. “Leading organizations now bake in explainability, audit capabilities, and bias detection from the initial design phase, and these aren’t afterthoughts but core requirements.”

Mishra stressed that the framework’s success rests on global alignment. With shared standards and intuitive tools, ASO could guide firms to embrace AI responsibly, not just rush its rollout.

Computerworld Smart Answers

Learn more

Explore related questions

Dịch: Lê Trung Nghĩa

letrungnghia.foss@gmail.com

Tác giả: Nghĩa Lê Trung

Tổng số điểm của bài viết là: 0 trong 0 đánh giá

Click để đánh giá bài viết

  Ý kiến bạn đọc

Về Blog này

Blog này được chuyển đổi từ http://blog.yahoo.com/letrungnghia trên Yahoo Blog sang sử dụng NukeViet sau khi Yahoo Blog đóng cửa tại Việt Nam ngày 17/01/2013.Kể từ ngày 07/02/2013, thông tin trên Blog được cập nhật tiếp tục trở lại với sự hỗ trợ kỹ thuật và đặt chỗ hosting của nhóm phát triển...

Bài đọc nhiều nhất trong năm
Thăm dò ý kiến

Bạn quan tâm gì nhất ở mã nguồn mở?

Thống kê truy cập
  • Đang truy cập31
  • Máy chủ tìm kiếm3
  • Khách viếng thăm28
  • Hôm nay4,950
  • Tháng hiện tại175,664
  • Tổng lượt truy cập42,701,343
Bạn đã không sử dụng Site, Bấm vào đây để duy trì trạng thái đăng nhập. Thời gian chờ: 60 giây