Thiết kế dành cho con người: Vì sao việc áp dụng AI của hầu hết các doanh nghiệp đều thất bại

Thứ tư - 03/09/2025 07:35
Credit: electravk / Jupiter Images / Getty Images
Credit: electravk / Jupiter Images / Getty Images

Designing for humans: Why most enterprise adoptions of AI fail

Jul 25, 2025

Theo: https://www.cio.com/article/4028051/designing-for-humans-why-most-enterprise-adoptions-of-ai-fail.html

Bài được đưa lên Internet ngày: 25/07/2025

AI sẽ không thể cứu doanh nghiệp của bạn nếu không ai tin tưởng nó. Hãy bỏ qua những lời quảng cáo thổi phồng, chấn chỉnh văn hóa và ngừng bóp nghẹt sự đổi mới bằng thủ tục hành chính rườm rà.

Xây dựng công nghệ luôn là một ngành kinh doanh đầy rẫy những rắc rối. Chúng ta liên tục được nghe những câu chuyện về thất bại của dự án, lãng phí tiền bạc và thậm chí là sự biến mất của cả một ngành công nghiệp. Có thể nói rằng chúng ta còn nhiều việc phải làm với tư cách là một ngành công nghiệp. Việc bổ sung AI vào hỗn hợp này cũng giống như đổ thêm dầu vào lửa — có nguy cơ thực sự là chúng ta có thể thiêu rụi doanh nghiệp của mình.

Về bản chất, con người xây dựng công nghệ vì con người. Thật không may, chúng ta lại để những trào lưu và xu hướng công nghệ dẫn dắt mình đi chệch hướng. Tôi đã cung cấp các sản phẩm AI trong hơn một thập kỷ — tại Workhuman và trước đó là trong lĩnh vực dịch vụ tài chính. Trong bài viết này, tôi sẽ chia sẻ với bạn những bài học kinh nghiệm quý báu mà tôi đã tích lũy được trong suốt hành trình của mình. Tôi đã đưa ra năm nguyên tắc để giúp những người ra quyết định — một số mang tính kỹ thuật, phần lớn liên quan đến con người, nỗi sợ hãi của họ và cách họ làm việc.

5 nguyên tắc để giúp những người ra quyết định

Con đường dẫn đến sự xuất sắc nằm ở lộ trình trưởng thành sau: Niềm tin → Đổi mới theo liên đoàn → Nhiệm vụ cụ thể → Thước đo triển khai → Xây dựng cho sự thay đổi.

1. Niềm tin hơn hiệu suất

Các công ty có rất nhiều cách khác nhau để đo lường thành công khi triển khai các giải pháp mới. Hiệu suất, chi phí và bảo mật đều là những yếu tố cần được đo lường. Chúng ta hiếm khi đo lường niềm tin. Thật không may, niềm tin của người dùng vào hệ thống lại là yếu tố chính quyết định sự thành công của các chương trình AI. Một giải pháp hộp đen tuyệt vời sẽ chết yểu ngay khi ra đời nếu không ai tin tưởng vào kết quả.

Tôi đã từng vận hành một hệ thống dự đoán AI cho ngành tài chính tiêu dùng tại Hoa Kỳ tại một ngân hàng hàng đầu thế giới. Chi phí lưu trữ của chúng tôi rất lớn. Mô hình thẻ tín dụng của chúng tôi, vốn tạo ra 5 TB dữ liệu mỗi ngày, càng làm tình hình thêm tồi tệ. Để giảm thiểu vấn đề này, chúng tôi đã tìm ra một giải pháp thay thế, xử lý trước kết quả bằng mô hình hộp đen. Giải pháp này sử dụng ít hơn 95% dung lượng lưu trữ (với mức giảm chi phí tương ứng). Khi tôi trình bày ý tưởng này với các bên liên quan cấp cao trong doanh nghiệp, họ đã ngay lập tức bác bỏ. Các cơ quan quản lý sẽ không tin tưởng một hệ thống mà họ không thể giải thích đầy đủ kết quả đầu ra. Nếu họ không thể thấy rõ từng bước tính toán được thực hiện như thế nào, họ không thể tin tưởng vào kết quả.

Một khuyến nghị ở đây là soạn thảo một chính sách đạo đức rõ ràng. Cần có một cơ chế công khai và minh bạch để nhân viên và người dùng gửi phản hồi về kết quả AI. Nếu không có cơ chế này, người dùng có thể cảm thấy họ không thể hiểu được cách thức tạo ra kết quả. Nếu họ không có tiếng nói trong việc thay đổi những kết quả đầu ra "sai", thì bất kỳ sự chuyển đổi nào cũng khó có thể giành được trái tim và khối óc cần thiết trong toàn bộ tổ chức.

2. Đổi mới theo liên đoàn thay vì kiểm soát tập trung

AI có tiềm năng mang lại sự đổi mới với tốc độ chưa từng có trước đây. Nó giúp giảm chi phí thử nghiệm và hoạt động như một công cụ tạo ra ý tưởng - một nơi để lắng nghe những phương pháp tiếp cận mới. Nó cho phép mọi người tạo ra nhiều giải pháp chỉ trong vài phút. Một cách tuyệt vời để làm chậm mọi sự đổi mới là đưa nó qua một cơ chế phê duyệt/ủy ban/cơ chế trung ương nào đó. Bộ máy quan liêu là nơi những ý tưởng chết yểu.

Nhà triết học đoạt giải Nobel F. A. Hayek đã từng nói: "Có những cấu trúc có trật tự là sản phẩm của hành động của nhiều người nhưng không phải là kết quả của thiết kế của con người." Ông phản đối mô hình kế hoạch hóa tập trung, nơi một cá nhân chịu trách nhiệm về kết quả. Thay vào đó, ông ủng hộ “trật tự tự phát”, nơi các hệ thống xuất hiện từ các hành động cá nhân mà không có sự kiểm soát tập trung. Ông lập luận đây chính là nơi các đổi mới như ngôn ngữ, luật pháp và thị trường kinh tế xuất hiện.

Con đường giữa kiểm soát và hỗn loạn rất khó điều hướng. Các công ty cần tìm cách “giữ chặt con chim đổi mới trong tay”. Giữ quá chặt – chim sẽ chết; giữ quá lỏng – chim sẽ bay đi. Đáng tiếc là nhiều công ty giữ quá chặt. Họ làm điều này bằng cách dựa dẫm quá nhiều vào cấu trúc chỉ huy và kiểm soát – đặc biệt là các nhóm như pháp lý, an ninh và mua sắm. Tôi đã chứng kiến họ đè bẹp các dự án AI đầy triển vọng chỉ bằng một tuyên bố đơn lẻ, né tránh rủi ro. Đối với những cá nhân sáng tạo đang đổi mới ở giai đoạn đầu, ngay cả viễn cảnh phải trình bày ý tưởng của mình trước một ủy ban cũng có thể gây ra tác động tiêu cực. Việc không làm gì và tránh xa “bàn tay quan liêu” còn dễ dàng hơn. Điều này giết chết con chim – và giết chết tinh thần đổi mới tinh tế.

AI có thể thúc đẩy năng lực đổi mới cho mỗi cá nhân. Vì lý do này, chúng ta phải thống nhất đổi mới trong toàn công ty. Chúng ta cần khuyến khích các giám đốc điều hành cấp cao nhất nêu rõ nhu cầu rủi ro trong thế giới AI và giải thích những rào cản. Sau đó, hãy để các nhóm thử nghiệm mà không bị cản trở bởi bộ máy quan liêu. Các chức năng trung tâm chuyển từ người gác cổng sang người quản trị, chỉ thực thi những điều khoản không thể thương lượng. Điều này cho phép chúng ta gieo mầm trong toàn bộ tổ chức và thu hoạch những lợi nhuận tốt nhất vì lợi ích của tất cả mọi người.

3. Nhiệm vụ cụ thể hơn công việc trừu tượng

Herbert Simon, người tiên phong trong lĩnh vực AI thời kỳ đầu, là cha đẻ của khoa học hành vi, người từng đoạt giải Nobel và Turing. Ông cũng là người phát minh ra ý tưởng về tính duy lý bị giới hạn. Ý tưởng này giải thích rằng con người chấp nhận mức "đủ tốt" khi các lựa chọn vượt quá một con số nhất định. AI tạo sinh cũng áp dụng cách tiếp cận này (có thể vì nó được đào tạo dựa trên dữ liệu của con người, nên nó mô phỏng hành vi của con người). AI tạo sinh là ngẫu nhiên - mỗi lần chúng ta đưa ra cùng một dữ liệu đầu vào, chúng ta lại nhận được một kết quả đầu ra khác nhau - một câu trả lời "đủ tốt". Điều này rất khác so với mô hình cổ điển mà chúng ta vẫn quen thuộc - với cùng một dữ liệu đầu vào, chúng ta lại nhận được cùng một kết quả đầu ra mỗi lần.

Mô hình ngẫu nhiên này, với kết quả không thể đoán trước, khiến việc mô hình hóa các trường hợp sử dụng từ trên xuống càng trở nên khó khăn hơn. Theo kinh nghiệm của tôi, các dự án chỉ thành công khi chúng tôi ngồi lại với người dùng và thực sự hiểu cách họ làm việc. Trong giai đoạn đầu phát triển trợ lý AI Workhuman, các yêu cầu chung chung ở cấp độ cao đã mang lại cho chúng tôi những hành vi rất kỳ lạ và không thể đoán trước. Chúng tôi cần viết lại các trường hợp sử dụng thành các yêu cầu chi tiết hơn, ở mức độ thấp, với sự hiểu biết sâu sắc về hành vi và dung sai được tích hợp sẵn. Chúng tôi cũng ghi lại mọi tương tác và sử dụng thông tin này để tinh chỉnh hành vi của mô hình. Trong thế giới này, thiết kế giải pháp cấp cao nói chung chỉ là phỏng đoán.

Lãnh đạo ở mọi cấp độ nên đi sâu hơn vào chi tiết về cách thức thực hiện công việc. Những tuyên bố chung chung từ trên xuống là không thể chấp nhận được. Thay vào đó, các nhóm phải xác định các trường hợp sử dụng cực kỳ cụ thể và thiết kế các khoảng tin cậy (ví dụ: "90% mã do AI tạo ra phải vượt qua các bài kiểm tra đơn vị trong lần chạy đầu tiên"). Trong thế giới của Trí tuệ nhân tạo, sự rõ ràng luôn quan trọng hơn sự trừu tượng.

4. Áp dụng hơn là triển khai

Mua một công cụ thì dễ; thay đổi hành vi mới là điều tàn khốc. Một chỉ thị từ trên xuống có thể giúp mọi người thực hiện bước đầu tiên. Nhưng việc đo lường mức độ áp dụng là cách sai lầm để thúc đẩy thay đổi – thay vào đó, nó chỉ mang lại "sự áp dụng" được đánh dấu sẵn nhưng việc sử dụng lại hời hợt, nửa vời.

Các giám đốc điều hành cũng là nạn nhân của những mốt nhất thời và mốt nhất thời như bất kỳ người nghiện mua sắm trực tuyến nào (một khi bạn thay thế các phương pháp quản lý, công nghệ mới mẻ và FOMO bằng những phong cách mới nhất từ Paris). Và không cần đến trí tuệ nhân tạo tổng quát để nhận ra rằng xu hướng AI đang rất hot! Các giám đốc điều hành cần kể một câu chuyện về AI và chứng minh những lợi ích, vì họ đang chịu áp lực từ các cổ đông, nhà đầu tư và thị trường nói chung. Thông qua mạng lưới của tôi tại IASA, tôi đã thấy điều này trong các sắc lệnh đo lường "việc áp dụng AI". Thật không may, cho đến nay, điều này đã mang lại các kết quả rất trái chiều.

Bản chất con người ghét sự thay đổi. Một nhà quản lý giỏi có vô số mối quan tâm cạnh tranh, bao gồm điều hành một nhóm, giải quyết các thách thức kinh doanh, tuyển dụng và giữ chân nhân tài, v.v. Khi một chương trình mới để áp dụng chiến lược AI được đưa ra từ các giám đốc điều hành, nhà quản lý - những người đang cố gắng bảo vệ nhóm của mình, đáp ứng nhu cầu của doanh nghiệp và duy trì hoạt động - thường sẽ thỏa hiệp bằng cách áp dụng các công cụ, nhưng không triệt để triển khai nó.

Tại Workhuman, chúng tôi nhận thấy rằng việc đo lường việc áp dụng (và không chỉ đối với AI) không phải là cách đúng đắn để bắt đầu một quá trình chuyển đổi. Nó đo lường sự khởi đầu của cuộc đua, nhưng hoàn toàn bỏ qua bục vinh quang. Thay vì những thước đo phù phiếm, khi đo lường thành công, chúng ta đo lường các thước đo kết quả (ví dụ: quy trình làm việc thay đổi, các bước thủ công bị loại bỏ và các động lực kinh doanh bị ảnh hưởng). Bằng cách đo lường việc triển khai và tác động, chúng ta tránh được cái bẫy "đánh dấu vào ô" mà rất nhiều công ty mắc phải.

Với hơn một thập kỷ kinh nghiệm trong lĩnh vực AI, chúng tôi cũng hiểu rằng việc chuyển đổi AI là một phần của hệ thống hỗ trợ lớn hơn, bao gồm đào tạo, công cụ và cộng đồng nội bộ hỗ trợ lẫn nhau. Chúng tôi đã hợp tác với một trường đại học Ireland để triển khai các chương trình cấp bằng về AI nội bộ và cung cấp công cụ AI cho tất cả nhân viên, bất kể vai trò của họ. Chúng tôi cũng đã thúc đẩy các cộng đồng nội bộ ở mọi cấp độ để giúp thúc đẩy sự hiểu biết. Điều này đã giúp ích cho chúng tôi khi cung cấp các giải pháp AI, cả nội bộ lẫn bên ngoài, thể hiện qua việc ra mắt Trợ lý AI của chúng tôi, một giải pháp AI mang tính chuyển đổi dành cho cộng đồng nhân sự.

5. Thay đổi lựa chọn

Bối cảnh AI thay đổi hàng tháng, với dòng chảy liên tục của các mô hình và nhà cung cấp mới bị cuốn vào một cuộc đua không ngừng. Một lựa chọn ràng buộc bạn vào một ngăn xếp công nghệ duy nhất có thể khiến công ty của bạn giống như một cỗ xe ngựa đang lạch cạch chạy qua trung tâm của một thành phố hiện đại trong tương lai gần.

Khi chúng tôi bắt đầu xem xét các mô hình cho trợ lý AI mới của mình, chúng tôi đã gặp phải một số thách thức. Trước hết, mỗi mô hình có thể làm gì? Có rất ít điểm chuẩn hữu ích, và những điểm chuẩn hiện có cung cấp rất ít thông tin chi tiết về năng lực kinh doanh. Chúng tôi cũng gặp khó khăn trong việc đo lường mức độ tương quan giữa các điểm mạnh khác nhau với điểm yếu của các mô hình khác và ngược lại.

Cuối cùng, chúng tôi đã thống nhất về một nguyên tắc kiến trúc cốt lõi — mọi thứ chúng tôi thiết kế đều phải có khả năng hoán đổi. Cụ thể, chúng tôi phải có khả năng thay đổi các mô hình nền tảng cốt lõi làm nền tảng cho giải pháp. Điều này cho phép chúng tôi liên tục điều chỉnh trong năm qua. Chúng tôi kiểm tra từng mô hình mới sau khi phát hành và tìm ra cách sử dụng tốt nhất để mang lại trải nghiệm tuyệt vời cho khách hàng.

Do các mô hình đang thay đổi rất nhanh, các nhà lãnh đạo phải có khả năng hoán đổi các mô hình AI như một nguyên tắc cốt lõi. Các công ty nên trừu tượng hóa các lệnh gọi mô hình sau một lớp mỏng, trong khi các lời nhắc về phiên bản và các công cụ đánh giá giúp các mô hình mới có thể được đưa vào sử dụng chỉ sau một đêm. Khả năng hoán đổi ngựa giữa chừng có thể là lợi thế cạnh tranh cần thiết để giành chiến thắng trên thị trường ngày nay.

AI dành cho các nhà lãnh đạo

Lựa chọn công nghệ là lựa chọn của lãnh đạo. Ai quyết định tự động hóa cái gì? Những ranh giới đạo đức nào là bất di bất dịch? Làm thế nào để chúng ta bảo vệ mọi người làm việc với chúng ta? Việc áp dụng AI là một thách thức lãnh đạo không thể giao phó cho các nhà tư vấn hoặc cá nhân đóng góp. Cách chúng ta triển khai AI ngay bây giờ sẽ quyết định thành công và thất bại trong tương lai của thế giới kinh doanh. Đó là một thách thức phải được thúc đẩy bởi sự lãnh đạo chu đáo. Mỗi nhà lãnh đạo đều phải tìm hiểu sâu sắc về bối cảnh AI và tìm ra cách tốt nhất để hỗ trợ đội ngũ của mình xây dựng các công ty của tương lai.

Bài viết này được thực hiện nhờ sự hợp tác của chúng tôi với Diễn đàn Kiến trúc sư Trưởng IASA. Mục đích của CAF là kiểm tra, thử thách và hỗ trợ nghệ thuật và khoa học của Kiến trúc Công nghệ Kinh doanh và sự phát triển của nó theo thời gian, cũng như nâng cao ảnh hưởng và vai trò lãnh đạo của các kiến trúc sư trưởng cả trong và ngoài ngành. CAF là một cộng đồng lãnh đạo của IASA, hiệp hội chuyên nghiệp phi lợi nhuận hàng đầu dành cho các kiến trúc sư công nghệ kinh doanh.

Bài viết này được xuất bản như một phần của Mạng lưới Cộng tác viên Chuyên gia Foundry.

AI won't save your business if no one trusts it. Ditch the hype, fix the culture and stop choking innovation with red tape.

Building technology has always been a messy business. We are constantly regaled with stories of project failures, wasted money and even the disappearance of whole industries. It’s safe to say that we have some work to do as an industry. Adding AI to this mix is like pouring petrol on a smouldering flame — there is a real danger that we may burn our businesses to the ground.

At its very core, people build technology for people. Unfortunately, we allow technology fads and fashions to lead us astray. I’ve shipped AI products for more than a decade — at Workhuman and earlier in financial services. In this piece, I will take you through hard-earned lessons I’ve learned through my journey. I have laid out five principles to help decision-makers — some are technical, most are about humans, their fears, and how they work.

5 principles to help decision makers

The path to excellence lies in the following maturity path: Trust → Federated innovation →  Concrete tasks → Implementation metrics → Build for change.

1. Trust over performance

Companies have a raft of different ways to measure success when implementing new solutions. Performance, cost and security are all factors that need to be measured. We rarely measure trust. Unfortunate, then, that a user’s trust in the systems is a major factor for the success of AI programs. A superb black-box solution dies on arrival if nobody believes in the results.

I once ran an AI prediction system for US consumer finance at a world-leading bank. Our storage costs were enormous. This wasn’t helped by our credit card model, which spat out 5 TB of data every single day. To mitigate this, we found an alternative solution, which pre-processed the results using a black-box model. This solution used 95% less storage (with a cost reduction to match). When I presented this idea to senior stakeholders in the business, they killed it instantly. Regulators wouldn’t trust a system where they couldn’t fully explain the outputs. If they couldn’t see how each calculation was performed every step of the way, they couldn’t trust the result.

One recommendation here is to draft a clear ethics policy. There needs to be an open and transparent mechanism for staff and users to submit feedback on AI results. Without this, users may feel they cannot understand how results are generated. If they don’t have a voice in changing ‘wrong’ outputs, then any transformation is unlikely to win the hearts and minds needed across the organisation.

2. Federated innovation over central control

AI has the potential to deliver innovation at previously unimaginable speeds. It lowers the cost of experiments and acts as an idea generator — a sounding board for novel approaches. It allows people to generate multiple solutions in minutes. A great way to slow down all innovation is to funnel it through some central body/committee/approval mechanism. Bureaucracy is where ideas go to die.

Nobel-winning philosopher F. A. Hayek once said, “There exist orderly structures which are the product of the action of many men but are not the result of human design.” He argued against central planning, where an individual is accountable for outcomes. Instead, he favoured “spontaneous order,” where systems emerge from individual actions with no central control. This, he argues, is where innovations such as language, the law and economic markets emerge.

The path between control and anarchy is difficult to navigate. Companies need to find a way to “hold the bird of innovation in their hand”. Hold too tight — kill the bird; hold too loose — the bird flies away. Unfortunately, many companies hold too tight. They do this by relying too heavily on a command-and-control structure — particularly groups like legal, security and procurement. I’ve watched them crush promising AI pilots with a single, risk-averse pronouncement. For creative individuals innovating at the edges, even the prospect of having to present their idea to a committee can have a chilling effect. It’s easier to do nothing and stay away from the ‘large hand of bureaucracy’. This kills the bird — and kills the delicate spirit of innovation.

AI can supercharge innovation capabilities for every individual. For this reason, we must federate innovation across the company. We need to encourage the most senior executives to state in plain language what the appetite is for risk in the world of AI and to explain what the guardrails are. Then let teams experiment unencumbered by bureaucracy. Central functions shift from gatekeepers to stewards, enforcing only the non-negotiables. This allows us to plant seeds throughout the organisation, and harvest the best returns for the benefit of all.

3. Concrete tasks over abstract work

Early AI pioneer Herbert Simon is the father of behavioral science, a Nobel and Turing Prize winner. He also invented the idea of bounded rationality. This idea explains that humans settle for “good enough” when options grow beyond a certain number. Generative AI follows this approach (possibly because it is trained on human data, it mimics human behaviour). Generative AI is stochastic — every time we give the same input, we get a different output — a “good enough” answer. This is very different from the classical model we are used to — given the same input, we get the same output every time.

This stochastic model, where the result is unpredictable, makes modelling top-down use cases even more difficult. In my experience, projects only clicked once we sat with the users and really understood how they worked. Early in our development of the Workhuman AI assistant, generic high-level requirements gave us very odd behaviors and was unpredictable. We needed to rewrite the use cases as more detailed, low-level requirements, with a thorough understanding of the behaviour and tolerances built in. We also logged every interaction and used this to refine the model behaviour. In this world, general high-level solution design is guesswork.

Leaders at all levels should get closer to the details of how work is done. Top-down general pronouncements are off the table. Instead, teams must define ultra-specific use cases and design confidence intervals (e.g., “90 % of AI-produced code must pass unit tests on first run”). In the world of Generative AI, clarity beats abstraction every time.

4. Adoption over implementation

Buying a tool is easy; changing behaviour is brutal. A top-down edict can help people take the first step. But measuring adoption is the wrong way to drive change – instead, it gives box-ticked “adoption” but shallow, half-implemented usage.

Executives are every bit as much the victims of fads and fashions as any online shopping addict (once you substitute management methods, sparkling new technologies and FOMO for the latest styles from Paris). And it doesn’t take artificial general intelligence to notice that the trend for AI is hot, hot, hot! Executives need to tell an AI story and show benefits, as they are under pressure from shareholders, investors and the market at large. Through my network in IASA, I have broadly seen this result in edicts to measure “AI adoption”. Unfortunately, this has had very mixed results so far.

Human nature abhors change. A good manager has a myriad of competing concerns, including running a group, meeting business challenges, hiring and retaining talent and so on. When a new program to adopt an AI strategy comes down from executives, the manager — who is trying to protect their team, meet the needs of the business and keep their head above water — will often compromise by adopting the tooling, but failing to implement it thoroughly.
At Workhuman, we have found that measuring adoption (and not only for AI) is not the right way to begin a transformation. It measures the start of the race, but ignores the podium entirely. Instead of vanity metrics, when we measure success, we measure outcome metrics (e.g. changed work process, manual steps retired and business drivers impacted). By measuring implementation and impact, we avoid the ‘box-ticking’ trap that so many companies fall into.

From our decade-plus experience in AI, we have also understood that AI transformation is part of a bigger support system, including education, tooling and a supportive internal community. We partnered with an Irish university to run diploma programs in AI internally, and provide AI tooling to all staff, whatever their role. We have also fostered internal communities at all levels to help drive understanding. This has helped us as we deliver AI solutions, both internally and externally, as shown by the release of our AI Assistant, a transformational AI solution for the HR community.

5. Change over choice

The AI landscape shifts monthly, with a continual flow of new models and vendors locked in a constant race. A choice that locks you into a single technology stack could have your company resembling a horse and buggy clip-clopping through the center of a modern city in the near future.

When we began looking at models for our new AI assistant, we faced several challenges. First off, what can each model do? There were few useful benchmarks, and those that existed offered little in the way of business capability insights. We also struggled to measure how the various strengths weighed up against other models’ weaknesses and vice versa.

Eventually, we agreed on one core architectural principle — everything we design must be swappable. In particular, we must be able to change the core foundation models that underlie the solution. This has allowed us to adjust continually over the last year. We test each new model after release, and work out how each one can be best used to give a great experience to our customers.

Because models are changing so fast, leaders must have the ability to swap AI models as a core principle. Companies should abstract model calls behind a thin layer, while versioning prompts and evaluation harnesses so new models can drop in overnight. The ability to swap horses mid-race may be the competitive advantage necessary to win in a market today.

AI for leaders

Technology choices are leadership choices. Who decides what to automate? Which ethical red lines are immovable? How do we protect every human who works with us? Adopting AI is a leadership challenge that can’t be delegated to consultants or individual contributors. How we implement AI now will define the future successes and failures of the business world. It’s a challenge that must be driven by thoughtful leadership. Every leader must dive in and deeply understand the AI landscape and figure out how best to enable their teams to build the companies of tomorrow.

This article was made possible by our partnership with the IASA Chief Architect Forum. The CAF’s purpose is to test, challenge and support the art and science of Business Technology Architecture and its evolution over time as well as grow the influence and leadership of chief architects both inside and outside the profession. The CAF is a leadership community of the IASA, the leading non-profit professional association for business technology architects.

This article is published as part of the Foundry Expert Contributor Network.

Dịch: Lê Trung Nghĩa

letrungnghia.foss@gmail.com

Tác giả: Nghĩa Lê Trung

Tổng số điểm của bài viết là: 0 trong 0 đánh giá

Click để đánh giá bài viết

  Ý kiến bạn đọc

Về Blog này

Blog này được chuyển đổi từ http://blog.yahoo.com/letrungnghia trên Yahoo Blog sang sử dụng NukeViet sau khi Yahoo Blog đóng cửa tại Việt Nam ngày 17/01/2013.Kể từ ngày 07/02/2013, thông tin trên Blog được cập nhật tiếp tục trở lại với sự hỗ trợ kỹ thuật và đặt chỗ hosting của nhóm phát triển...

Bài đọc nhiều nhất trong năm
Thăm dò ý kiến

Bạn quan tâm gì nhất ở mã nguồn mở?

Thống kê truy cập
  • Đang truy cập107
  • Máy chủ tìm kiếm9
  • Khách viếng thăm98
  • Hôm nay13,110
  • Tháng hiện tại61,646
  • Tổng lượt truy cập44,156,977
Bạn đã không sử dụng Site, Bấm vào đây để duy trì trạng thái đăng nhập. Thời gian chờ: 60 giây