<!DOCTYPE html>
    <html lang="vi" xmlns="http://www.w3.org/1999/xhtml" prefix="og: http://ogp.me/ns#">
    <head>
<title>Để AI được an toàn, minh bạch, có trách nhiệm và ‘nhân tính’ hơn</title>
<meta name="description" content="Để AI được an toàn, minh bạch, có trách nhiệm và ‘nhân tính’ hơn - Savefile - Blogs -...">
<meta name="author" content="Blog FOSS by Lê Trung Nghĩa">
<meta name="copyright" content="Blog FOSS by Lê Trung Nghĩa [webmaster@vinades.vn]">
<meta name="generator" content="NukeViet v4.5">
<meta http-equiv="Content-Type" content="text/html; charset=utf-8">
<meta property="og:title" content="Để AI được an toàn, minh bạch, có trách nhiệm và ‘nhân tính’ hơn">
<meta property="og:type" content="website">
<meta property="og:description" content="Savefile - Blogs - https&#x3A;&#x002F;&#x002F;letrungnghia.mangvn.org&#x002F;savefile&#x002F;Author&#x002F;de-ai-duoc-an-toan-minh-bach-co-trach-nhiem-va-nhan-tinh-hon-7502.html">
<meta property="og:site_name" content="Blog FOSS by Lê Trung Nghĩa">
<meta property="og:url" content="https://letrungnghia.mangvn.org/savefile/Author/de-ai-duoc-an-toan-minh-bach-co-trach-nhiem-va-nhan-tinh-hon-7502.html">
<link rel="shortcut icon" href="https://letrungnghia.mangvn.org/favicon.ico">
<link rel="canonical" href="https://letrungnghia.mangvn.org/savefile/Author/de-ai-duoc-an-toan-minh-bach-co-trach-nhiem-va-nhan-tinh-hon-7502.html">
<link rel="alternate" href="https://letrungnghia.mangvn.org/rss/" title="Blogs" type="application/rss+xml">
<link rel="alternate" href="https://letrungnghia.mangvn.org/rss/Government/" title="Blogs - Government" type="application/rss+xml">
<link rel="alternate" href="https://letrungnghia.mangvn.org/rss/Policy/" title="Blogs - Policy" type="application/rss+xml">
<link rel="alternate" href="https://letrungnghia.mangvn.org/rss/Philosophy/" title="Blogs - Philosophy" type="application/rss+xml">
<link rel="alternate" href="https://letrungnghia.mangvn.org/rss/Security/" title="Blogs - Security" type="application/rss+xml">
<link rel="alternate" href="https://letrungnghia.mangvn.org/rss/Legal/" title="Blogs - Legal" type="application/rss+xml">
<link rel="alternate" href="https://letrungnghia.mangvn.org/rss/Education/" title="Blogs - Education" type="application/rss+xml">
<link rel="alternate" href="https://letrungnghia.mangvn.org/rss/Business/" title="Blogs - Business" type="application/rss+xml">
<link rel="alternate" href="https://letrungnghia.mangvn.org/rss/Community/" title="Blogs - Community" type="application/rss+xml">
<link rel="alternate" href="https://letrungnghia.mangvn.org/rss/Interoperability/" title="Blogs - Interoperability" type="application/rss+xml">
<link rel="alternate" href="https://letrungnghia.mangvn.org/rss/Standards/" title="Blogs - Standards" type="application/rss+xml">
<link rel="alternate" href="https://letrungnghia.mangvn.org/rss/Author/" title="Blogs - Author" type="application/rss+xml">
<link rel="alternate" href="https://letrungnghia.mangvn.org/rss/Opinions/" title="Blogs - Opinions" type="application/rss+xml">
<link rel="alternate" href="https://letrungnghia.mangvn.org/rss/CC/" title="Blogs - CC" type="application/rss+xml">
<link rel="alternate" href="https://letrungnghia.mangvn.org/rss/Cloud/" title="Blogs - Cloud" type="application/rss+xml">
<link rel="alternate" href="https://letrungnghia.mangvn.org/rss/Hardware/" title="Blogs - Hardware" type="application/rss+xml">
<link rel="alternate" href="https://letrungnghia.mangvn.org/rss/Software/" title="Blogs - Software" type="application/rss+xml">
<link rel="alternate" href="https://letrungnghia.mangvn.org/rss/Statistics/" title="Blogs - Statistics" type="application/rss+xml">
<link rel="alternate" href="https://letrungnghia.mangvn.org/rss/Trends/" title="Blogs - Trends" type="application/rss+xml">
<link rel="alternate" href="https://letrungnghia.mangvn.org/rss/China/" title="Blogs - China" type="application/rss+xml">
<link rel="alternate" href="https://letrungnghia.mangvn.org/rss/OSs/" title="Blogs - OSs" type="application/rss+xml">
<link rel="alternate" href="https://letrungnghia.mangvn.org/rss/Blogs/" title="Blogs - Blogs" type="application/rss+xml">
<link rel="alternate" href="https://letrungnghia.mangvn.org/rss/Outsourcing/" title="Blogs - Outsourcing" type="application/rss+xml">
<link rel="alternate" href="https://letrungnghia.mangvn.org/rss/elearning/" title="Blogs - Elearning" type="application/rss+xml">
<link rel="preload" as="style" href="https://letrungnghia.mangvn.org/assets/css/font-awesome.min.css" type="text/css">
<link rel="preload" as="style" href="https://letrungnghia.mangvn.org/themes/default/css/bootstrap.non-responsive.css" type="text/css">
<link rel="preload" as="style" href="https://letrungnghia.mangvn.org/themes/default/css/style.css" type="text/css">
<link rel="preload" as="style" href="https://letrungnghia.mangvn.org/themes/default/css/style.non-responsive.css" type="text/css">
<link rel="preload" as="style" href="https://letrungnghia.mangvn.org/themes/default/css/news.css" type="text/css">
<link rel="preload" as="style" href="https://letrungnghia.mangvn.org/themes/default/css/custom.css" type="text/css">
<link rel="preload" as="style" href="https://letrungnghia.mangvn.org/assets/css/default.vi.1106.css" type="text/css">
<link rel="preload" as="script" href="https://letrungnghia.mangvn.org/assets/js/jquery/jquery.min.js" type="text/javascript">
<link rel="preload" as="script" href="https://letrungnghia.mangvn.org/assets/js/language/vi.js" type="text/javascript">
<link rel="preload" as="script" href="https://letrungnghia.mangvn.org/assets/js/DOMPurify/purify3.js" type="text/javascript">
<link rel="preload" as="script" href="https://letrungnghia.mangvn.org/assets/js/global.js" type="text/javascript">
<link rel="preload" as="script" href="https://letrungnghia.mangvn.org/assets/js/site.js" type="text/javascript">
<link rel="preload" as="script" href="https://letrungnghia.mangvn.org/themes/default/js/news.js" type="text/javascript">
<link rel="preload" as="script" href="https://letrungnghia.mangvn.org/themes/default/js/main.js" type="text/javascript">
<link rel="preload" as="script" href="https://letrungnghia.mangvn.org/themes/default/js/custom.js" type="text/javascript">
<link rel="preload" as="script" href="https://letrungnghia.mangvn.org/themes/default/js/bootstrap.min.js" type="text/javascript">
<link rel="stylesheet" href="https://letrungnghia.mangvn.org/assets/css/font-awesome.min.css">
<link rel="stylesheet" href="https://letrungnghia.mangvn.org/themes/default/css/bootstrap.non-responsive.css">
<link rel="stylesheet" href="https://letrungnghia.mangvn.org/themes/default/css/style.css">
<link rel="stylesheet" href="https://letrungnghia.mangvn.org/themes/default/css/style.non-responsive.css">
<link rel="StyleSheet" href="https://letrungnghia.mangvn.org/themes/default/css/news.css">
<link rel="stylesheet" href="https://letrungnghia.mangvn.org/themes/default/css/custom.css">
<link rel="stylesheet" href="https://letrungnghia.mangvn.org/assets/css/default.vi.1106.css">
<style type="text/css">
	body{background: #fff;}
</style>
<script>(function(i,s,o,g,r,a,m){i['GoogleAnalyticsObject']=r;i[r]=i[r]||function(){
(i[r].q=i[r].q||[]).push(arguments)},i[r].l=1*new Date();a=s.createElement(o),
m=s.getElementsByTagName(o)[0];a.async=1;a.src=g;m.parentNode.insertBefore(a,m)
})(window,document,'script','https://www.google-analytics.com/analytics.js','ga');
ga('create', 'UA-70254229-3', '');
ga('send', 'pageview');
</script>
</head>
    <body>
<div id="print">
	<div id="hd_print">
		<h2 class="pull-left">Blog FOSS by Lê Trung Nghĩa</h2>
		<p class="pull-right"><a title="Blog FOSS by Lê Trung Nghĩa" href="https://letrungnghia.mangvn.org/">https://letrungnghia.mangvn.org</a></p>
	</div>
	<div class="clear"></div>
	<hr />
	<div id="content">
		<h1>Để AI được an toàn, minh bạch, có trách nhiệm và ‘nhân tính’ hơn</h1>
		<ul class="list-inline">
			<li>Thứ bảy - 28/09/2024 10:14</li>
			<li class="hidden-print txtrequired"><em class="fa fa-print">&nbsp;</em><a title="In ra" href="javascript:;" onclick="window.print()">In ra</a></li>
			<li class="hidden-print txtrequired"><em class="fa fa-power-off">&nbsp;</em><a title="Đóng cửa sổ này" href="javascript:;" onclick="window.close()">Đóng cửa sổ này</a></li>
		</ul>
		<div class="clear"></div>
		<div id="hometext">
		</div>
				<div class="imghome">
			<img alt="Để AI được an toàn, minh bạch, có trách nhiệm và ‘nhân tính’ hơn" src="https://letrungnghia.mangvn.org/uploads/letrungnghia/news/2024/sbc_2024_humanity_1.jpg" width="460" class="img-thumbnail" />
		</div>
		<div class="clear"></div>
		<div id="bodytext" class="clearfix">
			<p align="center" style="font-weight: normal; margin-bottom: 0.15cm">Lê Trung Nghĩa, ORCID iD: <a href="https://orcid.org/0009-0007-7683-7703">https://orcid.org/0009-0007-7683-7703</a></p>

<p align="center" style="font-weight: normal; margin-bottom: 0.15cm">Viện Nghiên cứu, Đào tạo và Phát triển Tài nguyên Giáo dục Mở - InOER (Institute for Research, Training and Development of Open Educational Resources),</p>

<p align="center" style="font-weight: normal; margin-bottom: 0.15cm">Hiệp hội các trường đại học cao đẳng Việt Nam (AVU&amp;C)</p>

<div class="image-center"><img alt="" height="35" src="https://letrungnghia.mangvn.org/uploads/letrungnghia/news/2024/cc-by-logo_5.png" width="100" /></div>

<p align="center" style="font-weight: normal; margin-bottom: 0.15cm"><span style="text-decoration: none"><b>Giấy phép </b></span><span style="text-decoration: none"><b>nội dung</b></span>: <a href="https://creativecommons.org/licenses/by/4.0/">CC BY 4.0 Quốc tế</a>.</p>

<p align="center" style="font-weight: normal; margin-bottom: 0.15cm">***</p>

<div class="image-center"><img alt="" height="900" src="https://letrungnghia.mangvn.org/uploads/letrungnghia/news/2024/dautruong_all.jpeg" width="800" /></div>

<p align="justify" style="margin-bottom: 0.15cm"><b>Tóm tắt</b>: “Không có dữ liệu, không có AI”. <span style="background: transparent">AI lấy dữ liệu làm trung tâm (Data</span><span style="background: transparent">-centric AI) với trọng tâm nhằm vào </span><span style="background: transparent">cơ sở hạ tầng dữ liệu của AI - bao gồm các tập dữ liệu</span><span style="background: transparent">, các công cụ, tiêu chuẩn, thực hành, và cộng đồng - </span><span style="background: transparent">đang ngày càng trở nên quan trọng hơn bao giờ hết đối với việc </span><span style="background: transparent">phát triển và ứng dụng AI khắp trên thế giới</span>. Tuy nhiên, hiện đang có nhiều vấn đề liên quan đến dữ liệu, cả kỹ thuật và phi kỹ thuật, cần phải được giải quyết để AI được an toàn, minh bạch, có trách nhiệm và ‘nhân tính’ hơn. Có thể tham khảo 5 khuyến nghị của Viện Dữ liệu Mở (ODI) trong việc giải quyết vấn đề này.</p>

<p align="justify" style="margin-bottom: 0.15cm"><b>Từ khóa</b>: AI, trí tuệ nhân tạo, dữ liệu, quyền, sở hữu trí tuệ</p>

<div class="image-center"><img alt="" height="600" src="https://letrungnghia.mangvn.org/uploads/letrungnghia/news/2024/28092024_all_1.png" width="800" /></div>

<p align="center" style="margin-bottom: 0.15cm">***</p>

<p align="justify" style="margin-bottom: 0.15cm">Thế giới Trí tuệ nhân tạo AI - (Artificial Intelligence) từ lâu đã có câu thần chú <span style="background: transparent">“</span><b><span style="background: transparent">Không có dữ liệu, không có AI</span></b><span style="background: transparent">”&#91;1&#93;. Với Viện Dữ liệu Mở - ODI (Open Data Institute), một tổ chức phi lợi nhuận có trụ sở tại Vương quốc Anh, cam kết thúc đẩy và cải thiện lòng tin vào dữ liệu, bao gồm cả dữ liệu mở, dữ liệu chia sẻ, và dữ liệu đóng, thì câu thần chú này tham chiếu tới </span><b><span style="background: transparent">cơ sở hạ tầng dữ liệu AI</span></b><span style="background: transparent">, bao gồm các tập dữ liệu, các công cụ, tiêu chuẩn, thực hành, và cộng đồng. </span></p>

<p align="justify" style="margin-bottom: 0.15cm"><span style="background: transparent">Trong sơ đồ trừu tượng vòng đời AI như được minh họa trên <b>Hình 1</b>, nhiều phần tập trung vào dữ liệu! Dữ liệu là nền tảng cho các mô hình AI. Dữ liệu cung cấp thông tin mà một mô hình máy học được đào tạo và học từ đó. Dữ liệu được thu thập, xử lý, giám tuyển, tổng hợp và sau đó được sử dụng trong mô hình. Dữ liệu được sử dụng để kiểm thử và kiểm chuẩn sự thành công của mô hình. Và dữ liệu được nhập vào để sử dụng sau khi mô hình đi vào hoạt động.</span></p>

<p align="justify" style="margin-bottom: 0.15cm"><span style="background: transparent">Việc xây dựng một hệ thống AI thường liên quan đến việc xác định nguồn cho lượng lớn dữ liệu và việc tạo lập các tập dữ liệu cho đào tạo, kiểm thử, thẩm định, và triển khai. </span><a href="https://gpai.ai/projects/data-governance/role-of-data-in-ai.pdf"><span style="text-decoration: none"><span style="background: transparent">Quá trình này là lặp đi lặp lại</span></span></a><span style="background: transparent"> theo đó nó có thể đòi hỏi vài vòng đào tạo, kiểm thử và đánh giá cho tới khi kết quả mong muốn đạt được và dữ liệu đóng vai trò quan trọng trong từng bước. </span></p>

<p align="justify" style="margin-bottom: 0.15cm"><span style="background: transparent">Điều này giải thích vì sao AI lấy dữ liệu làm trung tâm (Data</span><span style="background: transparent">-centric AI) với trọng tâm nhằm vào </span><span style="background: transparent">cơ sở hạ tầng dữ liệu của AI - bao gồm các tập dữ liệu</span><span style="background: transparent">, các công cụ, tiêu chuẩn, thực hành, và cộng đồng - </span><span style="background: transparent">đang ngày càng trở nên quan trọng hơn bao giờ hết đối với việc </span><span style="background: transparent">phát triển và ứng dụng AI khắp trên thế giới</span>.</p>

<p align="justify" style="margin-bottom: 0.15cm"><span style="background: transparent">Mặt khác, điều này cũng đặt ra một loạt các vấn đề cho các quốc gia/tổ chức muốn hướng đến việc ứng dụng và </span><span style="background: transparent">phát triển AI an toàn, minh bạch và </span><span style="background: transparent">có trách nhiệm hơn.</span></p>

<div class="image-center"><img alt="" height="671" src="https://letrungnghia.mangvn.org/uploads/letrungnghia/news/2024/ai-life-cycle_1.png" width="799" /></div>

<p align="center" style="margin-bottom: 0.15cm"><span style="background: transparent"><b>Hình 1</b>. <a href="https://www.sciencedirect.com/science/article/pii/S2666389922000745"><span style="text-decoration: none">Vòng đời trí tuệ nhân tạo: Từ khái niệm hóa tới sản xuất – ScienceDirect”</span></a>, với ML là viết tắt của Machine Learning - Máy học </span></p>

<p align="justify" style="margin-bottom: 0.15cm"><b><span style="background: transparent">1. M</span></b><b><span style="background: transparent">inh bạch xung quanh dữ liệu được sử dụng để đào tạo các mô hình AI</span></b><span style="font-weight: normal"><span style="background: transparent">&#91;2&#93;</span></span></p>

<p align="justify" style="margin-bottom: 0.15cm">Hầu hết các hãng AI hàng đầu đã từ chối mở ra các chi tiết về dữ liệu họ đã sử dụng để đào tạo và kiểm thử các mô hình AI. Chỉ số Minh bạch Mô hình của Quỹ Stanford (<a href="https://crfm.stanford.edu/fmti/"><span style="text-decoration: none">Stanford Foundation Model Transparency index</span></a>) đánh giá các mô hình nền tảng chủ chốt cung cấp xương sống của nhiều công cụ và dịch vụ AI, đã chứng minh rằng minh bạch liên quan đến dữ liệu được sử dụng là rất thấp so với các khía cạnh minh bạch khác. Trong <a href="https://openai.com/research/gpt-4"><span style="text-decoration: none">tài liệu được xuất bản khi khởi xướng mô hình GPT-4 của nó</span></a>, OpenAI đã nêu rằng nó sẽ không chia sẻ thông tin chi tiết về ‘việc xây dựng tập dữ liệu’ và các khía cạnh khác của sự phát triển mô hình đó vì ‘bối cảnh cạnh tranh và ý nghĩa an toàn của các mô hình phạm vi rộng’ - một quyết định đã <a href="https://www.vice.com/en/article/ak3w5a/openais-gpt-4-is-closed-source-and-shrouded-in-secrecy"><span style="text-decoration: none">bị chỉ trích dữ dội bởi một số </span></a><a href="https://www.vice.com/en/article/ak3w5a/openais-gpt-4-is-closed-source-and-shrouded-in-secrecy"><span style="text-decoration: none">nhà nghiên cứu hàng đầu</span></a>.</p>

<p align="justify" style="margin-bottom: 0.15cm"><a href="https://theodi.org/news-and-events/blog/what-do-we-mean-by-without-data-there-is-no-ai/"><span style="text-decoration: none">Dữ liệu nào được sử dụng để </span></a><a href="https://theodi.org/news-and-events/blog/what-do-we-mean-by-without-data-there-is-no-ai/"><span style="text-decoration: none">xây dựng các hệ thống AI là quan trọng</span></a>; nhưng mức độ hiểu biết của những người phát triển, triển khai và sử dụng hệ thống AI về các thành kiến, hạn chế và nghĩa vụ pháp lý liên quan đến việc sử dụng dữ liệu này cũng quan trọng không kém để đảm bảo hệ thống được triển khai một cách có trách nhiệm. Xa hơn nữa, người dùng hệ thống AI và những người bị ảnh hưởng bởi việc sử dụng chúng có nhiều khả năng tin tưởng chúng hơn nếu họ hiểu cách chúng được phát triển. Về lý thuyết, nếu hệ thống được giải thích đúng, &#039;<a href="https://pair.withgoogle.com/chapter/explainability-trust/"><span style="text-decoration: none">người dùng sẽ biết khi nào nên tin tưởng vào dự đoán của hệ thống và khi nào nên áp dụng phán đoán của riêng họ</span></a>&#039;.</p>

<p align="justify" style="margin-bottom: 0.15cm">Trong một cuộc điều tra của mình, Washington Post <a href="https://www.washingtonpost.com/technology/interactive/2023/ai-chatbot-learning/"><span style="text-decoration: none">đã kết luận rằng &#039;nhiều công ty không </span></a><a href="https://www.washingtonpost.com/technology/interactive/2023/ai-chatbot-learning/"><span style="text-decoration: none">ghi lại thành tài liệu </span></a><a href="https://www.washingtonpost.com/technology/interactive/2023/ai-chatbot-learning/"><span style="text-decoration: none">nội dung dữ liệu đào tạo của họ</span></a> - ngay cả trong nội bộ - vì sợ tìm thấy thông tin cá nhân có thể nhận dạng được và/hoặc tài liệu có bản quyền và dữ liệu khác bị lấy mà không có sự đồng ý&#039;.</p>

<p align="justify" style="margin-bottom: 0.15cm">Có <a href="https://www.techpolicy.press/laion5b-stable-diffusion-and-the-original-sin-of-generative-ai/"><span style="text-decoration: none">nhà nghiên cứu</span></a> ví điều này như &#039;điều khiển một máy bay thương mại chở đầy nhiên liệu thí điểm chưa được thử nghiệm là hành vi cẩu thả. Các quy tắc yêu cầu các hãng hàng không cho chúng ta biết những gì có trong bình nhiên liệu không cản trở sự đổi mới. Ngay cả việc triển khai các mô hình trong phạm vi công cộng mà không có sự giám sát cũng là hành vi cẩu thả&#039;.</p>

<p align="justify" style="margin-bottom: 0.15cm"><b>2. Điều chỉnh chế độ sở hữu trí tuệ để các mô hình AI được đào tạo công bằng</b><span style="font-weight: normal">&#91;3&#93;</span></p>

<p align="justify" style="margin-bottom: 0.15cm">Các công ty AI đưa ra <a href="https://www.theverge.com/2023/11/4/23946353/generative-ai-copyright-training-data-openai-microsoft-google-meta-stabilityai"><span style="text-decoration: none">các lập luận khác nhau</span></a> về lý do tại sao việc thu thập dữ liệu để đào tạo AI nên được phép. Tuy nhiên, nhiều người đã không đồng tình với việc này.</p>

<p align="justify" style="margin-bottom: 0.15cm">Một số chủ sở hữu bản quyền lớn đã đưa các công ty AI ra tòa vì cách họ đào tạo mô hình của mình, một số yêu cầu bồi thường thiệt hại tài chính đáng kể hoặc thậm chí là phá hủy chúng. Ví dụ, Getty Images kiện Stability AI vì <a href="https://www.theverge.com/2023/2/6/23587393/ai-art-copyright-lawsuit-getty-images-stable-diffusion"><span style="text-decoration: none">cáo buộc đào tạo mô hình AI của </span></a><a href="https://www.theverge.com/2023/2/6/23587393/ai-art-copyright-lawsuit-getty-images-stable-diffusion"><span style="text-decoration: none">nó</span></a><a href="https://www.theverge.com/2023/2/6/23587393/ai-art-copyright-lawsuit-getty-images-stable-diffusion"><span style="text-decoration: none"> trên hơn 12 triệu bức ảnh</span></a> mà không được phép hay đền bù. Vào tháng 7 năm 2023, tác giả Sarah Silverman đã kiện OpenAI vì sử dụng tập dữ liệu Books3 bao gồm <a href="https://www.theatlantic.com/technology/archive/2023/08/books3-ai-meta-llama-pirated-books/675063/"><span style="text-decoration: none">các tác phẩm viết của hàng nghìn tác giả</span></a>. Cùng thời điểm đó, một <a href="https://techcrunch.com/2023/07/18/thousands-of-authors-sign-letter-urging-ai-makers-to-stop-stealing-books/"><span style="text-decoration: none">bức thư</span></a> được hơn 8.000 tác giả ký tên lập luận rằng ‘hàng triệu cuốn sách, bài báo, tiểu luận và thơ có bản quyền cung cấp &#039;thức ăn&#039; cho các hệ thống AI, những bữa ăn vô tận mà không có hóa đơn thanh toán nào&quot;. Một cuộc <a href="https://authorsguild.org/news/ai-survey-90-percent-of-writers-believe-authors-should-be-compensated-for-ai-training-use/"><span style="text-decoration: none">khảo sát do Hiệp hội tác giả thực hiện</span></a> cho thấy 90% các nhà văn tin rằng họ nên được đền bù nếu tác phẩm của họ được sử dụng để đào tạo các mô hình AI.</p>

<p align="justify" style="margin-bottom: 0.15cm">Việc đào tạo các mô hình dựa trên nội dung của web đã gây ra rạn nứt ngay cả trong các cộng đồng có ý định để các tác phẩm của họ được tiêu thụ rộng rãi. Trong năm 2023, <a href="https://www.theguardian.com/technology/2023/jun/14/reddit-moderators-vow-to-continue-blackout-in-api-access-fees-row"><span style="text-decoration: none">nhiều diễn đàn lớn nhất của Reddit đã </span></a><a href="https://www.theguardian.com/technology/2023/jun/14/reddit-moderators-vow-to-continue-blackout-in-api-access-fees-row"><span style="text-decoration: none">bị</span></a><a href="https://www.theguardian.com/technology/2023/jun/14/reddit-moderators-vow-to-continue-blackout-in-api-access-fees-row"><span style="text-decoration: none"> </span></a><a href="https://www.theguardian.com/technology/2023/jun/14/reddit-moderators-vow-to-continue-blackout-in-api-access-fees-row"><span style="text-decoration: none">làm cho </span></a><a href="https://www.theguardian.com/technology/2023/jun/14/reddit-moderators-vow-to-continue-blackout-in-api-access-fees-row"><span style="text-decoration: none">&#039;tối đen&#039;</span></a> để phản đối các kế hoạch của nền tảng này nhằm cho phép các nhà phát triển AI truy cập vào khối lượng lớn các thảo luận trên diễn đàn mà họ đã đóng vai trò quan trọng trong việc tạo ra chúng. Những người đóng góp cho Stack Overflow, một diễn đàn Internet dành cho các nhà phát triển, <a href="https://www.tomshardware.com/tech-industry/artificial-intelligence/stack-overflow-bans-users-en-masse-for-rebelling-against-openai-partnership-users-banned-for-deleting-answers-to-prevent-them-being-used-to-train-chatgpt"><span style="text-decoration: none">đã bị cấm khỏi trang web này</span></a> sau khi họ xóa nội dung của mình để ngăn chặn việc sử dụng nội dung đó để đào tạo ChatGPT.”</p>

<p align="justify" style="margin-bottom: 0.15cm">Để chúng ta không bước vào &quot;mùa đông dữ liệu&quot; (Data Winter), cải cách chế độ sở hữu trí tuệ là chìa khóa để mang lại lợi ích của hệ sinh thái dữ liệu AI cho tất cả mọi người. Có <a href="https://www.programmablemutter.com/p/the-political-economy-of-ai"><span style="text-decoration: none">nhà nghiên cứu</span></a> cho rằng, &quot;nếu bạn muốn Mô hình Ngôn ngữ Lớn - LLM (Large Language Model) có giá trị lâu dài, bạn cần phải có một hệ thống xã hội đi kèm, trong đó con người tiếp tục sản xuất kiến thức, nghệ thuật và thông tin khiến chúng trở nên có giá trị. Các hệ thống sở hữu trí tuệ không có động lực để sản xuất kiến thức có giá trị của con người sẽ khiến LLM ngày càng trở nên vô giá trị theo thời gian&quot;.</p>

<p align="justify" style="margin-bottom: 0.15cm">Chúng ta thực sự cần một chế độ sở hữu trí tuệ cân bằng giữa lợi ích mà AI mang lại và lợi ích của tất cả các bên tạo ra dữ liệu để nuôi dưỡng các mô hình AI phát triển. Nội dung ngay bên dưới đây nói lên điều này.</p>

<p align="justify" style="margin-bottom: 0.15cm"><i><b>Đề xuất từ xã hội dân sự, giới công nghiệp và các tác nhân phi chính phủ khác</b></i></p>

<p align="justify" style="margin-bottom: 0.15cm">Ở một mức độ nào đó, thị trường đang bắt đầu phản ứng. Những người nắm giữ bản quyền lớn - bao gồm các hãng tin tức, hãng thu âm, hãng phim - đã có động thái thực hiện các thỏa thuận cấp phép với các công ty AI. Riêng OpenAI đã ký các thỏa thuận với <a href="https://apnews.com/article/openai-chatgpt-associated-press-ap-f86f84c5bcc2f3b98074b38521f5f75a"><span style="text-decoration: none">Associated Press</span></a>, <a href="https://investor.shutterstock.com/news-releases/news-release-details/shutterstock-expands-partnership-openai-signs-new-six-year"><span style="text-decoration: none">Shutterstock</span></a> và <a href="https://www.axelspringer.com/en/ax-press-release/axel-springer-and-openai-partner-to-deepen-beneficial-use-of-ai-in-journalism"><span style="text-decoration: none">Axel Springer</span></a>. Thỏa thuận của Google với Reddit để truy cập vào dữ liệu diễn đàn của mình <a href="https://www.reuters.com/technology/reddit-ai-content-licensing-deal-with-google-sources-say-2024-02-22/"><span style="text-decoration: none">được cho là trị giá 60 triệu đô la mỗi năm</span></a>. Các nhà phát triển mô hình KL3M đưa ra <a href="https://www.wired.com/story/proof-you-can-train-ai-without-slurping-copyrighted-content/?bxid=5cc9e2552ddf9c1a7adf371d&amp;cndid=53024033&amp;esrc=desktopInterstitial&amp;source=Email_0_EDT_WIR_NEWSLETTER_0_DAILY_ZZ&amp;utm_brand=wired&amp;utm_campaign=aud-dev&amp;utm_content=WIR_Daily_032124&amp;utm_mailing=WIR_Daily_032124&amp;utm_medium=email&amp;utm_source=nl&amp;utm_term=WIR_Daily_Active"><span style="text-decoration: none">một điểm bán hàng</span></a> để thể hiện là nó được đào tạo trên &#039;một tập dữ liệu đào tạo được giám tuyển gồm các tài liệu pháp lý, tài chính và quy định&#039;, dành cho các khách hàng &#039;không muốn bị lôi kéo vào các vụ kiện về sở hữu trí tuệ như OpenAI, Stability AI và những công ty khác đã từng bị&#039;. <a href="https://www.fairlytrained.org/"><span style="text-decoration: none">Fairly Trained</span></a> là một tổ chức phi lợi nhuận mới được thành lập để chứng nhận rằng các công ty AI đã đào tạo các mô hình của họ dựa trên nội dung được cấp phép.</p>

<p align="justify" style="margin-bottom: 0.15cm">Nhưng rốt cuộc ai sẽ hưởng lợi từ một hệ sinh thái AI phụ thuộc vào việc cấp phép tốn tiền? <a href="https://x.com/ClementDelangue/status/1762573829799354577"><span style="text-decoration: none">Đ</span></a><a href="https://x.com/ClementDelangue/status/1762573829799354577"><span style="text-decoration: none">ã </span></a><a href="https://x.com/ClementDelangue/status/1762573829799354577"><span style="text-decoration: none">có </span></a><a href="https://x.com/ClementDelangue/status/1762573829799354577"><span style="text-decoration: none">ý </span></a><a href="https://x.com/ClementDelangue/status/1762573829799354577"><span style="text-decoration: none">kiến cho</span></a><a href="https://x.com/ClementDelangue/status/1762573829799354577"><span style="text-decoration: none"> rằng</span></a> &#039;nếu chúng ta kết thúc trong một hệ thống mà bạn chỉ có thể đào tạo các mô hình AI tốt dựa trên dữ liệu được cấp phép tốn tiền, thì sẽ có nguy cơ có sự tập trung quyền lực rất lớn. Có thể không phải người dùng, nghệ sĩ hoặc người sáng tạo nội dung sẽ được hưởng lợi từ điều này mà là các công ty lớn và hãng phim Hollywood sẽ giao dịch quyền của họ và không phân phối lại&#039;. <a href="https://opensource.org/blog/why-datasets-built-on-public-domain-might-not-be-enough-for-ai"><span style="text-decoration: none">Theo Sáng kiến Nguồn Mở</span></a>, một hệ sinh thái AI phụ thuộc quá nhiều vào việc cấp phép có thể trở nên kém đa dạng và cạnh tranh hơn, vì các công ty nhỏ và các học giả không có đủ khả năng tài chính để ra tòa hoặc ký kết các thỏa thuận song phương để cấp phép cho dữ liệu.</p>

<p align="justify" style="margin-bottom: 0.15cm">Ngoài ra còn có các nỗ lực mới nhằm tạo ra các cơ chế cho những người nắm giữ quyền nhỏ hơn, cá nhân riêng lẻ kiểm soát cách sử dụng các tác phẩm của họ. Đôi khi được mô tả là &#039;các mức đồng ý cho AI&#039; hoặc &#039;dấu hiệu ưu tiên&#039;, chúng bao gồm các giao thức xuất bản web mới (ví dụ: <a href="https://www.w3.org/community/tdmrep/"><span style="text-decoration: none">Giao thức Đặt chỗ Khai thác Dữ liệu và Văn bản của W3C</span></a>), các công cụ kỹ thuật (ví dụ: <a href="https://nightshade.cs.uchicago.edu/whatis.html"><span style="text-decoration: none">Nightshade</span></a>&#91;4&#93;) và giấy phép dữ liệu (ví dụ: <a href="https://papers.ssrn.com/sol3/papers.cfm?abstract_id=4662511"><span style="text-decoration: none">Giấy phép Dữ liệu </span></a><a href="https://papers.ssrn.com/sol3/papers.cfm?abstract_id=4662511"><span style="text-decoration: none">Mở </span></a><a href="https://papers.ssrn.com/sol3/papers.cfm?abstract_id=4662511"><span style="text-decoration: none">Chung</span></a>, &#91;Open Data Commons Licences&#93;).</p>

<p align="justify" style="margin-bottom: 0.15cm"><b>3. Đảm bảo quyền của tất cả mọi người trong chuỗi cung ứng dữ liệu</b><span style="font-weight: normal">&#91;5&#93;</span></p>

<p align="justify" style="margin-bottom: 0.15cm">Có sự tham gia đáng kể của con người đằng sau dữ liệu được sử dụng để đào tạo các mô hình AI nền tảng. Con người thực hiện <a href="https://aapti.in/wp-content/uploads/2022/08/AI-Data-Labelling-Roundtable-Readback-.pdf"><span style="text-decoration: none">các nhiệm vụ mà các mô hình máy tính khó có thể sao chép</span></a>, chẳng hạn như <a href="https://cartography-of-generative-ai.net/"><span style="text-decoration: none">thu thập dữ liệu, lọc và kiểm duyệt dữ liệu và dán nhãn dữ liệu</span></a>.</p>

<p align="justify" style="margin-bottom: 0.15cm">Thị trường toàn cầu cho loại công việc dữ liệu này <a href="https://www.wired.co.uk/article/low-paid-workers-are-training-ai-models-for-tech-giants#:~:text=From%20the%20Philippines%20to%20Colombia,Facebook%2C%20Google%2C%20and%20Microsoft.&amp;text=In%202016%2C%20Oskarina%20Fuentes%20got,too%20good%20to%20be%20true"><span style="text-decoration: none">được định giá 2 tỷ đô la vào năm 2022 và dự kiến sẽ tăng lên 17 tỷ đô la vào năm 2030</span></a>. Hầu hết công việc này ở dạng &#039;nhiệm vụ nhỏ&#039;, được thực hiện ở các quốc gia có thu nhập thấp và trung bình.</p>

<p align="justify" style="margin-bottom: 0.15cm">Có một số rủi ro đối với điều kiện lao động và quyền trong chuỗi cung ứng dữ liệu này.</p>

<p align="justify" style="margin-bottom: 0.15cm">Đầu tiên, <a href="https://arxiv.org/pdf/2205.11963.pdf"><span style="text-decoration: none">những người lao động </span></a><a href="https://arxiv.org/pdf/2205.11963.pdf"><span style="text-decoration: none">làm việc với</span></a><a href="https://arxiv.org/pdf/2205.11963.pdf"><span style="text-decoration: none"> dữ liệu có thể tiếp xúc với những hình ảnh gây khó chịu và ngôn ngữ bạo lực</span></a> mà không nhận được bất kỳ cảnh báo nào, điều cho thấy <a href="https://ssir.org/articles/entry/ai-workers-mechanical-turk"><span style="text-decoration: none">AI có thể là mối đe dọa đối với người lao động làm việc với nó</span></a>.</p>

<p align="justify" style="margin-bottom: 0.15cm">Người lao động cũng có quyền được hưởng mức sống và an sinh xã hội. Tuy nhiên, một cuộc điều tra của tạp chí Time năm 2023 phát hiện ra rằng những người lao động AI ở Kenya <a href="https://time.com/6247678/openai-chatgpt-kenya-workers/"><span style="text-decoration: none">được trả lương chưa đến 2 đô la một giờ</span></a> và <a href="https://www.undp.org/india/publications/artificial-intelligence-and-potential-impacts-human-rights-india"><span style="text-decoration: none">được phân loại là nhà thầu độc lập</span></a>, không có các biện pháp bảo vệ an sinh xã hội như bảo hiểm y tế, đóng góp lương hưu và nghỉ phép có lương. Cũng có những cáo buộc về <a href="https://techcrunch.com/2022/05/10/meta-sued-in-kenya-over-claims-of-exploitation-and-union-busting/"><span style="text-decoration: none">việc phá vỡ công đoàn</span></a> và <a href="https://techcrunch.com/2022/03/30/meta-and-sama-face-legal-action-in-kenya-for-alleged-poor-work-conditions/"><span style="text-decoration: none">sa thải hàng loạt sau cuộc đình công năm 2019</span></a>. Tình trạng bấp bênh này - kết hợp với việc kiểm duyệt nội dung một cách cực đoan - đã dẫn đến <a href="https://www.theguardian.com/technology/2023/aug/02/ai-chatbot-training-human-toll-content-moderator-meta-openai"><span style="text-decoration: none">một cuộc khủng hoảng sức khỏe t</span></a><a href="https://www.theguardian.com/technology/2023/aug/02/ai-chatbot-training-human-toll-content-moderator-meta-openai"><span style="text-decoration: none">inh</span></a><a href="https://www.theguardian.com/technology/2023/aug/02/ai-chatbot-training-human-toll-content-moderator-meta-openai"><span style="text-decoration: none"> thần trong số một số nhân viên dữ liệu Kenya</span></a>. <a href="https://link.springer.com/article/10.1007/s00146-023-01824-9"><span style="text-decoration: none">Một cuộc điều tra khác về các công ty </span></a><a href="https://link.springer.com/article/10.1007/s00146-023-01824-9"><span style="text-decoration: none">làm </span></a><a href="https://link.springer.com/article/10.1007/s00146-023-01824-9"><span style="text-decoration: none">chú thích dữ liệu</span></a> đã mô tả một hệ thống mà biên lợi nhuận cao được ưu tiên hơn quyền và sự an toàn của người lao động. Các cuộc điều tra khác đã phát hiện ra rằng <a href="https://www.wired.co.uk/article/artificial-intelligence-data-labeling-children#:~:text=Researchers%20say%20they&#039;ve%20found,who%20joined%20platforms%20as%20minors."><span style="text-decoration: none">công việc dán nhãn dữ liệu được thực hiện bởi những người chưa thành niên</span></a>.</p>

<p align="justify" style="margin-bottom: 0.15cm">Những người lao động làm việc với dữ liệu có xu hướng có quyền truy cập hạn chế tới các biện pháp khắc phục và giải quyết khiếu nại hiệu quả. <a href="https://ssir.org/articles/entry/ai-workers-mechanical-turk#"><span style="text-decoration: none">Trong một số trường hợp</span></a>, các công ty vẫn ẩn danh, biến mất và xuất hiện trở lại thường xuyên, khiến việc theo dõi và ngăn chặn những kẻ xấu trở nên vô cùng khó khăn. Một báo cáo của Aapti cho UNDP <a href="https://www.undp.org/india/publications/artificial-intelligence-and-potential-impacts-human-rights-india"><span style="text-decoration: none">đã mô tả cách</span></a> người lao động có thể bị phạt và bị loại khỏi hệ thống sau khi xếp hạng thấp hơn.</p>

<p align="justify" style="margin-bottom: 0.15cm">Những rủi ro này đối với quyền lao động có liên quan đến bất kỳ tổ chức nào của các quốc gia phát triển - ví dụ như Vương quốc Anh - khi sử dụng các mô hình AI đã được đào tạo ở nơi khác. Nhưng do sự <a href="https://theodi.org/news-and-events/blog/policy-intervention-1-increase-transparency-around-the-data-used-to-train-ai-models/?utm_campaign=DCAI%202024&amp;utm_content=296487047&amp;utm_medium=social&amp;utm_source=linkedin&amp;hss_channel=lcp-2849191"><span style="text-decoration: none">thiếu minh bạch xung quanh dữ liệu được sử dụng để đào tạo nhiều mô hình AI phổ biến</span></a>, các tổ chức thậm chí có thể không nhận thức được mức độ phụ thuộc của họ vào lực lượng lao động này.</p>

<p align="justify" style="margin-bottom: 0.15cm">Theo quan điểm bảo vệ dữ liệu, các mô hình AI nền tảng có nguy cơ mở rộng <a href="https://digitalcommons.mainelaw.maine.edu/mlr/vol74/iss1/3/"><span style="text-decoration: none">k</span></a><a href="https://digitalcommons.mainelaw.maine.edu/mlr/vol74/iss1/3/"><span style="text-decoration: none">hoảng trống thực thi bảo vệ dữ liệu</span></a>, theo đó, tính nghiêm ngặt của các quy định xung quanh dữ liệu cá nhân, trên giấy tờ, không phù hợp với hoạt động của các tổ chức trong thế giới thực. Ví dụ, các mô hình AI nền tảng được đào tạo bằng cách <a href="https://snorkel.ai/foundation-models/"><span style="text-decoration: none">sử dụng lượng lớn dữ liệu được thu thập từ khắp web</span></a>, với nhiều nhà phát triển mô hình dường như nghĩ rằng bất kỳ dữ liệu công khai nào cũng là trò chơi công bằng. Kết quả là, mười hai cơ quan bảo vệ dữ liệu quốc gia, bao gồm Văn phòng Ủy viên thông tin của Vương quốc Anh, đã xuất bản <a href="https://ico.org.uk/media/about-the-ico/documents/4026232/joint-statement-data-scraping-202308.pdf"><span style="text-decoration: none">một tuyên bố chung</span></a> để làm rõ rằng việc thu thập hàng loạt thông tin cá nhân từ web để đào tạo AI có thể cấu thành hành vi vi phạm dữ liệu có thể báo cáo ở nhiều quyền tài phán.</p>

<p align="justify" style="margin-bottom: 0.15cm">Nhiều công ty hiện cũng đang thay đổi các điều khoản dịch vụ của họ để cho phép họ sử dụng dữ liệu do người dùng tạo ra để đào tạo các mô hình AI mới. Meta gần đây <a href="https://www.bbc.co.uk/news/articles/cw99n3qjeyjo"><span style="text-decoration: none">đã công bố những thay đổi đối với chính sách về quyền riêng tư của mình</span></a>, tin rằng họ có lợi ích hợp pháp để phủ nhận quyền bảo vệ dữ liệu của người dùng để phát triển &#039;công nghệ trí tuệ nhân tạo&#039;. Đã có nhà hoạt động bảo vệ dữ liệu và luật sư <a href="https://noyb.eu/en/noyb-urges-11-dpas-immediately-stop-metas-abuse-personal-data-ai"><span style="text-decoration: none">chỉ trích những thay đổi này vì sự mơ hồ của chúng</span></a> và cho biết rằng &#039;điều này rõ ràng là trái ngược với việc tuân thủ &#91;bảo vệ dữ liệu&#93;&#039;.</p>

<p align="justify" style="margin-bottom: 0.15cm">Tài liệu của ODI xuất bản năm 2024 với tiêu đề: ‘Xây dựng tương lai tốt hơn với dữ liệu và AI: sách trắng’&#91;6&#93; nêu một vài ví dụ nổi bật về việc phát triển AI vi phạm các quyền: <span style="background: transparent">Vào tháng 3/2023, cơ quan bảo vệ dữ liệu của Ý </span><a href="https://theconversation.com/chatgpt-lessons-learned-from-italys-temporary-ban-of-the-ai-chatbot-203206#:~:text=In%20March%202023%2C%20Italy%20became,data%20when%20making%20this%20decision."><span style="text-decoration: none"><span style="background: transparent">đã tạm thời đình chỉ</span></span></a><span style="background: transparent"> ChatGPT vì lo ngại về việc xử lý dữ liệu cá nhân để đào tạo hệ thống. Tại nước Mỹ, </span><a href="https://www.businessinsider.com/openai-chatgpt-generative-ai-stole-personal-data-lawsuit-children-medical-2023-6?r=US&amp;IR=T"><span style="text-decoration: none"><span style="background: transparent">một vụ kiện ở California</span></span></a><span style="background: transparent"> tuyên bố rằng các mô hình nền tảng của OpenAI đã được đào tạo bất hợp pháp về &quot;các cuộc trò chuyện riêng tư, dữ liệu y tế và thông tin về trẻ em&quot;. Hơn nữa, các nhà nghiên cứu đã chỉ ra rằng mô hình </span><span style="background: transparent">đào tạo của ChatGPT có thể khiến cho nó làm </span><a href="https://not-just-memorization.github.io/extracting-training-data-from-chatgpt.html">&quot;rò rỉ&quot; dữ </a><a href="https://not-just-memorization.github.io/extracting-training-data-from-chatgpt.html">liệu</a><span style="background: transparent">, chẳng hạn như địa chỉ thư điện tử và số điện thoại thực, bằng cách sử dụng các lời nhắc cụ thể.</span></p>

<p align="justify" style="margin-bottom: 0.15cm">Để giải quyết vấn đề dữ liệu có liên quan đến quyền riêng tư trong bối cảnh Nghị định Bảo vệ dữ liệu cá nhân của Việt Nam đã được ban hành ngày 17/04/2023 và đã có hiệu lực thi hành từ 01/07/2023, bên cạnh nhiều hoạt động khác, có thể cần xây dựng một Khung ra quyết định ẩn danh&#91;7&#93;.</p>

<p align="justify" style="margin-bottom: 0.15cm"><b>4. Đảm bảo quyền truy cập rộng tới dữ liệu để đào tạo các mô hình AI</b><span style="font-weight: normal">&#91;8&#93;</span></p>

<p align="justify" style="margin-bottom: 0.15cm">Theo truyền thống, máy học dựa vào các tập dữ liệu được tạo thủ công, thường là kịp thời để tạo ra hoặc khi khó tìm nguồn. Khi quy mô và nhu cầu về dữ liệu tăng lên, đã có sự <a href="https://www.sciencedirect.com/science/article/pii/S2666389921001847"><span style="text-decoration: none">chuyển dịch sang thu thập lượng lớn dữ liệu từ web và dựa nhiều hơn vào những người làm việc </span></a><a href="https://www.sciencedirect.com/science/article/pii/S2666389921001847"><span style="text-decoration: none">trong </span></a><a href="https://www.sciencedirect.com/science/article/pii/S2666389921001847"><span style="text-decoration: none">cộng đồng</span></a> để tinh chỉnh và nhắc. Đối với thời đại hiện tại của các mô hình nền tảng - các tập dữ liệu được thu thập từ web như CommonCrawl và LAION cùng với quyền truy cập vào dữ liệu nền tảng công khai từ Wikipedia, Reddit và StackOverflow đã đóng vai trò trung tâm. Quyền truy cập mở và rộng rãi vào dữ liệu có thể được sử dụng cho AI là điều quan trọng nhằm đảm bảo một hệ sinh thái đa dạng và cạnh tranh của các nhà phát triển AI. Một nhà nghiên cứu nhấn mạnh rằng việc bảo vệ nguồn mở là rất quan trọng đối với hệ sinh thái AI để <a href="https://govciomedia.com/dod-seeks-to-grow-partnerships-with-silicon-valley-startups/"><span style="text-decoration: none">cho phép các công ty khởi nghiệp sáng tạo tham gia thị trường</span></a>.</p>

<p align="justify" style="margin-bottom: 0.15cm">Tuy nhiên, đối với AI nền tảng, ngày càng có nhiều rào cản về quyền truy cập mở và rộng rãi tới dữ liệu công khai.</p>

<p align="justify" style="margin-bottom: 0.15cm">Việc truy cập vào các tập dữ liệu quy mô lớn đang ngày càng trở nên đắt đỏ, với <a href="https://techcrunch.com/2024/06/01/ai-training-data-has-a-price-tag-that-only-big-tech-can-afford/"><span style="text-decoration: none">chi phí dự kiến sẽ tăng vọt khi nhu cầu tiếp tục tăng</span></a>. Một phần là do tính hữu ích của các tập dữ liệu <a href="https://medium.com/@tenyks_blogger/the-unseen-cost-of-low-quality-large-datasets-cb0c32aea301"><span style="text-decoration: none">liên quan nhiều hơn đến chất lượng, thay vì số lượng/quy mô</span></a> và do đó phụ thuộc rất nhiều vào sự giám tuyển của con người. Một số nhà xuất bản web cũng bắt đầu hạn chế quyền truy cập tới dữ liệu, với <a href="https://www.businessinsider.com/new-york-times-content-removed-common-crawl-ai-training-dataset-2023-11?r=US&amp;IR=T#:~:text=Other%20content%20creators%20have%20tried,New%20Yorker%2C%20and%20The%20Atlantic."><span style="text-decoration: none">gần 14% các trang web phổ biến nhất</span></a> chặn bot của Common Crawl - thường là để <a href="https://theodi.org/news-and-events/blog/policy-intervention-2-update-our-intellectual-property-regime-to-ensure-ai-models-are-trained-fairly/"><span style="text-decoration: none">bảo vệ sở hữu trí tuệ</span></a> và có khả năng là để <a href="https://www.vox.com/technology/24086039/reddit-tumblr-wordpress-whos-selling-your-data-to-train-ai"><span style="text-decoration: none">đạt được các thỏa thuận riêng tư sinh lợi</span></a> trực tiếp với các công ty AI. Việc đóng dữ liệu này có lợi cho các tổ chức lớn <a href="https://opensource.org/blog/why-datasets-built-on-public-domain-might-not-be-enough-for-ai"><span style="text-decoration: none">vốn đã có kho dữ liệu, có đủ khả năng tài chính để ra tòa và có thể tham gia vào các thỏa thuận song phương để cấp phép dữ liệu</span></a>. Các đối thủ cạnh tranh nhỏ và học giả không thể tiếp cận các chiến lược này. Do đó, làn sóng Mô hình Ngôn ngữ Lớn - LLM (Large Language Models) tiếp theo có nguy cơ được các công ty tư nhân xây dựng dựa trên các tập dữ liệu đóng. Ngoài ra, việc theo dõi hiệu suất của các mô hình nền tảng vẫn còn nhiều thách thức do <a href="https://www.nature.com/articles/s41597-023-02460-0"><span style="text-decoration: none">thiếu dữ liệu và chuẩn mực có thể truy cập công khai</span></a>.</p>

<p align="justify" style="margin-bottom: 0.15cm">Các tổ chức nguồn mở có vai trò quan trọng trong việc hỗ trợ hệ sinh thái chống lại việc đóng lại dữ liệu. Ví dụ, Clement Delangue, CEO của Hugging Face, <a href="https://www.technologyreview.com/2023/08/17/1077498/future-open-source/#:~:text=Free%20and%20open%20software%20have,make%20them%20healthy%2C%20equitable%20enterprises"><span style="text-decoration: none">đã làm chứng trước Quốc hội </span></a><a href="https://www.technologyreview.com/2023/08/17/1077498/future-open-source/#:~:text=Free%20and%20open%20software%20have,make%20them%20healthy%2C%20equitable%20enterprises"><span style="text-decoration: none">Mỹ</span></a> về nhu cầu &quot;tính mở về mặt đạo đức&quot; trong phát triển AI, điều này sẽ cho phép các nhà nghiên cứu ngoài một vài công ty công nghệ lớn tiếp cận công nghệ. Việc sử dụng lại dữ liệu là rất quan trọng để bảo tồn các tập dữ liệu được truy cập rộng rãi, vì &quot;việc làm cho một tập dữ liệu sẵn sàng cho hoạt động nghiên cứu và phát triển hơn nữa có thể giúp cập nhật dữ liệu vì các nhà nghiên cứu/nhà phát triển khác có thể đóng góp dữ liệu mới&quot;.</p>

<p align="justify" style="margin-bottom: 0.15cm"><b>5. Trao quyền cho mọi người trong việc chia sẻ và sử dụng dữ liệu cho AI</b><span style="font-weight: normal">&#91;9&#93;</span></p>

<p align="justify" style="margin-bottom: 0.15cm">Việc đạt được các lợi ích kinh tế và xã hội của AI <a href="https://www.sciencedirect.com/science/article/abs/pii/S0040162522002888"><span style="text-decoration: none">phụ thuộc rất nhiều vào việc tin tưởng vào công nghệ</span></a>. Đã có nhiều lời kêu gọi rộng rãi về việc tham gia nhiều hơn vào AI như một phương tiện để xây dựng các giải pháp đáng tin cậy bằng thiết kế thay vì cố gắng giành được lòng tin đó sau đó. Các mô hình nền tảng là một bước thay đổi so với các loại AI trước đó về hiệu suất, rủi ro và tác động - do đó, <a href="https://facctconference.org/static/papers24/facct24-107.pdf"><span style="text-decoration: none">các cuộc thảo luận về thời điểm</span></a><a href="https://facctconference.org/static/papers24/facct24-107.pdf"><span style="text-decoration: none"> khi nào</span></a><a href="https://facctconference.org/static/papers24/facct24-107.pdf"><span style="text-decoration: none"> và cách sử dụng AI </span></a><a href="https://facctconference.org/static/papers24/facct24-107.pdf"><span style="text-decoration: none">như thế nào </span></a><a href="https://facctconference.org/static/papers24/facct24-107.pdf"><span style="text-decoration: none">cần phải tận dụng chuyên môn và ý kiến của nhiều người và cộng đồng hơn</span></a>.</p>

<p align="justify" style="margin-bottom: 0.15cm">AI và dữ liệu có mối liên hệ chặt chẽ với nhau – <a href="https://theodi.org/news-and-events/blog/policy-intervention-4-ensuring-broad-access-to-data-for-training-ai-models/"><span style="text-decoration: none">không có dữ liệu thì không có AI. Việc tiếp cận lượng lớn dữ liệu đã trở nên vô cùng quan trọng đối với </span></a><a href="https://theodi.org/news-and-events/blog/policy-intervention-4-ensuring-broad-access-to-data-for-training-ai-models/"><span style="text-decoration: none">với sự phát triển của AI </span></a><span style="text-decoration: none"> - p</span>hần lớn dữ liệu này do công chúng tạo ra và bao gồm nội dung do người dùng tạo ra <a href="https://oecd.ai/en/wonk/data-scraping-responsibly"><span style="text-decoration: none">được thu thập từ Internet</span></a>.</p>

<p align="justify" style="margin-bottom: 0.15cm">Hiện tại, <a href="https://www.wsj.com/tech/ai/ai-training-data-synthetic-openai-anthropic-9230f8d8"><span style="text-decoration: none">các công ty AI đang tìm cách tiếp cận các tập dữ liệu lớn</span></a> - đặc biệt có giá trị là dữ liệu từ các cộng đồng trực tuyến vì chúng được giám tuyển chặt chẽ và do đó có chất lượng tốt hơn hầu hết nội dung trên Internet. Một số công ty đang cấp phép và cung cấp dữ liệu này để tạo doanh thu, nhưng đã gặp phải sự phản đối từ những người đóng góp. Ví dụ, cộng đồng Reddit đã tham gia vào <a href="https://www.theguardian.com/technology/2023/jun/14/reddit-moderators-vow-to-continue-blackout-in-api-access-fees-row"><span style="text-decoration: none">các cuộc đình công</span></a> và sau đó đóng cửa các subreddit trên nền tảng mà đang bán dữ liệu của họ cho các công ty AI. Reddit sau đó đã tiếp quản một số subreddit và <a href="https://www.socialmediatoday.com/news/reddit-establishes-partnership-openai/716419/"><span style="text-decoration: none">ký kết các thỏa thuận với Google và OpenAI</span></a>. DeviantArt đã phải <a href="https://www.artnews.com/art-news/news/deviantart-artficial-intelligence-ai-images-midjourney-stabilityai-art-1234674400/"><span style="text-decoration: none">đảo ngược quyết địn</span></a><a href="https://www.artnews.com/art-news/news/deviantart-artficial-intelligence-ai-images-midjourney-stabilityai-art-1234674400/"><span style="text-decoration: none">h của nó</span></a> sử dụng tác phẩm của các nghệ sĩ để đào tạo các mô hình AI theo mặc định; thay vào đó, người dùng hiện có thể chủ động đồng ý với việc sử dụng như vậy. StackOverflow đã đi xa đến mức <a href="https://www.theregister.com/2024/05/09/stack_overflow_banning_users_who/"><span style="text-decoration: none">chặn những người dùng</span></a> đã xóa các đóng góp của họ để phản đối việc bán dữ liệu của họ cho OpenAI. Rõ ràng, việc xóa dữ liệu này có thể gây ra tác động dây chuyền đến các công ty AI cần dữ liệu đó.</p>

<p align="justify" style="margin-bottom: 0.15cm">Chúng ta cần vượt ra ngoài sự minh bạch và trách nhiệm giải trình để hướng đến một thế giới mà mọi người có thể tham gia một cách có ý nghĩa vào cách làm thế nào để dữ liệu được chính phủ, ngành công nghiệp và nhiều bên khác sử dụng. <a href="https://theodi.org/news-and-events/blog/how-can-we-empower-data-communities-in-the-era-of-generative-ai/"><span style="text-decoration: none">Việc trao quyền cho mọi người và các cộng đồng</span></a> trong bối cảnh AI có nghĩa là cho phép họ định hình cách các thuật toán và dữ liệu cơ bản được thiết kế, triển khai và sử dụng như thế nào để mang lại lợi ích cho xã hội, môi trường và nền kinh tế.</p>

<p align="justify" style="margin-bottom: 0.15cm"><span style="text-decoration: none"><b><span style="background: transparent">Lời kết</span></b></span></p>

<p align="justify" style="margin-bottom: 0.15cm"><span style="text-decoration: none">Tất cả 5 vấn đề nêu trên là tóm tắt </span><span style="text-decoration: none">nội dung từ 5 </span><span style="text-decoration: none">khuyến nghị của ODI để có các can thiệp chính sách từ chính phủ Vương quốc Anh vào các tháng 6 và 7/2024, được nêu trong </span><span style="text-decoration: none">tài liệu ‘Xây dựng tương lai tốt hơn với dữ liệu và AI: sách trắng’, cụ thể: </span></p>

<ol>
	<li>
	<p align="justify" style="margin-bottom: 0.15cm"><span style="background: transparent"><b>Đảm bảo quyền truy cập rộng rãi</b> vào dữ liệu chất lượng cao, được quản trị tốt từ khu vực công và tư để thúc đẩy thị trường AI đa dạng và cạnh tranh; </span></p>
	</li>
	<li>
	<p align="justify" style="margin-bottom: 0.15cm"><span style="background: transparent"><b>Thực thi bảo vệ dữ liệu</b> và <b>quyền lao động</b> trong chuỗi cung ứng dữ liệu;</span></p>
	</li>
	<li>
	<p align="justify" style="margin-bottom: 0.15cm"><span style="background: transparent"><b>Trao quyền cho mọi người có tiếng nói nhiều hơn</b> trong việc chia sẻ và sử dụng dữ liệu cho AI;</span></p>
	</li>
	<li>
	<p align="justify" style="margin-bottom: 0.15cm"><span style="background: transparent"><b>Cập nhật chế độ sở hữu trí tuệ</b> để đảm bảo các mô hình AI được đào tạo theo cách ưu tiên sự tin tưởng và trao quyền cho các bên liên quan;</span></p>
	</li>
	<li>
	<p align="justify" style="margin-bottom: 0.15cm"><span style="background: transparent"><span style="text-decoration: none"><b>Tăng tính minh bạch</b></span><span style="text-decoration: none"> xung quanh dữ liệu được sử dụng để đào tạo các mô hình AI có rủi ro cao.</span></span></p>
	</li>
</ol>

<p align="justify" style="margin-bottom: 0.15cm"><span style="text-decoration: none">Đồng điệu với những </span><span style="text-decoration: none">khuyến nghị của ODI cho chính phủ Vương quốc Anh là sáng kiến của nước Mỹ thúc đẩy sử dụng an toàn và có trách nhiệm trí tuệ nhân tạo (AI)&#91;10&#93; đã được Phó Tổng thống Kamala Haris công bố nhân chuyến thăm Vương quốc Anh </span>và tham dự Hội nghị thượng đỉnh Toàn cầu về An toàn AI đầu tháng 11/2023, bên cạnh Khung quản lý <span style="font-weight: normal">rủi ro AI phiên bản 1.0 (AI RMF 1.0&#91;11&#93;) đã được Viện Tiêu chuẩn và Công nghệ Quốc gia Mỹ (NIST) công bố vào tháng 1/2023&#91;12&#93;</span>.</p>

<p align="justify" style="margin-bottom: 0.15cm"><span style="text-decoration: none">Hy vọng các </span><span style="text-decoration: none">khuyến nghị mà ODI đưa ra cho chính phủ Vương quốc Anh cũng như danh sách các </span><span style="text-decoration: none"><span style="font-weight: normal">rủi ro AI cần được quản lý như được liệt kê trong AI RMF của nước Mỹ</span></span><span style="text-decoration: none"> cũng sẽ được các nhà </span><span style="text-decoration: none">hoạch định chính sách về AI của Việt Nam, cộng đồng AI và các bên liên quan của Việt Nam tham khảo, để định hướng ứng dụng và </span><span style="text-decoration: none">phát triển AI Việt Nam an toàn, minh bạch, </span><span style="text-decoration: none">có trách nhiệm và ‘nhân tính’ hơn trong tương lai. Quan trọng, là tất cả chúng ta đều hiểu rằng: AI không phải tất cả là màu hồng và hiện có vô số các vấn đề của nó, cả kỹ thuật và nhất là phi kỹ thuật của dữ liệu AI, cần phải được giải quyết.</span></p>

<p align="justify" style="margin-bottom: 0.15cm; text-decoration: none; page-break-before: always"><b>Các chú giải</b></p>

<p align="justify" style="line-height: 115%; margin-left: 0.5cm; text-indent: -0.5cm; margin-bottom: 0.15cm; background: transparent; page-break-before: auto"><span style="text-decoration: none">&#91;1&#93; Ben Snaith (2023): </span><i><span style="text-decoration: none">What do we mean by “without data, there is no AI”</span></i><span style="text-decoration: none">: </span><a href="https://theodi.cdn.ngo/media/documents/20231221_-_Data-centric_AI_Short_Paper_-_What_do_we_mean_by_without_data_there_3AEHdDW.pdf">https://theodi.cdn.ngo/media/documents/20231221_-_Data-centric_AI_Short_Paper_-_What_do_we_mean_by_without_data_there_3AEHdDW.pdf</a><span style="text-decoration: none">. Bản dịch sang tiếng Việt: </span><a href="https://www.dropbox.com/scl/fi/4un643ygfuksd28fm2v1c/20231221_-_Data-centric_AI_Short_Paper_-_What_do_we_mean_by_without_data_there_3AEHdDW_Vi-08082024.pdf?rlkey=bgkh73tdcn26d3cak5sw8pcbl&amp;st=4v3edaqe&amp;dl=0">https://www.dropbox.com/scl/fi/4un643ygfuksd28fm2v1c/20231221_-_Data-centric_AI_Short_Paper_-_What_do_we_mean_by_without_data_there_3AEHdDW_Vi-08082024.pdf?rlkey=bgkh73tdcn26d3cak5sw8pcbl&amp;st=4v3edaqe&amp;dl=0</a></p>

<p align="justify" style="line-height: 115%; margin-left: 0.5cm; text-indent: -0.5cm; margin-bottom: 0.15cm; background: transparent"><span style="text-decoration: none">&#91;2&#93; ODI </span><span style="text-decoration: none">(2024): </span><i><span style="text-decoration: none">Policy intervention 1: Increase transparency around the data used to train AI models</span></i><span style="text-decoration: none">: </span><a href="https://theodi.org/news-and-events/blog/policy-intervention-1-increase-transparency-around-the-data-used-to-train-ai-models/">https://theodi.org/news-and-events/blog/policy-intervention-1-increase-transparency-around-the-data-used-to-train-ai-models/</a>. Bản dịch sang tiếng Việt: <a href="https://giaoducmo.avnuc.vn/ai/can-thiep-chinh-sach-1-tang-cuong-minh-bach-xung-quanh-du-lieu-duoc-su-dung-de-dao-tao-cac-mo-hinh-ai-1256.html">https://giaoducmo.avnuc.vn/ai/can-thiep-chinh-sach-1-tang-cuong-minh-bach-xung-quanh-du-lieu-duoc-su-dung-de-dao-tao-cac-mo-hinh-ai-1256.html</a></p>

<p align="justify" style="line-height: 115%; margin-left: 0.5cm; text-indent: -0.5cm; margin-bottom: 0.15cm; background: transparent"><span style="text-decoration: none">&#91;3&#93; ODI </span><span style="text-decoration: none">(2024): </span><i><span style="text-decoration: none">Policy intervention 2: Update our intellectual property regime to ensure AI models are trained fairly</span></i><span style="text-decoration: none">: </span><a href="https://theodi.org/news-and-events/blog/policy-intervention-2-update-our-intellectual-property-regime-to-ensure-ai-models-are-trained-fairly/">https://theodi.org/news-and-events/blog/policy-intervention-2-update-our-intellectual-property-regime-to-ensure-ai-models-are-trained-fairly/</a>. Bản dịch sang tiếng Việt: <a href="https://giaoducmo.avnuc.vn/ai/can-thiep-chinh-sach-2-cap-nhat-che-do-so-huu-tri-tue-cua-chung-ta-de-dam-bao-cac-mo-hinh-ai-duoc-dao-tao-cong-bang-1257.html">https://giaoducmo.avnuc.vn/ai/can-thiep-chinh-sach-2-cap-nhat-che-do-so-huu-tri-tue-cua-chung-ta-de-dam-bao-cac-mo-hinh-ai-duoc-dao-tao-cong-bang-1257.html</a></p>

<p align="justify" style="line-height: 115%; margin-left: 0.5cm; text-indent: -0.5cm; margin-bottom: 0.15cm; background: transparent"><span style="text-decoration: none">&#91;4&#93; Nightshade: </span><i><span style="text-decoration: none">What Is Nightshade?</span></i><span style="text-decoration: none">: </span><a href="https://nightshade.cs.uchicago.edu/whatis.html">https://nightshade.cs.uchicago.edu/whatis.html</a><span style="text-decoration: none">. Nightshade biến đổi hình ảnh thành các mẫu &quot;độc&quot; </span><span style="text-decoration: none">(“poison” samples)</span><span style="text-decoration: none">, do đó, các mô hình đào tạo trên chúng mà không có sự đồng ý sẽ thấy mô hình của họ học được các hành vi không thể đoán trước, lệch khỏi các chuẩn mực mong đợi, ví dụ: lời nhắc yêu cầu hình ảnh một con bò đang bay trong không gian thay vào đó có thể nhận được hình ảnh một chiếc túi xách đang trôi nổi trong không gian.</span></p>

<p align="justify" style="line-height: 115%; margin-left: 0.5cm; text-indent: -0.5cm; margin-bottom: 0.15cm; background: transparent"><span style="text-decoration: none">&#91;5&#93; ODI </span><span style="text-decoration: none">(2024): </span><i><span style="text-decoration: none">Policy intervention 3: Enforcing people’s rights in the data supply chain</span></i><span style="text-decoration: none">: </span><a href="https://theodi.org/news-and-events/blog/policy-intervention-3-enforcing-peoples-rights-in-the-data-supply-chain/">https://theodi.org/news-and-events/blog/policy-intervention-3-enforcing-peoples-rights-in-the-data-supply-chain/</a>. Bản dịch sang tiếng Việt: <a href="https://giaoducmo.avnuc.vn/ai/can-thiep-chinh-sach-3-thuc-thi-quyen-cua-moi-nguoi-trong-chuoi-cung-ung-du-lieu-1258.html">https://giaoducmo.avnuc.vn/ai/can-thiep-chinh-sach-3-thuc-thi-quyen-cua-moi-nguoi-trong-chuoi-cung-ung-du-lieu-1258.html</a></p>

<p align="justify" style="line-height: 115%; margin-left: 0.5cm; text-indent: -0.5cm; margin-bottom: 0.15cm; background: transparent"><span style="text-decoration: none">&#91;6&#93; ODI </span><span style="text-decoration: none">(2024): </span><i><span style="text-decoration: none">Building a better future with data and AI: a white paper</span></i><span style="text-decoration: none">: </span><a href="https://theodi.cdn.ngo/media/documents/Building_a_better_future_with_data_and_AI__a_white_paper.pdf">https://theodi.cdn.ngo/media/documents/Building_a_better_future_with_data_and_AI__a_white_paper.pdf</a><span style="text-decoration: none">, p.8. Bản dịch sang tiếng Việt: </span><a href="https://www.dropbox.com/scl/fi/g9lcleqvgn4r6vhcmwt5g/Building_a_better_future_with_data_and_AI__a_white_paper_Vi-28072024.pdf?rlkey=6q88tf4qo1g4bahbutdvkiinj&amp;dl=0">https://www.dropbox.com/scl/fi/g9lcleqvgn4r6vhcmwt5g/Building_a_better_future_with_data_and_AI__a_white_paper_Vi-28072024.pdf?rlkey=6q88tf4qo1g4bahbutdvkiinj&amp;dl=0</a></p>

<p align="justify" style="line-height: 115%; margin-left: 0.5cm; text-indent: -0.5cm; margin-bottom: 0.15cm; background: transparent"><span style="text-decoration: none">&#91;7&#93; Lê Trung Nghĩa (tại Security Bootcamp 2023): Nghị định Bảo vệ dữ liệu cá nhân và một vài gợi ý triển khai: </span><a href="https://giaoducmo.avnuc.vn/bai-viet-toan-van/nghi-dinh-bao-ve-du-lieu-ca-nhan-va-mot-vai-goi-y-trien-khai-1016.html">https://giaoducmo.avnuc.vn/bai-viet-toan-van/nghi-dinh-bao-ve-du-lieu-ca-nhan-va-mot-vai-goi-y-trien-khai-1016.html</a></p>

<p align="justify" style="line-height: 115%; margin-left: 0.5cm; text-indent: -0.5cm; margin-bottom: 0.15cm; background: transparent"><span style="text-decoration: none">&#91;8&#93; ODI </span><span style="text-decoration: none">(2024): </span><i><span style="text-decoration: none">Policy intervention 4: Ensuring broad access to data for training AI models</span></i><span style="text-decoration: none">: </span><a href="https://theodi.org/news-and-events/blog/policy-intervention-4-ensuring-broad-access-to-data-for-training-ai-models/">https://theodi.org/news-and-events/blog/policy-intervention-4-ensuring-broad-access-to-data-for-training-ai-models/</a>. Bản dịch sang tiếng Việt: <a href="https://giaoducmo.avnuc.vn/ai/can-thiep-chinh-sach-4-dam-bao-quyen-truy-cap-rong-toi-du-lieu-de-dao-tao-cac-mo-hinh-ai-1259.html">https://giaoducmo.avnuc.vn/ai/can-thiep-chinh-sach-4-dam-bao-quyen-truy-cap-rong-toi-du-lieu-de-dao-tao-cac-mo-hinh-ai-1259.html</a></p>

<p align="justify" style="line-height: 115%; margin-left: 0.5cm; text-indent: -0.5cm; margin-bottom: 0.15cm; background: transparent"><span style="text-decoration: none">&#91;9&#93; ODI </span><span style="text-decoration: none">(2024): </span><i><span style="text-decoration: none">Policy intervention 5: Empowering people to have more of a say in the sharing and use of data for AI</span></i><span style="text-decoration: none">: </span><a href="https://theodi.org/news-and-events/blog/policy-intervention-5-empowering-people-to-have-more-of-a-say-in-the-sharing-and-use-of-data-for-ai/">https://theodi.org/news-and-events/blog/policy-intervention-5-empowering-people-to-have-more-of-a-say-in-the-sharing-and-use-of-data-for-ai/</a>. Bản dịch sang tiếng Việt: <a href="https://giaoducmo.avnuc.vn/ai/can-thiep-chinh-sach-5-trao-quyen-cho-moi-nguoi-de-co-tieng-noi-nhieu-hon-trong-viec-chia-se-va-su-dung-du-lieu-cho-ai-1260.html">https://giaoducmo.avnuc.vn/ai/can-thiep-chinh-sach-5-trao-quyen-cho-moi-nguoi-de-co-tieng-noi-nhieu-hon-trong-viec-chia-se-va-su-dung-du-lieu-cho-ai-1260.html</a></p>

<p align="justify" style="line-height: 115%; margin-left: 0.7cm; text-indent: -0.7cm; margin-bottom: 0.15cm; background: transparent"><span style="text-decoration: none">&#91;10&#93; White House </span><span style="text-decoration: none">(2023)</span><span style="text-decoration: none">: </span><i><span style="text-decoration: none">FACT SHEET: Vice President Harris Announces New U.S. Initiatives to Advance the Safe and Responsible Use of Artificial Intelligence</span></i><span style="text-decoration: none">: </span><a href="https://www.whitehouse.gov/briefing-room/statements-releases/2023/11/01/fact-sheet-vice-president-harris-announces-new-u-s-initiatives-to-advance-the-safe-and-responsible-use-of-artificial-intelligence/">https://www.whitehouse.gov/briefing-room/statements-releases/2023/11/01/fact-sheet-vice-president-harris-announces-new-u-s-initiatives-to-advance-the-safe-and-responsible-use-of-artificial-intelligence/</a><span style="text-decoration: none">. Bản dịch sang tiếng Việt: </span><a href="https://giaoducmo.avnuc.vn/ai/to-tin-pho-tong-thong-harris-cong-bo-sang-kien-moi-cua-my-thuc-day-su-dung-an-toan-va-co-trach-nhiem-tri-tue-nhan-tao-ai-1249.html">https://giaoducmo.avnuc.vn/ai/to-tin-pho-tong-thong-harris-cong-bo-sang-kien-moi-cua-my-thuc-day-su-dung-an-toan-va-co-trach-nhiem-tri-tue-nhan-tao-ai-1249.html</a></p>

<p align="justify" style="line-height: 115%; margin-left: 0.7cm; text-indent: -0.7cm; margin-bottom: 0.15cm; background: transparent"><span style="text-decoration: none">&#91;11&#93; NIST </span><span style="text-decoration: none">(2023): </span><i><span style="text-decoration: none">Artificial Intelligence Risk Management Framework (AI RMF 1.0)</span></i><span style="text-decoration: none">: </span><a href="https://nvlpubs.nist.gov/nistpubs/ai/NIST.AI.100-1.pdf">https://nvlpubs.nist.gov/nistpubs/ai/NIST.AI.100-1.pdf</a></p>

<p align="justify" style="line-height: 115%; margin-left: 0.7cm; text-indent: -0.7cm; margin-bottom: 0.15cm; background: transparent"><span style="text-decoration: none">&#91;12&#93; NIST (2023): </span><i><span style="text-decoration: none">AI Risk Management Framework</span></i><span style="text-decoration: none">: </span><a href="https://www.nist.gov/itl/ai-risk-management-framework">https://www.nist.gov/itl/ai-risk-management-framework</a><span style="text-decoration: none">. Bản dịch sang tiếng Việt: </span><a href="https://giaoducmo.avnuc.vn/ai/khung-quan-ly-rui-ro-ai-1251.html">https://giaoducmo.avnuc.vn/ai/khung-quan-ly-rui-ro-ai-1251.html</a></p>

<p align="justify">(Bài viết cho Hội thảo tại sự kiện Security Bootcamp 2024 do Hiệp hội Internet Việt Nam và cộng đồng Security Bootcamp Việt Nam tổ chức trong các ngày 28-29/09/2024 tại Phú Quốc, Kiên Giang, với chủ đề: Humanity).</p>

<p>Tự do tải về bài viết định dạng PDF ở địa chỉ DOI: <a href="https://doi.org/10.5281/zenodo.13852144">10.5281/zenodo.13852144</a></p>

<p>Tự do tải về bài trình chiếu tại hội thảo ở địa chỉ:</p>

<p><a href="https://www.dropbox.com/scl/fi/y19ce4t0se2fdjqm4pgc3/SBC2024.pdf?rlkey=abfgwpr0a0kpoxr9w6udqt6rw&amp;st=ps0ha6y0&amp;dl=0">https://www.dropbox.com/scl/fi/y19ce4t0se2fdjqm4pgc3/SBC2024.pdf?rlkey=abfgwpr0a0kpoxr9w6udqt6rw&amp;st=ps0ha6y0&amp;dl=0</a></p>

<p><b>X (Tweet)</b>: <a href="https://x.com/nghiafoss/status/1839859422300123435">https://x.com/nghiafoss/status/1839859422300123435</a></p>

<p><strong>Xem thêm:</strong></p>

<ul>
	<li>
	<p><strong><a href="http://www.securitybootcamp.org.vn/"><span style="font-weight: normal">Trang tin Security Bootcamp qua các năm</span></a></strong></p>
	</li>
	<li>
	<p><strong><a href="https://via.org.vn/Security-Bootcamp-2024-Humanity-nhan-tinh-Humanity-trong-ky-nguyen-AI"><span style="font-weight: normal">Security Bootcamp 2024 - Humanity: nhân tính trong kỷ nguyên AI?</span></a></strong></p>
	</li>
	<li>
	<p><strong><a href="https://drive.google.com/file/d/1vJzAzGfAJM7908ykbUreVF3MLvsX_fi4/view?usp=drive_link"><span lang="en-US"><span style="font-weight: normal">Sách tóm tắt thông tin về </span></span></a></strong><strong><a href="https://drive.google.com/file/d/1vJzAzGfAJM7908ykbUreVF3MLvsX_fi4/view?usp=drive_link"><span lang="en-US"><u><span style="font-weight: normal">10 năm </span></u></span></a></strong><strong><a href="https://drive.google.com/file/d/1vJzAzGfAJM7908ykbUreVF3MLvsX_fi4/view?usp=drive_link"><span lang="en-US"><span style="font-weight: normal">Security Bootcamp</span></span></a></strong><span lang="en-US"><span style="font-weight: normal"> </span></span><strong><span lang="en-US"><span style="font-weight: normal">(năm 2023)</span></span></strong></p>
	</li>
	<li>
	<p><a href="https://www.vietnamplus.vn/security-bootcamp-2024-thu-hut-hang-tram-chuyen-gia-an-ninh-mang-trong-nuoc-post980072.vnp">Security Bootcamp 2024 thu hút hàng trăm chuyên gia an ninh mạng trong nước</a></p>
	</li>
	<li>
	<p><strong><a href="https://giaoducmo.avnuc.vn/ai/"><span style="font-weight: normal">AI</span></a></strong></p>
	</li>
	<li>
	<p><strong><span style="font-weight: normal"><a href="https://giaoducmo.avnuc.vn/hoi-thao/">Hội nghị, hội thảo</a> </span></strong></p>
	</li>
	<li>
	<p><strong><a href="https://giaoducmo.avnuc.vn/bai-viet-toan-van/"><span style="font-weight: normal">Bài viết toàn văn</span></a></strong></p>
	</li>
</ul>

<p style="font-weight: normal">&nbsp;</p>
		</div>
				<div id="author">
						<p>
				<strong>Tác giả:</strong>
				<a href="https://letrungnghia.mangvn.org/author/Nghia-Le-Trung/">Nghĩa Lê Trung</a>
			</p>
		</div>
	</div>
	<div id="footer" class="clearfix">
		<div id="url">
			<strong>URL của bản tin này: </strong><a href="https://letrungnghia.mangvn.org/savefile/Author/de-ai-duoc-an-toan-minh-bach-co-trach-nhiem-va-nhan-tinh-hon-7502.html" title="Để AI được an toàn, minh bạch, có trách nhiệm và ‘nhân tính’ hơn">https://letrungnghia.mangvn.org/savefile/Author/de-ai-duoc-an-toan-minh-bach-co-trach-nhiem-va-nhan-tinh-hon-7502.html</a>

		</div>
		<div class="clear"></div>
		<div class="copyright">
			&copy; Blog FOSS by Lê Trung Nghĩa
		</div>
		<div id="contact">
			<a href="mailto:webmaster@vinades.vn">webmaster@vinades.vn</a>
		</div>
	</div>
</div>
        <div id="timeoutsess" class="chromeframe">
            Bạn đã không sử dụng Site, <a onclick="timeoutsesscancel();" href="https://letrungnghia.mangvn.org/#">Bấm vào đây để duy trì trạng thái đăng nhập</a>. Thời gian chờ: <span id="secField"> 60 </span> giây
        </div>
        <div id="openidResult" class="nv-alert" style="display:none"></div>
        <div id="openidBt" data-result="" data-redirect=""></div>
<div id="run_cronjobs" style="visibility:hidden;display:none;"><img alt="cron" src="/index.php?second=cronjobs&amp;p=x730i1LC" width="1" height="1" /></div>
<script src="https://letrungnghia.mangvn.org/assets/js/jquery/jquery.min.js"></script>
<script>var nv_base_siteurl="/",nv_lang_data="vi",nv_lang_interface="vi",nv_name_variable="nv",nv_fc_variable="op",nv_lang_variable="language",nv_module_name="news",nv_func_name="savefile",nv_is_user=0, nv_my_ofs=7,nv_my_abbr="+07",nv_cookie_prefix="nv4c_Cgoz2",nv_check_pass_mstime=1738000,nv_area_admin=0,nv_safemode=0,theme_responsive=0,nv_recaptcha_ver=2,nv_recaptcha_sitekey="6LcNwC8UAAAAAMm8ZTYNygweLUQtOU0IapbDRk69",nv_recaptcha_type="image",XSSsanitize=1;</script>
<script src="https://letrungnghia.mangvn.org/assets/js/language/vi.js"></script>
<script src="https://letrungnghia.mangvn.org/assets/js/DOMPurify/purify3.js"></script>
<script src="https://letrungnghia.mangvn.org/assets/js/global.js"></script>
<script src="https://letrungnghia.mangvn.org/assets/js/site.js"></script>
<script src="https://letrungnghia.mangvn.org/themes/default/js/news.js"></script>
<script src="https://letrungnghia.mangvn.org/themes/default/js/main.js"></script>
<script src="https://letrungnghia.mangvn.org/themes/default/js/custom.js"></script>
<script type="application/ld+json">
        {
            "@context": "https://schema.org",
            "@type": "Organization",
            "url": "https://letrungnghia.mangvn.org",
            "logo": "https://letrungnghia.mangvn.org/uploads/letrungnghia/le-trung-nghia.png"
        }
        </script>
<script src="https://letrungnghia.mangvn.org/themes/default/js/bootstrap.min.js"></script>
</body>
</html>