Một số học giả và chuyên gia chính sách đã đề xuất rằng Hội đồng Khoa học Quốc tế - với thành viên đa nguyên từ các ngành khoa học xã hội và tự nhiên - thiết lập một quy trình để tạo ra và duy trì một khuôn khổ/danh sách kiểm tra có chú thích về các rủi ro, lợi ích, mối đe dọa và cơ hội. liên quan đến các công nghệ kỹ thuật số chuyển động nhanh chóng, bao gồm – nhưng không giới hạn ở – AI. Mục đích của danh sách kiểm tra là thông báo cho tất cả các bên liên quan – bao gồm chính phủ, các nhà đàm phán thương mại, cơ quan quản lý, xã hội dân sự và ngành công nghiệp – về các kịch bản tiềm ẩn trong tương lai và sẽ định hình cách họ có thể xem xét các cơ hội, lợi ích, rủi ro và các vấn đề khác.
ISC hân hạnh giới thiệu bài thảo luận này về việc đánh giá công nghệ kỹ thuật số và công nghệ liên quan đang phát triển nhanh chóng. Trí tuệ nhân tạo, sinh học tổng hợp và công nghệ lượng tử là những ví dụ điển hình về sự đổi mới, được khoa học thông tin, đang nổi lên với tốc độ chưa từng thấy. Việc dự đoán một cách có hệ thống không chỉ các ứng dụng mà còn cả ý nghĩa của chúng có thể là một thách thức.
Đánh giá các khía cạnh xã hội của AI tạo sinh, chẳng hạn như các mô hình ngôn ngữ lớn, có thể đại diện cho phần lớn bài thảo luận này, là cầu nối cần thiết trong diễn ngôn hiện tại – đôi khi do hoảng loạn, đôi khi không đủ sâu sắc về tư duy – và các khóa học cần thiết về hành động chúng ta có thể thực hiện. ISC tin rằng cần có khung phân tích giữa sự chấp nhận của xã hội đối với các công nghệ mới như vậy và quy định có thể có của chúng để tạo điều kiện thuận lợi cho các cuộc thảo luận nhiều bên cần thiết nhằm đưa ra các quyết định sáng suốt và có trách nhiệm về cách tối ưu hóa lợi ích xã hội của công nghệ đang nổi lên nhanh chóng này.
ISC sẵn sàng đón nhận những phản ứng từ cộng đồng của chúng tôi thông qua tài liệu thảo luận này nhằm đánh giá cách tốt nhất để tiếp tục tham gia và đóng góp vào cuộc tranh luận xung quanh công nghệ.
Salvatore Aricò, Giám đốc điều hành
Một bài thảo luận của ISC
Một khuôn khổ để đánh giá các công nghệ kỹ thuật số và liên quan đang phát triển nhanh chóng: AI, các mô hình ngôn ngữ lớn và hơn thế nữa
Tài liệu thảo luận này cung cấp phác thảo về khuôn khổ ban đầu để cung cấp thông tin cho nhiều cuộc thảo luận quốc gia và toàn cầu đang diễn ra liên quan đến AI.
Tải xuống báo cáoMới! Đọc phiên bản 2024 dành cho các nhà hoạch định chính sách với khung có thể tải xuống cho tổ chức của bạn.
Hướng dẫn dành cho các nhà hoạch định chính sách: Đánh giá các công nghệ đang phát triển nhanh chóng bao gồm AI, các mô hình ngôn ngữ lớn và hơn thế nữa
Tài liệu thảo luận này cung cấp phác thảo về khuôn khổ ban đầu để cung cấp thông tin cho nhiều cuộc thảo luận quốc gia và toàn cầu đang diễn ra liên quan đến AI.
Nội dung
Giới thiệu
Các công nghệ mới nổi nhanh chóng đặt ra những vấn đề đầy thách thức khi nói đến quản trị và quy định tiềm năng. Các cuộc tranh luận về chính sách và công khai về trí tuệ nhân tạo (AI) cũng như việc sử dụng nó đã khiến những vấn đề này trở thành tâm điểm chú ý. Mặc dù các nguyên tắc rộng rãi cho AI đã được UNESCO, OECD và các tổ chức khác ban hành, đồng thời có những cuộc thảo luận sơ khai về quy định toàn cầu hoặc quyền tài phán đối với công nghệ, nhưng có một khoảng cách bản thể học giữa việc phát triển các nguyên tắc cấp cao và việc kết hợp chúng vào các quy định, chính sách, các phương pháp quản trị và quản lý. Đây là nơi cộng đồng khoa học phi chính phủ có thể có một vai trò cụ thể.
Một số học giả và chuyên gia chính sách đã đề xuất rằng Hội đồng Khoa học Quốc tế (ISC) - với thành viên đa nguyên từ các ngành khoa học xã hội và tự nhiên - thiết lập một quy trình để tạo ra và duy trì một khuôn khổ/danh sách kiểm tra có chú thích về các rủi ro, lợi ích, các mối đe dọa và cơ hội liên quan đến các công nghệ kỹ thuật số chuyển động nhanh chóng, bao gồm – nhưng không giới hạn ở – AI. Mục đích của danh sách kiểm tra là thông báo cho tất cả các bên liên quan – bao gồm chính phủ, các nhà đàm phán thương mại, cơ quan quản lý, xã hội dân sự và ngành công nghiệp – về các kịch bản tiềm ẩn trong tương lai và sẽ định hình cách họ có thể xem xét các cơ hội, lợi ích, rủi ro và các vấn đề khác.
Các kết quả đầu ra sẽ không đóng vai trò như một cơ quan đánh giá mà là một khung phân tích thích ứng và đang phát triển, có thể củng cố bất kỳ quy trình đánh giá và quy định nào có thể được phát triển bởi các bên liên quan, bao gồm cả chính phủ và hệ thống đa phương. Lý tưởng nhất là bất kỳ khuôn khổ phân tích nào cũng nên được phát triển độc lập với các tuyên bố của chính phủ và ngành, dựa trên lợi ích dễ hiểu của họ. Nó cũng phải có tính đa nguyên tối đa trong các quan điểm của nó, do đó bao gồm tất cả các khía cạnh của công nghệ và ý nghĩa của nó.
Tài liệu thảo luận này cung cấp phác thảo về khuôn khổ ban đầu để cung cấp thông tin cho nhiều cuộc thảo luận quốc gia và toàn cầu đang diễn ra liên quan đến AI.
Bối cảnh: Tại sao phải sử dụng khung phân tích?
Sự xuất hiện nhanh chóng của một công nghệ có độ phức tạp và ý nghĩa như AI đang thúc đẩy nhiều tuyên bố về những lợi ích to lớn. Tuy nhiên, nó cũng làm dấy lên lo ngại về những rủi ro đáng kể, từ cấp độ cá nhân đến cấp độ địa chiến lược. Phần lớn cuộc thảo luận có xu hướng diễn ra ở những điểm cực đoan của các quan điểm và cần có một cách tiếp cận thực tế hơn. Công nghệ AI sẽ tiếp tục phát triển và lịch sử cho thấy hầu như mọi công nghệ đều có những công dụng có lợi và có hại. Do đó, câu hỏi đặt ra là: làm thế nào chúng ta có thể đạt được những kết quả có lợi từ công nghệ này, đồng thời giảm thiểu nguy cơ gây ra hậu quả có hại, một số trong đó có thể tồn tại ở mức độ nghiêm trọng?
Tương lai luôn không chắc chắn, nhưng có đủ tiếng nói đáng tin cậy và chuyên môn về AI và AI tạo ra để khuyến khích một cách tiếp cận tương đối phòng ngừa. Ngoài ra, cần có cách tiếp cận hệ thống vì AI là một loại công nghệ được sử dụng và ứng dụng rộng rãi cho nhiều loại người dùng. Điều này có nghĩa là bối cảnh đầy đủ phải được tính đến khi xem xét ý nghĩa của AI đối với cá nhân, đời sống xã hội, đời sống công dân, đời sống xã hội và trong bối cảnh toàn cầu.
Không giống như hầu hết các công nghệ trước đây, công nghệ kỹ thuật số và công nghệ liên quan có khoảng thời gian rất ngắn từ khi phát triển đến khi phát hành, phần lớn được thúc đẩy bởi lợi ích của các công ty hoặc đại lý sản xuất. AI có sức lan tỏa nhanh chóng; một số đặc tính có thể chỉ trở nên rõ ràng sau khi được phát hành và công nghệ này có thể có cả ứng dụng độc hại và nhân từ. Các khía cạnh giá trị quan trọng sẽ ảnh hưởng đến cách cảm nhận bất kỳ việc sử dụng nào. Hơn nữa, có thể có những lợi ích địa chiến lược đang diễn ra.
Cho đến nay, quy định về công nghệ ảo phần lớn được nhìn qua lăng kính “các nguyên tắc” và sự tuân thủ tự nguyện. Tuy nhiên, gần đây hơn, cuộc thảo luận đã chuyển sang các vấn đề quản trị quốc gia và đa phương, bao gồm cả việc sử dụng các công cụ quản lý và chính sách khác. Những tuyên bố ủng hộ hoặc chống lại AI thường mang tính cường điệu và – do bản chất của công nghệ – rất khó đánh giá. Việc thiết lập một hệ thống quy định công nghệ quốc gia hoặc toàn cầu hiệu quả sẽ là một thách thức và sẽ cần có nhiều lớp ra quyết định dựa trên rủi ro trong toàn bộ chuỗi, từ nhà phát minh đến nhà sản xuất, người sử dụng, chính phủ và hệ thống đa phương.
Mặc dù các nguyên tắc cấp cao đã được ban hành bởi UNESCO, OECD và Ủy ban Châu Âu cùng nhiều tổ chức khác và nhiều cuộc thảo luận cấp cao khác nhau đang được tiến hành liên quan đến các vấn đề về quy định tiềm năng, nhưng vẫn có một khoảng cách lớn về mặt bản thể học giữa các nguyên tắc đó và khung quản lý hoặc quy định. Phân loại các cân nhắc mà cơ quan quản lý có thể cần xem xét là gì? Việc đóng khung tập trung vào phạm vi hẹp sẽ là không khôn ngoan, do những tác động rộng lớn của những công nghệ này. Tiềm năng này đã là chủ đề của nhiều bình luận, cả tích cực lẫn tiêu cực.
Sự phát triển của một khung phân tích
ISC là tổ chức phi chính phủ toàn cầu chính tích hợp khoa học tự nhiên và xã hội. Phạm vi tiếp cận toàn cầu và chuyên môn của nó có nghĩa là nó có vị thế tốt để đưa ra lời khuyên độc lập và phù hợp trên toàn cầu nhằm cung cấp thông tin cho những lựa chọn phức tạp phía trước, đặc biệt khi tiếng nói hiện tại trong lĩnh vực này phần lớn đến từ ngành công nghiệp hoặc từ các cường quốc công nghệ lớn. Sau cuộc thảo luận rộng rãi trong những tháng gần đây, bao gồm cả việc xem xét quy trình đánh giá phi chính phủ, ISC kết luận rằng đóng góp hữu ích nhất của nó là tạo ra và duy trì một khuôn khổ phân tích thích ứng có thể được sử dụng làm cơ sở cho việc thảo luận và ra quyết định của các tổ chức. tất cả các bên liên quan, kể cả trong bất kỳ quá trình đánh giá chính thức nào phát sinh.
Khung này sẽ có dạng một danh sách kiểm tra tổng thể mà cả các tổ chức chính phủ và phi chính phủ có thể sử dụng. Khung này xác định và khám phá tiềm năng của công nghệ như AI và các dẫn xuất của nó thông qua lăng kính rộng bao gồm phúc lợi của con người và xã hội, cũng như các yếu tố bên ngoài, như kinh tế, chính trị, môi trường và an ninh. Một số khía cạnh của danh sách kiểm tra có thể phù hợp hơn những khía cạnh khác, tùy thuộc vào ngữ cảnh, nhưng sẽ có nhiều khả năng đưa ra quyết định tốt hơn nếu tất cả các lĩnh vực đều được xem xét. Đây là giá trị vốn có của phương pháp kiểm tra danh sách kiểm tra.
Khung đề xuất được bắt nguồn từ công việc và suy nghĩ trước đây, bao gồm báo cáo phúc lợi kỹ thuật số của Mạng lưới Tư vấn Khoa học Chính phủ Quốc tế (INGSA).1 và Khung phân loại AI của OECD2 để trình bày tổng thể các cơ hội, rủi ro và tác động tiềm ẩn của AI. Các sản phẩm trước đây bị hạn chế hơn về mục đích do thời gian và bối cảnh của chúng, nên cần có một khuôn khổ tổng thể trình bày đầy đủ các vấn đề cả trong ngắn hạn và dài hạn.
Mặc dù được phát triển để xem xét AI, khung phân tích này có thể được áp dụng cho bất kỳ công nghệ mới nổi nào đang phát triển nhanh chóng. Các vấn đề được nhóm lại thành các loại sau để kiểm tra thêm:
Danh sách những điều cần cân nhắc cho từng loại trên được bao gồm cùng với các cơ hội và hậu quả tương ứng của chúng. Một số có liên quan đến các trường hợp hoặc ứng dụng cụ thể của AI trong khi một số khác là chung chung và không rõ ràng về nền tảng hoặc cách sử dụng. Không có sự cân nhắc nào ở đây nên được coi là ưu tiên và, do đó, tất cả đều cần được xem xét.
Làm thế nào khuôn khổ này có thể được sử dụng?
Khung này có thể được sử dụng nhưng không giới hạn ở các cách sau:
Bảng sau đây mô tả sơ bộ các kích thước của khung phân tích. Tùy thuộc vào công nghệ và cách sử dụng nó, một số thành phần sẽ phù hợp hơn những thành phần khác. Các ví dụ được cung cấp để minh họa tại sao mỗi miền có thể quan trọng; trong bối cảnh, khuôn khổ này sẽ yêu cầu mở rộng phù hợp với ngữ cảnh. Điều quan trọng nữa là phải phân biệt giữa sự phát triển nền tảng và các vấn đề chung có thể xuất hiện trong các ứng dụng cụ thể.
Các khía cạnh cần xem xét khi đánh giá một công nghệ mới
| Bản phác thảo ban đầu về các khía cạnh có thể cần được xem xét khi đánh giá một công nghệ mới | ||
| Kích thước tác động | Tiêu chí | Ví dụ về cách điều này có thể được phản ánh trong phân tích |
| Cá nhân/bản thân | Năng lực AI của người dùng | Những người dùng có khả năng sẽ tương tác với hệ thống có năng lực và nhận thức được các thuộc tính của hệ thống như thế nào? Họ sẽ được cung cấp những thông tin và cảnh báo liên quan đến người dùng như thế nào? |
| Các bên liên quan bị ảnh hưởng | Ai là bên liên quan chính sẽ bị ảnh hưởng bởi hệ thống (ví dụ: cá nhân, cộng đồng, người dễ bị tổn thương, người lao động trong ngành, trẻ em, nhà hoạch định chính sách, chuyên gia)? | |
| Tùy chọn | Người dùng có được cung cấp tùy chọn từ chối tham gia hệ thống không; họ có nên được trao cơ hội để thử thách hoặc điều chỉnh kết quả đầu ra không? | |
| Rủi ro đối với nhân quyền và các giá trị dân chủ | Hệ thống có thể tác động (và theo hướng nào) đến quyền con người, bao gồm nhưng không giới hạn ở quyền riêng tư, quyền tự do ngôn luận, sự công bằng, nguy cơ phân biệt đối xử, v.v.? | |
| Những ảnh hưởng tiềm ẩn tới sức khỏe con người | Hệ thống có thể tác động (và theo hướng nào) đến sức khỏe của người dùng cá nhân (tức là chất lượng công việc, giáo dục, tương tác xã hội, sức khỏe tâm thần, danh tính, môi trường) không? | |
| Tiềm năng dịch chuyển lao động của con người | Hệ thống có tiềm năng tự động hóa các nhiệm vụ hoặc chức năng do con người thực hiện không? Nếu vậy, hậu quả về sau là gì? | |
| Tiềm năng về danh tính, giá trị hoặc thao túng kiến thức | Hệ thống có được thiết kế để hoặc có khả năng thao túng danh tính hoặc các giá trị đã đặt của người dùng hoặc phát tán thông tin sai lệch không? Có khả năng xảy ra những tuyên bố sai lệch hoặc không thể kiểm chứng về chuyên môn không? | |
| Thước đo giá trị bản thân | Có áp lực phải khắc họa một con người lý tưởng hóa không? Tự động hóa có thể thay thế cảm giác thỏa mãn cá nhân? Có áp lực phải cạnh tranh với hệ thống tại nơi làm việc không? Danh tiếng cá nhân có khó bảo vệ khỏi thông tin sai lệch hơn không? | |
| Quyền riêng tư | Có trách nhiệm chung trong việc bảo vệ quyền riêng tư và có bất kỳ giả định nào được đưa ra về cách sử dụng dữ liệu cá nhân không? | |
| Quyền tự chủ | Hệ thống có thể ảnh hưởng đến quyền tự chủ của con người bằng cách tạo ra sự phụ thuộc quá mức vào công nghệ của người dùng cuối không? | |
| Sự phát triển của loài người | Có tác động nào đến việc tiếp thu các kỹ năng quan trọng cho sự phát triển con người như chức năng điều hành, kỹ năng giao tiếp giữa các cá nhân, những thay đổi về thời gian chú ý ảnh hưởng đến học tập, phát triển nhân cách, các mối quan tâm về sức khỏe tâm thần, v.v. không? | |
| Chăm sóc sức khỏe cá nhân | Có tuyên bố nào về các giải pháp chăm sóc sức khỏe được cá nhân hóa không? Nếu vậy, chúng có được xác nhận theo tiêu chuẩn quy định không? | |
| Sức khỏe tâm thần | Có nguy cơ gia tăng lo lắng, cô đơn hoặc các vấn đề sức khỏe tâm thần khác hay công nghệ có thể giảm thiểu những tác động đó không? | |
| Sự tiến hoá của con người | Công nghệ có thể dẫn đến những thay đổi trong quá trình tiến hóa của loài người? | |
| Kích thước tác động | Tiêu chí | Mô tả Chi tiết |
| Xã hội/đời sống xã hội | Giá trị xã hội | Liệu hệ thống này có thay đổi căn bản bản chất của xã hội hay cho phép bình thường hóa những ý tưởng trước đây bị coi là phản xã hội hay nó vi phạm các giá trị xã hội của nền văn hóa nơi nó đang được áp dụng? |
| Sự tương tác xã hội | Có ảnh hưởng gì đến sự tiếp xúc có ý nghĩa của con người, bao gồm cả các mối quan hệ tình cảm không? | |
| Equity | Ứng dụng/công nghệ có khả năng làm giảm hoặc tăng cường sự bất bình đẳng (tức là về kinh tế, xã hội, giáo dục, địa lý) không? | |
| Sức khỏe dân số | Liệu hệ thống có tiềm năng thúc đẩy hay làm suy yếu các ý định về sức khỏe dân số không? | |
| biểu hiện văn hóa | Việc giải quyết sự gia tăng hành vi chiếm đoạt hoặc phân biệt đối xử về văn hóa có khó khăn hơn hoặc khó giải quyết hơn không? Liệu việc phụ thuộc vào hệ thống ra quyết định có khả năng loại trừ hoặc loại trừ các bộ phận trong xã hội không? | |
| Giáo dục công cộng | Có ảnh hưởng gì đến vai trò của giáo viên hoặc cơ sở giáo dục không? Hệ thống có nhấn mạnh hoặc giảm bớt sự bất bình đẳng giữa học sinh và khoảng cách số không? Giá trị nội tại của kiến thức hoặc hiểu biết phê phán được nâng cao hay suy yếu? | |
| Thực tế bị bóp méo | Những phương pháp chúng ta sử dụng để phân biệt điều gì là đúng có còn áp dụng được không? Nhận thức về thực tế có bị tổn hại không? | |
| Bối cảnh kinh tế (thương mại) | Lĩnh vực công nghiệp | Hệ thống được triển khai trong lĩnh vực công nghiệp nào (ví dụ: tài chính, nông nghiệp, y tế, giáo dục, quốc phòng)? |
| Mô hình kinh doanh | Hệ thống được sử dụng trong chức năng kinh doanh nào và với khả năng gì? Hệ thống được sử dụng ở đâu (tư nhân, công cộng, phi lợi nhuận)? | |
| Tác động đến các hoạt động quan trọng | Sự gián đoạn chức năng hoặc hoạt động của hệ thống có ảnh hưởng đến các dịch vụ thiết yếu hoặc cơ sở hạ tầng quan trọng không? | |
| Hơi thở triển khai | Hệ thống được triển khai như thế nào (trong phạm vi hẹp trong một tổ chức so với rộng rãi trên toàn quốc/quốc tế)? | |
| Sự trưởng thành về mặt kỹ thuật (TRL) | Hệ thống đã trưởng thành về mặt kỹ thuật đến mức nào? | |
| Chủ quyền công nghệ | Liệu công nghệ có thúc đẩy sự tập trung cao hơn về chủ quyền công nghệ hay không. | |
| Tái phân phối thu nhập và đòn bẩy tài chính quốc gia | Liệu vai trò cốt lõi của quốc gia có chủ quyền có bị tổn hại (tức là Ngân hàng Dự trữ) không? Liệu khả năng của nhà nước trong việc đáp ứng mong đợi và tác động của người dân (tức là xã hội, kinh tế, chính trị) sẽ tăng lên hay giảm sút? | |
| Kích thước tác động | Tiêu chí | Mô tả Chi tiết |
| Cuộc sống thường dân | Quản trị và dịch vụ công cộng | Cơ chế quản trị và hệ thống quản trị toàn cầu có thể bị ảnh hưởng tích cực hay tiêu cực? |
| Phương tiện truyền thông tin tức | Diễn ngôn công khai có khả năng trở nên ít nhiều phân cực và cố thủ ở cấp độ dân chúng không? Liệu có ảnh hưởng đến mức độ tin tưởng vào giới truyền thông không? Liệu đạo đức báo chí thông thường và các tiêu chuẩn liêm chính có bị ảnh hưởng thêm không? | |
| Quy tắc của pháp luật | Liệu có ảnh hưởng đến khả năng xác định các cá nhân hoặc tổ chức phải chịu trách nhiệm không (tức là loại trách nhiệm nào được giao cho một thuật toán đối với các kết quả bất lợi)? Điều này có tạo ra sự mất chủ quyền (tức là chính sách môi trường, tài chính, xã hội, đạo đức) không? | |
| Chính trị và sự gắn kết xã hội | Liệu có khả năng có những quan điểm chính trị cố thủ hơn và ít cơ hội xây dựng sự đồng thuận hơn không? Có khả năng có thêm các nhóm bị gạt ra ngoài lề xã hội không? Các phong cách chính trị đối nghịch có khả năng xảy ra nhiều hay ít? | |
| Bối cảnh địa chiến lược/địa chính trị | Giám sát chính xác | Các hệ thống có được đào tạo dựa trên dữ liệu sinh học và hành vi cá nhân không, và nếu có, chúng có thể được sử dụng để khai thác các cá nhân hoặc nhóm không? |
| Thuộc địa kỹ thuật số | Các chủ thể nhà nước hoặc phi nhà nước có thể khai thác các hệ thống và dữ liệu để hiểu và kiểm soát quần thể và hệ sinh thái của các quốc gia khác hoặc làm suy yếu quyền kiểm soát pháp lý không? | |
| Cạnh tranh địa chính trị | Hệ thống có ảnh hưởng đến sự cạnh tranh giữa các quốc gia và nền tảng công nghệ trong việc truy cập dữ liệu cá nhân và tập thể cho mục đích kinh tế hoặc chiến lược không? | |
| Thương mại và hiệp định thương mại | Hệ thống này có tác động đến các hiệp định thương mại quốc tế không? | |
| Sự thay đổi quyền lực toàn cầu | Vị thế của các quốc gia-dân tộc với tư cách là chủ thể địa chính trị chính của thế giới có đang bị đe dọa không? Liệu các công ty công nghệ có nắm giữ quyền lực từng được dành riêng cho các quốc gia và họ có trở thành những chủ thể độc lập có chủ quyền không? | |
| Sai lệch | Các chủ thể nhà nước và phi nhà nước có dễ dàng tạo ra và phổ biến thông tin sai lệch ảnh hưởng đến sự gắn kết, lòng tin và dân chủ xã hội không? | |
| môi trường | Tiêu thụ năng lượng và tài nguyên (dấu chân carbon) | Hệ thống và các yêu cầu có làm tăng mức tiêu thụ năng lượng và tài nguyên hơn mức hiệu quả đạt được thông qua ứng dụng không? |
| Kích thước tác động | Tiêu chí | Mô tả Chi tiết |
| Dữ liệu và đầu vào | Phát hiện và thu thập | Dữ liệu và đầu vào được thu thập bởi con người, cảm biến tự động hay cả hai? |
| Nguồn gốc của dữ liệu | Liên quan đến dữ liệu, những dữ liệu này được cung cấp, quan sát, tổng hợp hay bắt nguồn? Có biện pháp bảo vệ hình mờ để xác nhận xuất xứ không? | |
| Bản chất động của dữ liệu | Dữ liệu có động, tĩnh, được cập nhật theo thời gian hay được cập nhật theo thời gian thực không? | |
| Quyền | Dữ liệu là độc quyền, công khai hay cá nhân (tức là liên quan đến các cá nhân có thể nhận dạng)? | |
| Nhận dạng dữ liệu cá nhân | Nếu dữ liệu cá nhân, chúng được ẩn danh hay đặt bút danh? | |
| Cấu trúc của dữ liệu | Dữ liệu có cấu trúc, bán cấu trúc, cấu trúc phức tạp hay không cấu trúc? | |
| Định dạng của dữ liệu | Định dạng của dữ liệu và siêu dữ liệu được chuẩn hóa hay không được chuẩn hóa? | |
| Quy mô của dữ liệu | Quy mô của tập dữ liệu là gì? | |
| Tính phù hợp và chất lượng của dữ liệu | Tập dữ liệu có phù hợp với mục đích không? Cỡ mẫu có đủ không? Nó có đủ tiêu biểu và đầy đủ không? Dữ liệu ồn ào như thế nào? Nó có dễ bị lỗi không? | |
| Mẫu | thông tin sẵn có | Thông tin về mô hình của hệ thống có sẵn không? |
| Loại mô hình AI | Mô hình này mang tính biểu tượng (quy tắc do con người tạo ra), thống kê (sử dụng dữ liệu) hay kết hợp? | |
| Quyền liên quan đến mô hình | Mô hình này có nguồn mở hay độc quyền, tự quản lý hay bên thứ ba không? | |
| Một hoặc nhiều mô hình | Hệ thống bao gồm một mô hình hay nhiều mô hình được liên kết với nhau? | |
| Sáng tạo hoặc phân biệt đối xử | Mô hình có tính sáng tạo, phân biệt đối xử hay cả hai? | |
| Xây dựng mô hình | Hệ thống có học dựa trên các quy tắc do con người viết ra, từ dữ liệu, thông qua học có giám sát hay thông qua học tăng cường không? | |
| Tiến hóa mô hình (AI drift) | Mô hình có phát triển và/hoặc có được khả năng tương tác với dữ liệu tại hiện trường không? | |
| Học tập liên kết hoặc trung tâm | Mô hình này được đào tạo tập trung hay trong một số máy chủ cục bộ hoặc thiết bị “cạnh”? | |
| Phát triển và bảo trì | Mô hình này có phổ biến, có thể tùy chỉnh hoặc được điều chỉnh cho phù hợp với dữ liệu của tác nhân AI không? | |
| Xác định hoặc xác suất | Mô hình được sử dụng theo cách xác định hay xác suất? | |
| Độ trong suốt của mô hình | Thông tin có sẵn cho người dùng để cho phép họ hiểu các kết quả đầu ra và các hạn chế của mô hình hoặc các ràng buộc sử dụng không? | |
| Giới hạn tính toán | Có giới hạn tính toán nào đối với hệ thống không? Chúng ta có thể dự đoán những bước nhảy vọt về năng lực hoặc quy luật mở rộng quy mô không? | |
| Kích thước tác động | Tiêu chí | Mô tả Chi tiết |
| Nhiệm vụ và đầu ra | (Các) nhiệm vụ do hệ thống thực hiện | Hệ thống thực hiện những nhiệm vụ gì (ví dụ: nhận dạng, phát hiện sự kiện, dự báo)? |
| Kết hợp nhiệm vụ và hành động | Hệ thống có kết hợp một số nhiệm vụ và hành động (ví dụ: hệ thống tạo nội dung, hệ thống tự trị, hệ thống điều khiển) không? | |
| Mức độ tự chủ của hệ thống | Các hành động của hệ thống tự chủ đến mức nào và con người đóng vai trò gì? | |
| Mức độ tham gia của con người | Có sự tham gia của con người để giám sát hoạt động tổng thể của hệ thống AI và khả năng quyết định thời điểm và cách sử dụng hệ thống trong mọi tình huống không? | |
| Ứng dụng cốt lõi | Hệ thống có thuộc lĩnh vực ứng dụng cốt lõi như công nghệ ngôn ngữ con người, thị giác máy tính, tự động hóa và/hoặc tối ưu hóa hay robot không? | |
| Đánh giá | Các tiêu chuẩn hoặc phương pháp có sẵn để đánh giá kết quả đầu ra của hệ thống hoặc xử lý các đặc tính phát sinh không lường trước được không? | |
Chìa khóa để nguồn mô tả
Văn bản thô:
Gluckman, P. và Allen, K. 2018. Hiểu rõ về phúc lợi trong bối cảnh chuyển đổi kỹ thuật số nhanh chóng và liên quan. INGSA. https://ingsa.org/wp-content/uploads/2023/01/INGSA-Digital-Wellbeing-Sept18.pdf
Chữ in đậm:
OECD. 2022. Khung phân loại hệ thống AI của OECD. Tài liệu về kinh tế số của OECD, số 323, Nhà xuất bản OECD, Paris. https://oecd.ai/en/classification
Văn bản nghiêng:
Bộ mô tả mới (từ nhiều nguồn)
Một con đường phía trước
Tùy thuộc vào phản hồi đối với tài liệu thảo luận này, ISC sẽ thành lập một nhóm công tác chuyên gia để tiếp tục phát triển hoặc sửa đổi khung phân tích trên để các bên liên quan có thể xem xét toàn diện bất kỳ sự phát triển quan trọng nào về nền tảng hoặc kích thước sử dụng. Nhóm làm việc sẽ đa dạng về mặt kỷ luật, địa lý và nhân khẩu học, với chuyên môn trải dài từ đánh giá công nghệ đến chính sách công, từ phát triển con người đến xã hội học, tương lai và nghiên cứu công nghệ.
Để tham gia vào tài liệu thảo luận này, vui lòng truy cập Council.science/publications/framework-digital-technology
Lời cảm ơn
Nhiều người đã được tham khảo ý kiến trong quá trình phát triển bài báo này, được soạn thảo bởi Sir Peter Gluckman, Chủ tịch ISC và Hema Sridhar, cựu Trưởng nhóm khoa học, Bộ Quốc phòng, và hiện là nghiên cứu viên cao cấp, Đại học Auckland, New Zealand.
Đặc biệt, chúng tôi xin cảm ơn Lord Martin Rees, cựu Chủ tịch Hiệp hội Hoàng gia và đồng sáng lập Trung tâm Nghiên cứu Rủi ro Sinh tồn, Đại học Cambridge; Giáo sư Shivaji Sondhi, Giáo sư Vật lý, Đại học Oxford; Giáo sư K Vijay Raghavan, nguyên cố vấn khoa học chính của Chính phủ Ấn Độ; Amandeep Singh Gill, Đặc phái viên về Công nghệ của Tổng Thư ký LHQ; Tiến sĩ Seán Óh Éigeartaigh, Giám đốc Điều hành, Trung tâm Nghiên cứu Rủi ro Hiện sinh, Đại học Cambridge; Amanda- June Brawner, Cố vấn chính sách cấp cao và Ian Wiggins, Giám đốc quan hệ quốc tế, Hiệp hội Hoàng gia Vương quốc Anh; Tiến sĩ Jerome Duberry, Tiến sĩ Marie-Laure Salles, Giám đốc Viện Sau đại học Geneva; ông Chor Pharn Lee, Trung tâm Chiến lược Tương lai, Văn phòng Thủ tướng, Singapore; Barend Mons và Tiến sĩ Simon Hodson, Ủy ban Dữ liệu (CoDATA); GS Yuko Harayama, Nhật Bản; Giáo sư Rémi Quirion, Chủ tịch, INGSA; Tiến sĩ Claire Craig, Đại học Oxford và Nguyên Trưởng phòng Dự báo, Văn phòng Khoa học Chính phủ; và Giáo sư Yoshua Bengio, Ban cố vấn khoa học của Tổng thư ký Liên hợp quốc và tại Đại học Montréal. Cách tiếp cận danh sách kiểm tra thường được xác nhận và tính kịp thời của bất kỳ hành động nào của ISC đều được nhấn mạnh.
Hình ảnh: adamichi trên iStock