Ý kiến | Con dao hai lưỡi của trí tuệ nhân tạo nói chung: Kiểm soát sự phát triển và tránh khủng hoảng

Tác giả: Hồ Nghị

Nguồn: The Paper

Nguồn hình ảnh: Được tạo bởi công cụ Unbounded AI

Gần đây, Sébastien Bubeck, người đứng đầu Nhóm lý thuyết máy học tại Viện nghiên cứu Microsoft Redmond, cùng với Li Yuanzhi, người chiến thắng Giải thưởng nghiên cứu Sloan 2023, đã xuất bản một bài báo rất được quan tâm. Bài báo có tiêu đề "Tia sáng của trí tuệ nhân tạo nói chung: Những thử nghiệm ban đầu với GPT-4" dài 154 trang. Một số người tốt đã tìm thấy từ mã nguồn LaTex rằng tiêu đề ban đầu thực sự là "Lần đầu tiếp xúc với AGI".

Việc xuất bản bài báo này đánh dấu một cột mốc quan trọng trong lĩnh vực nghiên cứu trí tuệ nhân tạo. Nó cung cấp những hiểu biết có giá trị về sự hiểu biết sâu sắc của chúng ta về sự phát triển và ứng dụng của trí tuệ nhân tạo chung (AGI). Đồng thời, tiêu đề ban đầu của bài báo, "Tiếp xúc đầu tiên với AGI", cũng nhấn mạnh tầm quan trọng và hướng tới tương lai của việc khám phá trí tuệ nhân tạo nói chung.

Tôi kiên nhẫn đọc bản dịch của bài báo này. Thành thật mà nói, tôi nửa hiểu nửa không hiểu, và tôi không biết chuyện gì đang xảy ra. Trước tiên, hãy để tôi giới thiệu đề xuất cốt lõi của bài báo này: GPT-4 trình bày một dạng trí thông minh chung, làm nở rộ tia sáng của trí tuệ nhân tạo nói chung. Điều này được thể hiện trong các khả năng tinh thần cốt lõi của nó (chẳng hạn như lý luận, sáng tạo và suy luận), phạm vi các chủ đề mà nó có được kiến thức chuyên môn (như văn học, y học và mã hóa) và nhiều loại nhiệm vụ mà nó có thể thực hiện (chẳng hạn như chơi trò chơi, sử dụng công cụ, giải thích về bản thân, v.v.).

Sau khi đọc bài viết này, tôi đã xem lại bài viết của mình "Tương lai có thể được mong đợi|Tranh trí tuệ nhân tạo: Hãy để mọi người trở thành nghệ sĩ". Tôi đã tự hỏi mình một câu hỏi: Việc phân loại các mô hình lớn như ChatGPT trong nội dung được tạo bằng trí tuệ nhân tạo (AIGC) trước đây có hơi hẹp không? Như bài báo Nghiên cứu của Microsoft đã nêu, GPT-4 thực sự không chỉ là AIGC, nó giống nguyên mẫu của trí tuệ nhân tạo nói chung hơn.

Trước khi giải thích ý nghĩa của AGI, hãy để tôi nói với độc giả của chuyên mục "Dự kiến trong tương lai" của The Paper về ba từ ANI, AGI và ASI.

Trí tuệ nhân tạo (AI) thường được chia thành ba cấp độ:

① Trí tuệ nhân tạo yếu (Artificial Narrow Intelligence, ANI);

② Trí tuệ tổng hợp nhân tạo (AGI);

③ Siêu trí tuệ nhân tạo (ASI).

Tiếp theo, tôi sẽ giới thiệu sơ lược về sự khác biệt và phát triển của ba cấp độ này.

①Trí tuệ nhân tạo yếu (ANI):

AI yếu cho đến nay là dạng AI phổ biến nhất. Nó tập trung vào việc thực hiện một nhiệm vụ đơn lẻ hoặc giải quyết một vấn đề trong một lĩnh vực cụ thể. Ví dụ: nhận dạng hình ảnh, nhận dạng giọng nói, dịch máy, v.v. Những hệ thống thông minh như vậy có thể tốt hơn con người trong một số nhiệm vụ nhất định, nhưng chúng chỉ có thể hoạt động ở một mức độ hạn chế và không thể xử lý các vấn đề mà chúng không được thiết kế để giải quyết. Có rất nhiều sản phẩm và dịch vụ thông minh trên thị trường hiện nay, chẳng hạn như trợ lý ảo (Siri, Microsoft Xiaoice, v.v.), loa thông minh (Tmall Genie, Xiaoai Speaker, v.v.) và AlphaGo, tất cả đều thuộc loại yếu. trí tuệ nhân tạo. Hạn chế của trí tuệ nhân tạo yếu kém là thiếu hiểu biết toàn diện và khả năng phán đoán, chỉ có thể thực hiện tốt những nhiệm vụ cụ thể.

Với sự phát triển không ngừng của dữ liệu lớn, thuật toán và sức mạnh tính toán, trí tuệ nhân tạo yếu ớt đang dần xâm nhập vào mọi lĩnh vực trong cuộc sống hàng ngày của chúng ta. Trong các lĩnh vực tài chính, y tế, giáo dục, giải trí, v.v., chúng ta đã chứng kiến rất nhiều trường hợp ứng dụng thành công.

②Trí tuệ nhân tạo chung (AGI):

Trí tuệ nhân tạo nói chung, còn được gọi là trí tuệ nhân tạo mạnh, dùng để chỉ trí tuệ nhân tạo có trí thông minh giống con người và có thể thực hiện tất cả các hành vi thông minh của con người bình thường. Điều này có nghĩa là AGI có thể học, hiểu, thích nghi và giải quyết các vấn đề trong các lĩnh vực khác nhau giống như con người. Không giống như ANI, AGI có thể hoàn thành độc lập nhiều nhiệm vụ khác nhau chứ không chỉ giới hạn trong một lĩnh vực cụ thể. Hiện tại, trí tuệ nhân tạo nói chung được cho là vẫn chưa đạt được, nhưng nhiều công ty công nghệ và nhà khoa học đang nỗ lực để tiến gần hơn đến mục tiêu này.

③ Siêu trí tuệ nhân tạo (ASI):

Siêu trí tuệ nhân tạo đề cập đến một hệ thống trí tuệ nhân tạo vượt xa trí thông minh của con người trong các lĩnh vực khác nhau. Nó không chỉ có thể hoàn thành các nhiệm vụ khác nhau mà con người có thể hoàn thành mà còn vượt xa con người về khả năng sáng tạo, khả năng ra quyết định và tốc độ học tập. Sự xuất hiện của ASI có thể kích hoạt nhiều đột phá công nghệ và thay đổi xã hội chưa từng có, đồng thời giải quyết những vấn đề khó khăn mà con người không thể giải quyết.

Tuy nhiên, ASI cũng mang đến một loạt rủi ro tiềm ẩn. Ví dụ, nó có thể dẫn đến việc đánh mất giá trị và nhân phẩm của con người, gây ra sự lạm dụng và lạm dụng trí tuệ nhân tạo, thậm chí có thể dẫn đến sự nổi loạn của trí tuệ nhân tạo và các vấn đề khác.

Hóa ra chúng ta luôn tin rằng công nghệ trí tuệ nhân tạo, từ trí tuệ nhân tạo yếu kém đến trí tuệ nhân tạo phổ thông đến siêu trí tuệ nhân tạo, sẽ trải qua một quá trình phát triển lâu dài và phức tạp. Trong quá trình này, chúng ta có đủ thời gian để thực hiện nhiều khâu chuẩn bị khác nhau, từ luật pháp, quy định cho đến chuẩn bị tâm lý của mỗi cá nhân. Tuy nhiên, gần đây, tôi có cảm giác mạnh mẽ rằng chúng ta có thể chỉ còn vài bước nữa là có trí tuệ nhân tạo nói chung và có thể chỉ mất 20 năm hoặc ít hơn. Nếu ai đó nói rằng quá trình này sẽ chỉ mất 5-10 năm, tôi sẽ không loại trừ hoàn toàn.

OpenAI đã đề cập trong "Lập kế hoạch và triển vọng cho AGI" của mình: "AGI có khả năng mang lại những khả năng mới đáng kinh ngạc cho mọi người. Chúng ta có thể tưởng tượng một thế giới nơi tất cả chúng ta có thể nhận được hầu hết mọi Hỗ trợ trong các nhiệm vụ nhận thức, cung cấp một hệ số nhân lực khổng lồ cho con người thông minh và sáng tạo”.

Tuy nhiên, kế hoạch này nhấn mạnh quá trình "chuyển đổi dần dần", thay vì nhấn mạnh quá mức vào khả năng mạnh mẽ của AGI. "Cho mọi người, các nhà hoạch định chính sách và các tổ chức thời gian để hiểu những gì đang diễn ra, để tự mình trải nghiệm mặt tốt và mặt xấu của các hệ thống này, để điều chỉnh nền kinh tế của chúng ta và đưa ra quy định."

Theo tôi, thông điệp cơ bản mà đoạn văn này truyền tải là công nghệ dẫn đến AGI đã có sẵn. Tuy nhiên, để xã hội loài người có quá trình thích ứng, OpenAI đang cố tình làm chậm tốc độ tiến bộ công nghệ. Họ dự định cân bằng giữa tiến bộ công nghệ và sự sẵn sàng của xã hội loài người, dành nhiều thời gian hơn cho các cuộc thảo luận về luật pháp, đạo đức và thích ứng xã hội, đồng thời thực hiện các biện pháp cần thiết để đối phó với những thách thức có thể phát sinh.

Trong "Luận ngữ về cuộc chinh phục Zhuanyu của Khổng Tử · Ji": "Miệng hổ từ trong cạp", bây giờ các loại GPT, giống như hổ, đã thoát khỏi lồng của chúng. Như Yuval Noah Harari, tác giả cuốn “Lược sử về tương lai” đã nói: Trí tuệ nhân tạo đang làm chủ ngôn ngữ với khả năng vượt xa trình độ trung bình của con người. Bằng cách làm chủ ngôn ngữ, trí tuệ nhân tạo đã có khả năng tạo mối quan hệ mật thiết với hàng trăm triệu người trên quy mô lớn và đang nắm giữ chìa khóa để xâm chiếm hệ thống văn minh nhân loại. Ông cảnh báo thêm: Sự khác biệt lớn nhất giữa vũ khí hạt nhân và trí tuệ nhân tạo là vũ khí hạt nhân không thể tạo ra vũ khí hạt nhân mạnh hơn. Nhưng **AI có thể tạo ra một AI mạnh hơn, vì vậy chúng ta cần hành động nhanh chóng trước khi AI vượt khỏi tầm kiểm soát. **

Vào ngày 22 tháng 3, Viện Cuộc sống Tương lai (Future of Life) đã gửi một bức thư ngỏ tới toàn xã hội với tựa đề "Đình chỉ nghiên cứu trí tuệ nhân tạo khổng lồ: Thư ngỏ", kêu gọi tất cả các phòng thí nghiệm trí tuệ nhân tạo ngay lập tức đình chỉ việc so sánh GPT- 4 Đào tạo các hệ thống AI mạnh hơn với thời gian tạm dừng ít nhất 6 tháng. Landon Klein, giám đốc chính sách của Hoa Kỳ tại Viện Cuộc sống Tương lai, cho biết: "Chúng tôi thấy thời điểm hiện tại giống như sự khởi đầu của thời đại hạt nhân..." Bức thư ngỏ này đã được hơn một nghìn người ủng hộ, bao gồm cả Elon Musk (Người sáng lập Tesla), Sam Altman (CEO của OpenAI), Joshua Bengio (người giành giải thưởng Turing năm 2018) và những người nổi tiếng khác.

Nếu nhiều người nhận ra rằng chúng ta sắp bước vào kỷ nguyên "phổ biến hạt nhân AI", thì chúng ta thực sự cần khám phá một khả năng. Khả năng này là thành lập một tổ chức quốc tế tương tự như Cơ quan Năng lượng Nguyên tử Quốc tế, với mục tiêu giám sát tất cả các công ty trí tuệ nhân tạo, dựa trên số lượng GPU họ sử dụng, mức tiêu thụ năng lượng và các chỉ số khác. Các hệ thống vượt quá ngưỡng khả năng phải được kiểm toán. Thông qua các tổ chức quốc tế như thế này, chúng ta có thể làm việc cùng nhau để đảm bảo rằng các công nghệ AI mang lại lợi ích cho nhân loại, thay vì những tác hại tiềm tàng.

Một số nhà khoa học chủ trương khi đẩy mạnh nghiên cứu và ứng dụng trí tuệ nhân tạo cần tránh khả năng hệ thống trí tuệ nhân tạo vượt quá khả năng kiểm soát của con người. Họ đã tạo ra một số phép ẩn dụ để mô tả thảm họa đang diễn ra, bao gồm "một đứa trẻ 10 tuổi cố gắng chơi cờ với Stockfish 15", "thế kỷ 11 cố gắng chống lại thế kỷ 21" và "Australopithecus cố gắng chống lại Homo sapiens". Các nhà khoa học này muốn chúng ta ngừng tưởng tượng AGI là "một nhà tư tưởng vô tri vô giác sống trên Internet." Thay vào đó, hãy tưởng tượng họ là cả một nền văn minh ngoài hành tinh suy nghĩ nhanh hơn con người hàng triệu lần. Chỉ là ban đầu chúng bị giới hạn trong máy tính.

Tuy nhiên, một số nhà khoa học tỏ ra lạc quan. Theo quan điểm của họ, việc phát triển và nghiên cứu trí tuệ nhân tạo nên tiếp tục thúc đẩy tiến bộ khoa học và đổi mới công nghệ. Họ so sánh rằng nếu ở thời đại mà ô tô ra đời, nếu một người đánh xe đề nghị người tài xế đó sẽ bị đình chỉ lái xe trong 6 tháng. Bây giờ nhìn lại, đây có phải là hành vi của một con bọ ngựa hành động như một chiếc xe đẩy? Họ tin rằng thông qua phương pháp nghiên cứu minh bạch và có trách nhiệm, các vấn đề cơ bản có thể được giải quyết và khả năng kiểm soát của các công nghệ AI được đảm bảo. Hơn nữa, thông qua thử nghiệm và thực hành liên tục, chúng ta có thể hiểu rõ hơn và ứng phó với những thách thức mà trí tuệ nhân tạo có thể mang lại.

Mới đây, Tổ chức Y tế Thế giới (WHO) đã đưa ra cảnh báo về sự kết hợp giữa trí tuệ nhân tạo và chăm sóc sức khỏe cộng đồng. Họ chỉ ra rằng việc dựa vào dữ liệu do AI tạo ra để ra quyết định có thể có nguy cơ sai lệch hoặc bị lạm dụng. Trong một tuyên bố, WHO cho biết điều quan trọng là phải đánh giá các rủi ro khi sử dụng các mô hình ngôn ngữ lớn tổng quát (LLM) như ChatGPT để bảo vệ và thúc đẩy sức khỏe con người. Họ nhấn mạnh rằng cần có các bước để đảm bảo tính chính xác, độ tin cậy và tính công bằng trong việc sử dụng các công nghệ này để bảo vệ lợi ích công cộng và thúc đẩy lĩnh vực y tế.

Nhiều quốc gia đã thực hiện các bước để điều chỉnh lĩnh vực trí tuệ nhân tạo. Vào ngày 31 tháng 3, Cơ quan bảo vệ dữ liệu cá nhân của Ý đã thông báo rằng việc sử dụng ChatGPT sẽ tạm thời bị cấm kể từ bây giờ. Đồng thời, các quan chức EU cũng đang nghiên cứu dự thảo luật mới mang tên "Đạo luật trí tuệ nhân tạo (AI Act)", bao gồm: cấm sử dụng các dịch vụ trí tuệ nhân tạo cụ thể và xây dựng các quy phạm pháp luật liên quan.

Bộ Thương mại Hoa Kỳ đã đưa ra một thông báo để lấy ý kiến công chúng, bao gồm: liệu các mô hình trí tuệ nhân tạo mới có nguy cơ gây hại có cần được xem xét trước khi chúng có thể được phát hành hay không. Đồng thời, Bộ Thương mại cũng hứa sẽ trấn áp các sản phẩm trí tuệ nhân tạo có hại vi phạm quyền công dân và luật bảo vệ người tiêu dùng.

Ngày 16/5, CEO kiêm đồng sáng lập OpenAI Sam Altman lần đầu tiên tham gia phiên điều trần trước Quốc hội Mỹ, phát biểu về những nguy cơ tiềm ẩn của công nghệ trí tuệ nhân tạo. Ông thừa nhận rằng khi trí tuệ nhân tạo tiến bộ, người ta lo lắng và lo lắng về việc nó sẽ thay đổi cách chúng ta sống như thế nào. Cuối cùng, ông tin rằng sự can thiệp của chính phủ có thể ngăn chặn trí tuệ nhân tạo "tự sao chép và tự xâm nhập". Ông đề xuất thành lập một cơ quan quản lý hoàn toàn mới sẽ thực hiện các biện pháp bảo vệ cần thiết và cấp giấy phép cho các hệ thống AI, với quyền thu hồi chúng.

Tại phiên điều trần, Altman được hỏi mối quan tâm lớn nhất của ông về tiềm năng của trí tuệ nhân tạo là gì, ông không nói rõ mà chỉ nói rằng "nếu công nghệ này gặp trục trặc, nó có thể rất sai lầm" và có thể "gây ra tác hại đáng kể cho thế giới". .

Trước phiên điều trần này, các biện pháp quản lý và kiểm soát của Trung Quốc trong lĩnh vực trí tuệ nhân tạo cũng đã thu hút sự chú ý rộng rãi. Vào ngày 11 tháng 4, để thúc đẩy sự phát triển lành mạnh và ứng dụng tiêu chuẩn hóa công nghệ trí tuệ nhân tạo tổng quát, theo "Luật An ninh mạng của Cộng hòa Nhân dân Trung Hoa" và các luật và quy định khác, Cục Quản lý Không gian mạng Trung Quốc đã soạn thảo "Quy trình Quản lý Các biện pháp cho các dịch vụ trí tuệ nhân tạo sáng tạo (Dự thảo để lấy ý kiến)" ". Cách tiếp cận này làm rõ thái độ ủng hộ và khuyến khích đối với ngành công nghiệp trí tuệ nhân tạo sáng tạo, ví dụ: “Nhà nước hỗ trợ đổi mới sáng tạo độc lập, quảng bá và ứng dụng và hợp tác quốc tế các công nghệ cơ bản như thuật toán và khuôn khổ trí tuệ nhân tạo, đồng thời khuyến khích việc áp dụng ưu tiên phần mềm và công cụ an toàn và đáng tin cậy. , máy tính và tài nguyên dữ liệu.”

Dự thảo lấy ý kiến yêu cầu nội dung do trí tuệ nhân tạo sáng tạo tạo ra phải phản ánh các giá trị cốt lõi của chủ nghĩa xã hội, không chứa nội dung lật đổ chính quyền, lật đổ hệ thống xã hội chủ nghĩa, kích động chia rẽ đất nước, phá hoại đoàn kết dân tộc, cổ vũ khủng bố, cực đoan, thúc đẩy hận thù sắc tộc, phân biệt sắc tộc, bạo lực, thông tin tục tĩu và khiêu dâm, thông tin sai lệch và nội dung có thể phá vỡ trật tự kinh tế và xã hội. Dự thảo lấy ý kiến cũng yêu cầu các nhà cung cấp tuyên bố đánh giá an toàn, thực hiện các biện pháp ngăn chặn phân biệt đối xử và tôn trọng quyền riêng tư.

Các biện pháp tập thể được thực hiện bởi các quốc gia này nhắc nhở chúng ta rằng sự phát triển trí tuệ nhân tạo hiện nay mang đến những cơ hội và thách thức lớn. Chúng tôi rất cần các hướng dẫn và quy định đạo đức rõ ràng để đảm bảo việc sử dụng hợp lý và minh bạch các công nghệ AI. Chúng ta sẽ đối mặt với một loạt câu hỏi quan trọng: Làm thế nào để đảm bảo quyền riêng tư và bảo mật dữ liệu? Làm thế nào để đối phó với sự thiên vị thuật toán và sự bất công? Làm cách nào để đảm bảo tính minh bạch và khả năng giải thích của việc ra quyết định bằng trí tuệ nhân tạo? Những vấn đề này cần được giải đáp thông qua các quy định và thể chế rõ ràng.

Khi viết những dòng này, không hiểu sao tôi lại nghĩ đến đoạn đầu tiên của bài thơ có tựa đề "The Long Season" trong bộ phim truyền hình nổi tiếng gần đây trong nước "The Long Season":

búng ngón tay của bạn, anh ấy nói

Hãy búng ngón tay của chúng ta

những thứ xa xôi sẽ tan vỡ

Những người trước mặt tôi vẫn chưa biết điều đó

Ở đây, tôi muốn đưa ra một dự đoán táo bạo: khi năm 2024 đến và chúng ta tiến hành bầu chọn từ của năm 2023, ChatGPT sẽ là một trong mười từ hot nhất, thậm chí có thể trở thành từ của năm hoặc nhân vật của năm .

Hãy chia nhỏ từ "AI". Nếu A là viết tắt của Angel (Thiên thần) thì I có thể là Devil (Iblis). Ngày nay, công nghệ trí tuệ nhân tạo đang phát triển như vũ bão cho thấy mối quan hệ cộng sinh đáng kinh ngạc giữa “thiên thần và ác quỷ”. Đối mặt với thực tế này, chúng ta cần hành động vì một mục tiêu - "hãy để chúng ta tận hưởng một vụ thu hoạch vàng và lâu dài của trí tuệ nhân tạo, thay vì rơi vào một mùa đông lạnh giá mà không được chuẩn bị."

(Tác giả Hu Yi, một nhân viên dữ liệu lớn thích tưởng tượng về tương lai.)

Xem bản gốc
Nội dung chỉ mang tính chất tham khảo, không phải là lời chào mời hay đề nghị. Không cung cấp tư vấn về đầu tư, thuế hoặc pháp lý. Xem Tuyên bố miễn trừ trách nhiệm để biết thêm thông tin về rủi ro.
  • Phần thưởng
  • Bình luận
  • Chia sẻ
Bình luận
0/400
Không có bình luận
  • Ghim
Giao dịch tiền điện tử mọi lúc mọi nơi
qrCode
Quét để tải xuống ứng dụng Gate.io
Cộng đồng
Tiếng Việt
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)