Думка | Двосічний меч загального штучного інтелекту: контроль розвитку та уникнення криз

Автор: Ху І

Джерело: The Paper

Джерело зображення: створено інструментом Unbounded AI

Нещодавно Себастьєн Бубек, керівник групи теорії машинного навчання в Редмондському дослідницькому інституті Microsoft, і Лі Юаньчжі, лауреат премії Sloan Research Award 2023, опублікували статтю, яка привернула увагу. Стаття під назвою «Іскра загального штучного інтелекту: ранні експерименти з GPT-4» має 154 сторінки. Деякі добрі люди знайшли з вихідного коду LaTex, що оригінальна назва насправді була «Перший контакт з AGI».

Публікація цієї статті знаменує собою важливу віху в галузі досліджень штучного інтелекту. Він дає цінну інформацію про наше глибоке розуміння розробки та застосування загального штучного інтелекту (AGI). У той же час оригінальна назва статті «Перший контакт з AGI» також підкреслює важливість і перспективність дослідження загального штучного інтелекту.

Я терпляче прочитав перекладену версію цієї статті. Чесно кажучи, я наполовину розумію, наполовину не розумію, і не знаю, що відбувається. Дозвольте мені спочатку представити основну пропозицію цієї статті: GPT-4 представляє форму загального інтелекту, розквітаючи іскру загального штучного інтелекту. Це проявляється в його основних розумових здібностях (таких як міркування, креативність і дедукція), діапазоні тем, у яких він набуває досвіду (наприклад, література, медицина та кодування), і різноманітності завдань, які він може виконувати (наприклад, грати в ігри, використовувати інструменти, пояснювати себе тощо).

Прочитавши цю статтю, я знову переглянув свою статтю «Майбутнє можна очікувати|Малюнок штучного інтелекту: нехай кожен стане художником». Я поставив собі запитання: чи раніше класифікувати великі моделі, такі як ChatGPT, у створеному штучним інтелектом (AIGC) вмісті? Як зазначено в дослідницькій роботі Microsoft, GPT-4 насправді не просто AIGC, це більше схоже на прототип загального штучного інтелекту.

Перш ніж пояснювати, що означає AGI, дозвольте мені розповісти читачам колонки The Paper «Очікуване майбутнє» три слова ANI, AGI та ASI.

Штучний інтелект (AI) зазвичай поділяють на три рівні:

① Слабкий штучний інтелект (Artificial Narrow Intelligence, ANI);

② Штучний загальний інтелект (AGI);

③ Штучний суперінтелект (ASI).

Далі я коротко розповім про відмінності та розвиток цих трьох рівнів.

①Слабкий штучний інтелект (ANI):

Слабкий штучний інтелект є найпоширенішою формою штучного інтелекту. Він зосереджений на виконанні одного завдання або розв’язанні проблеми в певній області. Наприклад, розпізнавання зображень, розпізнавання мови, машинний переклад тощо. Такі інтелектуальні системи можуть бути кращими за людей у певних завданнях, але вони можуть працювати лише в обмеженій мірі та не можуть справлятися з проблемами, для вирішення яких вони не створені. Сьогодні на ринку є багато розумних продуктів і послуг, таких як віртуальні помічники (Siri, Microsoft Xiaoice тощо), розумні динаміки (Tmall Genie, Xiaoai Speaker тощо) і AlphaGo, які належать до категорії слабких штучний інтелект. Обмеження слабкого штучного інтелекту полягає в тому, що йому не вистачає повного розуміння та здатності судити, і він може добре виконувати лише конкретні завдання.

З постійним розвитком великих даних, алгоритмів і обчислювальної потужності слабкий штучний інтелект поступово проникає в усі сфери нашого повсякденного життя. У сферах фінансів, медицини, освіти, розваг тощо ми стали свідками багатьох успішних заявок.

②Загальний штучний інтелект (AGI):

Загальний штучний інтелект, також відомий як потужний штучний інтелект, відноситься до штучного інтелекту, який має такий самий інтелект, як і людина, і може виконувати всі розумні дії звичайних людей. Це означає, що AGI може вивчати, розуміти, адаптувати та вирішувати проблеми в різних сферах, як і люди. На відміну від ANI, AGI може самостійно виконувати різноманітні завдання, не обмежуючись лише певною сферою. В даний час вважається, що загальний штучний інтелект ще не досягнутий, але багато технологічних компаній і вчених наполегливо працюють, щоб наблизитися до цієї мети.

③ Суперштучний інтелект (ASI):

Суперштучний інтелект відноситься до системи штучного інтелекту, яка значно перевершує людський інтелект у різних сферах. Він може не тільки виконувати різноманітні завдання, які можуть виконати люди, але й значно перевершувати людей за креативністю, здатністю приймати рішення та швидкістю навчання. Поява ASI може спровокувати багато безпрецедентних технологічних проривів і соціальних змін, а також вирішити складні проблеми, які люди не можуть вирішити.

Однак ASI також несе з собою ряд потенційних ризиків. Наприклад, це може призвести до втрати людської цінності та гідності, спровокувати зловживання та неправильне використання штучного інтелекту, і навіть може призвести до повстання штучного інтелекту та інших проблем.

Виявляється, ми завжди вірили, що технології штучного інтелекту, від слабкого штучного інтелекту до загального штучного інтелекту та суперштучного інтелекту, пройдуть тривалий і складний процес розробки. У цьому процесі ми маємо достатньо часу, щоб зробити різноманітні приготування, починаючи від законів і нормативних актів і закінчуючи психологічною підготовкою кожної людини. Однак останнім часом я відчуваю, що ми можемо бути лише за кілька кроків від загального штучного інтелекту, і це може зайняти лише 20 років або менше. Якщо хтось каже, що процес триватиме лише 5-10 років, я б не виключав цього повністю.

OpenAI згадує у своєму «Плануванні та перспективах для AGI»: «AGI має потенціал, щоб надати неймовірні нові можливості кожному. Ми можемо уявити світ, де кожен може отримати майже будь-яку допомогу в когнітивних завданнях, забезпечуючи величезний примножувач сили для людини інтелект і креативність».

Однак цей план наголошує на процесі «поступового переходу», а не надмірно наголошує на потужних можливостях AGI. «Надати людям, політикам та інституціям час зрозуміти, що відбувається, відчути на собі переваги та недоліки цих систем, налагодити нашу економіку та запровадити регулювання».

На мій погляд, основне повідомлення, яке передає цей фрагмент, полягає в тому, що технологія, яка веде до AGI, уже існує. Однак, щоб дозволити людському суспільству пройти процес адаптації, OpenAI навмисно уповільнює темпи технологічного прогресу. Вони мають намір збалансувати технологічний прогрес і готовність людського суспільства, надаючи більше часу для правових, етичних і соціальних дискусій щодо адаптації та вживаючи необхідних заходів для вирішення проблем, які можуть виникнути.

У «Оповіданнях про завоювання Чжуанью генералом Конфуція·Цзі» є таке речення: «Паща тигра вийшла зі скорпіона».Тепер усі види ГПТ, як тигри, втекли зі своїх кліток. Як сказав Юваль Ноа Харарі, автор «Короткої історії майбутнього», штучний інтелект оволодіває мовою зі здатністю, яка перевищує середній людський рівень. Освоївши мову, штучний інтелект уже має здатність створювати інтимні стосунки з сотнями мільйонів людей у великих масштабах і тримає ключ до вторгнення в систему людської цивілізації. Крім того, він попередив: найбільша різниця між ядерною зброєю та штучним інтелектом полягає в тому, що ядерна зброя не може створити більш потужну ядерну зброю. Але **ШІ може створити потужніший ШІ, тому нам потрібно діяти швидко, поки ШІ не вийде з-під контролю. **

22 березня Інститут майбутнього життя (Future of Life) виступив із відкритим листом до всього суспільства під назвою «Призупинення досліджень гігантського штучного інтелекту: відкритий лист», у якому закликав усі лабораторії штучного інтелекту негайно призупинити порівняння GPT- 4 Навчання більш потужних систем ШІ з перервою не менше 6 місяців. Лендон Кляйн, директор політики США в Інституті майбутнього життя, сказав: «Ми бачимо нинішній момент як початок ядерної ери...» Цей відкритий лист підтримали більше тисячі людей, включаючи Ілона. Маск (засновник Tesla), Сем Альтман (генеральний директор OpenAI), Джошуа Бенгіо (лауреат премії Тюрінга в 2018 році) та інші відомі люди.

Якщо багато людей усвідомлюють, що ми ось-ось вступимо в еру «розповсюдження ядерної зброї зі штучним інтелектом», то нам дійсно потрібно вивчити таку можливість. Ця можливість полягає у створенні міжнародної організації, подібної до Міжнародного агентства з атомної енергії, метою якої є нагляд за всіма компаніями штучного інтелекту на основі кількості графічних процесорів, які вони використовують, споживання енергії та інших показників. Системи, які перевищують порогові значення можливостей, підлягають аудиту. Через подібні міжнародні організації ми можемо працювати разом, щоб технології ШІ приносили людству користь, а не потенційну шкоду.

Деякі вчені стверджують, що, просуваючи дослідження та застосування штучного інтелекту, необхідно уникати здатності системи штучного інтелекту виходити за межі контролю людини. Вони використали кілька метафор, щоб описати катастрофу, яка розгорталася, зокрема «10-річний підліток намагався зіграти в шахи з Stockfish 15», «XI століття намагався боротися з XXI століттям» і «австралопітек намагався боротися з людиною». розумний». Ці вчені хочуть, щоб ми припинили уявляти AGI як «неживого мислителя, який живе в Інтернеті». Натомість уявіть їх як цілу інопланетну цивілізацію, яка мислить у мільйон разів швидше за людей. Просто спочатку вони були обмежені комп’ютерами.

Однак деякі вчені налаштовані оптимістично. На їхню думку, розробка та дослідження штучного інтелекту повинні продовжувати сприяти науковому прогресу та технологічним інноваціям. Вони порівняли, що якби в епоху, коли народився автомобіль, кучер запропонував відсторонити водія від керування на 6 місяців. Озираючись назад, чи це поведінка богомола, який поводиться як візок? Вони вірять, що за допомогою прозорого та підзвітного дослідницького підходу можна вирішити основні проблеми та забезпечити контрольованість технологій ШІ. Крім того, завдяки безперервним експериментам і практиці ми можемо краще зрозуміти виклики, які може принести штучний інтелект, і відповісти на них.

Нещодавно Всесвітня організація охорони здоров’я (ВООЗ) попередила про поєднання штучного інтелекту та охорони здоров’я. Вони зазначають, що покладатися на дані, згенеровані штучним інтелектом, для прийняття рішень може бути під загрозою упередженості або зловживання. У заяві ВООЗ зазначено, що критично важливо оцінити ризики використання генеративних великих мовних моделей (LLM), таких як ChatGPT, для захисту та сприяння добробуту людей. Вони підкреслюють, що необхідні кроки для забезпечення точності, надійності та неупередженості у використанні цих технологій для захисту суспільних інтересів і розвитку галузі медицини.

Багато країн вже зробили кроки для регулювання сфери штучного інтелекту. 31 березня італійське агентство із захисту персональних даних оголосило, що відтепер використання ChatGPT буде тимчасово заборонено. У той же час офіційні особи ЄС також працюють над новим законопроектом під назвою «Закон про штучний інтелект (Акт)», який включає: заборону використання конкретних служб штучного інтелекту та формулювання відповідних правових норм.

Міністерство торгівлі США опублікувало повідомлення, щоб отримати коментарі громадськості, зокрема: чи потрібно переглядати нові моделі штучного інтелекту, які створюють ризик шкоди, перш ніж їх можна буде оприлюднити. У той же час Міністерство торгівлі також пообіцяло боротися зі шкідливими продуктами штучного інтелекту, які порушують громадянські права та закони про захист прав споживачів.

16 травня генеральний директор і співзасновник OpenAI Сем Альтман вперше взяв участь у слуханнях Конгресу США, виступивши з доповіддю про потенційну небезпеку технології штучного інтелекту. Він визнав, що в міру розвитку штучного інтелекту виникає занепокоєння та тривога щодо того, як він змінить спосіб нашого життя. З цією метою він вважає, що державне втручання може запобігти штучному інтелекту від «дикого самовідтворення та самопроникнення». Він запропонував створити абсолютно новий регуляторний орган, який би запроваджував необхідні гарантії та видавав ліцензії на системи штучного інтелекту з повноваженнями їх анулювати.

На слуханні Альтмана запитали, що його найбільше хвилює потенціал штучного інтелекту. Він не уточнив, сказавши лише, що «якщо ця технологія піде не так, це може бути дуже неправильно» і може «заподіяти значну шкоду світу». .

До цього слухання заходи регулювання та контролю Китаю у сфері штучного інтелекту також привернули широку увагу. 11 квітня з метою сприяння здоровому розвитку та стандартизованому застосуванню технології генеративного штучного інтелекту відповідно до «Закону про мережеву безпеку Китайської Народної Республіки» та інших законів і нормативних актів Адміністрація кіберпростору Китаю розробила проект «Управління Заходи щодо служб генеративного штучного інтелекту (проект для коментарів)" ". Цей підхід уточнює ставлення до підтримки та заохочення індустрії генеративного штучного інтелекту, наприклад: «Держава підтримує незалежні інновації, просування та застосування, а також міжнародну співпрацю базових технологій, таких як алгоритми та структури штучного інтелекту, і заохочує пріоритетне прийняття безпечне та надійне програмне забезпечення та інструменти, обчислювальні ресурси та ресурси даних».

Проект висновку вимагає, щоб контент, створений генеративним штучним інтелектом, відображав основні цінності соціалізму та не мав містити підриву державної влади, повалення соціалістичної системи, підбурювання до розколу країни, підриву національної єдності, сприяння тероризму, екстремізм, пропагування етнічної ворожнечі, етнічної дискримінації, насильства, непристойна та порнографічна інформація, неправдива інформація та контент, який може порушити економічний та соціальний порядок. Проект висновку також вимагає від постачальників декларувати оцінку безпеки, вживати заходів для запобігання дискримінації та поважати права на конфіденційність.

Колективні заходи, вжиті цими країнами, нагадують нам, що поточний розвиток штучного інтелекту несе великі можливості та виклики. Нам терміново потрібні чіткі етичні принципи та правила, щоб забезпечити належне використання та прозорість технологій ШІ. Ми постанемо перед низкою важливих питань: як забезпечити конфіденційність і безпеку даних? Як боротися з алгоритмічними упередженнями та несправедливістю? Як забезпечити прозорість і зрозумілість прийняття рішень штучним інтелектом? На ці питання необхідно відповісти через чіткі правила та інституції.

Коли я це пишу, мої думки незбагненно перескакують на перший абзац вірша під назвою «Довга пора» в популярній нещодавній вітчизняній драмі «Довга пора»:

клацайте пальцями, сказав він

Давайте клацаємо пальцями

далекі речі будуть розбиті

Люди переді мною цього ще не знають

Тут я хочу зробити сміливий прогноз: коли настане 2024 рік і ми прийдемо до вибору слова 2023 року, ChatGPT увійде в десятку найпопулярніших слів і навіть може стати словом року чи людиною року. .

Давайте розберемо слово «ШІ». Якщо А означає Ангел (Ангел), то я можу позначати Диявола (Ібліс). Сьогодні технології штучного інтелекту стрімко розвиваються, демонструючи дивовижні симбіотичні стосунки між «ангелами та демонами». Зіткнувшись із цією реальністю, нам потрібно діяти заради однієї мети: «давайте насолоджуватися золотим і довгим урожаєм штучного інтелекту, замість того, щоб впадати в холодну зиму непідготовленими».

(Автор Ху І, працівник великих даних, який любить уявляти майбутнє.)

Переглянути оригінал
Контент має виключно довідковий характер і не є запрошенням до участі або пропозицією. Інвестиційні, податкові чи юридичні консультації не надаються. Перегляньте Відмову від відповідальності , щоб дізнатися більше про ризики.
  • Нагородити
  • Прокоментувати
  • Поділіться
Прокоментувати
0/400
Немає коментарів
  • Закріпити