Модель Manus досягла SOTA результатів, викликавши обговорення шляхів розвитку ШІ та питань безпеки
Manus продемонстрував видатну продуктивність у тестах GAIA, перевершивши великі мовні моделі того ж класу. Це означає, що він здатний самостійно виконувати складні завдання, такі як міжнародні бізнес-угоди, що включають аналіз контрактів, розробку стратегій та генерацію пропозицій. Перевага Manus полягає в його динамічному розділенні цілей, міжмодальній логіці та посиленому навчанні з пам'яттю. Він може розбивати складні завдання на сотні виконуваних підзадач, одночасно обробляючи різні типи даних, і постійно підвищувати ефективність прийняття рішень за допомогою навчання з підкріпленням, знижуючи ймовірність помилок.
Проривні досягнення Manus знову викликали обговорення в індустрії щодо шляхів розвитку штучного інтелекту: чи рухатися до єдиної моделі загального штучного інтелекту (AGI), чи до кооперативної моделі багатих агентів (MAS)?
Ця дискусія виникла з концепції дизайну Manus, яка натякає на два можливі напрямки розвитку:
Шлях AGI: шляхом постійного підвищення комплексних можливостей окремої інтелектуальної системи, наближаючи її до рівня прийняття рішень людиною.
Шлях MAS: Використання Manus як суперкоординатора, який керує співпрацею численних інтелектуальних агентів у різних професійних сферах.
На перший погляд, це суперечка про технологічний шлях, яка насправді відображає проблему балансу між ефективністю та безпекою у розвитку ШІ. Чим більше єдиної інтелектуальної системи наближається до AGI, тим вищий ризик непрозорості її процесу прийняття рішень; тоді як багатогрупова система, хоча й може розподілити ризики, може пропустити критичні моменти прийняття рішень через затримки в комунікації.
Прогрес Manus також підкреслює вроджені ризики розвитку ШІ. Наприклад, у медичних сценаріях йому потрібно отримувати доступ до чутливих даних пацієнтів; у фінансових переговорах можуть бути задіяні непублічні корпоративні дані. Крім того, існує проблема упередженості алгоритмів, яка може призводити до несправедливих пропозицій щодо зарплати для певних груп під час процесу набору персоналу. У перевірці юридичних документів також спостерігається висока ймовірність помилок оцінки положень, що стосуються нових галузей. Ще серйознішою є можливість того, що хакери можуть ввести певні голосові сигнали, вводячи в оману Manus та змушуючи його приймати неправильні рішення під час переговорів.
Ці проблеми підкреслюють сувору реальність: чим більш розвиненими є інтелектуальні системи, тим більше їх потенційних вразливостей безпеки.
У сфері блокчейну та криптовалют безпека завжди була основною увагою. Теорія "неможливого трикутника", запропонована засновником Ethereum Віталіком Бутеріним (безпека, децентралізація та масштабованість не можуть бути реалізовані одночасно), надихнула на різноманітні стратегії безпеки:
Модель без довіри: на основі принципу "ніколи не довіряй, завжди перевіряй" здійснюється сувора перевірка особи та авторизація для кожного запиту на доступ.
Децентралізована ідентичність (DID): стандарт ідентифікації, який не вимагає централізованої реєстрації, підтримує перевіряємі та тривалі ідентифікації.
Повна гомоморфна криптографія (FHE): дозволяє виконувати обчислення безпосередньо над зашифрованими даними, що особливо підходить для таких сценаріїв, як хмарні обчислення та аутсорсинг даних.
Ці стратегії безпеки забезпечують важливі ідеї для вирішення викликів безпеки епохи ШІ. Особливо технологія повної гомоморфної криптографії вважається потужним інструментом для боротьби з проблемами безпеки ШІ.
Технологія FHE може підвищити безпеку систем штучного інтелекту на кількох рівнях:
Дані на рівні: Вся інформація, введена користувачем (включаючи біометричні дані, голос тощо), обробляється в зашифрованому стані, навіть сама AI система не може розшифрувати початкові дані.
Алгоритмічний рівень: реалізація "навчання зашифрованих моделей" за допомогою FHE, що дозволяє навіть розробникам не мати можливості безпосередньо зрозуміти процес прийняття рішень AI.
Співпраця: комунікація між кількома розумними агентами використовує шифрування з порогом, і навіть якщо один з вузлів буде зламаний, це не призведе до витоку глобальних даних.
Хоча ці технології безпеки можуть здаватися далекими для звичайних користувачів, вони тісно пов'язані з інтересами кожного. У "темному лісі" цифрового світу лише постійне посилення безпекових заходів може запобігти тому, щоб стати потенційною жертвою.
У сфері децентралізованих ідентичностей проект uPort було запущено в 2017 році на основній мережі Ethereum. Щодо моделі без довіри, проект NKN випустив основну мережу в 2019 році. А в області повної гомоморфної криптографії Mind Network став першим FHE проектом, що запустився на основній мережі, і співпрацює з такими організаціями, як ZAMA, Google, DeepSeek.
Хоча минулі проекти безпеки могли не привертати широкої уваги інвесторів, з швидким розвитком технологій ШІ важливість проблеми безпеки стає все більш очевидною. Чи зможуть такі проекти, як Mind Network, стати лідерами у сфері безпеки, варто продовжувати спостерігати.
З розвитком технологій штучного інтелекту, які все більше наближаються до рівня людського інтелекту, нам потрібні більш просунуті системи захисту. Технологія FHE не лише вирішує актуальні проблеми, але й готує нас до більш потужної ери AI в майбутньому. На шляху до AGI FHE вже не є варіантом, а є необхідною умовою для забезпечення безпечного розвитку AI.
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
8 лайків
Нагородити
8
5
Поділіться
Прокоментувати
0/400
JustHereForMemes
· 13год тому
SOTA для чого? Це ж не грати в Блокчейн.
Переглянути оригіналвідповісти на0
ParanoiaKing
· 13год тому
Безпечність, навіть якщо торгівля гаряча, залишиться лише балачками.
Модель Manus веде до прориву в AI, повністю гомоморфне шифрування стає новою безпечною точкою уваги
Модель Manus досягла SOTA результатів, викликавши обговорення шляхів розвитку ШІ та питань безпеки
Manus продемонстрував видатну продуктивність у тестах GAIA, перевершивши великі мовні моделі того ж класу. Це означає, що він здатний самостійно виконувати складні завдання, такі як міжнародні бізнес-угоди, що включають аналіз контрактів, розробку стратегій та генерацію пропозицій. Перевага Manus полягає в його динамічному розділенні цілей, міжмодальній логіці та посиленому навчанні з пам'яттю. Він може розбивати складні завдання на сотні виконуваних підзадач, одночасно обробляючи різні типи даних, і постійно підвищувати ефективність прийняття рішень за допомогою навчання з підкріпленням, знижуючи ймовірність помилок.
Проривні досягнення Manus знову викликали обговорення в індустрії щодо шляхів розвитку штучного інтелекту: чи рухатися до єдиної моделі загального штучного інтелекту (AGI), чи до кооперативної моделі багатих агентів (MAS)?
Ця дискусія виникла з концепції дизайну Manus, яка натякає на два можливі напрямки розвитку:
Шлях AGI: шляхом постійного підвищення комплексних можливостей окремої інтелектуальної системи, наближаючи її до рівня прийняття рішень людиною.
Шлях MAS: Використання Manus як суперкоординатора, який керує співпрацею численних інтелектуальних агентів у різних професійних сферах.
На перший погляд, це суперечка про технологічний шлях, яка насправді відображає проблему балансу між ефективністю та безпекою у розвитку ШІ. Чим більше єдиної інтелектуальної системи наближається до AGI, тим вищий ризик непрозорості її процесу прийняття рішень; тоді як багатогрупова система, хоча й може розподілити ризики, може пропустити критичні моменти прийняття рішень через затримки в комунікації.
Прогрес Manus також підкреслює вроджені ризики розвитку ШІ. Наприклад, у медичних сценаріях йому потрібно отримувати доступ до чутливих даних пацієнтів; у фінансових переговорах можуть бути задіяні непублічні корпоративні дані. Крім того, існує проблема упередженості алгоритмів, яка може призводити до несправедливих пропозицій щодо зарплати для певних груп під час процесу набору персоналу. У перевірці юридичних документів також спостерігається висока ймовірність помилок оцінки положень, що стосуються нових галузей. Ще серйознішою є можливість того, що хакери можуть ввести певні голосові сигнали, вводячи в оману Manus та змушуючи його приймати неправильні рішення під час переговорів.
Ці проблеми підкреслюють сувору реальність: чим більш розвиненими є інтелектуальні системи, тим більше їх потенційних вразливостей безпеки.
У сфері блокчейну та криптовалют безпека завжди була основною увагою. Теорія "неможливого трикутника", запропонована засновником Ethereum Віталіком Бутеріним (безпека, децентралізація та масштабованість не можуть бути реалізовані одночасно), надихнула на різноманітні стратегії безпеки:
Ці стратегії безпеки забезпечують важливі ідеї для вирішення викликів безпеки епохи ШІ. Особливо технологія повної гомоморфної криптографії вважається потужним інструментом для боротьби з проблемами безпеки ШІ.
Технологія FHE може підвищити безпеку систем штучного інтелекту на кількох рівнях:
Дані на рівні: Вся інформація, введена користувачем (включаючи біометричні дані, голос тощо), обробляється в зашифрованому стані, навіть сама AI система не може розшифрувати початкові дані.
Алгоритмічний рівень: реалізація "навчання зашифрованих моделей" за допомогою FHE, що дозволяє навіть розробникам не мати можливості безпосередньо зрозуміти процес прийняття рішень AI.
Співпраця: комунікація між кількома розумними агентами використовує шифрування з порогом, і навіть якщо один з вузлів буде зламаний, це не призведе до витоку глобальних даних.
Хоча ці технології безпеки можуть здаватися далекими для звичайних користувачів, вони тісно пов'язані з інтересами кожного. У "темному лісі" цифрового світу лише постійне посилення безпекових заходів може запобігти тому, щоб стати потенційною жертвою.
У сфері децентралізованих ідентичностей проект uPort було запущено в 2017 році на основній мережі Ethereum. Щодо моделі без довіри, проект NKN випустив основну мережу в 2019 році. А в області повної гомоморфної криптографії Mind Network став першим FHE проектом, що запустився на основній мережі, і співпрацює з такими організаціями, як ZAMA, Google, DeepSeek.
Хоча минулі проекти безпеки могли не привертати широкої уваги інвесторів, з швидким розвитком технологій ШІ важливість проблеми безпеки стає все більш очевидною. Чи зможуть такі проекти, як Mind Network, стати лідерами у сфері безпеки, варто продовжувати спостерігати.
З розвитком технологій штучного інтелекту, які все більше наближаються до рівня людського інтелекту, нам потрібні більш просунуті системи захисту. Технологія FHE не лише вирішує актуальні проблеми, але й готує нас до більш потужної ери AI в майбутньому. На шляху до AGI FHE вже не є варіантом, а є необхідною умовою для забезпечення безпечного розвитку AI.