Производительность модели Manus достигла прорыва, полностью гомоморфное шифрование может стать ключом к безопасности с помощью искусственного интеллекта.
Прорывы в производительности модели Manus вызывают размышления о безопасности с помощью искусственного интеллекта
Недавно модель Manus достигла прорывных результатов в тестировании GAIA, продемонстрировав выдающуюся производительность, превосходящую аналогичные большие модели. Это достижение означает, что Manus может самостоятельно справляться с комплексными задачами, такими как международные коммерческие переговоры, включая анализ условий контрактов, разработку стратегий и генерацию предложений. Преимущества Manus в основном проявляются в динамической декомпозиции целей, кросс-модальном выводе и усиленном обучении с памятью. Она может разбивать крупные задачи на сотни выполнимых подзадач, одновременно обрабатывая различные типы данных и постоянно повышая эффективность принятия решений и снижая уровень ошибок с помощью обучения с подкреплением.
Прогресс Manus вновь вызвал обсуждение в отрасли о путях развития ИИ: будущее заключается в том, чтобы достичь универсального искусственного интеллекта (AGI) или в том, чтобы координировать многоагентные системы (MAS)? Эта дискуссия на самом деле отражает основную проблему балансировки эффективности и безопасности в развитии ИИ. Поскольку индивидуальный интеллект приближается к AGI, риск непрозрачности его процесса принятия решений также возрастает; в то время как сотрудничество многоагентов может распределять риски, оно может также упустить критически важные моменты для принятия решений из-за задержек в связи.
Развитие Manus незаметно увеличивает присущие риски искусственного интеллекта. Например, в медицинских сценариях Manus необходимо в реальном времени получать доступ к чувствительной информации о пациентах; в финансовых переговорах могут быть задействованы непубличные данные компаний. Кроме того, проблему алгоритмической предвзятости также нельзя игнорировать, как, например, в процессе найма могут возникнуть рекомендации по зарплате, заведомо занижающие предложения для определённых групп, или высокая вероятность ошибок при оценке условий контрактов для новых отраслей. Более серьезная проблема заключается в том, что системы ИИ могут сталкиваться с атаками противника, например, хакеры могут вмешиваться в оценку переговоров Manus с помощью определённых звуковых частот.
Эти вызовы подчеркивают тревожный факт: чем умнее системы ИИ, тем шире их потенциальные уязвимости.
В области Web3 безопасность всегда была предметом большого внимания. Теория "невозможного треугольника", предложенная создателем Ethereum Виталиком Бутериным (блокчейн-сети трудно одновременно достичь безопасности, децентрализации и масштабируемости), вдохновила на развитие различных криптографических технологий:
Модель безопасности нулевого доверия: акцент на строгой проверке каждого запроса на доступ, без автоматического доверия любому устройству или пользователю.
Децентрализованная идентичность (DID): позволяет сущностям получать верифицируемую идентификацию без централизованной регистрации.
Полная гомоморфная криптография (FHE): позволяет выполнять вычисления непосредственно на зашифрованных данных без необходимости расшифровки исходных данных.
В частности, полностью гомоморфное шифрование как новая развивающаяся технология имеет потенциал стать ключевым инструментом для решения вопросов безопасности в эпоху ИИ. FHE позволяет выполнять сложные вычисления при защите конфиденциальности данных, что особенно важно для сценариев, требующих анализа без раскрытия исходных данных.
В решении проблем безопасности с помощью искусственного интеллекта FHE может играть роль на следующих уровнях:
Уровень данных: Вся информация, введенная пользователем (включая биометрические данные, голос и т. д.), обрабатывается в зашифрованном виде, даже сама система ИИ не может расшифровать исходные данные.
Алгоритмический уровень: с помощью FHE реализовать "обучение модели с шифрованием", чтобы даже разработчики не могли напрямую наблюдать за процессом принятия решений ИИ.
Координационный уровень: связь между несколькими AI-агентами осуществляется с помощью порогового шифрования, и даже если один узел будет скомпрометирован, это не приведет к утечке глобальных данных.
Хотя технологии безопасности Web3 могут быть довольно абстрактными для обычных пользователей, их влияние имеет глубокие последствия. В этой сложной обстановке крайне важно постоянно повышать свои способности к обеспечению безопасности.
В истории некоторые проекты пытались сделать шаги в области безопасности Web3. Например, uPort запустил решение для децентрализованной идентификации в 2017 году на основной сети Ethereum; NKN выпустил основную сеть на основе модели нулевого доверия в 2019 году. В области FHE проект Mind Network стал первым, кто запустил основную сеть и сотрудничал с такими организациями, как ZAMA, Google, DeepSeek.
Несмотря на то, что ранние проекты безопасности могли не привлекать широкого внимания, с быстрым развитием технологий ИИ важность таких технологий безопасности, как FHE, будет возрастать. Они не только могут решить текущие проблемы безопасности, но и заложить основу для будущей эпохи сильного ИИ. На пути к AGI технологии безопасности, такие как FHE, больше не являются опцией, а представляют собой необходимую гарантию надежной работы ИИ-систем.
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
9 Лайков
Награда
9
3
Поделиться
комментарий
0/400
LiquidatedNotStirred
· 6ч назад
С трудом выдерживаю, чем сильнее, тем больше страха.
Производительность модели Manus достигла прорыва, полностью гомоморфное шифрование может стать ключом к безопасности с помощью искусственного интеллекта.
Прорывы в производительности модели Manus вызывают размышления о безопасности с помощью искусственного интеллекта
Недавно модель Manus достигла прорывных результатов в тестировании GAIA, продемонстрировав выдающуюся производительность, превосходящую аналогичные большие модели. Это достижение означает, что Manus может самостоятельно справляться с комплексными задачами, такими как международные коммерческие переговоры, включая анализ условий контрактов, разработку стратегий и генерацию предложений. Преимущества Manus в основном проявляются в динамической декомпозиции целей, кросс-модальном выводе и усиленном обучении с памятью. Она может разбивать крупные задачи на сотни выполнимых подзадач, одновременно обрабатывая различные типы данных и постоянно повышая эффективность принятия решений и снижая уровень ошибок с помощью обучения с подкреплением.
Прогресс Manus вновь вызвал обсуждение в отрасли о путях развития ИИ: будущее заключается в том, чтобы достичь универсального искусственного интеллекта (AGI) или в том, чтобы координировать многоагентные системы (MAS)? Эта дискуссия на самом деле отражает основную проблему балансировки эффективности и безопасности в развитии ИИ. Поскольку индивидуальный интеллект приближается к AGI, риск непрозрачности его процесса принятия решений также возрастает; в то время как сотрудничество многоагентов может распределять риски, оно может также упустить критически важные моменты для принятия решений из-за задержек в связи.
Развитие Manus незаметно увеличивает присущие риски искусственного интеллекта. Например, в медицинских сценариях Manus необходимо в реальном времени получать доступ к чувствительной информации о пациентах; в финансовых переговорах могут быть задействованы непубличные данные компаний. Кроме того, проблему алгоритмической предвзятости также нельзя игнорировать, как, например, в процессе найма могут возникнуть рекомендации по зарплате, заведомо занижающие предложения для определённых групп, или высокая вероятность ошибок при оценке условий контрактов для новых отраслей. Более серьезная проблема заключается в том, что системы ИИ могут сталкиваться с атаками противника, например, хакеры могут вмешиваться в оценку переговоров Manus с помощью определённых звуковых частот.
Эти вызовы подчеркивают тревожный факт: чем умнее системы ИИ, тем шире их потенциальные уязвимости.
В области Web3 безопасность всегда была предметом большого внимания. Теория "невозможного треугольника", предложенная создателем Ethereum Виталиком Бутериным (блокчейн-сети трудно одновременно достичь безопасности, децентрализации и масштабируемости), вдохновила на развитие различных криптографических технологий:
Модель безопасности нулевого доверия: акцент на строгой проверке каждого запроса на доступ, без автоматического доверия любому устройству или пользователю.
Децентрализованная идентичность (DID): позволяет сущностям получать верифицируемую идентификацию без централизованной регистрации.
Полная гомоморфная криптография (FHE): позволяет выполнять вычисления непосредственно на зашифрованных данных без необходимости расшифровки исходных данных.
В частности, полностью гомоморфное шифрование как новая развивающаяся технология имеет потенциал стать ключевым инструментом для решения вопросов безопасности в эпоху ИИ. FHE позволяет выполнять сложные вычисления при защите конфиденциальности данных, что особенно важно для сценариев, требующих анализа без раскрытия исходных данных.
В решении проблем безопасности с помощью искусственного интеллекта FHE может играть роль на следующих уровнях:
Уровень данных: Вся информация, введенная пользователем (включая биометрические данные, голос и т. д.), обрабатывается в зашифрованном виде, даже сама система ИИ не может расшифровать исходные данные.
Алгоритмический уровень: с помощью FHE реализовать "обучение модели с шифрованием", чтобы даже разработчики не могли напрямую наблюдать за процессом принятия решений ИИ.
Координационный уровень: связь между несколькими AI-агентами осуществляется с помощью порогового шифрования, и даже если один узел будет скомпрометирован, это не приведет к утечке глобальных данных.
Хотя технологии безопасности Web3 могут быть довольно абстрактными для обычных пользователей, их влияние имеет глубокие последствия. В этой сложной обстановке крайне важно постоянно повышать свои способности к обеспечению безопасности.
В истории некоторые проекты пытались сделать шаги в области безопасности Web3. Например, uPort запустил решение для децентрализованной идентификации в 2017 году на основной сети Ethereum; NKN выпустил основную сеть на основе модели нулевого доверия в 2019 году. В области FHE проект Mind Network стал первым, кто запустил основную сеть и сотрудничал с такими организациями, как ZAMA, Google, DeepSeek.
Несмотря на то, что ранние проекты безопасности могли не привлекать широкого внимания, с быстрым развитием технологий ИИ важность таких технологий безопасности, как FHE, будет возрастать. Они не только могут решить текущие проблемы безопасности, но и заложить основу для будущей эпохи сильного ИИ. На пути к AGI технологии безопасности, такие как FHE, больше не являются опцией, а представляют собой необходимую гарантию надежной работы ИИ-систем.