Чем ближе искусственный интеллект к человеческому интеллекту, тем больше нужна защитная система, не являющаяся человеческой.
Написал: 0xResearcher
Manus достиг SOTA (State-of-the-Art) результатов в тестах GAIA, что показывает, что его производительность превосходит аналогичные большие модели Open AI. Другими словами, он способен самостоятельно выполнять сложные задачи, такие как международные коммерческие переговоры, включая разбор условий контракта, стратегическое прогнозирование, генерацию решений, а также согласование работы юридического и финансового отделов. По сравнению с традиционными системами, преимущества Manus заключаются в его способности динамического разложения целей, мультимодального рассуждения и улучшения памяти. Он способен разбивать крупные задачи на сотни исполнимых подзадач, одновременно обрабатывать различные типы данных, и с использованием обучения с подкреплением постоянно совершенствовать свою эффективность принятия решений и снижать уровень ошибок.
Восхищаясь быстрым развитием технологий, Manus вновь вызвал разногласия в отрасли относительно пути развития искусственного интеллекта: будет ли в будущем доминировать общий искусственный интеллект (AGI), или же ведущую роль будут играть мультиагентные системы (MAS)?
Это следует начать с концепции дизайна Manus, которая включает в себя два варианта возможного развития событий:
Один из путей - это путь AGI. Путем непрерывного повышения уровня интеллекта отдельного лица сделать его способным к принятию комплексных решений, приближенных к способностям человека.
Есть также путь MAS. В качестве суперкоординатора он командует тысячами агентов в вертикальных областях, совместно сражаясь.
На поверхности мы обсуждаем различия в путях, на самом деле мы обсуждаем базовые противоречия в развитии искусственного интеллекта: как достичь баланса между эффективностью и безопасностью? По мере приближения одиночного интеллекта к AGI растет риск его решений в черном ящике; в то время как сотрудничество нескольких агентов может разрежить риски, но может привести к пропуску ключевых решений из-за задержек в коммуникации.
Эволюция Manus неосознанно усилила встроенные риски развития искусственного интеллекта. Например, черная дыра конфиденциальности данных: в медицинской среде Manus должен иметь доступ к геномным данным пациентов в реальном времени; в финансовых переговорах он может коснуться неопубликованной финансовой отчетности компании; в ловушке предвзятости алгоритма Manus может дать кандидатам определенной этнической группы совет по зарплате ниже среднего уровня в переговорах о приеме на работу; при проверке юридических контрактов оценка ошибок в условиях новой отрасли составляет почти половину. Кроме того, в борьбе с уязвимостями взлома хакеры могут внедрить в Manus определенные частоты речи, чтобы сделать ошибочное представление о ценовом диапазоне предложений противника в переговорах.
Нам приходится столкнуться с ужасной болью точки в AI системе: чем умнее система, тем шире у нее атакующая поверхность.
Однако безопасность всегда была ключевым термином в web3, и в рамках невозможного треугольника Виталика (блокчейн сеть не может одновременно обеспечить безопасность, децентрализацию и масштабируемость) также было разработано множество методов шифрования:
Модель нулевого доверия и DID имеют определенное количество проектов, которые атакуются во время многих бычьих рынков, они либо добиваются успеха, либо тонут в волнах криптографии, а как самый молодой метод криптографии: Полностью гомоморфное шифрование (Fully Homomorphic Encryption, FHE) также является мощным оружием для решения проблем безопасности в эпоху искусственного интеллекта. Полностью гомоморфное шифрование (FHE) - это технология, позволяющая выполнять вычисления над зашифрованными данными.
Как решить?
Во-первых, с точки зрения данных. Вся информация, введенная пользователем (включая биометрические данные, речевые характеристики), обрабатывается в зашифрованном состоянии, и даже сам Manus не может расшифровать исходные данные. Например, в случае медицинского диагноза геномные данные пациента участвуют в анализе исключительно в виде шифротекста, чтобы избежать утечки биологической информации.
На уровне алгоритма. С помощью FHE достигается «шифрованное обучение модели», даже разработчики не могут проникнуть в путь принятия решений искусственного интеллекта.
На уровне совместной работы. Связь между несколькими агентами осуществляется с использованием криптографии порогового порога, взлом одного узла не приведет к утечке глобальных данных. Даже в ходе учений по защите и атаке в цепи поставок злоумышленники не смогут получить полное бизнес-представление даже после вторжения в несколько агентов.
Из-за технических ограничений безопасность web3 возможно не имеет прямого отношения к большинству пользователей, но у нее есть тонкая сеть косвенных выгод. В этой темной лесной чаще, если не вооружиться, то никогда не избавиться от статуса “поросенка”.
uPort и NKN уже проекты, о которых я никогда не слышал, кажется, что безопасные проекты действительно не привлекают внимание спекулянтов. Сможет ли Mind Network избежать этого проклятия и стать лидером в области безопасности? Давайте посмотрим.
Будущее уже наступило. Чем ближе искусственный интеллект подходит к уровню человеческого, тем больше нужна защитная система, не подверженная человеческим ошибкам. Значение FHE заключается не только в решении текущих проблем, но и в подготовке почвы для эпохи сильного искусственного интеллекта. На этом опасном пути к общему искусственному интеллекту FHE не является вариантом, а является необходимостью для выживания.