
В последние годы возможности искусственного интеллекта (ИИ) быстро улучшились, от генеративных моделей до многомодальных систем, а теперь и до интеллектуальных агентов с возможностями непрерывного выполнения. ИИ постепенно движется к более высокому уровню автономии. Однако с расширением возможностей дебаты о том, должен ли ИИ иметь высокий уровень автономной способности принятия решений, становятся все более напряженными.
В этом контексте соучредитель Ethereum Виталик Бутерин (V God) высказал относительно сдержанный, но крайне реалистичный взгляд: фокус AI не должен быть на полной Автономии, а скорее на улучшении человеческих возможностей. Это заявление быстро привлекло широкое внимание со стороны технологий и криптоиндустрии.
Виталик считает, что нынешняя индустрия ИИ вложила слишком много ресурсов в направлении «супер автономных систем», в то время как все еще недостаточно инструментов, которые могут непосредственно улучшить человеческое мышление, суждение и эффективность сотрудничества. Он выступает за то, чтобы новые лаборатории ИИ или продукты создавались с четкой миссией по увеличению человеческих возможностей, а не для создания высоко независимых интеллектуальных сущностей.
В его видении ИИ всегда должен существовать в вспомогательной роли, с его поведенческими границами, процессами принятия решений и установками целей, контролируемыми людьми. Он даже предложил избегать разработки ИИ-систем, способных функционировать самостоятельно в течение длительных периодов без вмешательства человека, чтобы снизить потенциальный риск потери контроля.
Привлекательность полностью автономного ИИ заключается в его эффективности и масштабируемости, но риски нельзя игнорировать. Во-первых, высокоавтономные системы могут проявлять непредсказуемое поведение в процессе постановки целей и их выполнения из-за недопонимания или изменений в окружающей среде. Во-вторых, как только процесс принятия решений ИИ становится непрозрачным, вопросы ответственности и регулирования значительно возрастут.
Кроме того, расширение автономного ИИ может также подорвать человеческое суждение в критически важных областях, таких как финансы, здравоохранение и государственное управление. Это не означает, что сама технология ИИ негативна, а скорее служит напоминанием для отрасли более осторожно оценивать возможности системных сбоев или неправильного использования, стремясь к пределам возможностей.
В отличие от полностью автономного ИИ, ИИ, который усиливает человеческие возможности, акцентирует внимание на коллаборативных атрибутах. Цель таких систем не в том, чтобы заменить человеческое принятие решений, а в том, чтобы помочь людям быстрее понимать сложную информацию, обнаруживать потенциальные закономерности и оптимизировать процесс принятия решений.
Типичные приложения включают:
В этих сценариях люди всегда являются окончательными распорядителями, в то время как ИИ выполняет роль усилителя и ускорителя. Эта модель не только делает риски более контролируемыми, но и лучше соответствует текущему социальному и регуляторному принятию.
Перспектива Виталика на самом деле отражает возникающее технологическое соперничество в индустрии ИИ, где один путь стремится к большей Автономия, нацелен на создание систем, которые приближаются или даже превосходят человеческий интеллект; другой путь делает больший акцент на управляемости, практичности и сотрудничестве.
С точки зрения реальности, улучшенный ИИ легче внедрить и создать реальную ценность в краткосрочной перспективе. Будь то инструменты для повышения производительности предприятий, платформы для разработчиков или области личных помощников, модель сотрудничества человека и машины уже продемонстрировала сильную коммерческую жизнеспособность. Именно поэтому Виталик считает, что это направление "недооценено, но более важно."
При обсуждении будущего ИИ Виталик неоднократно подчеркивал ценность открытого кода и прозрачности. Он считает, что закрытые, высокоавтономные системы ИИ могут усугубить технологические монополии и риски безопасности, в то время как модели с открытым исходным кодом помогают ввести больше контроля и снизить системные риски.
В то же время этические проблемы ИИ необходимо решать на этапе проектирования заранее, а не пассивно устранять после возникновения проблем. Искусственный интеллект, который усиливает человеческие способности, легче ограничить в рамках этики, поскольку его цели и использование более ясны.
В целом, Виталик Бутерин не против развития технологий ИИ, а скорее предлагает более осторожные рекомендации относительно их направления развития. На его взгляд, сделать ИИ инструментом для улучшения человечества, а не независимой действующей сущностью, может быть более устойчивым балансом между технологиями, обществом и безопасностью.
С учетом того, что возможности ИИ продолжают улучшаться, то, как отрасли находят баланс между инновациями и риском, определит технологическое направление на ближайшие десятилетия. С этой точки зрения, сотрудничество человека и машины — это не просто переходное решение, а может стать одной из самых стабильных и реалистичных форм в долгосрочной эволюции ИИ.











