Когда ИИ "опускается", наступает ли время, когда Web3 проявит свои способности?

Автор: Хаотян

Недавно, наблюдая за индустрией ИИ, я заметил все более «углубляющуюся» тенденцию: от первоначального сосредоточения вычислительной мощности и согласия о «больших» моделях возникла ветвь, ориентированная на локальные малые модели и вычисления на краю.

Это видно из того, что Apple Intelligence охватывает 500 миллионов устройств, Microsoft выпустила специализированную модель Mu с 3,3 миллиарда параметров для Windows 11, а также из операций «отключения от сети» роботов Google DeepMind.

Что будет отличаться? Облачный ИИ зависит от масштаба параметров и объема тренировочных данных, а способность тратить деньги является ключевым конкурентным преимуществом; локальный ИИ полагается на оптимизацию инженерных процессов и адаптацию к сценарию, что позволит сделать дальнейшие шаги в защите конфиденциальности, надежности и практичности. (Основные проблемы иллюзий универсальных моделей будут серьезно влиять на проникновение в специализированные сценарии)

На самом деле, это создаст большие возможности для web3 AI. Ранее, когда все соревновались в способности к «универсализации» (вычисления, данные, алгоритмы), их естественным образом монополизировали традиционные крупные компании. Попытка конкурировать с такими компаниями, как Google, AWS, OpenAI, под предлогом децентрализации - это просто бред, ведь не хватает ни ресурсных преимуществ, ни технологических преимуществ, а также отсутствует пользовательская база.

Но в мире локализованных моделей и облачных вычислений ситуация для сервисов блокчейн-технологий становится совершенно иной.

Когда AI модели работают на устройствах пользователей, как можно доказать, что выходные результаты не были изменены? Как реализовать сотрудничество моделей, защищая при этом конфиденциальность? Эти вопросы как раз являются сильной стороной технологии блокчейн...

Обратите внимание на некоторые новые проекты, связанные с web3 AI, такие как недавно запущенный @Gradient_HQ протокол передачи данных Lattica, в который Pantera инвестировала 10 миллионов долларов, чтобы решить проблему монополии данных и черного ящика централизованных AI-платформ; устройство для считывания мозговых волн @PublicAI_ HeadCap​​ собирает реальные данные человека и создает «уровень искусственной проверки», который уже принес 14 миллионов долларов дохода; на самом деле, все они пытаются решить проблему «достоверности» локального AI.

Одной фразой: только когда ИИ действительно "проникнет" в каждое устройство, децентрализованное сотрудничество станет необходимостью, а не просто концепцией?

#Web3AI проекты вместо того, чтобы продолжать конкурировать на универсальной арене, лучше серьезно подумать о том, как обеспечить инфраструктурную поддержку для локализованной волны AI?

Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • комментарий
  • Поделиться
комментарий
0/400
Нет комментариев
  • Закрепить