A fusão da IA e Blockchain: da tecnologia à aplicação
O rápido desenvolvimento da indústria de inteligência artificial recentemente é visto por alguns como o início da quarta revolução industrial. O surgimento de grandes modelos de linguagem aumentou significativamente a eficiência em diversos setores, estimando-se que tenha melhorado em cerca de 20% a produtividade geral dos Estados Unidos. Ao mesmo tempo, a capacidade de generalização trazida pelos grandes modelos é considerada um novo paradigma de design de software. Em vez do design de código preciso do passado, o desenvolvimento de software agora envolve mais a incorporação de estruturas de grandes modelos com forte capacidade de generalização, conferindo ao software uma maior expressividade e uma capacidade de entrada e saída mais ampla. A tecnologia de aprendizado profundo realmente trouxe uma nova onda de prosperidade para a indústria de IA, e essa onda de entusiasmo também está se espalhando gradualmente pela indústria de criptomoedas.
Este relatório irá explorar detalhadamente a evolução da indústria de IA, a classificação das tecnologias e o impacto da invenção da tecnologia de aprendizado profundo na indústria. Em seguida, analisará em profundidade o estado atual e as tendências do desenvolvimento da cadeia industrial, incluindo GPU, computação em nuvem, fontes de dados, dispositivos de borda, entre outros. Depois, discutirá essencialmente a relação entre as indústrias de Crypto e IA, e fará uma análise da configuração da cadeia industrial de IA relacionada ao Crypto.
A evolução da indústria de IA
A indústria de IA começou na década de 1950, e para realizar a visão da inteligência artificial, o meio acadêmico e a indústria desenvolveram ao longo das diferentes épocas e diferentes contextos disciplinares várias correntes para a implementação da inteligência artificial.
A tecnologia moderna de inteligência artificial utiliza principalmente o termo "aprendizagem de máquina", cuja ideia central é permitir que as máquinas melhorem o desempenho do sistema ao iterar repetidamente em tarefas com base em dados. Os principais passos são: introduzir dados no algoritmo, treinar o modelo com esses dados, testar e implementar o modelo, e usar o modelo para realizar tarefas de previsão automatizadas.
Atualmente, a aprendizagem automática tem três principais correntes, que são o conexionismo, o simbolismo e o behaviorismo, que imitam, respetivamente, o sistema nervoso humano, o pensamento e o comportamento.
Atualmente, o conexionismo, representado por redes neurais, está em vantagem (, também conhecido como aprendizado profundo ). A principal razão é que essa arquitetura possui uma camada de entrada, uma camada de saída, mas várias camadas ocultas. Uma vez que o número de camadas e o número de neurônios ( se tornam suficientes, há oportunidades suficientes para ajustar tarefas complexas e gerais. Através da entrada de dados, os parâmetros dos neurônios podem ser constantemente ajustados. Após passar por muitos dados, o neurônio alcançará um estado ótimo ), que é a origem do termo "profundidade" - um número suficiente de camadas e neurônios.
E a tecnologia de aprendizado profundo baseada em redes neurais também teve várias iterações e evoluções, desde as redes neurais mais antigas, passando por redes neurais feedforward, RNN, CNN, GAN, até a evolução para modelos grandes modernos como o GPT, que utilizam a tecnologia Transformer. A tecnologia Transformer é apenas uma direção de evolução das redes neurais, adicionando um conversor ( Transformer ), para codificar dados de todos os modos (, como áudio, vídeo, imagem, etc. ) em valores correspondentes para representação. Esses dados são então inseridos na rede neural, permitindo que a rede neural se ajuste a qualquer tipo de dado, ou seja, implementar multimodalidade.
O desenvolvimento da IA passou por três ondas tecnológicas. A primeira onda ocorreu na década de 1960, dez anos após a proposta da tecnologia de IA. Esta onda foi provocada pelo desenvolvimento da tecnologia simbolista, que resolveu problemas gerais de processamento de linguagem natural e diálogo homem-máquina. Nesse mesmo período, os sistemas especialistas surgiram, destacando-se o sistema especialista DENRAL, desenvolvido pela Universidade de Stanford. Este sistema possui um conhecimento químico muito robusto, inferindo respostas semelhantes às de um especialista em química por meio de perguntas. Este sistema de especialista em química pode ser visto como uma combinação de um banco de dados de conhecimentos químicos e um sistema de inferência.
A segunda onda da tecnologia de IA ocorreu em 1997, quando o IBM Deep Blue venceu o campeão de xadrez Kasparov por 3.5:2.5. Essa vitória é vista como um marco para a inteligência artificial.
A terceira onda da tecnologia de IA ocorreu em 2006. Os três gigantes do deep learning, Yann LeCun, Geoffrey Hinton e Yoshua Bengio, propuseram o conceito de deep learning, um algoritmo baseado em redes neurais artificiais para a aprendizagem de representações de dados. Depois, os algoritmos de deep learning evoluíram gradualmente, desde RNN, GAN até Transformer e Stable Diffusion, esses algoritmos moldaram juntos essa terceira onda tecnológica, que também é o auge do conexionismo.
Cadeia da Indústria de Aprendizado Profundo
Atualmente, os grandes modelos de linguagem utilizam métodos de aprendizado profundo baseados em redes neurais. Com o GPT à frente, esses grandes modelos criaram uma onda de entusiasmo em torno da inteligência artificial, levando a uma enxurrada de novos participantes neste setor. Também observamos que a demanda do mercado por dados e poder computacional explodiu. Assim, nesta parte do relatório, exploramos a cadeia de suprimentos dos algoritmos de aprendizado profundo. No setor de IA dominado por algoritmos de aprendizado profundo, como é composta a sua cadeia de suprimentos e como está a situação atual, as relações de oferta e demanda, bem como o desenvolvimento futuro.
Primeiro, precisamos esclarecer que, ao realizar o treinamento de grandes modelos LLMs liderados pelo GPT, baseados na tecnologia Transformer, (, são divididos em três etapas.
Antes do treinamento, como é baseado em Transformer, o conversor precisa transformar a entrada de texto em valores numéricos, esse processo é chamado de "Tokenization", e esses valores são chamados de Token. De acordo com a regra geral, uma palavra ou caractere em inglês pode ser aproximadamente considerado como um Token, enquanto cada caractere chinês pode ser grosso modo considerado como dois Tokens. Esta é também a unidade básica usada para a precificação do GPT.
Primeiro passo, pré-treinamento. Ao fornecer suficientes pares de dados à camada de entrada para encontrar os melhores parâmetros de cada neurônio sob este modelo, é necessário uma grande quantidade de dados, e este processo também é o que consome mais poder de computação, pois os neurônios precisam iterar repetidamente tentando vários parâmetros.
O segundo passo, ajuste fino. O ajuste fino consiste em fornecer um conjunto de dados menor, mas de qualidade muito alta para treinamento, e essa mudança fará com que a saída do modelo tenha uma qualidade superior, pois o pré-treinamento requer uma grande quantidade de dados, mas muitos dados podem conter erros ou serem de baixa qualidade.
Terceiro passo, aprendizado reforçado. Primeiro, será criado um modelo completamente novo, que chamamos de "modelo de recompensa", e o objetivo desse modelo é muito simples: classificar os resultados gerados. Em seguida, usaremos esse modelo para determinar se a saída do nosso modelo grande é de alta qualidade, assim podemos usar um modelo de recompensa para iterar automaticamente os parâmetros do modelo grande.
Em resumo, durante o processo de treinamento de modelos grandes, o pré-treinamento exige uma quantidade muito alta de dados, e a capacidade de computação em GPU necessária é a maior, enquanto o ajuste fino precisa de dados de maior qualidade para melhorar os parâmetros; o aprendizado por reforço pode iterar os parâmetros repetidamente através de um modelo de recompensa para produzir resultados de maior qualidade.
Durante o processo de treino, quanto mais parâmetros houver, maior será o teto da capacidade de generalização. Assim, o desempenho de grandes modelos é determinado principalmente por três fatores: a quantidade de parâmetros, a quantidade e a qualidade dos dados, e a capacidade computacional; estes três fatores influenciam conjuntamente a qualidade dos resultados e a capacidade de generalização dos grandes modelos.
![Novos conhecimentos丨AI x Crypto:Do zero ao auge])https://img-cdn.gateio.im/webp-social/moments-f37fb0100218188368f4d31940aab2a3.webp(
A relação entre Crypto e AI
A Blockchain beneficia do desenvolvimento da tecnologia ZK, evoluindo para a ideia de descentralização + desconfiança. Voltando ao início da criação da blockchain, temos a cadeia do Bitcoin. No artigo de Satoshi Nakamoto, ele a chamou inicialmente de um sistema de transferência de valor descentralizado e sem confiança. Depois, Vitalik e outros publicaram artigos lançando uma plataforma de contratos inteligentes descentralizada, sem confiança e de troca de valor.
Voltando ao essencial, acreditamos que toda a rede Blockchain é uma rede de valor, onde cada transação é uma conversão de valor baseada em tokens subjacentes. O valor aqui é refletido na forma de Token, e a Tokenomics são as regras específicas que definem a manifestação do valor do Token.
Os tokens e a tecnologia Blockchain, como meios para redefinir e descobrir valor, são essenciais para qualquer setor, incluindo a indústria de IA. Na indústria de IA, a emissão de tokens pode permitir a reestruturação de valor em todos os aspectos da cadeia produtiva de IA, o que incentivará mais pessoas a se aprofundarem em diversos nichos dentro da indústria de IA, uma vez que os benefícios se tornarão mais significativos, não apenas determinando seu valor atual através do fluxo de caixa, mas também que a sinergia dos tokens elevará o valor da infraestrutura, o que naturalmente levará à formação do paradigma de protocolos gordos e aplicações magras.
Em segundo lugar, todos os projetos da cadeia industrial de IA irão beneficiar de ganhos de valorização de capital, e este token poderá reverter para o ecossistema e promover o surgimento de uma certa filosofia.
A economia dos tokens tem, sem dúvida, um impacto positivo na indústria. A natureza imutável e sem necessidade de confiança da tecnologia Blockchain também tem um significado prático para a indústria de IA, permitindo a realização de algumas aplicações que requerem confiança, como os nossos dados de usuários que podem ser permitidos em cima de um determinado modelo. No entanto, é importante garantir que o modelo não conheça os dados específicos, garantir que o modelo não vaze dados e garantir que os dados reais da inferência desse modelo sejam retornados. Quando a GPU é insuficiente, é possível distribuir através da rede Blockchain. Quando a GPU é iterada, as GPUs ociosas podem contribuir com poder de cálculo para a rede, redescobrindo o valor residual, algo que só uma rede de valor global pode realizar.
Em resumo, a economia dos tokens pode promover a reconfiguração e descoberta de valor, enquanto o livro-razão descentralizado pode resolver problemas de confiança, permitindo que o valor circule globalmente novamente.
![Novato Introdução丨AI x Crypto: Do Zero ao Pico])https://img-cdn.gateio.im/webp-social/moments-8848582a34ba293d15afae15d90e3c95.webp(
Visão geral de projetos relacionados à IA na indústria de Crypto
) Oferta de GPU
Atualmente, o projeto Render é o mais utilizado, tendo sido lançado em 2020, principalmente para tarefas de renderização de vídeo que não são de grandes modelos. Os cenários que o Render aborda são diferentes dos da IA, portanto, estritamente falando, não se enquadra na seção de IA. Além disso, o seu negócio de renderização de vídeo realmente possui uma demanda real, por isso o mercado de computação em nuvem GPU não se destina apenas ao treinamento e inferência de modelos de IA, mas também pode ser aplicado a tarefas de renderização tradicionais, o que reduz o risco de dependência de um único mercado no mercado de GPU em nuvem.
Na cadeia industrial de AI em Crypto, a oferta de poder computacional é, sem dúvida, o ponto mais importante. De acordo com previsões do setor, a demanda por poder computacional de GPU em 2024 será de cerca de 75 mil milhões de dólares, e até 2032, a demanda de mercado será de aproximadamente 773 mil milhões de dólares, com uma taxa de crescimento composta anual de (CAGR) de cerca de 33,86%.
A taxa de iteração da GPU segue a Lei de Moore ###18-24 o desempenho duplica a cada mês, o preço cai pela metade (, então a demanda por poder de computação de GPU compartilhada se tornará enorme, pois a explosão do mercado de GPU, sob a influência da Lei de Moore no futuro, formará uma grande quantidade de GPUs que não são das últimas gerações. Neste momento, essas GPUs ociosas continuarão a desempenhar seu valor como poder de computação de cauda longa na rede compartilhada, portanto, realmente vemos o potencial de longo prazo e a utilidade prática deste setor, não apenas para negócios de modelos pequenos e médios, mas também para os negócios tradicionais de renderização, que também formarão uma demanda bastante forte.
![Novos usuários: AI x Crypto: do zero ao auge])https://img-cdn.gateio.im/webp-social/moments-53c48daf49a3dbb35c1a2b47e234f180.webp(
) dados
Os projetos atualmente lançados incluem EpiK Protocol, Synesis One, Masa, entre outros. A diferença é que o EpiK Protocol e o Synesis One são voltados para a coleta de fontes de dados públicas, enquanto o Masa é baseado na tecnologia ZK, permitindo a coleta de dados privados, tornando-se assim mais amigável para os usuários.
Comparado às tradicionais empresas de dados Web2, os fornecedores de dados Web3 têm a vantagem na coleta de dados, pois os indivíduos podem contribuir com seus dados que não são privados, o que amplia o alcance do projeto, não se limitando apenas ao B2B, mas também permitindo a precificação dos dados de qualquer usuário, dando valor a todos os dados passados. Além disso, devido à existência da economia dos tokens, o valor e o preço da rede são interdependentes; os tokens a custo zero aumentam à medida que o valor da rede cresce, e esses tokens ajudam a reduzir os custos dos desenvolvedores, servindo para recompensar os usuários, o que aumentará a motivação dos usuários para contribuir com dados.
ZKML
Se os dados desejam realizar cálculos de privacidade e treinamento, atualmente a principal solução ZK adotada na indústria usa tecnologia de criptografia homomórfica, inferindo dados fora da cadeia e, em seguida, enviando os resultados e a prova ZK, garantindo assim a privacidade dos dados e a inferência.
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
13 gostos
Recompensa
13
6
Partilhar
Comentar
0/400
OldLeekNewSickle
· 2h atrás
As duas grandes tendências estão se fundindo
Ver originalResponder0
TheShibaWhisperer
· 2h atrás
Avançar para a Inteligência Artificial Geral
Ver originalResponder0
MrRightClick
· 2h atrás
Revolucionário avanço tecnológico
Ver originalResponder0
DefiSecurityGuard
· 2h atrás
Os riscos de segurança estão a aumentar rapidamente.
IA e Blockchain: da evolução tecnológica à estruturação da cadeia industrial
A fusão da IA e Blockchain: da tecnologia à aplicação
O rápido desenvolvimento da indústria de inteligência artificial recentemente é visto por alguns como o início da quarta revolução industrial. O surgimento de grandes modelos de linguagem aumentou significativamente a eficiência em diversos setores, estimando-se que tenha melhorado em cerca de 20% a produtividade geral dos Estados Unidos. Ao mesmo tempo, a capacidade de generalização trazida pelos grandes modelos é considerada um novo paradigma de design de software. Em vez do design de código preciso do passado, o desenvolvimento de software agora envolve mais a incorporação de estruturas de grandes modelos com forte capacidade de generalização, conferindo ao software uma maior expressividade e uma capacidade de entrada e saída mais ampla. A tecnologia de aprendizado profundo realmente trouxe uma nova onda de prosperidade para a indústria de IA, e essa onda de entusiasmo também está se espalhando gradualmente pela indústria de criptomoedas.
Este relatório irá explorar detalhadamente a evolução da indústria de IA, a classificação das tecnologias e o impacto da invenção da tecnologia de aprendizado profundo na indústria. Em seguida, analisará em profundidade o estado atual e as tendências do desenvolvimento da cadeia industrial, incluindo GPU, computação em nuvem, fontes de dados, dispositivos de borda, entre outros. Depois, discutirá essencialmente a relação entre as indústrias de Crypto e IA, e fará uma análise da configuração da cadeia industrial de IA relacionada ao Crypto.
A evolução da indústria de IA
A indústria de IA começou na década de 1950, e para realizar a visão da inteligência artificial, o meio acadêmico e a indústria desenvolveram ao longo das diferentes épocas e diferentes contextos disciplinares várias correntes para a implementação da inteligência artificial.
A tecnologia moderna de inteligência artificial utiliza principalmente o termo "aprendizagem de máquina", cuja ideia central é permitir que as máquinas melhorem o desempenho do sistema ao iterar repetidamente em tarefas com base em dados. Os principais passos são: introduzir dados no algoritmo, treinar o modelo com esses dados, testar e implementar o modelo, e usar o modelo para realizar tarefas de previsão automatizadas.
Atualmente, a aprendizagem automática tem três principais correntes, que são o conexionismo, o simbolismo e o behaviorismo, que imitam, respetivamente, o sistema nervoso humano, o pensamento e o comportamento.
Atualmente, o conexionismo, representado por redes neurais, está em vantagem (, também conhecido como aprendizado profundo ). A principal razão é que essa arquitetura possui uma camada de entrada, uma camada de saída, mas várias camadas ocultas. Uma vez que o número de camadas e o número de neurônios ( se tornam suficientes, há oportunidades suficientes para ajustar tarefas complexas e gerais. Através da entrada de dados, os parâmetros dos neurônios podem ser constantemente ajustados. Após passar por muitos dados, o neurônio alcançará um estado ótimo ), que é a origem do termo "profundidade" - um número suficiente de camadas e neurônios.
E a tecnologia de aprendizado profundo baseada em redes neurais também teve várias iterações e evoluções, desde as redes neurais mais antigas, passando por redes neurais feedforward, RNN, CNN, GAN, até a evolução para modelos grandes modernos como o GPT, que utilizam a tecnologia Transformer. A tecnologia Transformer é apenas uma direção de evolução das redes neurais, adicionando um conversor ( Transformer ), para codificar dados de todos os modos (, como áudio, vídeo, imagem, etc. ) em valores correspondentes para representação. Esses dados são então inseridos na rede neural, permitindo que a rede neural se ajuste a qualquer tipo de dado, ou seja, implementar multimodalidade.
O desenvolvimento da IA passou por três ondas tecnológicas. A primeira onda ocorreu na década de 1960, dez anos após a proposta da tecnologia de IA. Esta onda foi provocada pelo desenvolvimento da tecnologia simbolista, que resolveu problemas gerais de processamento de linguagem natural e diálogo homem-máquina. Nesse mesmo período, os sistemas especialistas surgiram, destacando-se o sistema especialista DENRAL, desenvolvido pela Universidade de Stanford. Este sistema possui um conhecimento químico muito robusto, inferindo respostas semelhantes às de um especialista em química por meio de perguntas. Este sistema de especialista em química pode ser visto como uma combinação de um banco de dados de conhecimentos químicos e um sistema de inferência.
A segunda onda da tecnologia de IA ocorreu em 1997, quando o IBM Deep Blue venceu o campeão de xadrez Kasparov por 3.5:2.5. Essa vitória é vista como um marco para a inteligência artificial.
A terceira onda da tecnologia de IA ocorreu em 2006. Os três gigantes do deep learning, Yann LeCun, Geoffrey Hinton e Yoshua Bengio, propuseram o conceito de deep learning, um algoritmo baseado em redes neurais artificiais para a aprendizagem de representações de dados. Depois, os algoritmos de deep learning evoluíram gradualmente, desde RNN, GAN até Transformer e Stable Diffusion, esses algoritmos moldaram juntos essa terceira onda tecnológica, que também é o auge do conexionismo.
Cadeia da Indústria de Aprendizado Profundo
Atualmente, os grandes modelos de linguagem utilizam métodos de aprendizado profundo baseados em redes neurais. Com o GPT à frente, esses grandes modelos criaram uma onda de entusiasmo em torno da inteligência artificial, levando a uma enxurrada de novos participantes neste setor. Também observamos que a demanda do mercado por dados e poder computacional explodiu. Assim, nesta parte do relatório, exploramos a cadeia de suprimentos dos algoritmos de aprendizado profundo. No setor de IA dominado por algoritmos de aprendizado profundo, como é composta a sua cadeia de suprimentos e como está a situação atual, as relações de oferta e demanda, bem como o desenvolvimento futuro.
Primeiro, precisamos esclarecer que, ao realizar o treinamento de grandes modelos LLMs liderados pelo GPT, baseados na tecnologia Transformer, (, são divididos em três etapas.
Antes do treinamento, como é baseado em Transformer, o conversor precisa transformar a entrada de texto em valores numéricos, esse processo é chamado de "Tokenization", e esses valores são chamados de Token. De acordo com a regra geral, uma palavra ou caractere em inglês pode ser aproximadamente considerado como um Token, enquanto cada caractere chinês pode ser grosso modo considerado como dois Tokens. Esta é também a unidade básica usada para a precificação do GPT.
Primeiro passo, pré-treinamento. Ao fornecer suficientes pares de dados à camada de entrada para encontrar os melhores parâmetros de cada neurônio sob este modelo, é necessário uma grande quantidade de dados, e este processo também é o que consome mais poder de computação, pois os neurônios precisam iterar repetidamente tentando vários parâmetros.
O segundo passo, ajuste fino. O ajuste fino consiste em fornecer um conjunto de dados menor, mas de qualidade muito alta para treinamento, e essa mudança fará com que a saída do modelo tenha uma qualidade superior, pois o pré-treinamento requer uma grande quantidade de dados, mas muitos dados podem conter erros ou serem de baixa qualidade.
Terceiro passo, aprendizado reforçado. Primeiro, será criado um modelo completamente novo, que chamamos de "modelo de recompensa", e o objetivo desse modelo é muito simples: classificar os resultados gerados. Em seguida, usaremos esse modelo para determinar se a saída do nosso modelo grande é de alta qualidade, assim podemos usar um modelo de recompensa para iterar automaticamente os parâmetros do modelo grande.
Em resumo, durante o processo de treinamento de modelos grandes, o pré-treinamento exige uma quantidade muito alta de dados, e a capacidade de computação em GPU necessária é a maior, enquanto o ajuste fino precisa de dados de maior qualidade para melhorar os parâmetros; o aprendizado por reforço pode iterar os parâmetros repetidamente através de um modelo de recompensa para produzir resultados de maior qualidade.
Durante o processo de treino, quanto mais parâmetros houver, maior será o teto da capacidade de generalização. Assim, o desempenho de grandes modelos é determinado principalmente por três fatores: a quantidade de parâmetros, a quantidade e a qualidade dos dados, e a capacidade computacional; estes três fatores influenciam conjuntamente a qualidade dos resultados e a capacidade de generalização dos grandes modelos.
![Novos conhecimentos丨AI x Crypto:Do zero ao auge])https://img-cdn.gateio.im/webp-social/moments-f37fb0100218188368f4d31940aab2a3.webp(
A relação entre Crypto e AI
A Blockchain beneficia do desenvolvimento da tecnologia ZK, evoluindo para a ideia de descentralização + desconfiança. Voltando ao início da criação da blockchain, temos a cadeia do Bitcoin. No artigo de Satoshi Nakamoto, ele a chamou inicialmente de um sistema de transferência de valor descentralizado e sem confiança. Depois, Vitalik e outros publicaram artigos lançando uma plataforma de contratos inteligentes descentralizada, sem confiança e de troca de valor.
Voltando ao essencial, acreditamos que toda a rede Blockchain é uma rede de valor, onde cada transação é uma conversão de valor baseada em tokens subjacentes. O valor aqui é refletido na forma de Token, e a Tokenomics são as regras específicas que definem a manifestação do valor do Token.
Os tokens e a tecnologia Blockchain, como meios para redefinir e descobrir valor, são essenciais para qualquer setor, incluindo a indústria de IA. Na indústria de IA, a emissão de tokens pode permitir a reestruturação de valor em todos os aspectos da cadeia produtiva de IA, o que incentivará mais pessoas a se aprofundarem em diversos nichos dentro da indústria de IA, uma vez que os benefícios se tornarão mais significativos, não apenas determinando seu valor atual através do fluxo de caixa, mas também que a sinergia dos tokens elevará o valor da infraestrutura, o que naturalmente levará à formação do paradigma de protocolos gordos e aplicações magras.
Em segundo lugar, todos os projetos da cadeia industrial de IA irão beneficiar de ganhos de valorização de capital, e este token poderá reverter para o ecossistema e promover o surgimento de uma certa filosofia.
A economia dos tokens tem, sem dúvida, um impacto positivo na indústria. A natureza imutável e sem necessidade de confiança da tecnologia Blockchain também tem um significado prático para a indústria de IA, permitindo a realização de algumas aplicações que requerem confiança, como os nossos dados de usuários que podem ser permitidos em cima de um determinado modelo. No entanto, é importante garantir que o modelo não conheça os dados específicos, garantir que o modelo não vaze dados e garantir que os dados reais da inferência desse modelo sejam retornados. Quando a GPU é insuficiente, é possível distribuir através da rede Blockchain. Quando a GPU é iterada, as GPUs ociosas podem contribuir com poder de cálculo para a rede, redescobrindo o valor residual, algo que só uma rede de valor global pode realizar.
Em resumo, a economia dos tokens pode promover a reconfiguração e descoberta de valor, enquanto o livro-razão descentralizado pode resolver problemas de confiança, permitindo que o valor circule globalmente novamente.
![Novato Introdução丨AI x Crypto: Do Zero ao Pico])https://img-cdn.gateio.im/webp-social/moments-8848582a34ba293d15afae15d90e3c95.webp(
Visão geral de projetos relacionados à IA na indústria de Crypto
) Oferta de GPU
Atualmente, o projeto Render é o mais utilizado, tendo sido lançado em 2020, principalmente para tarefas de renderização de vídeo que não são de grandes modelos. Os cenários que o Render aborda são diferentes dos da IA, portanto, estritamente falando, não se enquadra na seção de IA. Além disso, o seu negócio de renderização de vídeo realmente possui uma demanda real, por isso o mercado de computação em nuvem GPU não se destina apenas ao treinamento e inferência de modelos de IA, mas também pode ser aplicado a tarefas de renderização tradicionais, o que reduz o risco de dependência de um único mercado no mercado de GPU em nuvem.
Na cadeia industrial de AI em Crypto, a oferta de poder computacional é, sem dúvida, o ponto mais importante. De acordo com previsões do setor, a demanda por poder computacional de GPU em 2024 será de cerca de 75 mil milhões de dólares, e até 2032, a demanda de mercado será de aproximadamente 773 mil milhões de dólares, com uma taxa de crescimento composta anual de (CAGR) de cerca de 33,86%.
A taxa de iteração da GPU segue a Lei de Moore ###18-24 o desempenho duplica a cada mês, o preço cai pela metade (, então a demanda por poder de computação de GPU compartilhada se tornará enorme, pois a explosão do mercado de GPU, sob a influência da Lei de Moore no futuro, formará uma grande quantidade de GPUs que não são das últimas gerações. Neste momento, essas GPUs ociosas continuarão a desempenhar seu valor como poder de computação de cauda longa na rede compartilhada, portanto, realmente vemos o potencial de longo prazo e a utilidade prática deste setor, não apenas para negócios de modelos pequenos e médios, mas também para os negócios tradicionais de renderização, que também formarão uma demanda bastante forte.
![Novos usuários: AI x Crypto: do zero ao auge])https://img-cdn.gateio.im/webp-social/moments-53c48daf49a3dbb35c1a2b47e234f180.webp(
) dados
Os projetos atualmente lançados incluem EpiK Protocol, Synesis One, Masa, entre outros. A diferença é que o EpiK Protocol e o Synesis One são voltados para a coleta de fontes de dados públicas, enquanto o Masa é baseado na tecnologia ZK, permitindo a coleta de dados privados, tornando-se assim mais amigável para os usuários.
Comparado às tradicionais empresas de dados Web2, os fornecedores de dados Web3 têm a vantagem na coleta de dados, pois os indivíduos podem contribuir com seus dados que não são privados, o que amplia o alcance do projeto, não se limitando apenas ao B2B, mas também permitindo a precificação dos dados de qualquer usuário, dando valor a todos os dados passados. Além disso, devido à existência da economia dos tokens, o valor e o preço da rede são interdependentes; os tokens a custo zero aumentam à medida que o valor da rede cresce, e esses tokens ajudam a reduzir os custos dos desenvolvedores, servindo para recompensar os usuários, o que aumentará a motivação dos usuários para contribuir com dados.
ZKML
Se os dados desejam realizar cálculos de privacidade e treinamento, atualmente a principal solução ZK adotada na indústria usa tecnologia de criptografia homomórfica, inferindo dados fora da cadeia e, em seguida, enviando os resultados e a prova ZK, garantindo assim a privacidade dos dados e a inferência.