La fusión de la IA y la Cadena de bloques: un panorama desde la infraestructura hasta la aplicación
El rápido desarrollo reciente de la industria de la inteligencia artificial ha sido visto por algunos como el inicio de la cuarta revolución industrial. La aparición de modelos de lenguaje a gran escala ha mejorado significativamente la eficiencia en diversas industrias; según estimaciones de la consultora Boston Consulting Group, GPT ha aportado aproximadamente un 20% de aumento en la eficiencia laboral general de EE. UU. Al mismo tiempo, la capacidad de generalización que poseen estos grandes modelos se considera un nuevo paradigma en el diseño de software. El diseño de software del pasado consistía en código preciso, mientras que el diseño de software actual se basa más en integrar marcos de grandes modelos con alta capacidad de generalización en el software, lo que permite que el software tenga un mejor rendimiento y soporte una gama más amplia de entradas y salidas de modalidades. La tecnología de aprendizaje profundo ha traído una nueva ola de prosperidad a la industria de la IA, y esta tendencia también se ha ido extendiendo gradualmente a la industria de las criptomonedas.
La evolución de la industria de la IA
La industria de la inteligencia artificial comenzó en la década de 1950. Para lograr la visión de la inteligencia artificial, el ámbito académico y la industria han desarrollado varias corrientes para implementar la inteligencia artificial en diferentes épocas y contextos disciplinares.
La tecnología moderna de inteligencia artificial utiliza principalmente el término "aprendizaje automático", cuya idea central es permitir que las máquinas iteren repetidamente en las tareas basándose en datos para mejorar el rendimiento del sistema. Los pasos principales incluyen ingresar datos en el algoritmo, entrenar modelos con esos datos, probar y desplegar los modelos, y finalmente utilizar los modelos para completar tareas de predicción automatizadas.
Actualmente, el aprendizaje automático tiene tres principales corrientes, que son el conexionismo, el simbolismo y el conductismo, que imitan respectivamente el sistema nervioso, el pensamiento y el comportamiento humano. Entre ellos, el conexionismo, representado por las redes neuronales, actualmente ocupa una posición dominante ( y también se conoce como aprendizaje profundo ). Esta arquitectura tiene una capa de entrada, una capa de salida y múltiples capas ocultas. Cuando el número de capas y la cantidad de parámetros ( de neuronas ) son suficientes, puede ajustarse a tareas generales complejas. Al introducir continuamente datos y ajustar los parámetros de las neuronas, finalmente, tras un gran entrenamiento con datos, la red neuronal puede alcanzar un estado óptimo. Esta es también la razón del término "profundo" - un número suficiente de capas y neuronas.
La tecnología de aprendizaje profundo basada en redes neuronales también ha pasado por múltiples iteraciones y evoluciones tecnológicas, desde las primeras redes neuronales, hasta redes neuronales de retroalimentación, RNN, CNN, GAN, y finalmente se ha desarrollado hasta los modernos grandes modelos como GPT que utilizan la tecnología Transformer. La tecnología Transformer es una dirección de evolución de las redes neuronales, que agrega un convertidor ( Transformer ), para codificar datos de múltiples modalidades ( como audio, video, imágenes, etc. ) en representaciones numéricas correspondientes. Luego, estos datos codificados se ingresan en la red neuronal, permitiendo que la red neuronal ajuste cualquier tipo de datos, logrando así la capacidad de procesamiento multimodal.
El desarrollo de la IA ha pasado por tres olas tecnológicas. La primera ola ocurrió en la década de 1960, diez años después de la propuesta de la tecnología de IA. Esta ola fue principalmente impulsada por el desarrollo de tecnologías de simbolismo, que resolvieron problemas generales de procesamiento de lenguaje natural y diálogo hombre-máquina. En ese mismo período, nacieron los sistemas expertos, como el sistema experto DENRAL, completado con el apoyo de la NASA en la Universidad de Stanford, que poseía un amplio conocimiento químico y podía generar respuestas similares a las de un experto químico a través de inferencias basadas en preguntas.
La segunda ola de tecnología de IA ocurrió en 1997, cuando "Deep Blue" de IBM derrotó al campeón de ajedrez Kasparov con un marcador de 3.5:2.5, y esta victoria se considera un hito en el desarrollo de la inteligencia artificial.
La tercera ola de la tecnología de IA comenzó en 2006. Los tres gigantes del aprendizaje profundo, Yann LeCun, Geoffrey Hinton y Yoshua Bengio, propusieron el concepto de aprendizaje profundo, que es un algoritmo que utiliza redes neuronales artificiales como arquitectura para aprender representaciones de datos. Desde entonces, los algoritmos de aprendizaje profundo han evolucionado constantemente, desde RNN, GAN hasta Transformer y Stable Diffusion, estos algoritmos han dado forma a la tercera ola de la tecnología y también marcan el apogeo del conexionismo.
Cadena de la industria de aprendizaje profundo
Los modelos de lenguaje a gran escala actuales utilizan principalmente métodos de aprendizaje profundo basados en redes neuronales. Los grandes modelos representados por GPT han desatado una nueva ola de entusiasmo por la inteligencia artificial, atrayendo a numerosos jugadores a este campo. Hemos observado una explosión en la demanda del mercado por datos y potencia de cálculo, por lo que en esta parte del informe, exploramos principalmente la cadena de suministro de algoritmos de aprendizaje profundo, analizando cómo se componen sus sectores upstream y downstream en la industria de la IA dominada por algoritmos de aprendizaje profundo, así como el estado actual, las relaciones de oferta y demanda y las tendencias de desarrollo futuro de estos sectores.
El entrenamiento de modelos de lenguaje a gran escala como GPT, basados en la tecnología Transformer, ( LLMs ), se divide principalmente en tres pasos:
Preentrenamiento: se buscan los mejores parámetros de cada neurona en el modelo al proporcionar una gran cantidad de pares de datos a la capa de entrada. Este proceso requiere una gran cantidad de datos y es la fase que más potencia de cálculo consume.
Ajuste fino: usar una cantidad menor de datos pero de muy alta calidad para entrenar, a fin de mejorar la calidad de la salida del modelo.
Aprendizaje por refuerzo: establecer un "modelo de recompensa" para evaluar la calidad de la salida del gran modelo, de esta manera iterar y mejorar los parámetros del gran modelo.
Durante el proceso de entrenamiento del modelo grande, a mayor cantidad de parámetros, mayor será el límite de su capacidad de generalización. Por lo tanto, los tres factores principales que afectan el rendimiento del modelo grande son: la cantidad de parámetros, la cantidad y calidad de los datos, y la capacidad de cálculo. Estos tres elementos determinan en conjunto la calidad de los resultados del modelo grande y su capacidad de generalización.
Los principales eslabones de la cadena industrial incluyen:
Proveedores de hardware GPU: Actualmente, Nvidia ocupa una posición de liderazgo absoluto en el mercado de chips de IA. En el ámbito académico, se utilizan principalmente GPUs de consumo ( como la serie RTX ), mientras que en la industria se utilizan principalmente chips como H100 y A100 para la comercialización de grandes modelos.
Proveedores de servicios en la nube: ofrecen potencia de cálculo flexible y soluciones de entrenamiento alojado para empresas de IA con recursos limitados. Se dividen principalmente en tres categorías: grandes proveedores de nube tradicionales ( como AWS, Google Cloud, Azure ), plataformas profesionales de potencia de cálculo en nichos verticales ( como CoreWeave, Lambda ), y nuevos proveedores de inferencia como servicio ( como Together.ai, Fireworks.ai ).
Proveedores de fuentes de datos de entrenamiento: proporcionan grandes cantidades de datos de alta calidad o específicos de un determinado campo para el modelo. Algunas empresas se especializan en la recolección y etiquetado de datos.
Proveedor de bases de datos: ofrece soluciones de bases de datos vectoriales especializadas para el almacenamiento y procesamiento de datos de IA. Los principales actores incluyen Chroma, Zilliz, Pinecone, Weaviate, entre otros.
Dispositivos perimetrales: incluyen sistemas de suministro de energía y refrigeración para soportar el funcionamiento de grandes grupos de GPU. A medida que aumenta la escala de los modelos de IA, la demanda en este campo también está creciendo rápidamente.
Desarrollo de aplicaciones: desarrollo de diversas aplicaciones en campos verticales basadas en grandes modelos, como asistentes inteligentes, herramientas de generación de contenido, etc. Actualmente, el desarrollo de aplicaciones está relativamente rezagado en comparación con la construcción de infraestructura.
Cadena de bloques y la combinación de IA
La combinación de la tecnología de Cadena de bloques y la inteligencia artificial se refleja principalmente en los siguientes aspectos:
Revalorización: La economía de tokens puede redefinir el valor en cada eslabón de la cadena de la industria de la IA, incentivando a más participantes a profundizar en los segmentos de la industria de la IA.
Mecanismo de confianza: las características de descentralización e inmutabilidad de la Cadena de bloques pueden proporcionar un entorno de procesamiento de datos confiable para las aplicaciones de IA, resolviendo problemas de privacidad y seguridad de los datos.
Compartición de recursos: a través de la Cadena de bloques, se puede lograr la compartición global de la potencia de cálculo de GPU inactiva, mejorando la eficiencia en el uso de recursos.
Mercado de datos: la cadena de bloques puede construir un mercado de transacciones justo y transparente para los datos de entrenamiento de IA, incentivando a individuos e instituciones a contribuir con datos de alta calidad.
Validación del modelo: utilizando técnicas criptográficas como las pruebas de conocimiento cero, se puede verificar la corrección de los resultados de inferencia de IA mientras se protege la privacidad del modelo.
En el ecosistema donde se combinan Crypto y AI, han surgido principalmente las siguientes categorías de proyectos:
Red de potencia de cálculo GPU distribuido: como Render, Akash, etc., cuyo objetivo es construir un mercado de cálculo GPU descentralizado.
Proveedores de datos de IA: como EpiK Protocol, Synesis One, Masa, etc., se dedican a establecer un mercado de datos de entrenamiento de IA descentralizado.
ZKML( Aprendizaje automático de conocimiento cero): combinando la tecnología de pruebas de conocimiento cero para lograr el entrenamiento y la inferencia de IA bajo protección de la privacidad.
Agente de AI (: como Fetch.AI, construyendo una red de agentes de AI capaces de ejecutar tareas de forma autónoma.
Cadena de bloques pública de IA: como Tensor, Allora, etc., redes de cadena de bloques diseñadas específicamente para el desarrollo y despliegue de modelos de IA.
A pesar de que la combinación de Crypto y AI aún se encuentra en sus primeras etapas, enfrentando desafíos como el rendimiento y la privacidad, este campo muestra un enorme potencial de innovación. Con el avance de la tecnología y la mejora del ecosistema, tenemos razones para esperar que la profunda fusión entre AI y Cadena de bloques traerá cambios revolucionarios a ambas industrias.
![Nuevos conceptos丨AI x Crypto: de cero a la cima])https://img-cdn.gateio.im/webp-social/moments-53c48daf49a3dbb35c1a2b47e234f180.webp(
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
14 me gusta
Recompensa
14
7
Republicar
Compartir
Comentar
0/400
PrivacyMaximalist
· hace11h
La especulación ha comenzado de nuevo.
Ver originalesResponder0
GetRichLeek
· 08-10 06:51
comprar la caída de AI moneda en el mercado, un claro acuerdo para reducir pérdidas... ¡no me preguntes cómo lo sé!
Ver originalesResponder0
SchrodingerPrivateKey
· 08-10 06:51
Me desperté en el Estado cuántico de Schrödinger
Ver originalesResponder0
ShibaOnTheRun
· 08-10 06:50
Ya se ha vuelto a hablar de este viejo tema.
Ver originalesResponder0
MoonRocketman
· 08-10 06:48
¡El impulso del RSI ya está listo, la fusión de la IA con la comunidad de cadena ha superado el nivel de resistencia! La potencia computacional es el combustible~
Ver originalesResponder0
OldLeekMaster
· 08-10 06:25
Otra vez dibujando promesas, ¿cuándo podremos disfrutarlo?
Ver originalesResponder0
CounterIndicator
· 08-10 06:23
¿Subió otra vez un 20%? Solo es una burbuja de especulación...
La fusión de la IA y la Cadena de bloques: un análisis panorámico desde la infraestructura hasta la aplicación
La fusión de la IA y la Cadena de bloques: un panorama desde la infraestructura hasta la aplicación
El rápido desarrollo reciente de la industria de la inteligencia artificial ha sido visto por algunos como el inicio de la cuarta revolución industrial. La aparición de modelos de lenguaje a gran escala ha mejorado significativamente la eficiencia en diversas industrias; según estimaciones de la consultora Boston Consulting Group, GPT ha aportado aproximadamente un 20% de aumento en la eficiencia laboral general de EE. UU. Al mismo tiempo, la capacidad de generalización que poseen estos grandes modelos se considera un nuevo paradigma en el diseño de software. El diseño de software del pasado consistía en código preciso, mientras que el diseño de software actual se basa más en integrar marcos de grandes modelos con alta capacidad de generalización en el software, lo que permite que el software tenga un mejor rendimiento y soporte una gama más amplia de entradas y salidas de modalidades. La tecnología de aprendizaje profundo ha traído una nueva ola de prosperidad a la industria de la IA, y esta tendencia también se ha ido extendiendo gradualmente a la industria de las criptomonedas.
La evolución de la industria de la IA
La industria de la inteligencia artificial comenzó en la década de 1950. Para lograr la visión de la inteligencia artificial, el ámbito académico y la industria han desarrollado varias corrientes para implementar la inteligencia artificial en diferentes épocas y contextos disciplinares.
La tecnología moderna de inteligencia artificial utiliza principalmente el término "aprendizaje automático", cuya idea central es permitir que las máquinas iteren repetidamente en las tareas basándose en datos para mejorar el rendimiento del sistema. Los pasos principales incluyen ingresar datos en el algoritmo, entrenar modelos con esos datos, probar y desplegar los modelos, y finalmente utilizar los modelos para completar tareas de predicción automatizadas.
Actualmente, el aprendizaje automático tiene tres principales corrientes, que son el conexionismo, el simbolismo y el conductismo, que imitan respectivamente el sistema nervioso, el pensamiento y el comportamiento humano. Entre ellos, el conexionismo, representado por las redes neuronales, actualmente ocupa una posición dominante ( y también se conoce como aprendizaje profundo ). Esta arquitectura tiene una capa de entrada, una capa de salida y múltiples capas ocultas. Cuando el número de capas y la cantidad de parámetros ( de neuronas ) son suficientes, puede ajustarse a tareas generales complejas. Al introducir continuamente datos y ajustar los parámetros de las neuronas, finalmente, tras un gran entrenamiento con datos, la red neuronal puede alcanzar un estado óptimo. Esta es también la razón del término "profundo" - un número suficiente de capas y neuronas.
La tecnología de aprendizaje profundo basada en redes neuronales también ha pasado por múltiples iteraciones y evoluciones tecnológicas, desde las primeras redes neuronales, hasta redes neuronales de retroalimentación, RNN, CNN, GAN, y finalmente se ha desarrollado hasta los modernos grandes modelos como GPT que utilizan la tecnología Transformer. La tecnología Transformer es una dirección de evolución de las redes neuronales, que agrega un convertidor ( Transformer ), para codificar datos de múltiples modalidades ( como audio, video, imágenes, etc. ) en representaciones numéricas correspondientes. Luego, estos datos codificados se ingresan en la red neuronal, permitiendo que la red neuronal ajuste cualquier tipo de datos, logrando así la capacidad de procesamiento multimodal.
El desarrollo de la IA ha pasado por tres olas tecnológicas. La primera ola ocurrió en la década de 1960, diez años después de la propuesta de la tecnología de IA. Esta ola fue principalmente impulsada por el desarrollo de tecnologías de simbolismo, que resolvieron problemas generales de procesamiento de lenguaje natural y diálogo hombre-máquina. En ese mismo período, nacieron los sistemas expertos, como el sistema experto DENRAL, completado con el apoyo de la NASA en la Universidad de Stanford, que poseía un amplio conocimiento químico y podía generar respuestas similares a las de un experto químico a través de inferencias basadas en preguntas.
La segunda ola de tecnología de IA ocurrió en 1997, cuando "Deep Blue" de IBM derrotó al campeón de ajedrez Kasparov con un marcador de 3.5:2.5, y esta victoria se considera un hito en el desarrollo de la inteligencia artificial.
La tercera ola de la tecnología de IA comenzó en 2006. Los tres gigantes del aprendizaje profundo, Yann LeCun, Geoffrey Hinton y Yoshua Bengio, propusieron el concepto de aprendizaje profundo, que es un algoritmo que utiliza redes neuronales artificiales como arquitectura para aprender representaciones de datos. Desde entonces, los algoritmos de aprendizaje profundo han evolucionado constantemente, desde RNN, GAN hasta Transformer y Stable Diffusion, estos algoritmos han dado forma a la tercera ola de la tecnología y también marcan el apogeo del conexionismo.
Cadena de la industria de aprendizaje profundo
Los modelos de lenguaje a gran escala actuales utilizan principalmente métodos de aprendizaje profundo basados en redes neuronales. Los grandes modelos representados por GPT han desatado una nueva ola de entusiasmo por la inteligencia artificial, atrayendo a numerosos jugadores a este campo. Hemos observado una explosión en la demanda del mercado por datos y potencia de cálculo, por lo que en esta parte del informe, exploramos principalmente la cadena de suministro de algoritmos de aprendizaje profundo, analizando cómo se componen sus sectores upstream y downstream en la industria de la IA dominada por algoritmos de aprendizaje profundo, así como el estado actual, las relaciones de oferta y demanda y las tendencias de desarrollo futuro de estos sectores.
El entrenamiento de modelos de lenguaje a gran escala como GPT, basados en la tecnología Transformer, ( LLMs ), se divide principalmente en tres pasos:
Preentrenamiento: se buscan los mejores parámetros de cada neurona en el modelo al proporcionar una gran cantidad de pares de datos a la capa de entrada. Este proceso requiere una gran cantidad de datos y es la fase que más potencia de cálculo consume.
Ajuste fino: usar una cantidad menor de datos pero de muy alta calidad para entrenar, a fin de mejorar la calidad de la salida del modelo.
Aprendizaje por refuerzo: establecer un "modelo de recompensa" para evaluar la calidad de la salida del gran modelo, de esta manera iterar y mejorar los parámetros del gran modelo.
Durante el proceso de entrenamiento del modelo grande, a mayor cantidad de parámetros, mayor será el límite de su capacidad de generalización. Por lo tanto, los tres factores principales que afectan el rendimiento del modelo grande son: la cantidad de parámetros, la cantidad y calidad de los datos, y la capacidad de cálculo. Estos tres elementos determinan en conjunto la calidad de los resultados del modelo grande y su capacidad de generalización.
Los principales eslabones de la cadena industrial incluyen:
Proveedores de hardware GPU: Actualmente, Nvidia ocupa una posición de liderazgo absoluto en el mercado de chips de IA. En el ámbito académico, se utilizan principalmente GPUs de consumo ( como la serie RTX ), mientras que en la industria se utilizan principalmente chips como H100 y A100 para la comercialización de grandes modelos.
Proveedores de servicios en la nube: ofrecen potencia de cálculo flexible y soluciones de entrenamiento alojado para empresas de IA con recursos limitados. Se dividen principalmente en tres categorías: grandes proveedores de nube tradicionales ( como AWS, Google Cloud, Azure ), plataformas profesionales de potencia de cálculo en nichos verticales ( como CoreWeave, Lambda ), y nuevos proveedores de inferencia como servicio ( como Together.ai, Fireworks.ai ).
Proveedores de fuentes de datos de entrenamiento: proporcionan grandes cantidades de datos de alta calidad o específicos de un determinado campo para el modelo. Algunas empresas se especializan en la recolección y etiquetado de datos.
Proveedor de bases de datos: ofrece soluciones de bases de datos vectoriales especializadas para el almacenamiento y procesamiento de datos de IA. Los principales actores incluyen Chroma, Zilliz, Pinecone, Weaviate, entre otros.
Dispositivos perimetrales: incluyen sistemas de suministro de energía y refrigeración para soportar el funcionamiento de grandes grupos de GPU. A medida que aumenta la escala de los modelos de IA, la demanda en este campo también está creciendo rápidamente.
Desarrollo de aplicaciones: desarrollo de diversas aplicaciones en campos verticales basadas en grandes modelos, como asistentes inteligentes, herramientas de generación de contenido, etc. Actualmente, el desarrollo de aplicaciones está relativamente rezagado en comparación con la construcción de infraestructura.
Cadena de bloques y la combinación de IA
La combinación de la tecnología de Cadena de bloques y la inteligencia artificial se refleja principalmente en los siguientes aspectos:
Revalorización: La economía de tokens puede redefinir el valor en cada eslabón de la cadena de la industria de la IA, incentivando a más participantes a profundizar en los segmentos de la industria de la IA.
Mecanismo de confianza: las características de descentralización e inmutabilidad de la Cadena de bloques pueden proporcionar un entorno de procesamiento de datos confiable para las aplicaciones de IA, resolviendo problemas de privacidad y seguridad de los datos.
Compartición de recursos: a través de la Cadena de bloques, se puede lograr la compartición global de la potencia de cálculo de GPU inactiva, mejorando la eficiencia en el uso de recursos.
Mercado de datos: la cadena de bloques puede construir un mercado de transacciones justo y transparente para los datos de entrenamiento de IA, incentivando a individuos e instituciones a contribuir con datos de alta calidad.
Validación del modelo: utilizando técnicas criptográficas como las pruebas de conocimiento cero, se puede verificar la corrección de los resultados de inferencia de IA mientras se protege la privacidad del modelo.
En el ecosistema donde se combinan Crypto y AI, han surgido principalmente las siguientes categorías de proyectos:
Red de potencia de cálculo GPU distribuido: como Render, Akash, etc., cuyo objetivo es construir un mercado de cálculo GPU descentralizado.
Proveedores de datos de IA: como EpiK Protocol, Synesis One, Masa, etc., se dedican a establecer un mercado de datos de entrenamiento de IA descentralizado.
ZKML( Aprendizaje automático de conocimiento cero): combinando la tecnología de pruebas de conocimiento cero para lograr el entrenamiento y la inferencia de IA bajo protección de la privacidad.
Agente de AI (: como Fetch.AI, construyendo una red de agentes de AI capaces de ejecutar tareas de forma autónoma.
Cadena de bloques pública de IA: como Tensor, Allora, etc., redes de cadena de bloques diseñadas específicamente para el desarrollo y despliegue de modelos de IA.
A pesar de que la combinación de Crypto y AI aún se encuentra en sus primeras etapas, enfrentando desafíos como el rendimiento y la privacidad, este campo muestra un enorme potencial de innovación. Con el avance de la tecnología y la mejora del ecosistema, tenemos razones para esperar que la profunda fusión entre AI y Cadena de bloques traerá cambios revolucionarios a ambas industrias.
![Nuevos conceptos丨AI x Crypto: de cero a la cima])https://img-cdn.gateio.im/webp-social/moments-53c48daf49a3dbb35c1a2b47e234f180.webp(